JP2013511763A - ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器 - Google Patents

ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器 Download PDF

Info

Publication number
JP2013511763A
JP2013511763A JP2012539822A JP2012539822A JP2013511763A JP 2013511763 A JP2013511763 A JP 2013511763A JP 2012539822 A JP2012539822 A JP 2012539822A JP 2012539822 A JP2012539822 A JP 2012539822A JP 2013511763 A JP2013511763 A JP 2013511763A
Authority
JP
Japan
Prior art keywords
gui
user
operation start
display
start position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012539822A
Other languages
English (en)
Inventor
ヨン−ジン・ソ
オ−ジァエ・クウォン
ヒュン−キ・キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013511763A publication Critical patent/JP2013511763A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

GUI提供方法及びそれを適用したデジタル機器が提供される。本GUI提供方法は、ディスプレイに表示されたGUIを操作するためのユーザ入力手段の操作開始位置にユーザが接近していると判断されると、ディスプレイに表示されたGUIにガイドを表示する。それにより、ユーザはガイドを通じて自分の指が操作開始位置に接近していることを確認できるようになるため、ディスプレイだけを見て所望の命令を入力することができるようになる。

Description

本発明は、GUI提供方法及びそれを適用したデジタル機器に関し、より詳細には、数字や文字などのテキストを入力し、所望のユーザ命令の入力に用いられるGUI提供方法及びそれを適用したデジタル機器に関する。
デジタル機器に具備される機能は多様化しつつある一方で、消費者は小型のデジタル機器を望んでいる。デジタル機器の機能の多様化に伴い、無線インターネットの大衆化は、デジタル機器で数字だけでなく、文字などのテキストを入力しなければならないという状況を頻繁に作っている。
従って、デジタル機器に文字入力のためのキーが必要となるが、そのキーをデジタル機器に設けるとなると、消費者の求めるデジタル機器の小型化の妨げになるという問題点が生じる。
デジタル機器の小型化を追求しつつ、ユーザがより便利かつ直観的に、更に、エンターテイメントを感じつつテキストを入力することを可能とする方策への模索が求められる。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザがユーザ入力手段の操作開始位置に接近すると、ディスプレイに表示されたGUIにガイドを表示するGUIを提供する方法及びそれを適用したデジタル機器を提供することにある。
前記目的を達成するための本発明に係るGUI提供方法は、ディスプレイに表示されたGUIを操作するためのユーザ入力手段の操作開始位置にユーザが接近しているか否かを判断するステップと、前記操作開始位置に前記ユーザが接近していると判断されると、前記ディスプレイに表示されたGUIにガイドを表示するステップとを含む。
前記操作開始位置は、前記GUIに現れたアイテムのうち、いずれか1つを選択するための操作のために、前記ユーザ入力手段で一番初めに操作すべき位置であることが望ましい。
前記ガイドは、前記ユーザが前記操作開始位置に接近していることをガイドするための表示情報であることが望ましい。
前記ガイドは、前記ユーザが前記操作開始位置を操作する場合に選択されるアイテム及び前記アイテムの周辺のうち、少なくともいずれか1つに現れてよい。
前記ユーザが前記操作開始位置を操作する場合に選択されるアイテムは、前記GUIの中央部に現れたアイテムであることが望ましい。
前記操作開始位置は、前記ユーザ入力手段の中央部であることが望ましい。
前記ガイドは、前記GUIの中央部に現れることが望ましい。
前記ユーザ入力手段の操作開始位置の数は、複数であり、前記表示ステップにおいて表示可能なガイドの数は、前記操作開始位置の数と同一であってよい。
前記操作開始位置は、前記GUIに現れた第1グループのアイテムのうち、いずれか1つを選択するための操作のために、前記ユーザ入力手段で一番初めに操作すべき第1操作開始位置と、前記GUIに現れた第2グループのアイテムのうち、いずれか1つを選択するための操作のために、前記ユーザ入力手段で一番初めに操作すべき第2操作開始位置を含んでよい。
本GUI提供方法は、前記ガイド表示が保持される状態で、前記ユーザが前記ユーザ入力手段をタッチすると、前記GUIに現れたアイテムのうち、いずれか1つをハイライトさせるステップを更に含むことが望ましい。
本GUI提供方法は、前記ユーザが前記ユーザ入力手段をタッチした後にドラッグ操作すると、ドラッグされた領域に基づいて前記GUIに現れたアイテムのうち、別の1つをハイライトさせるステップを更に含むことが望ましい。
本GUI提供方法は、前記ユーザが前記ユーザ入力手段でタッチを解除すると、ハイライトされたアイテムを実行するステップを更に含むことが望ましい。
前記アイテムは、テキストキーであり、前記実行ステップは、ハイライトされたテキストキーに割り当てられたテキストを入力してよい。
一方、本発明に係るデジタル機器は、GUIが表示されるディスプレイと、前記ディスプレイに表示されたGUIを操作するためのユーザ入力手段と、前記ユーザ入力手段の操作開始位置にユーザが接近しているかを検知するセンサと、前記センサによって前記操作開始位置に前記ユーザが接近していると検知されると、前記ディスプレイに表示されたGUIにガイドを表示する制御部とを含む。
前記操作開始位置は、前記GUIに現れたアイテムのうち、いずれか1つを選択するための操作のために、前記ユーザ入力手段で一番初めに操作すべき位置であることが望ましい。
前記ガイドは、前記ユーザが前記操作開始位置に接近していることをガイドするための表示情報であることが望ましい。
前記ガイドは、前記ユーザが前記操作開始位置を操作する場合に選択されるアイテム及び前記アイテムの周辺のうち、少なくともいずれか1つに現れてよい。
前記操作開始位置は、前記ユーザ入力手段の中央部であることが望ましい。
前記ガイドは、前記GUIの中央部に現れることが望ましい。
前記ユーザ入力手段の操作開始位置の数は、複数であり、前記表示ステップにおいて表示可能なガイドの数は、前記操作開始位置の数と同一であってよい。
一方、本発明に係る別の実施形態に係るディスプレイ装置は、GUIが表示されるディスプレイ部と、前記ディスプレイ部に表示されたGUIを操作するための外部のユーザ入力装置と通信する通信部と、前記外部のユーザ入力装置の操作位置にユーザが接近しているか否かに対する情報が前記通信部を介して受信されると、前記受信された情報に基づいて前記ディスプレイ部に表示されたGUIにガイドを表示するように制御する制御部とを含む。
なお、本発明の別の実施形態に係るユーザ入力装置は、外部ディスプレイ装置と通信する通信部と、前記外部ディスプレイ装置に表示されたGUIを操作するためのユーザ入力部と、前記ユーザ入力部の操作開始位置にユーザが接近しているかを検知するセンサ部と、前記センサ部によって前記操作位置に前記ユーザが接近していると検知されると、それに対する情報を前記外部ディスプレイ装置に伝送するように前記通信部を制御する制御部とを含む。
以上で説明したように、本発明によると、ユーザがユーザ入力手段の操作開始位置に接近すると、ディスプレイに表示されたGUIにガイドが現れるようになる。それにより、ユーザはガイドを通じて自分の指が操作開始位置に接近していることを確認できるようになるため、ディスプレイだけを見て所望の命令を入力することができるようになる。
更に、デジタル機器に設けるべき物理的なキーの数を最小限化することができるだけでなく、直観的な操作を通じて所望のアイテムを選択できるようになる。そして、本発明は、多様なGUIに適用することができるため、活用性が高いというメリットがある。
本発明の適用可能なデジタル機器の外観を示す図である。 図1に示すデジタル機器からGUIを提供する過程の説明に提供される図である。 タッチパッドの中央を開始地点として数字入力を行う方式の説明に提供される図である。 数字のキーパッド以外の他のGUIを例示した図である。 図1に示すデジタル機器の詳細ブロック図である。 本発明の一実施形態に係るGUI提供方法の説明に提供されるフローチャートである。 領域/アイテムテーブルを例示した図である。 タッチパッドに2つの接近検知センサが設けられ、ディスプレイに表示可能なガイドの数も2つであるデジタル機器を例示した図である。 タッチパッドに4つの接近検知センサが設けられ、ディスプレイに表示可能なガイドの数も4つであるデジタル機器を例示した図である。 本発明が適用可能なデジタルシステムを例示した図である。 タッチパッドをハードボタンパッドに代用するデジタル機器を示す図である。 図1に示すデジタル機器からGUIを提供する過程の説明に提供される図である。 タッチパッドの中央を開始地点として数字入力を行う方式の説明に提供される図である。 タッチパッドの中央を開始地点として数字入力を行う方式の説明に提供される図である。 タッチパッドの中央を開始地点として数字入力を行う方式の説明に提供される図である。 タッチパッドの中央を開始地点として数字入力を行う方式の説明に提供される図である。 数字のキーパッド以外の他のGUIを例示した図である。 数字のキーパッド以外の他のGUIを例示した図である。 タッチパッドに2つの接近検知センサが設けられ、ディスプレイに表示可能なガイドの数も2つであるデジタル機器を例示した図である。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
1.本発明が適用可能なデジタル機器
図1は、本発明が適用可能なデジタル機器の外観を示す図である。図1に示すように、本発明が適用可能なデジタル機器100は、ディスプレイ120と、タッチパッド140及び接近検知センサ150を備える。
ディスプレイ120には、デジタル機器100の機能実行結果とユーザ命令を入力するのに用いられるGUI(Graphical User Interface)が表示される。タッチパッド140は、タッチやドラッグなどのようなユーザ操作を受信するPUI(Physical User Interface)である。
接近検知センサ150は、タッチパッド140の下面に設けられているため、図1において点線で示されている。接近検知センサ150は、タッチパッド140の中央に設けられているため、ユーザの指がタッチパッド140の中央に接近しているか否かを検知するようになる。
2.デジタル機器におけるGUI提供方法
図2及び図12は、図1に示すデジタル機器100からGUIを提供する過程の説明に提供される図である。
図2に示すように、ディスプレイ120に数字のキーパッドがGUIとして表示された状態で、図12に示すように、ユーザの指がタッチパッド140の中央に接近するとディスプレイ120に表示された数字キーのうちの「5番キー」にガイドが現れる。
ユーザの指がタッチパッド140の中央に接近しているか否かは、上述の接近検知センサ150によって検知される。ユーザの指がタッチパッド140の中央に接近している状態は、図12の左側に示されたように、ユーザの指がタッチパッド140上にまだ接触していない状態である。
一方、図12によると、ガイドは「5番キー」の外枠に現れることが分かる。このようなガイドは、ディスプレイ120に表示された数字のキーパッドを通じて数字入力を行ううえで、スタートとなる地点であるタッチパッド140の中央にユーザの指が位置していることをガイドする機能を行う。
以下では、タッチパッド140の中央を開始地点として数字入力を行う方式について、図3、13ないし図16を参照して詳細に説明する。
ガイドが示された状態でユーザがタッチパッド140をタッチすると、図3に示すように「5番キー」がハイライトされる。
ガイドは、ユーザの指がタッチパッド140の中央に接近している場合に現れると上述している。従って、「ガイドが示された状態でユーザがタッチパッド140をタッチ」する場合とは、「ユーザがタッチパッド140の中央をタッチする場合」を意味する。
図3に示すように、「5番キー」がハイライトされると、数字入力待ち受け状態となる。この状態で、ユーザは「5番キー」をスタートとして数字のキーパッドを操作し、所望の数字を入力できるようになる。具体的に、
1)ユーザが、図13に示すように、タッチパッド140上で指を「5番キー」から「1番キー」に向かう方向にドラッグすると、「1番キー」がハイライトされ、タッチパッド140から指を離すと、「1」が入力されて数字入力ウィンドウには「1」が現れ、
2)ユーザが、図14に示すように、タッチパッド140上で指を「5番キー」から「6番キー」に向かう方向にドラッグすると、「6番キー」がハイライトされ、タッチパッド140から指を離すと、「6」が入力されて数字入力ウィンドウには「6」が現れ、
3)ユーザが、図15に示すように、タッチパッド140上で指を「5番キー」から「8番キー」に向かう方向にドラッグすると、「8番キー」がハイライトされ、タッチパッド140から指を離すと、「8」が入力されて数字入力ウィンドウには「8」が現れ、
4)ユーザが、図16に示すように、タッチパッド140上で指を「5番キー」から「0番キー」に向かう方向にドラッグすると、「0番キー」がハイライトされ、タッチパッド140から指を離すと、「0」が入力されて数字入力ウィンドウには「01」が現れるようになる。
一方、図示はしていないものの、ユーザが図3に示すように、タッチパッド140の中央をタッチして「5番キー」がハイライトされている状態で、タッチパッド140から指をそのまま離すと、「5」が入力されて数字入力ウィンドウには「5」が現れるようになる。
3.その他のGUIに適用
上述したような数字のキーパッドはディスプレイ120を通じて提供可能なGUIの一例に該当する。本発明の技術的な思想は数字のキーパッド以外の他のGUIにも適用可能である。
図4には、ユーザの指がタッチパッド140の中央に位置する場合、「JKLキー」にガイドが現れる英文字のキーパッドを例示しており、図17には、ユーザの指がタッチパッド140の中央に位置する場合、
Figure 2013511763
にガイドが現れるハングル語文字のキーパッドを例示している。
一方、本発明の技術的な思想は、数字や文字のようなテキスト入力のためのGUI以外の他のGUIにも適用可能である。テキスト入力以外の他のGUIを図18に示している。
図18には、ユーザの指がタッチパッド140の中央に位置する場合、
Figure 2013511763
にガイドが現れるグラフィックコントローラを例示している。
4.デジタル機器の詳細構成
図1に示すデジタル機器は、多様な機器で実現される。例えば、図1に示す機器は、モバイルフォンやMP3プレーヤやPMP、モバイルコンピュータ、ラップトップパソコンなどで実現されてよい。
図5は、図1に示すデジタル機器の詳細を示すブロック図である。図5に示すように、デジタル機器100は、機能ブロック110と、ディスプレイ120と、制御部130と、タッチパッド140及び接近検知センサ150を備える。
機能ブロック110は、デジタル機器本来の機能を行う。1)例えば、デジタル機器100がモバイルフォン10であれば、機能ブロック110は電話通話及びSMS機能を担い、2)例えば、デジタル機器がMP2プレーヤやPMPであれば、機能ブロック110はコンテンツ再生機能を担い、3)例えば、デジタル機器がモバイルコンピュータ又はラップトップパソコンであれば、機能ブロック110はユーザが命令したアプリケーションの実行を通じてタスクを行う。
ディスプレイ120には、機能ブロックの機能/タスクの実行結果が表示される。タッチパッド140は、タッチやドラックなどのようなユーザ操作を受信する。そして、接近検知センサ150は、ユーザの指がタッチパッド140の中央に接近しているか否かを検知する。ディスプレイ120及び/又はパッド140は、タッチスクリーンで実現してよい。
制御部130は、ユーザが命令した機能が行われるように機能ブロック110を制御する。そして、制御部130は、ディスプレイ120を介してユーザにGUIを提供する。
以下では、制御部130がGUIを提供する過程について、図6を参照しながら詳細に説明する。図6は、本発明の一実施形態に係るGUI提供方法の説明に提供される図である。
図6に示すように、まず、制御部130はディスプレイ120にGUIを表示する(S610)。ステップS610で提供されるGUIは上述の数字のキーパッドや、英文字のキーパッド、ハングル語のキーパッド及びグラフィックコントローラだけでなく、その他のものでも可能である。
即ち、GUIは、複数個のアイテムを含むものであれば、いかなるものであってもかまわない。ここで、アイテムとは、GUIを構成する要素のうち、ユーザが選択可能な要素のことを意味する。上述の数字のキーパッドや、英文字のキーパッド、ハングル語文字のキーパッド及びコントローラキーだけでなく、アイコンやウィジェットなどのようなものも、ユーザが選択可能な要素であるため、アイテムの範疇に含まれる。
その後、接近検知センサ150は、タッチパッド140の中央にユーザの指が接近しているか否かを検知する(S620)。
ステップS620において、タッチパッド140の中央にユーザの指が接近していると検知されると(S620−Y)、制御部130はGUIの中央のアイテムにガイドを表示する(S630)。
中央のアイテムとは、GUIを構成するアイテムのうち、中央に現れたアイテムのことを意味する。ここで、中央とは、物理的に完全な中央を意味するものでないことに留意すべきである。即ち、物理的に完全な中央に現れたアイテムを特定できない場合には、中央部分に現れたアイテムのうち、いずれか1つを中央のアイテムと見なしてよい。
このような意味から、中央のアイテムとは、GUIに現れたアイテムを通じてユーザ命令入力を行ううえで、スタートとなるアイテムを意味することになる。
その後、中央のアイテムにガイド表示が保持される状態で(S640−Y)、ユーザによってタッチパッド140がタッチされると(S650−Y)、制御部130は中央のアイテムをハイライトさせる(S660)。
ガイドは、ユーザの指がタッチパッド140の中央に接近している場合に現れる。従って、「中央のアイテムにガイド表示が保持される状態で、ユーザによってタッチパッド140がタッチ」される場合とは、「ユーザがタッチパッド140の中央をタッチする場合」を意味する。
その後、タッチパッド140を介してユーザの指がドラッグ操作されると(S670−Y)、制御部130は現在ユーザの指の位置したタッチパッド140上の領域に指定されたアイテムをハイライトする(S680)。
ステップS680を行うために、制御部130は現在ユーザの指の位置したタッチパッド140上の領域を判断し、領域/アイテムテーブルを参照して判断された領域に指定されたアイテムをハイライトするようになる。
領域/アイテムテーブルは、「タッチパッド140上の領域」と「ディスプレイ120に現れたアイテム」が一対一でマッチングされているテーブルとして、GUI毎に定義されている。
図7には、領域/アイテムテーブルを例示している。領域/アイテムテーブルが、図7に示すような場合、
1)タッチパッド140上でユーザの指が“A1”に位置している場合は、制御部130はディスプレイ120の“I1”に現れたアイテムをハイライトさせ、
2)タッチパッド140上でユーザの指が“A2”に位置している場合は、制御部130はディスプレイ120の“I2”に現れたアイテムをハイライトさせ、
3)タッチパッド140上でユーザの指が“A3”に位置している場合は、制御部130はディスプレイ120の“I3”に現れたアイテムをハイライトさせ、
…、
15)タッチパッド140上でユーザの指が“A15”に位置している場合は、制御部130はディスプレイ120の“I15”に現れたアイテムをハイライトさせる。
その後、タッチパッド140でユーザの指がタッチ解除されると(S690−Y)、制御部130はハイライトされたアイテムを実行するようになる(S700)。
仮に、ハイライトされたアイテムが、数字キーや英文字のキー、ハングル語文字のキーである場合、当該テキストが入力され、ハイライトされたアイテムがコントロールキーやアイコン、ウィジェットである場合、当該機能が実行される。
5.デジタル機器の変形例
これまで説明してきたデジタル機器100には、タッチパッド140の中央に1つの接近検知センサ150が設けられた。なお、ユーザの指がタッチパッド140の中央に接近している場合に、ディスプレイ120に1つのガイドが表示されていた。
しかし、タッチパッド140に設けられる接近検知センサの数は2つ以上であってよく、ディスプレイ120に表示されるガイドの数は接近検知センサの数と同様に実現されてよい。
図8及び図19には、タッチパッド140に2つの接近検知センサ150−1、150−2が設けられ、ディスプレイ120に表示可能なガイドの数も2つである場合を想定している。図示のように、ディスプレイ120の左側に現れている第1グループのアイテムのうちの中央のアイテムと、ディスプレイ120の右側に現れている第2グループのアイテムのうちの中央のアイテムとがそれぞれ現れていることが確認できる。
一方、図9には、タッチパッド140に4つの接近検知センサ151、152、153、154が設けられている場合を想定している。この場合、ディスプレイ120に表示可能なガイドの数も4つとなる。
只、図9においては、ユーザの指が接近検知センサ−1(151)と接近検知センサ−4(154)に接近しているため、それに指定されたアイテムである「A」キーと「ENTER」キーにガイドが現れている様子を示している。
仮に、図9においては、ユーザの指が接近検知センサ−2(152)と接近検知センサ−3(153)に接近している場合、それに指定されたアイテムである「F」キーと「J」キーにガイドが現れるようになる。
6.本発明の適用可能なデジタルシステム
これまで、ディスプレイ120及びタッチパッド140が1つのデジタル機器100内に設けられているものとして想定してきた。
しかし、ディスプレイ120とタッチパッド140が、それぞれ異なるデジタル機器に設けられる場合も想定可能であり、その場合、デジタル機器で構築されるデジタルシステムの場合でも、本発明の技術的な思想が適用可能である。
図10には、GUIが表示されるディスプレイ210が設けられたDTV200と下部に接近検知センサ320の位置するタッチパッド310が設けられているリモコン300からなるデジタルシステムを示している。
図10に示すデジタルシステムでは、DTV200とリモコン300とが通信できるように接続される。リモコン300はDTV200に、1)タッチパッド140の中央にユーザの指の接近有無、2)タッチパッド140上におけるユーザの操作(タッチやドラックやタッチ解除など)の内容を伝達する。すると、DTV200は、リモコン300から受信された情報に基づいて、GUIの表示状態を制御し、アイテムを実行させるようになる。
それにより上述した実施形態に係るディスプレイ装置(例えば、DTV200)は、ディスプレイ部210と、通信部(図示せず)及び制御部(図示せず)を含む。
ディスプレイ部210は、GUIを表示する。
通信部(図示せず)は、ディスプレイ部210に表示されたGUIを操作するための外部のユーザ入力装置(例えば、リモコン300)と通信する。
制御部(図示せず)は、外部のユーザ入力装置300の操作位置にユーザが接近しているか否かに対する情報が通信部(図示せず)を介して受信されると、前記受信された情報に基づいてディスプレイ部210に表示されたGUIにガイドを表示するように制御する。
なお、上述の実施形態に係るユーザ入力装置(例えば、リモコン300)は、通信部(図示せず)と、ユーザ入力部310とセンサ部320及び制御部(図示せず)を含む。
通信部(図示せず)は、外部ディスプレイ装置200と通信する。
ユーザ入力部310は、外部ディスプレイ装置200に表示されたGUIを操作するための機能を行う。
センサ部320は、ユーザ入力部310の操作開始位置にユーザが接近しているか否かを検知する。
制御部(図示せず)は、センサ部320によって操作位置にユーザが接近していると検知されると、それに対する情報を外部ディスプレイ装置200に伝送するように通信部(図示せず)を制御する。
7.タッチパッドに代用可能なユーザ入力手段
上述では、ユーザ命令を入力する手段として、タッチパッド140を想定して説明してきた。しかし、タッチパッド140は、ユーザ入力手段の一例として、他のものに代用可能である。
図11には、タッチパッド140をハードボタンパッド160に代用したデジタル機器100を示している。図11に示すように、ハードボタンパッド160の中央ボタンの下部にはユーザの指がハードボタンパッド160の中央に接近しているか否かを検知するための接近検知センサ150が設けられる。
接近検知センサ150によってユーザが検知されると、ディスプレイ120に現れる数字キーのうち、「5番キー」にガイドが現れるようになる。ユーザは接近検知センサ150の下部に設けられるハードボタンを基準に他のボタンを押す操作によって数字入力を行うことができる。
8.その他
(1)操作開始位置
タッチパッド140の中央にユーザの指が接近すると、ディスプレイ120に表示されたGUIにガイドが現れるが、タッチパッド140の中央は操作開始位置に該当する。
操作開始位置は、GUIに現れたアイテムのうち、いずれか1つを選択するための操作のために、タッチパッド140で一番初めに操作すべき位置である。
操作開始位置は、必ずしもタッチパッド140の中央となる必要はなく、タッチパッド140上の別の位置であってよい。
(2)ガイド位置
上記の実施形態において、ガイドはユーザが前記操作開始位置を操作する場合に選択されるアイテムの周辺に現れるものとして実現したが、それも例示的なものに過ぎない。
アイテムの周辺でない、アイテムの内部にガイドが現れるようにすることも可能であり、その他の位置、例えば、GUIの中央部に現れるように実現することも可能である。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
100 デジタル機器110 機能ブロック
120 ディスプレイ
130 制御部
140 タッチパッド
150、151、152、153、154 接近感知センサ
160 ハードボタンパッド
200 外部ディスプレイシステム
210 ディスプレイ部
300 リモコン
320 センサ部

Claims (22)

  1. ディスプレイに表示されたGUIを操作するためのユーザ入力手段の操作開始位置にユーザが接近しているか否かを判断するステップと、
    前記操作開始位置に前記ユーザが接近していると判断されると、前記ディスプレイに表示されたGUIにガイドを表示するステップと
    を含むことを特徴とするGUI提供方法。
  2. 前記操作開始位置は、
    前記GUIに現れたアイテムのうち、いずれか1つを選択するための操作のために、前記ユーザ入力手段で一番初めに操作すべき位置であることを特徴とする請求項1に記載のGUI提供方法。
  3. 前記ガイドは、
    前記ユーザが前記操作開始位置に接近していることをガイドするための表示情報であることを特徴とする請求項1に記載のGUI提供方法。
  4. 前記ガイドは、
    前記ユーザが前記操作開始位置を操作する場合に選択されるアイテム及び前記アイテムの周辺のうち、少なくともいずれか1つに現れることを特徴とする請求項1に記載のGUI提供方法。
  5. 前記ユーザが前記操作開始位置を操作する場合に選択されるアイテムは、
    前記GUIの中央部に現れたアイテムであることを特徴とする請求項4に記載のGUI提供方法。
  6. 前記操作開始位置は、
    前記ユーザ入力手段の中央部であることを特徴とする請求項1に記載のGUI提供方法。
  7. 前記ガイドは、
    前記GUIの中央部に現れることを特徴とする請求項6に記載のGUI提供方法。
  8. 前記ユーザ入力手段の操作開始位置の数は、複数であり、
    前記表示ステップにおいて表示可能なガイドの数は、前記操作開始位置の数と同一であることを特徴とする請求項1に記載のGUI提供方法。
  9. 前記操作開始位置は、
    前記GUIに現れた第1グループのアイテムのうち、いずれか1つを選択するための操作のために、前記ユーザ入力手段で一番初めに操作すべき第1操作開始位置と、
    前記GUIに現れた第2グループのアイテムのうち、いずれか1つを選択するための操作のために、前記ユーザ入力手段で一番初めに操作すべき第2操作開始位置を含むことを特徴とする請求項7に記載のGUI提供方法。
  10. 前記ガイド表示が保持される状態で、前記ユーザが前記ユーザ入力手段をタッチすると、前記GUIに現れたアイテムのうち、いずれか1つをハイライトさせるステップを更に含むことを特徴とする請求項1に記載のGUI提供方法。
  11. 前記ユーザが前記ユーザ入力手段をタッチした後にドラッグ操作すると、ドラッグされた領域に基づいて前記GUIに現れたアイテムのうち、別の1つをハイライトさせるステップを更に含むことを特徴とする請求項10に記載のGUI提供方法。
  12. 前記ユーザが前記ユーザ入力手段でタッチを解除すると、ハイライトされたアイテムを実行するステップを更に含むことを特徴とする請求項11に記載のGUI提供方法。
  13. 前記アイテムは、テキストキーであり、
    前記実行ステップは、ハイライトされたテキストキーに割り当てられたテキストを入力することを特徴とする請求項1に記載のGUI提供方法。
  14. GUIが表示されるディスプレイと、
    前記ディスプレイに表示されたGUIを操作するためのユーザ入力手段と、
    前記ユーザ入力手段の操作開始位置にユーザが接近しているかを検知するセンサと、
    前記センサによって前記操作開始位置に前記ユーザが接近していると検知されると、前記ディスプレイに表示されたGUIにガイドを表示する制御部と
    を含むことを特徴とするデジタル機器。
  15. 前記操作開始位置は、
    前記GUIに現れたアイテムのうち、いずれか1つを選択するための操作のために、前記ユーザ入力手段で一番初めに操作すべき位置であることを特徴とする請求項14に記載のデジタル機器。
  16. 前記ガイドは、
    前記ユーザが前記操作開始位置に接近していることをガイドするための表示情報であることを特徴とする請求項14に記載のデジタル機器。
  17. 前記ガイドは、
    前記ユーザが前記操作開始位置を操作する場合に選択されるアイテム及び前記アイテムの周辺のうち、少なくともいずれか1つに現れることを特徴とする請求項14に記載のデジタル機器。
  18. 前記操作開始位置は、
    前記ユーザ入力手段の中央部であることを特徴とする請求項14に記載のデジタル機器。
  19. 前記ガイドは、
    前記GUIの中央部に現れることを特徴とする請求項18に記載のデジタル機器。
  20. 前記ユーザ入力手段の操作開始位置の数は、複数であり、
    前記表示ステップにおいて表示可能なガイドの数は、前記操作開始位置の数と同一であることを特徴とする請求項14に記載のデジタル機器。
  21. GUIが表示されるディスプレイ部と、
    前記ディスプレイ部に表示されたGUIを操作するための外部のユーザ入力装置と通信する通信部と、
    前記外部のユーザ入力装置の操作位置にユーザが接近しているか否かに対する情報が前記通信部を介して受信されると、前記受信された情報に基づいて前記ディスプレイ部に表示されたGUIにガイドを表示するように制御する制御部と
    を含むディスプレイ装置。
  22. 外部ディスプレイ装置と通信する通信部と、
    前記外部ディスプレイ装置に表示されたGUIを操作するためのユーザ入力部と、
    前記ユーザ入力部の操作開始位置にユーザが接近しているかを検知するセンサ部と、
    前記センサ部によって前記操作位置に前記ユーザが接近していると検知されると、それに対する情報を前記外部ディスプレイ装置に伝送するように前記通信部を制御する制御部と
    を含むユーザ入力装置。
JP2012539822A 2009-11-24 2010-11-24 ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器 Pending JP2013511763A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20090113879 2009-11-24
KR10-2009-0113879 2009-11-24
KR1020100007372A KR20110058623A (ko) 2009-11-24 2010-01-27 사용자 조작의 시작 위치를 가이드 하는 gui 제공방법 및 이를 적용한 디지털 기기
KR10-2010-0007372 2010-01-27
PCT/KR2010/008352 WO2011065744A2 (en) 2009-11-24 2010-11-24 Method of providing gui for guiding start position of user operation and digital device using the same

Publications (1)

Publication Number Publication Date
JP2013511763A true JP2013511763A (ja) 2013-04-04

Family

ID=44394085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012539822A Pending JP2013511763A (ja) 2009-11-24 2010-11-24 ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器

Country Status (6)

Country Link
US (1) US20110126100A1 (ja)
EP (1) EP2504751A4 (ja)
JP (1) JP2013511763A (ja)
KR (1) KR20110058623A (ja)
CN (1) CN102667698A (ja)
WO (1) WO2011065744A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014241033A (ja) * 2013-06-11 2014-12-25 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力処理装置、情報処理装置、情報処理システム、入力処理方法、情報処理方法、入力処理プログラム、及び情報処理プログラム
JP2017010275A (ja) * 2015-06-22 2017-01-12 弘幸 山下 文字入力装置、文字入力方法、及びプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5951012B2 (ja) * 2012-05-24 2016-07-13 京セラ株式会社 タッチパネル式入力装置
CN104636070B (zh) * 2015-02-09 2019-04-26 联想(北京)有限公司 触摸控制方法及电子设备
US9874952B2 (en) 2015-06-11 2018-01-23 Honda Motor Co., Ltd. Vehicle user interface (UI) management
CN110427139B (zh) * 2018-11-23 2022-03-04 网易(杭州)网络有限公司 文本处理方法及装置、计算机存储介质、电子设备
CN111427643A (zh) * 2020-03-04 2020-07-17 海信视像科技股份有限公司 一种显示设备以及基于显示设备的操作指南的显示方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000006687A (ja) * 1998-06-25 2000-01-11 Yazaki Corp 車載機器スイッチ安全操作システム
JP2004021933A (ja) * 2002-06-20 2004-01-22 Casio Comput Co Ltd 入力装置及び入力方法
JP2005317041A (ja) * 2003-02-14 2005-11-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2006072854A (ja) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd 入力装置
JP2008234594A (ja) * 2007-03-23 2008-10-02 Denso Corp 操作入力装置
JP2009026155A (ja) * 2007-07-20 2009-02-05 Toshiba Corp 入力表示装置および移動無線端末装置
WO2009067224A1 (en) * 2007-11-19 2009-05-28 Cirque Corporation Touchpad combined with a display and having proximity and touch sensing capabilities
US20090160809A1 (en) * 2007-12-20 2009-06-25 Samsung Electronics Co., Ltd. Mobile terminal having touch screen and function controlling method of the same
JP2009169789A (ja) * 2008-01-18 2009-07-30 Kota Ogawa 文字入力システム
JP2009266236A (ja) * 2008-04-22 2009-11-12 Apple Inc デバイス上の言語入力インターフェース

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7750891B2 (en) * 2003-04-09 2010-07-06 Tegic Communications, Inc. Selective input system based on tracking of motion parameters of an input device
US6903730B2 (en) * 2000-11-10 2005-06-07 Microsoft Corporation In-air gestures for electromagnetic coordinate digitizers
US20050162402A1 (en) 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
US20070236474A1 (en) * 2006-04-10 2007-10-11 Immersion Corporation Touch Panel with a Haptically Generated Reference Key
JP4827644B2 (ja) * 2006-07-27 2011-11-30 アルパイン株式会社 遠隔用入力装置およびこれを用いた電子装置
AU2007309911B2 (en) 2006-10-23 2011-09-22 Eui Jin Oh Input device
WO2009042947A1 (en) * 2007-09-27 2009-04-02 Alitora Systems, Inc. Meme-based graphical user interface and team collaboration system
US20090109183A1 (en) * 2007-10-30 2009-04-30 Bose Corporation Remote Control of a Display
JP4922901B2 (ja) * 2007-11-19 2012-04-25 アルプス電気株式会社 入力装置
US20090193361A1 (en) * 2008-01-30 2009-07-30 Research In Motion Limited Electronic device and method of controlling same
EP2104024B1 (en) * 2008-03-20 2018-05-02 LG Electronics Inc. Portable terminal capable of sensing proximity touch and method for controlling screen using the same
KR100984230B1 (ko) * 2008-03-20 2010-09-28 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기 및 이를 이용한화면 제어 방법
KR101486348B1 (ko) * 2008-05-16 2015-01-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
KR101486345B1 (ko) * 2008-03-21 2015-01-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
US8525802B2 (en) * 2008-03-31 2013-09-03 Lg Electronics Inc. Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same
KR20090104469A (ko) * 2008-03-31 2009-10-06 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기 및 이를 이용한그래픽 사용자 인터페이스 제공 방법
KR101545569B1 (ko) * 2008-07-01 2015-08-19 엘지전자 주식회사 이동단말기 및 그의 키패드 표시방법

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000006687A (ja) * 1998-06-25 2000-01-11 Yazaki Corp 車載機器スイッチ安全操作システム
JP2004021933A (ja) * 2002-06-20 2004-01-22 Casio Comput Co Ltd 入力装置及び入力方法
JP2005317041A (ja) * 2003-02-14 2005-11-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2006072854A (ja) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd 入力装置
JP2008234594A (ja) * 2007-03-23 2008-10-02 Denso Corp 操作入力装置
JP2009026155A (ja) * 2007-07-20 2009-02-05 Toshiba Corp 入力表示装置および移動無線端末装置
WO2009067224A1 (en) * 2007-11-19 2009-05-28 Cirque Corporation Touchpad combined with a display and having proximity and touch sensing capabilities
JP2011503756A (ja) * 2007-11-19 2011-01-27 サーク・コーポレーション ディスプレイを組み合わせ、近接および接触検知能力を有するタッチパッド
US20090160809A1 (en) * 2007-12-20 2009-06-25 Samsung Electronics Co., Ltd. Mobile terminal having touch screen and function controlling method of the same
JP2009169789A (ja) * 2008-01-18 2009-07-30 Kota Ogawa 文字入力システム
JP2009266236A (ja) * 2008-04-22 2009-11-12 Apple Inc デバイス上の言語入力インターフェース

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014241033A (ja) * 2013-06-11 2014-12-25 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力処理装置、情報処理装置、情報処理システム、入力処理方法、情報処理方法、入力処理プログラム、及び情報処理プログラム
JP2017010275A (ja) * 2015-06-22 2017-01-12 弘幸 山下 文字入力装置、文字入力方法、及びプログラム

Also Published As

Publication number Publication date
EP2504751A4 (en) 2015-01-28
CN102667698A (zh) 2012-09-12
WO2011065744A2 (en) 2011-06-03
WO2011065744A3 (en) 2011-09-29
KR20110058623A (ko) 2011-06-01
EP2504751A2 (en) 2012-10-03
US20110126100A1 (en) 2011-05-26

Similar Documents

Publication Publication Date Title
CN100444092C (zh) 移动电子装置中的快捷键的方法,触摸屏及电子装置
JP3630153B2 (ja) 情報表示入力装置及び情報表示入力方法、並びに情報処理装置
JP2013511763A (ja) ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器
KR100774927B1 (ko) 이동통신 단말기, 메뉴 및 아이템 선택방법
US10379626B2 (en) Portable computing device
JP5755219B2 (ja) タッチパネル機能付き携帯端末及びその入力方法
US20120212420A1 (en) Multi-touch input control system
US8456433B2 (en) Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel
WO2013181881A1 (zh) 触摸屏幕的控制方法及装置
WO2010089918A1 (ja) 電子機器及び電子機器のプログラム
CN107533424A (zh) 用户终端设备及其控制方法
KR20100033214A (ko) 터치패드의 입력패턴 인식을 통한 입력모드 자동전환 방법
CN106681648A (zh) 用于计算机设备的手势导航方法
KR101064836B1 (ko) 터치식 문자 입력 장치 및 방법
JP2008059227A (ja) タッチ画面キーパッドを用いた文字等の入力方法および装置
US20140129933A1 (en) User interface for input functions
KR20100097358A (ko) 터치스크린을 구비한 휴대 전자기기의 위젯 처리 방법
KR20090093250A (ko) 터치식 가상 키보드 상의 투명 가상 마우스 방법
KR20100024563A (ko) 휴대용 단말기의 문자 입력 장치 및 방법
CN108700990A (zh) 一种锁屏方法、终端及锁屏装置
US20190302952A1 (en) Mobile device, computer input system and computer readable storage medium
KR100545291B1 (ko) 키 버튼에 터치센서가 구비된 이동통신단말기 및 이를이용한 키 신호 입력방법
TWI489368B (zh) 周邊裝置及其操作方法及應用其之電子系統
US20220129146A1 (en) Method for controlling a computer device for entering a personal code
JP2013164692A (ja) 情報処理装置、表示画面最適化方法、制御プログラムおよび記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141008

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150625

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151120