CN102667698A - 提供用于指导用户操作的开始位置的图形用户界面的方法以及使用该方法的数字设备 - Google Patents

提供用于指导用户操作的开始位置的图形用户界面的方法以及使用该方法的数字设备 Download PDF

Info

Publication number
CN102667698A
CN102667698A CN2010800525349A CN201080052534A CN102667698A CN 102667698 A CN102667698 A CN 102667698A CN 2010800525349 A CN2010800525349 A CN 2010800525349A CN 201080052534 A CN201080052534 A CN 201080052534A CN 102667698 A CN102667698 A CN 102667698A
Authority
CN
China
Prior art keywords
gui
user
starting position
display
project
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2010800525349A
Other languages
English (en)
Inventor
苏容进
权五载
金铉基
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN102667698A publication Critical patent/CN102667698A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明公开了提供GUI和数字设备的方法,包括:确定用户是否已经接近用户输入单元的操作的开始位置,该用户输入单元用于操作显示在显示器上的GUI;以及如果确定用户已经接近操作的开始位置,则在显示在显示器上的GUI上显示指导。从而,用户能够通过该指导确认他/她的手指已经接近操作的开始位置,并因此只观看显示器就能够输入期望的命令。

Description

提供用于指导用户操作的开始位置的图形用户界面的方法以及使用该方法的数字设备
技术领域
本发明一般涉及提供图形用户界面(GUI)的方法和使用该方法的数字设备,并且更具体地,涉及提供GUI的方法和使用该方法的数字设备,用来输入诸如数字、字符等的文本以及期望的用户命令。
背景技术
虽然数字设备的能力已经多种多样,但是消费者还是期望更小尺寸的数字设备。随着数字设备的功能性的多样化以及无线互联网的普及,用户频繁地将诸如数字、字符等的文本输入到数字设备中。
因此,需要用于将字符输入到数字设备的方便的按键,并且在数字设备中提供这样的按键将允许消费者所期望的更小的数字设备。
需要这样一种方案,使得用户能够更加方便和直观地输入文本,保持用户娱乐以及小尺寸的数字设备。
发明内容
技术问题
--
技术方案
--
技术效果
--
附图说明
当结合附图时,本发明的上述和其它方面、特征、以及优点将从下面的详细描述中更加清楚,其中:
图1是示出根据本发明的一个方面的数字设备的外观的示图;
图2和图12是示出在如图1中所示的数字设备中提供GUI的过程的示图;
图3和图13到图16是在解释其中触摸板的中心被认为是开始点的数字输入类型时提供的示图;
图4、图17和图18是示出除了数字键盘以外的其它GUI的示例的示图;
图5是示出如图1中所示的数字设备的配置的详细框图;
图6是在解释根据本发明的实施例的提供GUI的方法时提供的流程图;
图7是示出区域-项目(area-item)表的示例的示图;
图8和图19是示出数字设备的示例的示图,其中,在触摸板上提供两个运动传感器,并且提供两个指导以显示在显示器上;
图9是示出数字设备的示例的示图,其中,在触摸板上提供四个运动传感器,并且提供四个指导以显示在显示器上;
图10是示出本发明能够应用的数字***的示例的示图;以及
图11是示出数字设备的示例的示图,其中,用硬按钮板取代了触摸板。
具体实施方式
已经做出了本发明以解决至少上述问题和/或缺点,并提供至少下述优点。因此,本发明的一个方面提供了一种GUI方法和数字设备,其能够在用户接近用户输入单元的操作的开始位置时在显示在数字设备的显示器上的GUI上显示指导(guide)。
根据本发明的一个方面,提供GUI的方法包括:确定用户是否已经接近用户输入单元的操作的开始位置,该用户输入单元用于操作显示在显示器上的GUI;以及如果确定用户已经接近开始位置,则在显示在显示器上的GUI上显示指导。
根据本发明的另一个方面,数字设备包括:显示器,显示GUI;用户输入单元,用于操作显示在显示器上的GUI;传感器,感测用户是否已经接近用户输入单元的操作的开始位置;以及控制单元,如果由传感器感测到用户已经接近开始位置,则在显示在显示器上的GUI上显示指导。
以下,参考附图详细描述本发明的实施例。
图1是一般地示出根据本发明的一个方面的数字设备的外观的示图。如图1中所示,本发明能够应用的数字设备100包括显示器120、触摸板140、以及运动传感器150。
在显示器120上,显示了用来输入数字设备100的功能运行的结果的GUI和用户命令。触摸板140是接收诸如触摸、拖拽等的用户操作的物理用户接口(PUT)。
运动传感器150装备在触摸板140的底面上,并在图1中用虚线表示。运动传感器150装备在触摸板140的中心,并且感测用户手指是否接近触摸板140的中心。
图2和图12是示出在如图1中所示的数字设备100中提供GUI的过程的示图。
如果在如图2中所示通过GUI在显示器120上显示数字键盘的状态下、如图12中所示用户手指接近触摸板140的中心,则指导出现在显示在显示器120上的数字键中的“5号键”上。
用户手指是否已经接近触摸板140的中心由运动传感器150来感测。用户手指已经接近触摸板140的中心的状态是如图12左侧所示用户手指还没有接触触摸板140的状态。
另一方面,如图12中所示,可以看到指导出现在“5号键”的轮廓上。该指导执行了指导用户手指定位在触摸板140的中心的功能,所述触摸板140的中心是通过显示在显示器120上的数字键盘执行数字输入时的开始点。
以下,将参考图3和图13到图16详细描述在考虑到以触摸板140的中心作为开始点的情况下执行数字输入的方法。
如果用户在出现指导的状态下触摸触摸板140,则如图3中所示高亮显示(highlight)“5号键”。
如上所述,指导在用户手指已经接近触摸板140的中心的情况下出现。因此,当用户在出现指导的状态下触摸触摸板140时就是指用户触摸触摸板140的中心。
如果如图3中所示高亮显示“5号键”,则触摸板处于数字输入待机状态。在这种状态下,用户能够如下通过操作数字键盘、从“5号键”开始输入期望的数字。
如果用户如图13中所示在触摸板140上将他/她的手指从“5号键”拖拽到“1号键”,则“1号键”被高亮显示,并且如果用户将他/她的手指从触摸板140上拿开,则“1”被输入,并且“1”出现在数字输入窗口上。
如果用户如图14中所示在触摸板140上将他/她的手指从“5号键”拖拽到“6号键”,则“6号键”被高亮显示,并且如果用户将他/她的手指从触摸板140上拿开,则“6”被输入,并且“6”出现在数字输入窗口上。
如果用户如图15中所示在触摸板140上将他/她的手指从“5号键”拖拽到“8号键”,则“8号键”被高亮显示,并且如果用户将他/她的手指从触摸板140上拿开,则“8”被输入,并且“8”出现在数字输入窗口上。
如果用户如图16中所示在触摸板140上将他/她的手指从“5号键”拖拽到“0号键”,则“0号键”被高亮显示,并且如果用户将他/她的手指从触摸板140上拿开,则“0”被输入,并且“0”出现在数字输入窗口上。
另一方面,虽然在附图中没有示出,但如果用户如图3中所示触摸触摸板140的中心,并且在“5号键”被高亮显示的状态下将他/她的手指从触摸板140上拿开,则“5”被输入,并且“5”出现在数字输入窗口上。
上述数字键盘对应于能够通过显示器120提供的GUI的示例。除了数字键盘以外,本发明的技术特征能够应用到其它类型的GUI。
图4示出了字母表键盘的示例,其中,在用户手指定位在触摸板140的中心的情况下在“JKL键”上出现指导,而图17示出了韩语(Hangul)键盘的示例,其中,在用户手指定位在触摸板140的中心的情况下在“
Figure BDA00001662027100041
键”上出现指导。
另一方面,除了用于输入诸如数字或字符的文本的GUI以外,本发明的技术特征也能够应用到其他GUI。在图18中示出了除了文本输入以外的其他GUI的示例。
图18示出了图形控制器的示例,其中,在用户手指定位在触摸板140的中心的情况下在“?键”上出现指导。
如图1中所示的数字设备能够由各种设备来实现。例如,如图1中所示的设备可以由移动电话、MP3播放器、PMP、移动计算机、膝上型计算机等来实现。
图5是示出如图1中所示的数字设备的配置的详细框图。如图5中所示,数字设备100包括功能块110、显示器120、控制单元130、触摸板140、以及运动传感器150。
功能块110执行数字设备的原始功能。如果数字设备100是移动电话10,则功能块110执行电话呼叫和SMS功能,如果数字设备100是MP3播放器或PMP,则功能块110执行内容回放功能,以及如果数字设备100是移动计算机或膝上型计算机,则功能块110通过运行由用户命令的应用来执行任务。
在显示器120上,显示执行功能块的功能/任务的结果。触摸板140接收诸如触摸、拖拽等的用户操作的输入。而且,运动传感器150感测用户手指是否已经接近触摸板140的中心。显示器120和/或触摸板140可以由触摸屏来实现。
控制单元130控制功能块110以便执行由用户命令的功能。而且,控制单元130通过显示器120将GUI提供给用户。
以下,将参考图6详细描述通过控制单元130提供GUI的过程。图6是在解释根据本发明的实施例的提供GUI的方法时提供的流程图。
如图6中所示,控制单元首先在显示器120上显示GUI。在步骤S610中提供的GUI可以是如上所述的数字键键盘、字母表键盘、韩语键盘、图形控制器等。
也就是,如果GUI包括若干项目,则其可以在本发明中使用。这里,术语“项目(item)”指的是在构成GUI的元素中能够由用户选择的元素。不仅按键,诸如上述数字键、字母键、韩语键、以及控制键,而且图标或微件(widget)也是能够由用户选择的元素,并且因此它们也能够包括在项目的类别中。
此后,在步骤S620,运动传感器150感测用户手指是否已经接近触摸板140的中心。
在步骤S620,如果感测到用户手指已经接近触摸板140的中心,则在步骤S630控制单元130在GUI的中心项目上显示指导。
中心项目是指在构成GUI的项目中出现在触摸板140的中心的项目。这里,应当注意到,该中心并不意味着完全的物理中心。也就是,如果不能指定出现在完全的物理中心的项目,则出现在中心部分的项目中的任何一个都可以被当作中心项目。
同理,中心项目可以指在执行通过出现在GUI上的项目输入的用户命令时的开始项目。
此后,如果在步骤S640维持中心项目上的指导显示的状态下、在步骤S650由用户触摸触摸板140,则在步骤S660控制单元130高亮显示中心项目。
当用户手指已经接近触摸板140的中心时出现指导。因此,“在维持中心项目上的指导显示的状态下由用户触摸触摸板140的情况”是指“用户触摸触摸板140的中心的情况”。
此后,如果在步骤S670用户手指通过触摸板140执行拖拽操作,则在步骤S680控制单元130高亮显示触摸板140上用户手指当前定位的区域上所指定的项目。
为了执行步骤S680,控制单元130确定触摸板140上用户手指当前定位的区域,并且参考区域-项目表,高亮显示在所确定的区域上指定的项目。
区域-项目表是“触摸板140上的区域”和“出现在显示器120上的项目”以一对一的方式相互匹配的表,并且对于每个GUI定义该区域-项目表。
图7示出了区域-项目表的示例。在区域-项目表如图7中所示的情况下,如果用户手指定位在触摸板140上的“A1”处,则控制单元130高亮显示出现在显示器120的“I1”上的项目。当用户手指定位在触摸板140上的“A2”处时,则控制单元130高亮显示出现在显示器120的“I2”上的项目。如果用户手指定位在触摸板140上的“A3”处,则控制单元130高亮显示出现在显示器120的“I3”上的项目,并且如果用户手指定位在触摸板140上的“A15”处,则控制单元130高亮显示出现在显示器120的“I15”上的项目。
以下,如果在步骤S690用户手指移去在触摸板140上的触摸,则在步骤S700控制单元130运行高亮显示的项目。
如果高亮显示的项目是数字键、字母键、韩语键,则输入对应的文本,而如果高亮显示的项目是控制键、图标、或微件,则运行对应的功能。
如上所述,数字设备100在触摸板140的中心提供有一个运动传感器150。而且,如果用户手指接近触摸板140的中心,则在显示器120上显示指导。
然而,可以在触摸板140上提供两个或更多的运动传感器,并且在显示器120上显示的指导的数目可以被设定为等于运动传感器的数目。
在图8和图19中,在触摸板140上提供了两个运动传感器150-1和150-2,并且在显示器120上显示了两个指导。如图所示,可以确认所述指导出现在在显示器120的左侧出现的第一组项目中的中心项目上,以及出现在在显示器120的右侧出现的第二组项目中的中心项目上。
图9示出了提供在触摸板140上的四个运动传感器151、152、153、和154。因此,在显示器120上能够显示的指导的数目是四。
在图9中,当用户手指接近运动传感器1151和运动传感器4154时,指导出现在作为指定给所述传感器的项目的“A”键和“ENTER”键上。
如果用户手指接近运动传感器2152和运动传感器3153,则指导将出现在作为指定给所述传感器的项目的“F”键和“J”键上。
到目前为止,作为示例,显示器120和触摸板140被提供在一个数字设备100中。然而,显示器120和触摸板140也可以提供在不同的数字设备中,并且在这种情况下,本发明的技术特征能够应用到由数字设备构成的数字***。
图10示出了由DTV 200和遥控器300构成的数字***,其中DTV 200提供有其上显示GUI的显示器210,而且遥控器300提供有其上定位运动传感器320的触摸板310。
在图10中所示的数字***中,DTV 200和遥控器300通信地相互连接。遥控器300将1)关于用户手指是否已经接近触摸板140的中心的信息、以及2)触摸板140上用户操作(触摸、拖拽、移去触摸等)的内容传递到DTV200。DTV 200基于从遥控器300传递的信息,控制GUI显示状态和运行项目。
因此,根据上述实施例的显示设备(例如,DTV 200)包括显示单元210、通信单元(未示出)、以及控制单元(未示出)。
显示单元210显示GUI。通信单元(未示出)与外部用户输入设备(例如,遥控器300)进行通信,该外部用户输入设备用于操作在显示单元(未示出)上显示的GUI。
如果通过通信单元(未示出)接收到关于用户是否已经接近外部用户输入设备300的操作位置的信息,则控制单元(未示出)基于所接收的信息进行操作,以显示在显示单元210上显示的指导。
而且,根据上述实施例的用户输入设备(例如,遥控器300)包括通信单元(未示出)、用户输入单元310、传感器单元320、以及控制单元(未示出)。
通信单元(未示出)与外部显示设备200进行通信。
用户输入单元310用来操作显示在外部显示设备200上的GUI。
传感器单元320感测用户是否已经接近用户输入单元310的操作的开始位置。
如果由传感器单元320感测到用户接近操作位置的运动,则控制单元(未示出)控制通信单元(未示出)将相应的信息发送到外部显示设备200。
如上所述,触摸板140操作为用户命令输入单元,但是用户输入也可以通过其它装置来达成。
图11示出了数字设备100,其中,用硬按钮板(hard button pad)160取代了先前附图的触摸板140。如图11中所示,在硬按钮板160的中心按钮的底部(lower portion)提供了用于感测用户手指是否已经接近硬按钮板160的中心的运动传感器150。
如果运动传感器150感测到了用户,则在显示器120上出现的数字键中的“5号键”上出现指导。基于在其底部提供有运动传感器150的硬按钮,用户能够通过按下其它按钮执行数字输入。
如果用户手指已经接近了触摸板140的中心,则在显示在显示器120上的GUI上出现指导,并且触摸板140的中心对应于操作开始位置。
操作的开始位置是应当在触摸板140上被首先操作的位置,用于选择出现在GUI上的项目中的任何一个的操作。
操作的开始位置可以不必是触摸板140的中心,并且可以是触摸板140上的其他位置。
在上述示例中,所述指导被实现为出现在用户激活操作的开始位置时选择的项目的轮廓上。还有可能的是,使指导出现在项目内部,或者使指导出现在其他位置,例如,GUI的中心部分。
虽然已经参考一定的实施例示出和描述了本发明,但是本领域技术人员应当理解,可以在其中进行各种形式和细节上的改变而不脱离由所附权利要求定义的本发明的精神和范围。

Claims (22)

1.一种提供图形用户界面(GUI)的方法,包括:
确定用户是否已经接近用户输入单元的操作的开始位置,该用户输入单元用于操作显示在显示器上的GUI;以及
如果确定所述用户已经接近所述操作开始位置,则在显示在所述显示器上的GUI上显示指导。
2.如权利要求1所述的提供GUI的方法,其中,操作的开始位置是所述用户输入单元中应当首先操作的位置,以便执行用于选择出现在所述GUI上的项目中的任何一个的操作。
3.如权利要求1所述的提供GUI的方法,其中,在所述GUI上显示的所述指导是指导所述用户已经接近操作的开始位置的显示信息。
4.如权利要求1所述的提供GUI的方法,其中,在所述GUI上显示的所述指导出现在用户激活操作的开始位置时选择的项目或所述项目的边缘中的至少一个上。
5.如权利要求4所述的提供GUI的方法,其中,在用户激活操作的开始位置时选择的项目是出现在所述GUI的中心部分的项目。
6.如权利要求1所述的提供GUI的方法,其中,操作的开始位置是所述用户输入单元的中心部分。
7.如权利要求6所述的提供GUI的方法,其中,所述指导出现在所述GUI的中心部分上。
8.如权利要求1所述的提供GUI的方法,其中,所述用户输入单元的操作的开始位置的数目是复数,并且在显示步骤中可显示的指导的数目等于操作的开始位置的数目。
9.如权利要求8所述的提供GUI的方法,其中,操作的开始位置包括:
操作的第一开始位置,其应当在所述用户输入单元中被首先操作,以便执行用于选择出现在所述GUI上的第一组的项目中的任何一个的操作;以及
操作的第二开始位置,其应当在所述用户输入单元中被首先操作,以便执行用于选择出现在所述GUI上的第二组的项目中的任何一个的操作。
10.如权利要求1所述的提供GUI的方法,还包括:如果所述用户在维持指导显示的状态下触摸所述用户输入单元,则高亮显示出现在所述GUI上的项目中的任何一个。
11.如权利要求10所述的提供GUI的方法,还包括:如果所述用户在触摸所述用户输入单元之后执行拖拽操作,则基于拖拽的区域高亮显示出现在所述GUI上的项目中的另一个。
12.如权利要求11所述的提供GUI的方法,还包括:如果所述用户移去所述用户输入单元的触摸,则运行高亮显示的项目。
13.如权利要求1所述的提供GUI的方法,其中,所述项目是文本键,并且
运行步骤输入分配给高亮显示的文本键的文本。
14.一种数字设备,包括:
显示单元,显示图形用户界面(GUI);
用户输入单元,用于操作显示在所述显示器上的GUI;
传感器单元,感测用户是否已经接近所述用户输入单元的操作的开始位置;以及
控制单元,如果由所述传感器单元感测到所述用户已经接近操作的开始位置,则在显示在所述显示单元上的GUI上显示指导。
15.如权利要求14所述的数字设备,其中,操作的开始位置是所述用户输入单元中应当首先操作的位置,以便执行用于选择出现在所述GUI上的项目中的任何一个的操作。
16.如权利要求14所述的数字设备,其中,所述指导是指导所述用户已经接近操作的开始位置的显示信息。
17.如权利要求14所述的数字设备,其中,所述指导出现在用户激活操作的开始位置时选择的项目或所述项目的边缘中的至少一个上。
18.如权利要求14所述的数字设备,其中,操作的开始位置是所述用户输入单元的中心部分。
19.如权利要求18所述的数字设备,其中,所述指导出现在所述GUI的中心部分上。
20.如权利要求14所述的数字设备,其中,所述用户输入单元的操作的开始位置的数目是复数,并且在显示步骤中可显示的指导的数目等于开始位置的数目。
21.一种显示设备,包括:
显示单元,显示GUI;
通信单元,与外部用户输入设备进行通信,用于操作显示在所述显示单元上的GUI;以及
控制单元,如果通过所述通信单元接收到关于用户是否已经接近所述外部用户输入设备的操作位置的信息,则基于所接收的信息在显示在所述显示单元上的GUI上显示指导。
22.一种用户输入设备,包括:
通信单元,与外部显示设备进行通信;
用户输入单元,用于操作显示在所述外部显示设备上的GUI;
传感器单元,感测用户是否已经接近所述用户输入单元的操作开始位置;以及
控制单元,如果由所述传感器单元感测到用户已经接近所述操作开始位置,则控制所述通信单元将关于所述用户是否已经接近所述操作开始位置的信息发送到所述外部显示设备。
CN2010800525349A 2009-11-24 2010-11-24 提供用于指导用户操作的开始位置的图形用户界面的方法以及使用该方法的数字设备 Pending CN102667698A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2009-0113879 2009-11-24
KR20090113879 2009-11-24
KR10-2010-0007372 2010-01-27
KR1020100007372A KR20110058623A (ko) 2009-11-24 2010-01-27 사용자 조작의 시작 위치를 가이드 하는 gui 제공방법 및 이를 적용한 디지털 기기
PCT/KR2010/008352 WO2011065744A2 (en) 2009-11-24 2010-11-24 Method of providing gui for guiding start position of user operation and digital device using the same

Publications (1)

Publication Number Publication Date
CN102667698A true CN102667698A (zh) 2012-09-12

Family

ID=44394085

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010800525349A Pending CN102667698A (zh) 2009-11-24 2010-11-24 提供用于指导用户操作的开始位置的图形用户界面的方法以及使用该方法的数字设备

Country Status (6)

Country Link
US (1) US20110126100A1 (zh)
EP (1) EP2504751A4 (zh)
JP (1) JP2013511763A (zh)
KR (1) KR20110058623A (zh)
CN (1) CN102667698A (zh)
WO (1) WO2011065744A2 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427139A (zh) * 2018-11-23 2019-11-08 网易(杭州)网络有限公司 文本处理方法及装置、计算机存储介质、电子设备
CN111427643A (zh) * 2020-03-04 2020-07-17 海信视像科技股份有限公司 一种显示设备以及基于显示设备的操作指南的显示方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5951012B2 (ja) * 2012-05-24 2016-07-13 京セラ株式会社 タッチパネル式入力装置
JP5736005B2 (ja) * 2013-06-11 2015-06-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力処理装置、情報処理装置、情報処理システム、入力処理方法、情報処理方法、入力処理プログラム、及び情報処理プログラム
CN104636070B (zh) * 2015-02-09 2019-04-26 联想(北京)有限公司 触摸控制方法及电子设备
US9874952B2 (en) 2015-06-11 2018-01-23 Honda Motor Co., Ltd. Vehicle user interface (UI) management
JP6543780B2 (ja) * 2015-06-22 2019-07-10 弘幸 山下 文字入力装置、文字入力方法、及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050162402A1 (en) * 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
CN1648837A (zh) * 2003-09-19 2005-08-03 美国在线服务公司 基于输入设备运动参数跟踪的选择输入***
CN101114204A (zh) * 2006-07-27 2008-01-30 阿尔派株式会社 远程输入装置及使用其的电子装置
CN101467118A (zh) * 2006-04-10 2009-06-24 英默森公司 具有触觉产生的参照键的触模板
US20090222743A1 (en) * 2007-09-27 2009-09-03 Hadfield Marc C Meme-Based Graphical User Interface And Team Collaboration System
CN101539834A (zh) * 2008-03-20 2009-09-23 Lg电子株式会社 能够感测近距离触摸的便携式终端以及利用该终端控制屏幕的方法
CN101540794A (zh) * 2008-03-21 2009-09-23 Lg电子株式会社 移动终端及其屏幕显示方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000006687A (ja) * 1998-06-25 2000-01-11 Yazaki Corp 車載機器スイッチ安全操作システム
US6903730B2 (en) * 2000-11-10 2005-06-07 Microsoft Corporation In-air gestures for electromagnetic coordinate digitizers
JP2004021933A (ja) * 2002-06-20 2004-01-22 Casio Comput Co Ltd 入力装置及び入力方法
JP2005317041A (ja) * 2003-02-14 2005-11-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP4351599B2 (ja) * 2004-09-03 2009-10-28 パナソニック株式会社 入力装置
CN101568894B (zh) 2006-10-23 2012-07-18 吴谊镇 输入装置
JP4605170B2 (ja) * 2007-03-23 2011-01-05 株式会社デンソー 操作入力装置
JP2009026155A (ja) * 2007-07-20 2009-02-05 Toshiba Corp 入力表示装置および移動無線端末装置
US20090109183A1 (en) * 2007-10-30 2009-04-30 Bose Corporation Remote Control of a Display
JP4922901B2 (ja) * 2007-11-19 2012-04-25 アルプス電気株式会社 入力装置
WO2009067224A1 (en) * 2007-11-19 2009-05-28 Cirque Corporation Touchpad combined with a display and having proximity and touch sensing capabilities
KR20090066368A (ko) * 2007-12-20 2009-06-24 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법
JP2009169789A (ja) * 2008-01-18 2009-07-30 Kota Ogawa 文字入力システム
US20090193361A1 (en) * 2008-01-30 2009-07-30 Research In Motion Limited Electronic device and method of controlling same
EP2104024B1 (en) * 2008-03-20 2018-05-02 LG Electronics Inc. Portable terminal capable of sensing proximity touch and method for controlling screen using the same
KR101486348B1 (ko) * 2008-05-16 2015-01-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
KR20090104469A (ko) * 2008-03-31 2009-10-06 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기 및 이를 이용한그래픽 사용자 인터페이스 제공 방법
US8525802B2 (en) * 2008-03-31 2013-09-03 Lg Electronics Inc. Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same
US8949743B2 (en) * 2008-04-22 2015-02-03 Apple Inc. Language input interface on a device
KR101545569B1 (ko) * 2008-07-01 2015-08-19 엘지전자 주식회사 이동단말기 및 그의 키패드 표시방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1648837A (zh) * 2003-09-19 2005-08-03 美国在线服务公司 基于输入设备运动参数跟踪的选择输入***
US20050162402A1 (en) * 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
CN101467118A (zh) * 2006-04-10 2009-06-24 英默森公司 具有触觉产生的参照键的触模板
CN101114204A (zh) * 2006-07-27 2008-01-30 阿尔派株式会社 远程输入装置及使用其的电子装置
US20090222743A1 (en) * 2007-09-27 2009-09-03 Hadfield Marc C Meme-Based Graphical User Interface And Team Collaboration System
CN101539834A (zh) * 2008-03-20 2009-09-23 Lg电子株式会社 能够感测近距离触摸的便携式终端以及利用该终端控制屏幕的方法
CN101540794A (zh) * 2008-03-21 2009-09-23 Lg电子株式会社 移动终端及其屏幕显示方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427139A (zh) * 2018-11-23 2019-11-08 网易(杭州)网络有限公司 文本处理方法及装置、计算机存储介质、电子设备
CN111427643A (zh) * 2020-03-04 2020-07-17 海信视像科技股份有限公司 一种显示设备以及基于显示设备的操作指南的显示方法

Also Published As

Publication number Publication date
WO2011065744A2 (en) 2011-06-03
WO2011065744A3 (en) 2011-09-29
KR20110058623A (ko) 2011-06-01
US20110126100A1 (en) 2011-05-26
EP2504751A4 (en) 2015-01-28
JP2013511763A (ja) 2013-04-04
EP2504751A2 (en) 2012-10-03

Similar Documents

Publication Publication Date Title
US10037130B2 (en) Display apparatus and method for improving visibility of the same
US8214768B2 (en) Method, system, and graphical user interface for viewing multiple application windows
US9588680B2 (en) Touch-sensitive display method and apparatus
CN105393205B (zh) 电子设备以及在电子设备中控制应用的方法
KR101636705B1 (ko) 터치스크린을 구비한 휴대 단말의 문자 입력 방법 및 장치
CN107209563B (zh) 用户接口和用于操作***的方法
CN102667698A (zh) 提供用于指导用户操作的开始位置的图形用户界面的方法以及使用该方法的数字设备
JP2016115208A (ja) 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム
KR20100043371A (ko) 휴대단말의 대기화면 구성 방법 및 장치
JP5266320B2 (ja) 裏面に設置されたアクチュエータを用いて命令実行を制御するための携帯装置
KR20150012524A (ko) 터치 입력 처리 시스템 및 방법
KR101064836B1 (ko) 터치식 문자 입력 장치 및 방법
US20140129933A1 (en) User interface for input functions
US20130038538A1 (en) Hand-held devices and methods of inputting data
KR100545291B1 (ko) 키 버튼에 터치센서가 구비된 이동통신단말기 및 이를이용한 키 신호 입력방법
US20150106764A1 (en) Enhanced Input Selection
WO2009078579A2 (en) Method for inputting symbol using touch screen
JP2014120833A (ja) 情報処理装置およびプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20120912