CN103180811A - 用于用户界面中导航的***和方法 - Google Patents

用于用户界面中导航的***和方法 Download PDF

Info

Publication number
CN103180811A
CN103180811A CN2011800477852A CN201180047785A CN103180811A CN 103180811 A CN103180811 A CN 103180811A CN 2011800477852 A CN2011800477852 A CN 2011800477852A CN 201180047785 A CN201180047785 A CN 201180047785A CN 103180811 A CN103180811 A CN 103180811A
Authority
CN
China
Prior art keywords
message
user interface
vector
vector message
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011800477852A
Other languages
English (en)
Inventor
马克·勒罗伊·沃克
克里斯托·斯蒂芬·博恩斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
InterDigital Madison Patent Holdings SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN103180811A publication Critical patent/CN103180811A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42212Specific keyboard arrangements
    • H04N21/42213Specific keyboard arrangements for facilitating data entry
    • H04N21/42214Specific keyboard arrangements for facilitating data entry using alphanumerical characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

公开的方法和***涉及基于矢量的用户界面导航。基于矢量的导航结合了正交方向导航(上/下/左/右)的效率与基于指点器(例如鼠标/触控板)的导航的灵活性。用户界面元素可以在2D(或3D)空间中任意布置,并且根据当前激活的UI元素在矢量关系上进行描述。可以将来自例如轨迹球、触控板或陀螺遥控器等控制设备的方向性手势转变为矢量移动以实现UI元素之间的导航。

Description

用于用户界面中导航的***和方法
相关申请的交叉引用
本申请要求2010年10月1日提交的美国临时申请序列号61/388,975的权益,其全部内容通过引用合并在此。
技术领域
本发明涉及用户界面领域。更具体地,本发明涉及使用基于指针的遥控器(pointer-based pointer)进行正交(上/下/左/右)导航的用户界面的导航。
背景技术
现有的用户界面导航方案,例如针对TV用户界面的导航方案,利用D-Pad(方向板)输入,或者更近期地,使用陀螺仪或其他类型的遥控器的基于指点器的导航。D-pad输入将用户界面的设计限制到要支持水平和/或垂直导航,这有时造成低效率导航。基于指点器的导航消除了对用户界面元素放置的制约,但是迫使UI使用指示符,例如箭头或指针,在屏幕所占区域上来回移动以加亮所需项目-这会导致在空屏幕区域上来回移动,效率也会较低。
发明内容
公开的实施例涉及用于用户导航的***和方法,更具体地涉及基于矢量的导航方法和***。基于矢量的导航结合了正交方向导航(上/下/左/右)的效率与基于指点器(例如鼠标/触控板)的导航的灵活性。用户界面元素可以在2D(或3D)空间中任意布置,并且根据当前激活的UI元素在矢量关系上进行描述。可以将来自例如轨迹球、触控板或陀螺遥控器等控制设备的方向性手势转变为矢量移动以实现UI元素之间的导航。
根据一方面,提供了一种用于导航用户界面的方法。该方法包括:将用户界面的至少一个元素和至少一个邻居的取向表达为矢量信息;接收输入的用于导航用户界面的移动信息;将移动信息转换为矢量信息;以及将从接收的移动信息转换而来的矢量信息映射至表达了所述至少一个元素和所述至少一个邻居的取向的所述矢量信息。
根据另一实施例,提供了一种允许导航用户界面的***。该***包括电子设备。电子设备包括输出接口、输入接口、处理器和存储装置。输出接口配置为输出用户界面。输入接口配置为接收用于导航用户界面的移动信息。处理器配置为将用户界面的至少一个元素及其邻居的取向表达为矢量信息,将接收的移动信息转换为矢量信息,以及将从接收的移动信息转换而来的矢量信息映射至表达了所述至少一个元素和所述至少一个邻居的取向的所述矢量信息。存储装置配置为存储矢量信息。
附图说明
图1A是示出了根据一个实施例的具有分离部件的***实施例的图。
图1B是示出了根据一个实施例的不同部件集成到一个单元中的***实施例的图。
图2是示出了根据一个实施例的***的元件的框图。
图3是示出了根据一个实施例的方法的流程图。
图4是根据实施例用于表达元素及其邻居的取向的矢量信息的图示。
图5是根据实施例用于表达元素和多个邻居的取向的矢量信息的图示。
图6示出了根据实施例针对用户界面如何用矢量信息表达元素及其邻居的取向的表示。
图7示出了根据实施例针对用户界面如何用矢量信息表达元素及其邻居的取向的另一表示。
图8是示出了根据一个实施例的方法的流程图。
图9是根据实施例如何使用用于表达元素和多个邻居的取向的矢量信息在不同元素之间导航的图示。
具体实施方式
本文公开的方法、***和教导可以实现在能够从基于指点器的控制设备接收命令来导航在屏用户界面的电子设备中。这些电子设备的示例包括但不限于个人计算机、机顶盒、电视机、媒体播放器、游戏设备、测试仪器等。
图1A示出了其中可以采用本文所述的功能的一个***100。在该示例中,有3个主要部件:控制设备105、电子设备110和显示器120。在该实施例中,媒体播放器110是机顶盒,例如设计为连接至控制设备105和显示器120的媒体播放器或个人计算机。控制设备是基于指点器的控制设备,例如鼠标、轨迹球、触控板或陀螺遥控器。控制设备105经由有线连接(例如USB或网线)或无线连接(例如红外(IR)、射频(RF)、蓝牙(BT)或无线联网协议(WiFi))连接至电子设备110。显示器120可以是能够显示用户界面的任何显示器,例如阴极射线管(CRT)、等离子体、液晶显示器(LCD)、有机发光二极管(OLED)等。电子设备110与显示器120之间的连接可以是同轴、RCA、VGA、DisplayPort、DVI、HDMI或其他类型的连接。
虽然在图1A的实施例中,控制设备105、电子设备和显示器110示出为分离的设备,但是在许多实施例中,这些部件中的一个或多个可以相结合。从图1B中可以看到这种示例。图1B示出了电子设备110包括控制设备105和显示器120。这种电子设备的示例包括但不限于:膝上型计算机、个人媒体播放器、电子书阅读器、个人游戏***、测试仪器等。
图2是示出了根据一个实施例的电子设备110的元件的框图。在该实施例中,媒体播放器110包括处理器200、存储装置210、输入接口220和输出接口230。在一些实施例中,消费电子设备还可以包括输入接口240和网络接口250。下面将更详细地讨论这些元件中的每一个。
处理器200控制电子设备110的操作。处理器200运行操作电子设备110的软件,并提供矢量导航功能。处理器200连接至存储装置210、输入接口220和输出接口230,并且在一些实施例中连接至网络接口240,处理器200处理这些元件之间的信息传送和处理。处理器200可以是通用处理器或专用于具体功能的处理器。在一些实施例中,可以存在多个处理器。
存储装置210存储电子设备110使用的软件和其他信息。存储装置210可以包括易失性存储器(RAM)、非易失性存储器(EEPROM)、磁介质(硬驱)、光介质(CD/DVD-Rom)或者基于闪速存储器。在一些实施例中,存储器210典型地包括存储器以及例如硬驱等大容量存储装置。
输入接口220允许用户与电子设备110交互。输入接口220处理与可用于输入信息的多种设备(例如控制设备105)的交互。
输出接口230配置为按照正确格式提供媒体以在显示器120上输出。正确格式可以包括针对待输出内容的编解码、以及用于与外部视频显示设备或音频设备或者在一些实施例中与板上显示器或扬声器相连的连接器类型。输出接口230也可以提供使用所公开的矢量导航功能来导航的图形和菜单。
在一些其他实施例中,电子设备110也可以包括控制设备105和显示器120,例如如图1B所示。在图2所示示例中,控制设备105连接至输入接口220,显示器120连接至输出接口230。
在一些其他实施例中,电子设备110也可以包括网络接口240。网络接口240处理电子设备110经过网络与其他设备的通信。适合的网络示例包括以太网或同轴上多媒体(MoCa)网络。在本公开的教导下,其他适合类型的家庭网络对于本领域技术人员而言是显而易见的。
应该理解图2中给出的元件是示意性的。电子设备110可以包括任意数目的元件,一些元件可以提供其他元件的部分或全部功能。例如,输入接口220和输出接口230的大部分功能可以由处理器200或多个通用或专用处理器执行。类似地,可以输出接口230或输入接口220相分离地实现网络连接性。在本公开的教导下,其他可能实施方式对于本领域技术人员而言是显而易见的。
图3是示出了使用矢量导航的用户界面导航的方法300。本方法最基本地包括四个步骤。第一步骤是将用户界面的至少一个元素和至少一个邻居的取向表达为矢量信息(步骤310)。然后接收输入的用于导航用户界面的移动信息(步骤320)。将移动信息转换为矢量信息(步骤330)。最后,将从接收的移动信息转换而来的矢量信息映射到对至少一个元素和至少一个邻居的取向加以表达的矢量信息。在一些实施例中,该方法还可以包括如下步骤:显示用户界面(步骤305),并更新显示的用户界面,以反映被映射到至少一个元素和至少一个邻居的取向的所接收的矢量信息(步骤350)。下面更加详细地讨论这些步骤中的每一个。
显示用户界面(步骤305)包括:处理器200产生用户界面,输出接口230向显示器120输出用户界面,在显示器120上显示用户界面。在一个实施例中,用户界面是设计为使用方向板(D-Pad)按照正交方式(上/下/左/右)导航的图像用户界面。这种用户界面的示例包括但不限于电子节目指南(EPG)、设置和配置菜单、在屏键盘等。在这种显示中,通常加亮接口的活跃元素以向导航用户界面的用户指示该元素的活跃状态并给出参考位置。传统上,用户会使用D-pad给出上/下/左/右命令输入来将活跃元素改变为相邻元素,该相邻元素在先前活跃元素的上方、下方、左侧或右侧。本文公开的方法和教导允许用户使用基于指点器的控制设备而非D-pad来导航上述类型的用户界面,无需在屏指点器指示符,而是使用上述加亮的活跃元素指示符。
使用矢量导航来实现上述方法。对于矢量导航,将用户界面中的元素及其邻居的取向表达为矢量信息(步骤310)。其示例可以参见图4。
图4是用于表达元素410及其邻居420的取向的矢量信息的图示400。在该示例中,用户界面元素410是用户界面中的活跃元素。对活跃元素410与邻居元素的取向和关系加以表达、定义或描述的矢量信息400包括角度
Figure BDA00002998385700061
430和幅度440分量。按照类似形式,可以利用矢量信息表达、定义或描述与其他邻居的取向和关系。其示例可以参见图5。
图5是用于表达元素410和多个邻居420、430的取向的矢量信息的图示500。为提高***在区分和选择多个邻居420、430方面的鲁棒性,可以使用接受角度510、520。接受角度510、520提供针对将选择或改变到具体邻居的可接受命令的“窗口”。例如,在图5中,有两个邻居420和430。点划线(-·-)530示出了在邻居420和430之间平分的角。线530下方的弧510指示针对邻居420的接受角度,而线530上方的弧520指示针对邻居430的接受角度。在图5的示例中,接受角度510和520设置为相对于平分角530是45°。因此,如果接收的命令具有的矢量信息包括落入弧510指示的45°接受角度内的角度,则将选择邻居420并使其成为新的活跃元素。然而,如果接收的命令具有的矢量信息包括落入弧520指示的45°接受角度内的角度,则将选择邻居430并使其成为新的活跃元素。
图6和7示出了对于用户界面,如何利用矢量信息表达元素及其邻居的取向的其他示例。
在图6中,当可以在菜单屏幕中布置元素时,将元素定位在用户界面600的周边附近。在该示例中,元素610a是加亮的,指示了元素610a是活跃元素。在每个元素610a-610n上叠加的是与其他相邻元素的矢量关系620a-620b的图示,由箭头(→)指示,接受角度由点线(…)和划线(---)指示。
在图7中,元素定位在用户界面700的在屏键盘中。在该示例中,表示键“T”的元素是加亮的,指示了该元素是活跃元素。在每个元素(键)上叠加的是与其他相邻元素(键)的矢量关系,由点线(…)和划线(---)指示。
按照类似方式,也可以使用幅度阈值信息(未示出)。即,设定针对矢量信息的幅度分量的阈值。该值是选择具体邻居所必须满足的最小值(或最大值或两者)。这消除了由基于指点器的控制设备提供的无意、意外、偶然或不经意输入所引起的对邻居的选择。这也允许在其取向或位置相对于活跃元素沿着相同矢量角的多个邻居之间进行选择时加以区分。
再次参照图3,接收输入的用于导航用户界面的移动信息(步骤320),并将移动信息转换为矢量信息(步骤330),如上参照图4所述,矢量信息包括角度和幅度分量。如上参照图1A、1B和2所述,从控制设备接收移动信息。根据一个实施例,控制设备是基于指点器的控制设备,例如鼠标、轨迹球或触控板。传统上,这种基于指点器的控制设备提供垂直和水平移动信息(例如,方向、距离和速度),这些移动信息转换为指点器在屏幕上的移动。使用本文公开的技术,与上述使用已知技术的方法类似,将上述移动信息转换为矢量信息(角度和幅度)。
一旦移动输入信息转换为矢量信息,就可以将其映射到对活跃元素及其邻居的取向加以表达的矢量信息(步骤340)。该示例可以参见图8。
图8示出了将转换的矢量信息映射到对活跃元素及其邻居的取向加以表达的矢量信息的一个实施例的流程图800。第一步骤是确定活跃元素(步骤810)。然后将转换的矢量信息与对活跃元素的一个或更多个邻居的取向加以表达的矢量信息相比较(步骤820)。如果满足针对邻居的准则,则是该邻居成为新的活跃元素(步骤840)。下面更详细地讨论这些步骤中的每一个。
在确定活跃元素(步骤810)中,建立用于导航至其他元素的参考点。例如,在图5-7中,每个元素具有对该元素与其邻居的取向/关系加以定义的相关矢量信息。因此,为了获知要移动至哪个元素,必须知道从哪个元素开始移动。
一旦建立了活跃元素(步骤810),则可以将将转换而来的矢量信息与对活跃元素及其邻居的取向加以表达的矢量信息相比较(步骤820)。在图8的示例中,该步骤包括:确定转换而来的矢量信息的角度是否在邻居的接受角度内(步骤825),以及将转换而来的矢量的幅度是否满足邻居的幅度阈值(步骤830)。在一些实施例中,可以针对多个邻居重复该过程,直至找到满足准则的邻居。
如果满足针对邻居的矢量信息准则,则使该邻居成为新的活跃元素(步骤840)。这可以通过加亮或指示新的活跃元素来反映在显示的用户界面中(图3的步骤350)。可以针对接收的每个新的移动命令重复该过程。该过程如何操作的示例可以参见图9。
图9是用于表达元素910和多个邻居920、930、940和950的取向的矢量信息的图示900。在该示例中,仅评估角度分量,并且假定所接收的移动命令的经转换的矢量信息的幅度满足幅度阈值要求。这里,如果转换的矢量信息的角度值在接受角度“a”范围960内,则将导航至元素“C”930,元素“C”930成为新的活跃元素。如果转换的矢量信息的角度值在接受角度“b”范围970内,则将导航至元素“F”950,元素“F”950成为新的活跃元素。如果转换的矢量信息的角度值在接受角度“c”范围980内,则将导航至元素“B”920,元素“B”920成为新的活跃元素。如果转换的矢量信息的角度值在接受角度“d”范围990内,则将不导航至任何元素,元素“A”保持为活跃元素。如果转换的矢量信息的角度值在接受角度“e”范围1000内,则将导航至元素“D”940,元素“D”940成为新的活跃元素。
尽管上述示例集中于电子设备,但是应该理解本发明也可以实现成计算机程序产品,其包括能够实施本文所述方法的所有特征,并且当加载在计算机***中时,能够执行这些方法。在本文情况下计算机程序或应用表示指令集的以任意语言、代码或符号的任意表达,用于直接或在a)转换到另一语言、代码或符号和/或b)以不同素材形式再现之后,使具有信息处理能力的***执行具体功能。
此外,除了以下权利要求所述,以上描述意在仅作为示例而非以任何方式限制本发明。

Claims (14)

1.一种用于导航用户界面的方法,包括:
将用户界面的至少一个元素和至少一个邻居的取向表达为矢量信息;
接收输入的用于导航用户界面的移动信息;
将移动信息转换为矢量信息;以及
将从接收的移动信息转换而来的矢量信息映射至表达了所述至少一个元素和所述至少一个邻居的取向的所述矢量信息。
2.根据权利要求1所述的方法,还包括步骤:
显示包括多个元素的用户界面,以便用户在所述多个元素之间导航。
3.根据权利要求2所述的方法,还包括步骤:
更新所显示的用户界面,以反映被映射至所述至少一个元素和所述至少一个邻居的取向的所接收的移动信息。
4.根据权利要求1所述的方法,其中,矢量信息包括角度和幅度分量。
5.根据权利要求4所述的方法,其中,对至少一个元素和至少一个邻居的取向加以表达的所述矢量信息还包括接受角度和幅度阈值。
6.根据权利要求1所述的方法,其中,从基于指点器的控制设备接收移动信息输入。
7.根据权利要求1所述的方法,其中,表达多个元素与其邻居的取向。
8.根据权利要求1所述的方法,其中,将从接收的移动信息转换而来的矢量信息映射至表达了所述至少一个元素和所述至少一个邻居的取向的所述矢量信息的步骤包括:
确定用户界面中的活跃元素;
确定转换而来的矢量信息的角度分量是否在表达了活跃元素和至少一个邻居的取向的矢量信息的接受角度内;
确定转换而来的矢量信息的幅度分量是否满足表达了活跃元素和至少一个邻居的取向的矢量信息的幅度阈值;
如果转换而来的矢量信息的角度和幅度分量在接受角度和幅度阈值内,则使该邻居成为新的活跃元素。
9.一种允许导航用户界面的***,所述***包括电子设备,所述电子设备包括:
输出接口,配置为输出用户界面;
输入接口,配置为接收用于导航用户界面的移动信息;
处理器,配置为将用户界面的至少一个元素及其邻居的取向表达为矢量信息,将接收的移动信息转换为矢量信息,以及将从接收的移动信息转换而来的矢量信息映射至表达了所述至少一个元素和至少一个邻居的取向的所述矢量信息;以及
存储装置,配置为存储矢量信息。
10.根据权利要求9所述的***,还包括:显示器,用于显示输出接口输出的用户界面。
11.根据权利要求10所述的***,其中,显示器是电子设备的一部分。
12.根据权利要求9所述的***,还包括:控制设备,配置为产生要由输入接口接收的移动信息。
13.根据权利要求12所述的***,其中,控制设备是电子设备的一部分。
14.一种计算机程序产品,包括具有计算机可读程序的计算机可用介质,其中当在计算机上执行时,计算机可读程序使计算机执行包括如下的方法步骤:
将用户界面的至少一个元素与其邻居的取向表达为矢量信息;
接收输入的用于导航用户界面的移动信息;
将移动信息转换为矢量信息;以及
将从接收的移动信息转换而来的矢量信息映射至表达了所述至少一个元素和至少一个邻居的取向的所述矢量信息。
CN2011800477852A 2010-10-01 2011-09-30 用于用户界面中导航的***和方法 Pending CN103180811A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US38897510P 2010-10-01 2010-10-01
US61/388,975 2010-10-01
PCT/US2011/054115 WO2012044877A1 (en) 2010-10-01 2011-09-30 System and method for navigation in a user interfface

Publications (1)

Publication Number Publication Date
CN103180811A true CN103180811A (zh) 2013-06-26

Family

ID=45893528

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011800477852A Pending CN103180811A (zh) 2010-10-01 2011-09-30 用于用户界面中导航的***和方法

Country Status (6)

Country Link
US (1) US10705625B2 (zh)
EP (1) EP2622451B1 (zh)
JP (2) JP2013539140A (zh)
KR (1) KR20130124502A (zh)
CN (1) CN103180811A (zh)
WO (1) WO2012044877A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345248A (zh) * 2013-06-28 2013-10-09 深圳市江波龙电子有限公司 一种双路运动设备的控制方法、装置及***
CN108093283A (zh) * 2017-12-29 2018-05-29 王小艳 一种机顶盒3d翻滚图形界面的实现方法
CN109091454A (zh) * 2018-08-24 2018-12-28 四川志邦生物科技有限公司 一种氯氰碘柳胺钠注射液的制备方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2627788T3 (es) * 2011-01-11 2017-07-31 Sunovion Pharmaceuticals Inc. Compuestos heteroarilo y procedimientos de uso de los mismos
US20130067366A1 (en) * 2011-09-14 2013-03-14 Microsoft Corporation Establishing content navigation direction based on directional user gestures
US10089000B2 (en) 2016-06-03 2018-10-02 Microsoft Technology Licensing, Llc Auto targeting assistance for input devices

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6292179B1 (en) * 1998-05-12 2001-09-18 Samsung Electronics Co., Ltd. Software keyboard system using trace of stylus on a touch screen and method for recognizing key code using the same
WO2002059737A2 (en) * 2001-01-24 2002-08-01 Fabrizio Giacomelli Method for moving a graphical pointer on a computer display
US20040119744A1 (en) * 2001-12-19 2004-06-24 Sammy Chan Selecting moving objects on a system
CN1936808A (zh) * 2005-04-18 2007-03-28 阿瓦戈科技Ecbuip(新加坡)股份有限公司 用于使用软键盘来简化文本输入的电子设备和方法
WO2008044163A2 (en) * 2006-10-11 2008-04-17 Koninklijke Philips Electronics N.V. A method and a system for navigating between buttons displayed on a user interface
US20090037813A1 (en) * 2007-07-31 2009-02-05 Palo Alto Research Center Incorporated Space-constrained marking menus for mobile devices
US20090138823A1 (en) * 2007-11-28 2009-05-28 Marcel Bradea Handheld electronic device and associated method employing a graphical user interface to output on a display virtually stacked groups of selectable objects
CN101566910A (zh) * 2008-04-21 2009-10-28 株式会社和冠 放射式控制菜单、图形用户接口和控制变量的方法
US20100023862A1 (en) * 2008-07-24 2010-01-28 Xiaorong Tai User Navigation via Vectors Dynamically Mapped to Distinct Media Attributes

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298023A (ja) 1992-04-20 1993-11-12 Matsushita Electric Ind Co Ltd アイコン選択方法
JPH08314637A (ja) 1995-05-22 1996-11-29 Matsushita Electric Ind Co Ltd 映像表示装置
US6614455B1 (en) 1999-09-27 2003-09-02 Koninklijke Philips Electronics N.V. Directional navigation within a graphical user interface
US20030106057A1 (en) 2001-12-05 2003-06-05 Predictive Networks, Inc. Television navigation program guide
US8566751B2 (en) 2005-01-24 2013-10-22 International Business Machines Corporation GUI pointer automatic position vectoring
US20070061749A1 (en) * 2005-08-29 2007-03-15 Microsoft Corporation Virtual focus for contextual discovery
US20080104058A1 (en) 2006-11-01 2008-05-01 United Video Properties, Inc. Presenting media guidance search results based on relevancy
KR101182286B1 (ko) 2007-09-19 2012-09-14 삼성전자주식회사 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법
JPWO2009128148A1 (ja) * 2008-04-16 2011-08-04 パイオニア株式会社 運転者用遠隔操作装置
JP2011054049A (ja) 2009-09-03 2011-03-17 Sony Corp 情報処理装置、情報処理方法、プログラムおよび情報処理システム
US8531461B2 (en) * 2009-09-29 2013-09-10 Blackberry Limited Portable electronic device and method of controlling same
JP2011154543A (ja) 2010-01-27 2011-08-11 Kyocera Corp 電子機器、入力方法および入力プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6292179B1 (en) * 1998-05-12 2001-09-18 Samsung Electronics Co., Ltd. Software keyboard system using trace of stylus on a touch screen and method for recognizing key code using the same
WO2002059737A2 (en) * 2001-01-24 2002-08-01 Fabrizio Giacomelli Method for moving a graphical pointer on a computer display
US20040119744A1 (en) * 2001-12-19 2004-06-24 Sammy Chan Selecting moving objects on a system
CN1936808A (zh) * 2005-04-18 2007-03-28 阿瓦戈科技Ecbuip(新加坡)股份有限公司 用于使用软键盘来简化文本输入的电子设备和方法
WO2008044163A2 (en) * 2006-10-11 2008-04-17 Koninklijke Philips Electronics N.V. A method and a system for navigating between buttons displayed on a user interface
US20090037813A1 (en) * 2007-07-31 2009-02-05 Palo Alto Research Center Incorporated Space-constrained marking menus for mobile devices
US20090138823A1 (en) * 2007-11-28 2009-05-28 Marcel Bradea Handheld electronic device and associated method employing a graphical user interface to output on a display virtually stacked groups of selectable objects
CN101566910A (zh) * 2008-04-21 2009-10-28 株式会社和冠 放射式控制菜单、图形用户接口和控制变量的方法
US20100023862A1 (en) * 2008-07-24 2010-01-28 Xiaorong Tai User Navigation via Vectors Dynamically Mapped to Distinct Media Attributes

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345248A (zh) * 2013-06-28 2013-10-09 深圳市江波龙电子有限公司 一种双路运动设备的控制方法、装置及***
CN103345248B (zh) * 2013-06-28 2015-12-09 深圳市江波龙电子有限公司 一种双路运动设备的控制方法、装置及***
CN108093283A (zh) * 2017-12-29 2018-05-29 王小艳 一种机顶盒3d翻滚图形界面的实现方法
CN109091454A (zh) * 2018-08-24 2018-12-28 四川志邦生物科技有限公司 一种氯氰碘柳胺钠注射液的制备方法
CN109091454B (zh) * 2018-08-24 2021-01-01 四川志邦生物科技有限公司 一种氯氰碘柳胺钠注射液的制备方法

Also Published As

Publication number Publication date
US20130191788A1 (en) 2013-07-25
JP2017079058A (ja) 2017-04-27
JP2013539140A (ja) 2013-10-17
US10705625B2 (en) 2020-07-07
EP2622451B1 (en) 2021-06-09
WO2012044877A1 (en) 2012-04-05
EP2622451A1 (en) 2013-08-07
KR20130124502A (ko) 2013-11-14
EP2622451A4 (en) 2016-08-31

Similar Documents

Publication Publication Date Title
US10856033B2 (en) User terminal apparatus, display apparatus, user interface providing method and controlling method thereof
US9223416B2 (en) Display apparatus, remote controlling apparatus and control method thereof
US10088991B2 (en) Display device for executing multiple applications and method for controlling the same
KR101463540B1 (ko) 휴대용 전자 기기를 이용한 3차원 가상 커서 제어 방법
US20130176244A1 (en) Electronic apparatus and display control method
US10963136B2 (en) Highlighting of objects on a display
US20130314396A1 (en) Image display apparatus and method for operating the same
CN108733303B (zh) 便携式终端的触摸输入方法和设备
CN103180811A (zh) 用于用户界面中导航的***和方法
CN105763921B (zh) 图像显示设备和方法
KR102354695B1 (ko) 컨텐츠 작성 시스템 상의 가이드
KR102373170B1 (ko) 하나 이상의 아이템들을 동시에 표시하는 방법 및 이를 위한 전자 장치
KR20170066916A (ko) 전자 장치 및 그의 제어 방법
US20160085359A1 (en) Display apparatus and method for controlling the same
US9372557B2 (en) Display apparatus, input apparatus, and method for compensating coordinates using the same
KR20170042953A (ko) 디스플레이 장치 및 이의 제어 방법
EP2752756A2 (en) Input device, device and operating methods thereof
US8610740B2 (en) Information processing apparatus, information processing method, program, and information processing system
KR102125100B1 (ko) 웨어러블 디바이스의 제어 방법 및 그 장치
US20110055743A1 (en) Information processing apparatus, information processing method, program, and information processing system
KR102088459B1 (ko) 사용자 제스처를 이용한 복수의 단말 간 사용자인터페이스 통합 방법 및 이를 수행하는 단말
KR20170078007A (ko) 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190124

Address after: Paris France

Applicant after: Interactive Digital Madison Patent Holdings

Address before: I Si Eli Murli Nor, France

Applicant before: THOMSON LICENSING

Effective date of registration: 20190124

Address after: I Si Eli Murli Nor, France

Applicant after: THOMSON LICENSING

Address before: I Si Eli Murli Nor, France

Applicant before: THOMSON LICENSING

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20130626