CN107533424A - 用户终端设备及其控制方法 - Google Patents
用户终端设备及其控制方法 Download PDFInfo
- Publication number
- CN107533424A CN107533424A CN201680024602.8A CN201680024602A CN107533424A CN 107533424 A CN107533424 A CN 107533424A CN 201680024602 A CN201680024602 A CN 201680024602A CN 107533424 A CN107533424 A CN 107533424A
- Authority
- CN
- China
- Prior art keywords
- subscriber terminal
- terminal equipment
- display device
- loader
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42208—Display device provided on the remote control
- H04N21/42209—Display device provided on the remote control for displaying non-command information, e.g. electronic program guide [EPG], e-mail, messages or a second television channel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Computer Networks & Wireless Communication (AREA)
Abstract
一种用于控制显示设备的用户终端设备,其中所述装置包括:通信器,被配置为执行与所述显示设备的通信;第一输入器,设置在所述用户终端设备的一个表面上,并且被配置为接收用于控制所述显示设备的基本功能的用户命令的输入;第二输入器,设置在所述用户终端设备的另一个表面上,并且被配置为通过触摸屏显示UI(用户界面);以及处理器,被配置为通过所述触摸屏提供与所述用户终端设备的场景相对应的信息。
Description
技术领域
根据本实施例的设备和方法涉及一种用户终端设备及其控制方法,更具体地,涉及这种设置有遥控功能的用户终端设备及其控制方法。
背景技术
由于电子技术的发展,各种类型的显示设备得以开发。特别地,显示设备(例如,TV、PC、笔记本电脑、平板电脑、移动电话和MP3播放器等)被广泛使用,几乎每个家庭至少有一个显示设备。
近来,为了满足用户对于更新颖和各种功能的需求,正在努力开发一种更为新颖的显示设备。
作为这种努力的一部分,包括UI的遥控设备正在被开发并用于各个领域,用户可以通过UI快速地接近从显示设备提供的各种内容。
然而,这种用户终端设备的缺点在于不能满足想要快速接近包括各种内容(例如,基于web的内容和社会内容等)的大量内容的用户的各种需求。
发明内容
技术问题
本公开的目的是解决现有技术的上述问题,即提供一种用户终端设备及其控制方法,所述用户终端设备被配置为在一个表面上提供基本控制UI,并且在另一个表面上提供适用于情形的附加信息,使得用户可以快速地接近他/她想要的内容。
技术方案
根据本公开实施例,提供了一种用于控制显示设备的用户终端设备,所述设备包括:通信器,被配置为与显示设备进行通信;第一输入器,设置在所述用户终端设备的一个表面上,并且被配置为接收用于控制所述显示设备的基本功能的用户命令的输入;第二输入器,设置在用户终端设备的另一表面上,并且被配置为通过触摸屏显示UI(用户界面);以及处理器,被配置为通过触摸屏提供与用户终端设备的场景相对应的信息。
第一输入器可以设置有包括用于控制显示设备的基本功能的基本UI的触摸屏。
第一输入器可以设置有PUI(物理用户接口),所述PUI包括用于控制显示设备的基本功能的至少一个物理按钮。
用户终端设备的场景可以包括以下中的至少一个:选择了某个菜单的情形、在显示设备中接收到某个信号的情形和翻转用户终端设备情形。
处理器可以基于翻转用户终端设备的场景来控制第一输入器和第二输入器中的至少一个激活状态。
处理器响应于接收到与显示设备的场景相对应的信号,可以通过触摸屏提供与显示设备的场景相对应的信息。
处理器响应于处于显示设备显示内容的情形,可以通过触摸屏显示与所述内容有关的附加信息,并且响应于处于显示设备接收字符输入的情形,可以通过触摸屏显示用于输入字符的UI。
处理器可以提供UI屏幕,所述UI屏幕包括用于根据预定事件直接重放至少一个内容的至少一个GUI,并且所述UI屏幕包括基于至少一个内容的使用频率而依次布置的预定格式的GUI。
处理器响应于选择GUI的用户操作是短按压输入,可以直接显示与所选GUI相对应的内容,并且响应于选择GUI的用户操作是长按压输入,可以提供与所选择的GUI相对应的内容相关的菜单。
处理器可以根据预定触摸互动沿预定方向滚动UI屏幕并且显示所述UI屏幕,并且根据预定事件在触摸屏上附加地显示未在UI屏幕上显示的至少一个GUI。
根据本公开实施例,提供了一种用户终端设备的控制方法,所述用户终端设备用于控制显示设备,所述用户终端设备包括:通信器,被配置为执行与显示设备的通信;第一输入器,设置在用户终端设备的一个表面上,并且被配置为接收用于控制显示设备的基本功能的用户命令的输入;第二输入器,设置在用户终端设备的另一表面上,并且被配置为通过触摸屏显示UI(用户界面);所述方法包括:确定用户终端设备的场景;以及通过所述触摸屏提供与用户终端设备的场景相对应的信息。
第一输入器可以设置有包括用于控制显示设备的基本功能的基本UI的触摸屏。
第一输入器可以设置有PUI(物理用户接口),所述PUI包括用于控制显示设备的基本功能的至少一个物理按钮。
用户终端设备的场景可以包括以下中的至少一个:选择了某个菜单的情形、在显示设备中接收到某个信号的情形和翻转用户终端设备情形。
所述方法还可以包括基于翻转用户终端设备的场景来控制第一输入器和第二输入器中的至少一个激活状态。
通过触摸屏提供与用户终端设备的场景相对应的信息可以包括:响应于接收到与显示设备的场景相对应的信号,提供与显示设备的场景相对应的信息。
通过触摸屏提供与用户终端设备的场景相对应的信息可以包括:响应于处于显示设备显示内容的情形,通过触摸屏显示与所述内容有关的附加信息,并且响应于处于显示设备接收字符输入的情形,通过触摸屏显示用于输入字符的UI。
通过触摸屏提供与用户终端设备的场景相对应的信息可以包括:提供UI屏幕,所述UI屏幕包括用于根据预定事件直接重放至少一个内容的至少一个GUI,并且所述UI屏幕包括基于至少一个内容的使用频率依次布置的预定格式的GUI。
所述方法还可以包括:响应于选择GUI的用户操作是短按压输入,直接显示与所选GUI相对应的内容,并且响应于选择GUI的用户操作是长按压输入,提供与所选择的GUI相对应的内容相关的菜单。
所述方法还可以包括:根据预定触摸互动沿预定方向滚动UI屏幕并且显示UI屏幕,并且根据预定事件在触摸屏上附加地显示未在UI屏幕上显示的至少一个GUI。
根据本公开实施例,提供了一种存储控制方法的非暂时性计算可读介质,所述控制方法是用于控制显示设备的用户终端设备的控制方法,所述用户终端设备包括:通信器,被配置为执行与所述显示设备的通信;第一输入器,设置在用户终端设备的一个表面上,并且被配置为接收用于控制显示设备的基本功能的用户命令的输入;第二输入器,设置在用户终端设备的另一表面上,并且被配置为通过触摸屏显示另一表面UI(用户界面);所述方法包括:确定用户终端设备的场景,并且通过触摸屏提供与用户终端设备的场景相对应的信息。
根据本公开实施例,提供了一种用于控制显示器的用户终端,所述终端包括:第一输入单元,位于所述终端的第一表面上以输入用户命令;触敏显示器,位于终端的第二表面上,并且被配置为提供图像用户界面(GUI),用户通过所述GUI与显示器进行互动;以及处理器,用于经由GUI向用户提供场景信息。
有益效果
如上所述,根据本公开,可以在一个表面上提供基本控制UI,并且在另一表面上提供适用于情形的附加信息,从而使得用户能够快速接近他/她想要的内容以增加用户的便利性。
附图说明
图1是用于说明根据本公开实施例的用户终端设备的示例的视图;
图2A和图2B是示出了根据本公开的各实施例的用于控制显示设备的用户终端设备的配置的框图;
图3A至图3F是用于说明根据本公开实施例的用户终端设备的结构的视图;
图4A和图4B是用于说明根据本公开实施例的用户终端设备的第一输入器的结构的视图;
图5A和图5B是用于说明根据本公开实施例的用户终端设备的操作的视图;
图6A和图6B是用于说明根据本公开实施例的用户终端设备的操作的视图;
图7A至图7C是用于说明根据本公开实施例的用户终端设备的操作的视图;
图8是用于说明根据本公开实施例的用户终端设备的操作的视图;
图9A和图9C是用于说明根据本公开实施例的用户终端设备的操作的视图;以及
图10是用于说明根据本公开实施例的用于控制用户终端设备的方法的流程图。
具体实施方式
现在将详细参考实施例,实施例的示例在附图中示出,其中全文中相同的附图标记指代相同的要素。下面参考附图来描述实施例。
现在,将参照附图来更详细地描述某些示例实施例。
在下面的描述中,即使在不同的附图中,相同的附图标记用于相同的要素。提供了在描述中定义的诸如详细构造和元件的事项以帮助全面理解。因此,显而易见的是,可以在没有那些具体限定事项的情况下执行示例性实施例。此外,由于公知的功能或构造会以不必要的细节而模糊描述,因此没有对其进行详细地描述。
图1是用于说明根据本公开实施例的显示***的示例的视图。
根据图1,根据本公开实施例的显示***包括用户终端设备100和显示设备200。
用户终端设备100可以以诸如移动电话或手机、PMP、PDA、笔记本电脑之类的各种格式之一来实现。
更具体地,用户终端设备100可以被实现为能够显示UI屏幕并通过触摸互动来控制所显示的UI屏幕的基于触摸的便携式终端格式设备。在这种情况下,用户终端设备100可以被实现为具有触摸屏的设备。因此,用户终端设备100可以被实现为具有触摸屏,使得可以使用手指或笔(例如,触控笔)来执行程序。此外,用户终端设备100提供这样的功能:在触摸屏上提供用于控制显示设备200的UI(用户界面)屏幕,并且将与用户触摸操作相对应的信号发送到显示设备200。为此,用户终端设备100可以被实现为包括被配置为接收各种格式之一的用户命令的触摸传感器或使用光学技术的OJ(光学操纵杆)传感器。
在某些情况下,用户终端设备100可以以各种格式之一来实现以进行以下操作:感测用户终端设备100的移动并发送与移动相对应的信号、识别语音并发送与所识别的语音相对应的信号或发送与输入键相对应的信号。为此,用户终端设备100可以被实现为还包括运动传感器、麦克风或物理按钮(例如,触觉开关)等。
如图1所示,显示设备200可以被实现为数字TV,但不限于此,因此其可以被实现为设置有显示功能的各种类型的设备之一(例如,PC(个人计算机)、导航仪、自动服务终端(Kiosk)、DID(数字信息显示器)等)。在某些情况下,显示设备200可以被实现为未设置有显示功能的设备,只要所述设备是通过用户终端设备100可控制的即可。
同时,根据本公开的用户终端设备100可以设置有位于其两个表面上的用户界面,一个表面提供基本控制UI,另一个表面提供适用于情形的附加信息。下面将参考附图更详细地说明本公开的各实施例。
图2A和图2B是示出了根据本公开的各实施例的用于控制显示设备200的用户终端设备100的配置的框图。
根据图2A,用户终端设备100包括通信器110、第一输入器120、第二输入器130和处理器140(例如计算机)。
通信器110执行与显示设备(图1,200)的通信。
在此,通信器110可以通过各种通信方法(例如,BT(蓝牙)、WI-FI(无线保真)、Zigbee、IR(红外线)、串行接口、USB(通用串行总线)和NFC(近场通信))与显示设备200或外部服务器(未示出)进行通信。
更具体地,响应于预定事件发生,通信器110可以按照预定义的通信方法执行与显示设备200的通信,并且进入互锁状态。在此,互锁操作可以意指能够进行通信的任何一种状态,例如发起用户终端设备100和显示设备200之间的通信的操作、形成网络的操作或执行设备配对的操作。例如,可以将用户终端设备100的设备标识信息提供给显示设备200,由此,可以执行两个设备之间的配对过程。例如,响应于在用户终端设备100中发生预定事件,可以通过DLNA(数字生活网络联盟)技术来搜索***设备,并且可以执行与搜索到的设备的配对并且进入互锁状态。
在此,预定事件可以在用户终端设备100和显示设备200中的至少一个中发生。例如,用户终端设备100将显示设备200选择为正在输入控制对象的用户命令或者显示设备200的电源接通可以是预定事件。
第一输入器120可以设置在用户终端设备100的一个表面上,并且可以接收用于控制显示设备200的基本功能的用户命令。
更具体地,第一输入器120可以以如下这样的格式来实现:包括具有用于控制显示设备200的基本功能的基本UI的触摸屏或者具有包括用于控制显示设备200的基本功能的至少一个物理按钮的PUI(物理用户接口)。
在此,用于控制显示设备200的基本功能的基本UI可以包括频道向上/向下按钮、音量调节按钮和用于提供预定信息的信息(info)按钮中的至少一个。
根据实施例,UI可以被实现为包括频道向上/向下按钮、音量调节按钮和信息按钮中的至少一个物理按钮的PUI。否则,根据另一实施例,UI可以以包括频道向上/向下按钮、音量调节按钮和信息按钮中的至少一个GUI(图形用户界面)的格式来实现,在这种情况下,第一输入器120可以被实现为显示GUI的触摸屏,并且接收关于GUI的用户触摸输入。
同时,在上述实施例中,说明了用于控制显示设备200的基本功能的基本UI中包括频道向上/向下按钮、音量调节按钮和信息按钮,但这仅是实施例,因此与显示设备200的基本功能相关的任何按钮可以不受限地应用。
第二输入器130设置在用户终端设备100的另一个表面上,并且通过触摸屏显示UI(用户界面)。
更具体地,第二输入器130可以在触摸屏上提供用于选择显示设备200中可以提供的各种功能的菜单屏幕以及用于选择各种模式的UI屏幕。在此,UI屏幕可以包括用于重放各种内容(例如,图像、视频、文本和音乐以及频道)的屏幕、包括各种内容的应用执行屏幕、网页浏览器屏幕和GUI(图形用户界面)屏幕等。
同时,设置在第一输入器120和第二输入器130中的触摸屏可以被实现为LCD(液晶显示面板)、OLED(有机发光二极管),但不限于此。此外,当设置在第一输入器120或第二输入器130中时,触摸屏可以被实现为柔性显示器或透明显示器等。
处理器140控制用户终端设备100的整体操作。
处理器140通过设置在第二输入器130中的触摸屏来提供与用户终端设备100的场景相对应的信息。在此,用户终端设备100的场景可以包括如下情形中的至少一个:从用户终端100中选择了某个菜单或某个按钮的情形、从用户终端设备100的外部(例如,显示设备200)接收到某个信号的情形和翻转用户终端设备100的情形。更具体地,在选择了某个菜单或某个按钮的情形的情况下:响应于在用户终端设备100中选择了信息按钮,处理器140可以在第二输入器130上设置的触摸屏上输出与在显示设备200中重放的内容相关的详细说明;或者响应于选择QUERTY,将在显示设备200中输出的QUERTY键盘输出到第二输入器130;或者响应于选择功能菜单,输出与显示设备200的功能相关的各种菜单。
同时,关于从用户终端设备100的外部接收到某个信号的情形,处理器140可以基于与显示设备200的场景有关的状态信息在第二输入器130中设置的触摸屏上输出相应的UI。在此,显示设备200的场景指示需要控制的情形,并且因此可以具有包括各种状态和情形(例如,显示设备200中提供的功能、提供的内容类型、提供的图像面板和显示状态等)的含义。
更具体地,响应于键入了实时查看广播频道的广播查看模式、重放VOD内容的内容重放模式、菜单提供模式、游戏模式和网页模式中的至少一种模式,或者响应于接收到处于对应模式中的状态信息,处理器140可以向设置在第二输入器中的触摸屏提供与模式相对应的UI。
此外,响应于即使处于某种模式中也接收到处于执行提供某种模式的详细功能的状态的状态信息,处理器140可以在第二输入器130中设置的触摸屏上提供与对应的详细功能相对应的UI。例如,响应于显示设备120处于广播查看模式下的音量调节状态或者响应于根据需要音量调节的情况而接收信号,处理器140可以在第二输入器130中设置的触摸屏上提供对应的UI。例如,响应于显示设备200处于静音模式,处理器140可以向在第二输入器130中设置的触摸屏提供用于音量调节的UI。
同时,处理器140可以从外部服务器(未示出)接收与显示设备200的状态相对应的UI屏幕有关的信息和与该UI信息相对应的控制信息,并且基于所接收到的信息提供对应的UI。例如,在根据用户的命令从用户终端设备100提供SNS屏幕的情况下,处理器可以从外部服务器(未示出)接收对应的信息。在这种情况下,外部服务器(未示出)可以经由网络连接到互联网,并且可以更新与用户终端设备100和显示设备200有关的信息。例如,外部服务器可以更新设备驱动器信息、控制信息、UI信息等。
同时,处理器140可以基于翻转用户终端设备100的场景来控制第一输入器120和第二输入器130中的至少一个的激活状态。
例如,响应于确定了已经翻转第一输入器120使得其处于用户的视域内,处理器140接通设置在第一输入器120中的触摸屏,并且关断设置在第二输入器130中的触摸屏。相反,响应于确定了已经翻转第二输入器130使得其处于用户的视域内,处理器140可以接通设置在第二输入器130中的触摸屏,并且关断设置在第一输入器120中的触摸屏。
更具体地,响应于确定了握持状态已经从握持第一输入器120提供的表面改变为握持第二输入器130提供的表面,或者响应于确定了握持状态已经从握持第二输入器130提供的表面改变为握持第一输入器120提供的表面,处理器140可以识别其具有翻转操作。这样的握持操作可以通过各种传感器来识别。例如,响应于通过在用户终端设备100的前表面和后表面两者中的至少一个中设置的触摸传感器感测到用户触摸,处理器140可以识别到存在握持操作。
同时,响应于通过在用户终端设备100中设置的陀螺仪传感器和加速度传感器中的至少一个感测到旋转和倾斜中的至少一个,处理器140可以识别到存在握持操作。
否则,处理器140可以通过相机传感器识别用户所处的方向,并且识别存在翻转操作。
如上所述,通过经由第一输入器120和第二输入器130提供不同的UI或GUI,能够提高用户便利性。例如,响应于用户倚靠在沙发或床上或者处于舒服的位置(倚靠),用户能够长时间观看正在显示设备200中执行的内容,或者跳过正在显示设备200中提供的内容,在这种情况下,用户通常可以以简单的方法来操作显示设备200,由此用户可以如上所述地通过第一输入器110来方便地控制显示设备200。此外,当用户希望控制显示设备200的详细功能时,用户可以简单地翻转用户终端设备100,并且通过经由第二输入器130的触摸屏提供的各种UI来容易地控制显示设备200。也就是说,可以根据显示设备200的情形、用户终端设备100的情形和用户的控制情形来提供合适的UI。
图2B是详细示出根据本公开的另一实施例的用户终端设备的配置的框图。根据图2b,用户终端设备100’包括通信器110、第一输入器120、第二输入器130、处理器140、存储器150和传感器160。将省略与图2A中已经示出的组件重叠的图2b的组件有关的详细说明。
处理器140使用在存储器150中存储的各种程序来控制用户终端设备100’的整体操作。
具体地,处理器140包括RAM141、ROM142、主CPU143、图形处理器144、第一接口145-1到第n接口145-n以及总线146。
RAM141、ROM142、主CPU143、图形处理器144以及第一接口145-1到第n接口145-n可以通过总线146彼此连接。
第一接口145-1到第n接口145-n连接到上述各种组件。接口之一可以是通过网络连接到外部装置的网络接口。
主CPU143访问存储器150,并使用在存储器150中存储的O/S来执行启动。此外,主CPU143使用在存储器150中存储的各种程序、内容和数据来执行各种操作。
在ROM142中,存储了用于启动***的命令集。响应于输入接通命令并且供电,主CPU143根据在ROM142中存储的命令将在存储器150中存储的O/S复制到RAM141中,并执行该O/S以启动***。当启动完成时,主CPU143将在存储器150中存储的各种应用程序复制到RAM141,并执行复制到RAM141的应用程序,以执行各种操作。
图形处理器144使用运算器(未示出)和渲染器(未示出)来生成包括各种对象(例如,图标、图像和文本)的屏幕。运算器(未示出)基于所接收到的控制命令,根据屏幕的布局来计算要显示的每个对象的属性值(例如,坐标值、形状、大小和颜色)。渲染器(未示出)基于在运算器(未示出)中计算出的属性值来生成包括对象的各个布局的屏幕。在第一输入器120和第二输入器130的显示区域内显示在渲染器(未示出)中生成的屏幕。
同时,处理器140的上述操作可以通过在存储器150中存储的程序来执行。
存储器150可以存储用于驱动用户终端设备100’的O/S(操作***)软件模块和各种数据(例如,各种多媒体内容)。
特别地,根据本公开实施例,存储器150可以存储用于配置在第一输入器120和第二输入器130的显示区域中提供的各种UI屏幕的数据。
此外,存储器150可以存储用于生成与通过各种UI屏幕输入的用户命令相对应的控制信号的数据。
传感器160包括触摸传感器、地磁传感器、陀螺仪传感器、加速度传感器、接近传感器和握持传感器。除了上述触摸之外,传感器160可以感测各种操作(例如,旋转、倾斜、按压、接近和握持)。例如,除了设置在触摸屏上的触摸传感器之外,用户终端设备100’可以布置在后表面、周边或手柄部分上,并且感测用户的握持。除了触摸传感器之外,握持传感器可以被实现为压力传感器。
否则,用户终端设备100’还可以包括音频处理器(未示出)、视频处理器(未示出)、扬声器(未示出)和麦克风(未示出),音频处理器被配置为处理音频数据,视频处理器被配置为处理视频数据,扬声器被配置为不仅输出在音频处理器(未示出)中处理的各种音频数据还输出各种警报声音和语音消息,麦克风被配置为接收用户的语音和其它声音并且将其转换成音频数据。
图3A至图3F是用于说明根据本公开实施例的用户终端设备100的结构的视图。
图3A和图3B是用于说明根据本公开实施例的用户终端设备100的第一输入器310的结构的视图。
根据实施例,第一输入器310可以具有PUI(物理用户接口),所述PUI包括用于控制显示设备200的基本功能的至少一个物理按钮。例如,如图3A中所示,第一输入器310可以具有简单的物理按钮。在图3A中,每个按钮可以被实现为频道向上/向上按钮311、312或信息313按钮,但不限于此。
根据另一实施例,第一输入器310可以具有触摸屏314,触摸屏314包括用于控制显示设备200的基本功能的基本UI。
图4A和图4B是用于说明根据本公开实施例的设置有用户终端设备100的第一输入器314的情况的视图。
根据实施例,如图4A所示,在设置在第一输入器410中的触摸屏411中,可以提供用于控制显示设备200的基本功能的基本UI。例如,如所示,在基本UI中,可以包括用于接通/关断显示设备200的GUI411-1、频道向上/向下GUI411-2、411-3和音量调节GUI411-4、411-5,但不限于此。
根据另一实施例,如图4B所示,第一输入器410还可以设置有用于提供基本UI的触摸屏415和附加物理按钮412至414。
例如,还可以设置诸如用于接通/关断显示设备200的按钮、频道向上/向下按钮和音量调节按钮的物理按钮。
图3C和图3D是用于说明根据本公开实施例的用户终端设备310的第二输入器320的结构的视图。
根据实施例,第二输入器320可以仅是触摸屏315(如图3C所示),但是根据另一实施例,第二输入器320也可以是至少一个物理按钮316、317和触摸屏318的组合(如图3D所示)。
图3E和图3F是用于说明根据本公开实施例的用户终端设备100的一侧和上面部分的结构的视图。
根据实施例,如图3E所示,在用户终端设备100的一侧处,可以设置至少一个按钮。例如,可以存在包括音量调节按钮和静音按钮的三个按钮,但不限于此。
根据实施例,如图3F所示,在用户终端设备100的上面部分处,可以设置至少一个按钮(例如,开/关按钮322),但不限于此。
图5A和图5B是用于说明根据本公开实施例的用户终端设备100的操作的视图。
根据本公开实施例,如图5A和5B所示,响应于对在第一输入器510中设置的信息按钮513进行按压操作,可以将与正在显示设备200中重放的内容有关的信息输出到在第二输入器520中设置的触摸屏523。例如,响应于对在第一输入器510中设置的信息按钮513进行按压操作,用户终端设备100可以向显示设备200请求与当前正在显示的内容有关的详细信息,并且响应于在请求时接收到与内容相对应的详细信息,用户终端设备100可以基于所接收到的详细信息显示UI屏幕。在另一示例中,响应于对在第一输入器510中设置的信息按钮513进行按压操作,用户终端设备100可以向显示设备200请求与当前正在显示的内容有关的标识信息,并且响应于在请求时接收到与内容有关的识别信息,用户终端设备100可以从外部服务器(未示出)接收与所接收到的标识信息相对应的内容有关的详细信息,并提供该详细信息。
图6A和图6B是用于说明根据本公开实施例的用户终端设备100的操作的视图。
根据本公开实施例,处理器140可以提供UI屏幕,所述UI屏幕包括用于根据预定事件直接重放至少一个内容的至少一个GUI。在此,预定事件可以是旋转或加速用户终端设备100的事件、触摸在用户终端设备100中设置的触摸屏的预定区域的事件或输入在用户终端设备100中设置的预定按钮的事件,但不限于此。
例如,如图6A所示,根据输入在用户终端设备100中设置的预定按钮612的事件,可以在触摸屏613上提供如图6B所示的UI屏幕。
具体地,处理器140可以提供UI屏幕,在所述UI屏幕中基于预存储内容使用历史而依次布置预定格式的GUI。在此,内容使用历史可以包括至少一个内容的使用频率,并且处理器140可以提供UI屏幕,在所述UI屏幕中基于内容的使用频率被依次地布置与每个内容相对应的预定格式的GUI。
例如,如图6B所示,可以输出UI屏幕,在所述UI屏幕中根据基于内容的使用频率所确定的顺序将所述圆形格式GUI依次地布置在第二输入装置610中设置的触摸屏613上。在这种情况下,处理器140可以按照从具有高使用频率的高优先级的内容开始到具有低使用频率的低优先级的内容的顺序来布置内容。然而,在上述实施例中,说明了GUI具有圆形格式,但不限于此,因此GUI的格式可以是各种类型的多边形形状(例如,三角形或正方形或椭圆形)中的任何一种。
如上所述,首先能够基于内容使用频率在UI上提供针对用户频繁使用的内容的GUI,使得用户可以容易地搜索内容。
图7A至图7C是用于说明根据本公开实施例的用户终端设备100的操作的视图。
根据本公开实施例,处理器140可以根据与在如图6A所示的UI屏幕上设置的GUI有关的不同用户操作来执行不同的功能。
具体地,响应于选择某个GUI的用户操作是短按压类型输入,处理器140可以直接重放与所选GUI相对应的内容,并且响应于选择某个GUI的用户操作是长按压输入,处理器140可以提供与所选GUI相对应的内容相关的菜单。
例如,如图7A所示,响应于用户短触摸(短按压)与在第二输入器710中设置的触摸屏712上的体育相关内容相对应的GUI711,用户终端设备100可以向显示设备200发送与所触摸的内容相对应的内容执行请求信号和详细信息请求信号。在这种情况下,显示设备200可以根据内容执行请求信号重放和输出对应内容,并且同时向用户终端设备100发送与和所触摸的内容相关的详细信息相对应的信号。用户终端设备100向在第二输入器710中设置的触摸屏712输出与所接收的信号相对应的内容详细信息。
在另一示例中,响应于对与内容相对应的GUI711进行短触摸(短按压),用户终端设备100向显示设备200请求与当前正在显示的内容有关的标识信息和内容执行请求信号。然后,响应于在请求时接收到与所述内容有关的标识信息,用户终端设备100可以从外部服务器(未示出)接收与所接收到的标识信息相对应的内容有关的详细信息,并提供该详细信息。
此外,如图7B所示,响应于对在第二输入器710’中设置的触摸屏712’上的某个GUI713进行长按压操作(长按压),在按压操作的GUI713’的附近显示提供各种选项的GUI714至716。例如如所示地,可以提供诸如用于查看更多选项的GUI714、内容重放GUI715、内容信息提供GUI716的多种GUI,但不限于此。
图7C示出了当用户拖动在第二输入器710”中设置的触摸屏712”时的GUI的操作。
根据本公开实施例,处理器140可以根据预定触摸互动将UI屏幕滚动到预定方向并显示UI(用户界面)屏幕,并且可以根据预定事件附加地显示未在触摸屏上的UI屏幕上显示的至少一个GUI(图形用户界面)。
具体地,如图7C所示,响应于用户向上拖动触摸屏712”,显示在触摸屏712”上的所有GUI将被向上拖动。在此,响应于当所有GUI被向上拖动时触动或拖动设置为空白区域的屏幕上的某个区域720,将在屏幕的一侧上显示与根据用户的使用频率而被确定为低优先级的内容并由此最初不被显示为GUI的内容相对应的GUI721至725。在此,所显示的GUI721至725可以在屏幕上向上移动,并且与现有GUI171至719邻近地显示。响应于在添加了与低优先级内容相对应的GUI之后用户向下拖动触摸屏712”,显示在触摸屏712”上的GUI可以一起向下移动。因此,具有低使用频率并由此具有低优先级的内容也可以在某个用户操作时被依次地附加地显示在屏幕上,并被提供到用户。然而,根据另一实施例,响应于当屏幕上的所有GUI被向上拖动而设置为空白区域的屏幕上没有某个事件,可以仅利用向上移动在屏幕上显示的GUI的事件来重新提供与低优先级内容相对应的GUI。
同时,响应于GUI和另一个GUI在其拐角处彼此相遇,或者当根据上述实施例中的各种事件移动GUI的位置时GUI与对触摸屏的周边加以表示的UI部分相遇,处理器140可以提供GUI相互反弹然后停止的动画效果。
图8是用于说明根据本公开实施例的用户终端设备100的操作的视图。
根据本公开实施例,处理器140可以基于翻转用户终端设备100的场景来控制第一输入器810和第二输入器820中的至少一个的激活状态。
具体地,参考图8,响应于翻转用户终端设备100,使得具有面向用户的第一输入器810的表面被翻转,使得具有其中具有正在显示设备200中重放的内容的第二输入器810的表面面向用户,则可以激活在用户终端设备100的第二输入器820中设置的触摸屏821。
在这种情况下,响应于向显示设备200请求与当前正在显示的内容有关的详细信息并且随后在请求时接收到与内容相对应的详细信息,用户终端设备100可以基于所接收到的详细信息在激活的触摸屏821上显示UI屏幕。
此外,响应于翻转用户终端设备100,使得具有面向用户的第二输入器820的表面被翻转,使得具有第一输入器810的表面面向用户,则当然可以激活第一输入器810。
同时,第一输入器810或第二输入器820的激活是指设置在每个输入器中的触摸屏从“关断”转换为“接通”,但不限于此。
图9A至图9C是用于说明根据本公开实施例的用户终端设备100的操作的视图。
根据本公开实施例,响应于接收到与显示设备200的场景相对应的信号,处理器140可以通过触摸屏提供与显示设备200的场景相对应的信息。在此,显示设备200的场景可以是显示设备被接通/关断的情形,但是也可以是与显示设备200具有的各种功能相关的显示设备200的情形。
例如,如图9A所示,在显示设备200显示用于输入字符的QWERTY键盘921的情形下,用户终端设备100可以从显示设备200接收与该情形相对应的信号。在这种情况下,如所示,用户终端设备100可以在第二输入器910中设置的触摸屏911上显示QWERTY键盘921。在这种情况下,显示设备200可以进行控制,使得当显示设备200向用户终端设备100发送与该情形相对应的信号,或者响应于从用户终端设备100接收到与在屏幕上显示的qwerty键盘921有关的请求信号,在屏幕上显示的QWERTY键盘921消失。
在另一示例中,如图9B所示,在显示设备200显示用于输入字符的菜单屏幕923的情形下,用户终端设备100可以从显示设备200接收与该情形相对应的信号。在这种情况下,用户终端设备100可以在第二输入器910’设置中的触摸屏911’上显示菜单屏幕923,如所示。在这种情况下,显示设备200可以进行控制,使得当显示设备200向用户终端设备100发送与该情形相对应的信号,或者响应于从用户终端设备100接收到与在屏幕上显示的菜单屏幕923有关的请求信号,在屏幕上显示的菜单屏幕923消失。
在另一示例中,如图9C所示,在能够在显示设备200上显示菜单导航的UI屏幕的情形下,用户终端设备100可以从显示设备200接收与该情形相对应的信号。在这种情况下,用户终端设备100可以在屏幕上提供能够进行菜单导航的导航GUI914。在此,导航GUI可以是所示地四方向菜单按钮,但不限于此,由此可以以各种格式来实现。同时,用户能够通过在用户终端设备100中设置的导航GUI914来操作高亮GUI(参见元素925和926周围的黑线)的移动位置,用以选择显示设备200的屏幕上所提供的内容。
图10是用于说明根据本公开实施例的用于控制用户终端设备100的方法的流程图。
首先,响应于确定用户终端设备100的场景(S1010),可以通过触摸屏来提供与用户终端设备100的场景相对应的信息(S1020)。在这种情况下,用户终端设备100可以被实现为包括第一输入器120和第二输入器130,第一输入器120被配置为接收用于控制显示设备200的基本功能的用户命令的输入,第二输入器130设置在用户终端设备的另一表面上并且被配置为通过触摸屏显示UI(用户界面)。
在此,第一输入器120可以具有触摸屏,该触摸屏包括用于控制显示设备200的基本功能的基本UI。
此外,第一输入器120可以具有PUI,所述PUI包括用于控制显示设备200的基本功能的至少一个物理按钮。
此外,用户终端设备100的场景可以包括如下情形中的至少一个:选择了某个菜单或某个按钮的情形、在显示设备200中接收到某个信号的情形和翻转用户终端设备100的情形。
控制方法还可以包括基于翻转用户终端设备100的场景来控制第一输入器120和第二输入器130中的至少一个的激活状态的步骤。
此外,在通过触摸屏提供与用户终端设备的场景相对应的信息的步骤处(S1020),响应于接收到与显示设备200的场景相对应的信号,可以提供与显示设备200的场景相对应的信息。
此外,在通过触摸屏提供与用户终端设备的场景相对应的信息的步骤处(S1020),在显示设备200正在显示内容的情形下,或者在要显示与所述内容有关的附加信息或显示设备200要接收字符的输入的情形下,可以显示用于输入字符的UI。
此外,在通过触摸屏提供与用户终端设备的场景相对应的信息的步骤处(S1020),根据预定事件提供包括用于直接重放至少一个内容的至少一个GUI的UI屏幕,UI屏幕基于至少一个内容的使用频率依次地显示预定格式的GUI。
控制方法还包括这样的步骤:响应于选择GUI的用户操作是短按压输入,直接重放与所选GUI相对应的内容,并且响应于选择GUI的用户操作是长按压输入,提供与所选GUI相对应的内容相关的菜单。
此外,控制方法还包括这样的步骤:根据预定触摸互动按预定方向滚动UI屏幕并且显示UI屏幕,并且根据预定事件在触摸屏上附加地显示未在UI屏幕上显示的至少一个GUI。
同时,根据本发明的上述各实施例的用户终端设备100的控制方法可以以计算机中可执行的程序代码来实现,并且可以设置在每个服务器或设备中,以便在被存储在各种类型的非暂时性计算机可读介质中之后由处理器140可执行。
例如,可以提供一种非暂时性计算机可读介质,其存储被配置为执行以下步骤的程序:确定本公开的用户终端设备100的场景的步骤,以及通过触摸屏提供与用户终端设备100的场景相对应的信息的步骤。
非暂时性计算机可读介质可以指能够半永久地而不是像寄存器、高速缓冲存储器和存储器那样的短时间地存储数据的计算机可读介质。具体地,上述各个应用或程序可以存储在诸如CD、DVD、硬盘、蓝光光盘、USB、存储卡和ROM之类的非暂时性计算机可读介质中并且被提供。
此外,用于执行根据上述各种实施例的控制方法的程序代码可以存储在各种类型的记录介质中。更具体地,这样的程序代码可以存储在各种类型的终端可读记录介质中,例如RAM(随机存取存储器)、闪速存储器、ROM(只读存储器)、EPROM(可擦除可编程ROM)、EEPORM(电可擦除可编程ROM)、寄存器、硬盘、可移除盘、存储卡、USB存储器和CD-ROM等。
上述示例性实施例和优点仅仅是示例性的,而不应被解释为是限制性的。本发明的教导易于应用于其它类型的设备。此外,对示例实施例的描述只是说明性的,而不是为了限制权利要求的范围,并且本领域技术人员将清楚多种备选、修改和变化。
虽然已经示出和描述了几个实施例,但是本领域技术人员应当理解,在不脱离本发明的原理和精神的情况下,可以对这些实施例进行改变,且本发明的保护范围被限定在权利要求及其等同物中。
Claims (15)
1.一种用于控制显示设备的用户终端设备,所述用户终端设备包括:
通信器,被配置为执行与所述显示设备的通信;
第一输入器,设置在所述用户终端设备的一个表面上,并且被配置为接收用于控制所述显示设备的基本功能的用户命令的输入;
第二输入器,设置在所述用户终端设备的另一表面上,并且被配置为经由所述另一表面上的触摸屏显示第二表面UI(用户界面);以及
处理器,被配置为通过所述触摸屏提供与所述用户终端设备的终端场景相对应的信息。
2.根据权利要求1所述的设备,其中所述第一输入器设置有另一触摸屏,所述另一触摸屏包括用于控制所述显示设备的基本功能的基本UI。
3.根据权利要求2所述的设备,其中所述第一输入器设置有PUI(物理用户接口),所述PUI包括用于控制所述显示设备的基本功能的至少一个物理按钮。
4.根据权利要求1所述的设备,其中所述用户终端设备的终端场景包括以下中的至少一个:选择了某个菜单的菜单情形、在所述显示设备中接收到某个信号的信号情形以及翻转所述用户终端设备的终端情形中。
5.根据权利要求1所述的设备,其中所述处理器基于翻转所述用户终端设备的终端场景来控制所述第一输入器和所述第二输入器的至少一个激活状态。
6.根据权利要求1所述的设备,其中所述处理器响应于接收到与所述显示设备的显示场景相对应的信号,通过所述触摸屏提供与所述显示设备的所述显示场景相对应的信息。
7.根据权利要求6所述的设备,其中所述处理器响应于处于所述显示设备显示内容的内容情形中,通过所述触摸屏显示与所述内容有关的附加信息,并且响应于处于所述显示设备接收字符输入的输入情形,通过所述触摸屏显示用于输入字符的输入UI。
8.根据权利要求1所述的设备,其中
所述处理器提供UI屏幕,所述UI屏幕包括用于根据预定事件直接重放至少一个内容的至少一个GUI(图形用户界面),并且
所述UI屏幕包括具有基于所述至少一个内容的使用频率而依次布置的预定格式的GUI。
9.根据权利要求8所述的设备,其中所述处理器响应于使用短按压输入来选择GUI的用户操作,直接重放与所选GUI相对应的至少一个内容,并且响应于使用长按压输入来选择GUI的用户操作,提供与对应于所选GUI的至少一个内容相关的菜单。
10.根据权利要求8所述的设备,其中所述处理器根据预定触摸互动按预定方向滚动所述UI屏幕并且显示所述UI屏幕,并且根据额外空间预定事件在所述触摸屏上附加地显示未在所述UI屏幕上显示的至少一个GUI。
11.一种用户终端设备的控制方法,用于控制显示设备,所述用户终端设备包括:通信器,被配置为执行与所述显示设备的通信;第一输入器,设置在所述用户终端设备的一个表面上,并且被配置为接收用于控制所述显示设备的基本功能的用户命令的输入;第二输入器,设置在所述用户终端设备的另一表面上,并且被配置为通过触摸屏显示另一表面UI(用户界面);所述方法包括:
确定所述用户终端设备的场景;以及
通过所述触摸屏提供与所述用户终端设备的场景相对应的信息。
12.根据权利要求11所述的方法,其中所述第一输入器设置有第一输入器触摸屏,所述第一输入器触摸屏包括用于控制所述显示设备的基本功能的基本UI。
13.根据权利要求11所述的方法,其中所述第一输入器设置有PUI(物理用户接口),所述PUI包括用于控制所述显示设备的基本功能的至少一个物理按钮。
14.根据权利要求11所述的方法,其中所述用户终端设备的场景包括以下中的至少一个:选择了某个菜单的菜单情形、在所述显示设备中接收到某个信号的信号情形以及翻转所述用户终端设备的终端情形。
15.根据权利要求11所述的方法,还包括基于翻转所述用户终端设备场景来控制所述第一输入器和所述第二输入器中的至少一个激活状态。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2015-0074277 | 2015-05-27 | ||
KR1020150074277A KR20160139481A (ko) | 2015-05-27 | 2015-05-27 | 사용자 단말 장치 및 그 제어 방법 |
PCT/KR2016/003969 WO2016190545A1 (en) | 2015-05-27 | 2016-04-15 | User terminal apparatus and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107533424A true CN107533424A (zh) | 2018-01-02 |
Family
ID=55953015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680024602.8A Withdrawn CN107533424A (zh) | 2015-05-27 | 2016-04-15 | 用户终端设备及其控制方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160349946A1 (zh) |
EP (1) | EP3098702A1 (zh) |
KR (1) | KR20160139481A (zh) |
CN (1) | CN107533424A (zh) |
WO (1) | WO2016190545A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK201670583A1 (en) * | 2016-03-28 | 2017-10-16 | Apple Inc | Keyboard input to an electronic device |
US11150798B2 (en) | 2016-03-28 | 2021-10-19 | Apple Inc. | Multifunction device control of another electronic device |
KR20230145255A (ko) * | 2016-10-24 | 2023-10-17 | 로비 가이드스, 인크. | 2-팩터 인증을 사용하여 미디어 자산에 대한 액세스를 제어하기 위한 시스템 및 방법 |
CN110537160B (zh) * | 2017-03-20 | 2024-03-29 | 3形状股份有限公司 | 具有手持式扫描仪的3d扫描仪*** |
US10585637B2 (en) * | 2017-03-27 | 2020-03-10 | Lenovo (Beijing) Co., Ltd. | Information processing method and electronic device |
KR102420877B1 (ko) * | 2017-08-25 | 2022-07-13 | 엘지전자 주식회사 | 영상표시장치 |
US11243679B2 (en) * | 2018-06-03 | 2022-02-08 | Apple Inc. | Remote data input framework |
US11474620B2 (en) * | 2019-03-01 | 2022-10-18 | Sony Interactive Entertainment Inc. | Controller inversion detection for context switching |
CN110174993B (zh) * | 2019-05-20 | 2021-05-07 | 维沃移动通信有限公司 | 一种显示控制方法、终端设备及计算机可读存储介质 |
US11349976B2 (en) * | 2019-09-12 | 2022-05-31 | Lenovo (Beijing) Co., Ltd. | Information processing method, file transmission method, electronic apparatus, and computing apparatus |
US11915596B2 (en) | 2020-11-11 | 2024-02-27 | Honeywell International Inc. | Methods and systems for resolving tactile user input selections |
EP4002078B1 (en) * | 2020-11-11 | 2024-07-03 | Honeywell International Inc. | Methods and systems for resolving tactile user input selections |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110073382A1 (en) * | 2009-09-25 | 2011-03-31 | Akira Miyazawa | Remote controller |
US20110138416A1 (en) * | 2009-12-04 | 2011-06-09 | Lg Electronics Inc. | Augmented remote controller and method for operating the same |
CN202049610U (zh) * | 2011-05-18 | 2011-11-23 | 天津三星电子有限公司 | 可旋转的遥控器 |
US20120242601A1 (en) * | 2011-03-21 | 2012-09-27 | Bang & Olufsen A/S | Assembly Of A Display Apparatus And A Remote Control And A Method Of Operating The Assembly |
US20140139750A1 (en) * | 2010-10-26 | 2014-05-22 | Bby Solutions, Inc. | Two-sided remote control |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7170500B2 (en) * | 2000-08-29 | 2007-01-30 | Palm, Inc. | Flip-style user interface |
US7142195B2 (en) * | 2001-06-04 | 2006-11-28 | Palm, Inc. | Interface for interaction with display visible from both sides |
KR102033764B1 (ko) * | 2010-10-06 | 2019-10-17 | 삼성전자주식회사 | 리모트 컨트롤러에서의 ui 표시 방법 및 이를 이용한 리모트 컨트롤러 |
JP2014503891A (ja) * | 2010-12-10 | 2014-02-13 | ヨタ デバイセズ アイピーアール リミテッド | ユーザインターフェースを有する携帯機器 |
KR101788006B1 (ko) * | 2011-07-18 | 2017-10-19 | 엘지전자 주식회사 | 원격제어장치 및 원격제어장치로 제어 가능한 영상표시장치 |
US8456575B2 (en) * | 2011-09-21 | 2013-06-04 | Sony Corporation | Onscreen remote control presented by audio video display device such as TV to control source of HDMI content |
KR20130053040A (ko) * | 2011-11-14 | 2013-05-23 | 삼성전자주식회사 | 촬상장치 및 촬상방법 |
WO2014023118A1 (zh) * | 2012-08-09 | 2014-02-13 | Li Yonggui | 手机键盘与鼠标 |
US8773591B1 (en) * | 2012-08-13 | 2014-07-08 | Nongqiang Fan | Method and apparatus for interacting with television screen |
-
2015
- 2015-05-27 KR KR1020150074277A patent/KR20160139481A/ko unknown
-
2016
- 2016-04-12 US US15/096,585 patent/US20160349946A1/en not_active Abandoned
- 2016-04-15 WO PCT/KR2016/003969 patent/WO2016190545A1/en active Application Filing
- 2016-04-15 CN CN201680024602.8A patent/CN107533424A/zh not_active Withdrawn
- 2016-05-05 EP EP16168482.4A patent/EP3098702A1/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110073382A1 (en) * | 2009-09-25 | 2011-03-31 | Akira Miyazawa | Remote controller |
US20110138416A1 (en) * | 2009-12-04 | 2011-06-09 | Lg Electronics Inc. | Augmented remote controller and method for operating the same |
US20140139750A1 (en) * | 2010-10-26 | 2014-05-22 | Bby Solutions, Inc. | Two-sided remote control |
US20120242601A1 (en) * | 2011-03-21 | 2012-09-27 | Bang & Olufsen A/S | Assembly Of A Display Apparatus And A Remote Control And A Method Of Operating The Assembly |
CN202049610U (zh) * | 2011-05-18 | 2011-11-23 | 天津三星电子有限公司 | 可旋转的遥控器 |
Also Published As
Publication number | Publication date |
---|---|
KR20160139481A (ko) | 2016-12-07 |
EP3098702A1 (en) | 2016-11-30 |
US20160349946A1 (en) | 2016-12-01 |
WO2016190545A1 (en) | 2016-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107533424A (zh) | 用户终端设备及其控制方法 | |
US20200356265A1 (en) | User terminal device and control method thereof | |
KR102020345B1 (ko) | 터치스크린을 구비하는 단말에서 홈 화면의 구성 방법 및 장치 | |
EP3336672B1 (en) | Method and apparatus for providing a graphic user interface in a mobile terminal | |
US9182900B2 (en) | User terminal apparatus and control method thereof | |
US20150193036A1 (en) | User terminal apparatus and control method thereof | |
EP2669786A2 (en) | Method for displaying item in terminal and terminal using the same | |
KR20170062954A (ko) | 사용자 단말장치 및 디스플레이 방법 | |
CN103873908A (zh) | 显示装置、遥控装置及使用所述装置提供用户界面的方法 | |
AU2012214993B2 (en) | Method and apparatus for providing graphic user interface in mobile terminal | |
KR20110121926A (ko) | 터치 스크린에서 선택된 정보에 대응하는 부가정보를 포함하는 투명 팝업을 표시하는 방법 및 장치 | |
KR20170082722A (ko) | 사용자 단말 장치 및 그 제어 방법 | |
JP2013141242A (ja) | 遠隔制御装置およびそれを用いたディスプレイ装置の制御方法 | |
KR20150012396A (ko) | 입력 처리 방법 및 그 전자 장치 | |
EP3016400A2 (en) | Display apparatus, system, and controlling method thereof | |
AU2018278777B2 (en) | Touch input device and method | |
EP4302166A1 (en) | A computer a software module arrangement, a circuitry arrangement, a user equipment and a method for an improved user interface controlling multiple applications simultaneously | |
KR20120094728A (ko) | 유저인터페이스 제공 방법 및 이를 이용한 휴대 단말기 | |
JP6434339B2 (ja) | 電子機器、制御方法、及び制御プログラム | |
KR101352506B1 (ko) | 단말 장치에서의 아이템 표시 방법 및 그 방법에 따른 단말 장치 | |
KR20160045478A (ko) | 디스플레이 장치 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180102 |