CN111901646A - 一种显示设备及触控菜单显示方法 - Google Patents

一种显示设备及触控菜单显示方法 Download PDF

Info

Publication number
CN111901646A
CN111901646A CN202010734301.2A CN202010734301A CN111901646A CN 111901646 A CN111901646 A CN 111901646A CN 202010734301 A CN202010734301 A CN 202010734301A CN 111901646 A CN111901646 A CN 111901646A
Authority
CN
China
Prior art keywords
touch
display
menu
user
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010734301.2A
Other languages
English (en)
Inventor
张娜
庞秀娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Visual Technology Co Ltd
Original Assignee
Hisense Visual Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Visual Technology Co Ltd filed Critical Hisense Visual Technology Co Ltd
Priority to CN202010734301.2A priority Critical patent/CN111901646A/zh
Publication of CN111901646A publication Critical patent/CN111901646A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供一种显示设备及触控菜单显示方法,可以在用户输入触控指令后,通过检测触控指令对应的手指抬起位置,确定用户所处的位置;再通过获取当前触控菜单的位置,并与手指抬起位置进行对比,从而在手指抬起位置与当前触控菜单位置满足不在同一个分区或者距离较远等预设位置关系时,在手指抬起位置的关联区域内显示触控菜单。所述方法可以在用户操作区域就近显示触控菜单,使用户在执行触控交互操作时,无需移动位置,便于用户执行触控交互操作。

Description

一种显示设备及触控菜单显示方法
技术领域
本申请涉及触控电视技术领域,尤其涉及一种显示设备及触控菜单显示方法。
背景技术
触控电视是指具有触摸屏的智能电视设备。用户可以通过触摸屏实现与触控电视的交互。用户可以通过不同的触摸动作,输入不同的控制指令。例如,在应用程序界面中,用户可通过点击界面中的应用图标输入应用程序启动指令,使触控电视启动运行对应的应用程序;用户还可以通过在应用程序界面中输入滑动触摸动作输入翻页指令,使触控电视翻页显示更多的应用图标。
随着触控电视的屏幕尺寸的增大,为用户输入触控动作带来不便。例如,对于55英寸屏幕的触控电视,其屏幕宽度和高度分别为122cm和68cm,当用户在靠近一侧边缘的位置时,由于手臂长度小于屏幕宽度,因此要在另一侧区域内执行触控操作,用户需要向另一侧方向一致才能够触碰到另一侧区域。对于应用程序界面、文件选择界面等,用户需要频繁移动位置以触碰到相应的图标位置。因此,大屏幕的触控电视不便于用户执行触控操作。
发明内容
本申请提供了一种显示设备及触控菜单显示方法,以解决传统大屏幕显示设备不便于用户执行触控操作的问题。
第一方面,本申请提供一种显示设备,包括:显示器、触控组件以及控制器。其中,显示器被配置为显示用户界面;触控组件被配置为检测用户输入的触控动作;控制器被配置为执行以下程序步骤:
接收用户输入的触控指令,
响应于所述触控指令,提取所述触控指令中手指抬起位置;
获取当前触控菜单位置;
如果所述手指抬起位置与当前所述触控菜单位置满足预设位置关系,控制所述显示器在所述手指抬起位置的关联区域内显示所述触控菜单。
基于上述显示设备,本申请的第一方面还提供一种触控菜单显示方法,包括:
接收用户输入的触控指令;
响应于所述触控指令,提取所述触控指令中手指抬起位置;
获取当前触控菜单位置;
如果所述手指抬起位置与当前所述触控菜单位置满足预设位置关系,在所述手指抬起位置的关联区域内显示所述触控菜单。
由以上技术方案可知,本申请第一方面提供的显示设备及触控菜单显示方法,可以在用户输入触控指令后,通过检测触控指令对应的手指抬起位置,确定用户所处的位置;再通过获取当前触控菜单的位置,并与手指抬起位置进行对比,从而在手指抬起位置与当前触控菜单位置满足不在同一个分区或者距离较远等预设位置关系时,在手指抬起位置的关联区域内显示触控菜单。所述方法可以在用户操作区域就近显示触控菜单,使用户在执行触控交互操作时,无需移动位置,便于用户执行触控交互操作。
第二方面,本申请提供一种显示设备,包括:显示器、触控组件以及控制器。其中,显示器被配置为显示用户界面;触控组件被配置为检测用户输入的触控动作;控制器被配置为执行以下程序步骤:
接收用户输入的用于移动触控菜单的触控指令;
响应于所述触控指令,提取所述触控指令中的手指抬起位置;
控制所述显示器在所述手指抬起位置的关联区域内显示所述触控菜单。
基于上述显示设备,本申请第二方面还提供一种触控菜单显示方法,包括:
接收用户输入的用于移动触控菜单的触控指令;
响应于所述触控指令,提取所述触控指令中的手指抬起位置;
在所述手指抬起位置的关联区域内显示所述触控菜单。
由以上技术方案可知,本申请第二方面提供的显示设备及触控菜单显示方法,在用户输入多次点击等用于移动触控菜单的触控指令后,通过提取触控指令中的手指抬起位置,确定便于用户执行操作的区域,并将触控菜单移动至该区域,以便用户执行触控交互操作。所述方法可以在用户操作区域就近显示触控菜单,使用户在执行触控交互操作时,无需移动位置,便于用户执行触控交互操作。
第三方面,本申请提供一种显示设备,包括:显示器、触控组件以及控制器。其中,显示器被配置为显示用户界面;触控组件被配置为检测用户输入的触控动作;控制器被配置为执行以下程序步骤:
接收用户输入的用于显示网格界面的触控指令;
响应于所述触控指令,提取所述触控指令中的手指抬起位置;
获取所述网格界面中可选择区域布局;
按照所述可选择区域布局生成区域转换控件,以及控制所述显示器在所述手指抬起位置的关联区域显示触控菜单,所述触控菜单中包括所述区域转换控件。
基于上述显示设备,本申请第三方面还提供一种触控菜单显示方法,包括:
接收用户输入的用于显示网格界面的触控指令;
响应于所述触控指令,提取所述触控指令中的手指抬起位置;
获取所述网格界面中可选择区域布局;
按照所述可选择区域布局生成区域转换控件,以及在所述手指抬起位置的关联区域显示触控菜单,所述触控菜单中包括所述区域转换控件。
由以上技术方案可知,本申请第三方面提供的显示设备及触控菜单显示方法可以在用户启动运行应用程序界面、文件选择界面等网格界面时,通过提取触控指令中的手指抬起位置,确定便于用户执行的操作区域,并且根据所启动网格界面中可选择区域的布局生成区域转换控件,从而在手指抬起位置的关联区域内显示带有区域转换控件的触控菜单。所述方法可以通过区域转换控件上执行的交互动作代替在全部显示区域中执行的交互动作,使用户在执行触控交互操作时,无需移动位置即可完成执行任一可选区域中的交互动作,便于用户执行触控交互操作。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中显示设备与控制装置之间操作场景的示意图;
图2为本申请实施例中显示设备的硬件配置框图;
图3为本申请实施例中控制设备的硬件配置框图;
图4为本申请实施例中显示设备软件配置示意图;
图5为本申请实施例中显示设备应用程序的图标控件界面显示示意图;
图6为本申请实施例中一种触控菜单显示方法流程示意图;
图7为本申请实施例中根据所属分区确定触控菜单显示位置示意图;
图8为本申请实施例中根据间隔距离确定触控菜单显示位置示意图;
图9为本申请实施例中一种显示设备结构示意图;
图10为本申请实施例中通过移动触控菜单触控指令显示流程示意图;
图11为本申请实施例中区域转换控件显示流程示意图;
图12为本申请实施例中网格界面示意图;
图13为本申请实施例中通过区域转换控件控制触控输入显示方式示意图。
具体实施方式
为使本申请的目的、实施方式和优点更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施方式进行清楚、完整地描述,显然,所描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
基于本申请描述的示例性实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请所附权利要求保护的范围。此外,虽然本申请中公开内容按照示范性一个或几个实例来介绍,但应理解,可以就这些公开内容的各个方面也可以单独构成一个完整实施方式。
需要说明的是,本申请中对于术语的简要说明,仅是为了方便理解接下来描述的实施方式,而不是意图限定本申请的实施方式。除非另有说明,这些术语应当按照其普通和通常的含义理解。
本申请中说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”等是用于区别类似或同类的对象或实体,而不必然意味着限定特定的顺序或先后次序,除非另外注明(Unless otherwise indicated)。应该理解这样使用的用语在适当情况下可以互换,例如能够根据本申请实施例图示或描述中给出那些以外的顺序实施。
此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的那些组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
本申请中使用的术语“模块”,是指任何已知或后来开发的硬件、软件、固件、人工智能、模糊逻辑或硬件或/和软件代码的组合,能够执行与该元件相关的功能。
本申请中使用的术语“遥控器”,是指电子设备(如本申请中公开的显示设备)的一个组件,通常可在较短的距离范围内无线控制电子设备。一般使用红外线和/或射频(RF)信号和/或蓝牙与电子设备连接,也可以包括WiFi、无线USB、蓝牙、动作传感器等功能模块。例如:手持式触摸遥控器,是以触摸屏中用户界面取代一般遥控装置中的大部分物理内置硬键。
本申请中使用的术语“手势”,是指用户通过一种手型的变化或手部运动等动作,用于表达预期想法、动作、目的/或结果的用户行为。
图1中示例性示出了根据实施例中显示设备与控制装置之间操作场景的示意图。如图1中示出,用户可通过移动终端300和控制装置100操作显示设备200。
在一些实施例中,控制装置100可以是遥控器,遥控器和显示设备的通信包括红外协议通信或蓝牙协议通信,及其他短距离通信方式等,通过无线或其他有线方式来控制显示设备200。用户可以通过遥控器上按键,语音输入、控制面板输入等输入用户指令,来控制显示设备200。如:用户可以通过遥控器上音量加减键、频道控制键、上/下/左/右的移动按键、语音输入按键、菜单键、开关机按键等输入相应控制指令,来实现控制显示设备200的功能。
在一些实施例中,也可以使用移动终端、平板电脑、计算机、笔记本电脑、和其他智能设备以控制显示设备200。例如,使用在智能设备上运行的应用程序控制显示设备200。该应用程序通过配置可以在与智能设备关联的屏幕上,在直观的用户界面(UI)中为用户提供各种控制。
在一些实施例中,移动终端300可与显示设备200安装软件应用,通过网络通信协议实现连接通信,实现一对一控制操作的和数据通信的目的。如:可以实现用移动终端300与显示设备200建立控制指令协议,将遥控控制键盘同步到移动终端300上,通过控制移动终端300上用户界面,实现控制显示设备200的功能。也可以将移动终端300上显示音视频内容传输到显示设备200上,实现同步显示功能。
如图1中还示出,显示设备200还与服务器400通过多种通信方式进行数据通信。可允许显示设备200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器400可以向显示设备200提供各种内容和互动。示例的,显示设备200通过发送和接收信息,以及电子节目指南(EPG)互动,接收软件程序更新,或访问远程储存的数字媒体库。服务器400可以是一个集群,也可以是多个集群,可以包括一类或多类服务器。通过服务器400提供视频点播和广告服务等其他网络服务内容。
显示设备200,可以液晶显示器、OLED显示器、投影显示设备。具体显示设备类型,尺寸大小和分辨率等不作限定,本领技术人员可以理解的是,显示设备200可以根据需要做性能和配置上一些改变。
显示设备200除了提供广播接收电视功能之外,还可以附加提供计算机支持功能的智能网络电视功能,包括但不限于,网络电视、智能电视、互联网协议电视(IPTV)等。
图2中示例性示出了根据示例性实施例中显示设备200的硬件配置框图。
在一些实施例中,显示设备200中包括控制器250、调谐解调器210、通信器220、检测器230、输入/输出接口255、显示器275,音频输出接口285、存储器260、供电电源290、用户接口265、外部装置接口240中的至少一种。
在一些实施例中,显示器275,用于接收源自第一处理器输出的图像信号,进行显示视频内容和图像以及菜单操控界面的组件。
在一些实施例中,显示器275,包括用于呈现画面的显示屏组件,以及驱动图像显示的驱动组件。
在一些实施例中,显示视频内容,可以来自广播电视内容,也可以是说,可通过有线或无线通信协议接收的各种广播信号。或者,可显示来自网络通信协议接收来自网络服务器端发送的各种图像内容。
在一些实施例中,显示器275用于呈现显示设备200中产生且用于控制显示设备200的用户操控UI界面。
在一些实施例中,根据显示器275类型不同,还包括用于驱动显示的驱动组件。
在一些实施例中,显示器275为一种投影显示器,还可以包括一种投影装置和投影屏幕。
在一些实施例中,通信器220是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如:通信器可以包括Wifi芯片,蓝牙通信协议芯片,有线以太网通信协议芯片等其他网络通信协议芯片或近场通信协议芯片,以及红外接收器中的至少一种。
在一些实施例中,显示设备200可以通过通信器220与外部控制设备100或内容提供设备之间建立控制信号和数据信号发送和接收。
在一些实施例中,用户接口265,可用于接收控制装置100(如:红外遥控器等)红外控制信号。
在一些实施例中,检测器230是显示设备200用于采集外部环境或与外部交互的信号。
在一些实施例中,检测器230包括光接收器,用于采集环境光线强度的传感器,可以通过采集环境光可以自适应性显示参数变化等。
在一些实施例中,检测器230还可以包括图像采集器,如相机、摄像头等,可以用于采集外部环境场景,以及用于采集用户的属性或与用户交互手势,可以自适应变化显示参数,也可以识别用户手势,以实现与用户之间互动的功能。
在一些实施例中,检测器230还可以包括温度传感器等,如通过感测环境温度。
在一些实施例中,显示设备200可自适应调整图像的显示色温。如当温度偏高的环境时,可调整显示设备200显示图像色温偏冷色调,或当温度偏低的环境时,可以调整显示设备200显示图像偏暖色调。
在一些实施例中,检测器230还可声音采集器等,如麦克风,可以用于接收用户的声音。示例性的,包括用户控制显示设备200的控制指令的语音信号,或采集环境声音,用于识别环境场景类型,使得显示设备200可以自适应适应环境噪声。
在一些实施例中,如图2所示,输入/输出接口255被配置为,可进行控制器250与外部其他设备或其他控制器250之间的数据传输。如接收外部设备的视频信号数据和音频信号数据、或命令指令数据等。
在一些实施例中,外部装置接口240可以包括,但不限于如下:可以高清多媒体接口HDMI接口、模拟或数据高清分量输入接口、复合视频输入接口、USB输入接口、RGB端口等任一个或多个接口。也可以是上述多个接口形成复合性的输入/输出接口。
在一些实施例中,如图2所示,调谐解调器210被配置为,通过有线或无线接收方式接收广播电视信号,可以进行放大、混频和谐振等调制解调处理,从多多个无线或有线广播电视信号中解调出音视频信号,该音视频信号可以包括用户所选择电视频道频率中所携带的电视音视频信号,以及EPG数据信号。
在一些实施例中,调谐解调器210解调的频点受到控制器250的控制,控制器250可根据用户选择发出控制信号,以使的调制解调器响应用户选择的电视信号频率以及调制解调该频率所携带的电视信号。
在一些实施例中,广播电视信号可根据电视信号广播制式不同区分为地面广播信号、有线广播信号、卫星广播信号或互联网广播信号等。或者根据调制类型不同可以区分为数字调制信号,模拟调制信号等。或者根据信号种类不同区分为数字信号、模拟信号等。
在一些实施例中,控制器250和调谐解调器210可以位于不同的分体设备中,即调谐解调器210也可在控制器250所在的主体设备的外置设备中,如外置机顶盒等。这样,机顶盒将接收到的广播电视信号调制解调后的电视音视频信号输出给主体设备,主体设备经过第一输入/输出接口接收音视频信号。
在一些实施例中,控制器250,通过存储在存储器上中各种软件控制程序,来控制显示设备的工作和响应用户的操作。控制器250可以控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器275上显示UI对象的用户命令,控制器250便可以执行与由用户命令选择的对象有关的操作。
在一些实施例中,所述对象可以是可选对象中的任何一个,例如超链接或图标。与所选择的对象有关操作,例如:显示连接到超链接页面、文档、图像等操作,或者执行与所述图标相对应程序的操作。用于选择UI对象用户命令,可以是通过连接到显示设备200的各种输入装置(例如,鼠标、键盘、触摸板等)输入命令或者与由用户说出语音相对应的语音命令。
如图2所示,控制器250包括随机存取存储器251(Random Access Memory,RAM)、只读存储器252(Read-Only Memory,ROM)、视频处理器270、音频处理器280、其他处理器253(例如:图形处理器(Graphics Processing Unit,GPU)、中央处理器254(CentralProcessing Unit,CPU)、通信接口(Communication Interface),以及通信总线256(Bus)中的至少一种。其中,通信总线连接各个部件。
在一些实施例中,RAM 251用于存储操作***或其他正在运行中的程序的临时数据。
在一些实施例中,ROM 252用于存储各种***启动的指令。
在一些实施例中,ROM 252用于存储一个基本输入输出***,称为基本输入输出***(Basic Input Output System,BIOS)。用于完成对***的加电自检、***中各功能模块的初始化、***的基本输入/输出的驱动程序及引导操作***。
在一些实施例中,在收到开机信号时,显示设备200电源开始启动,CPU运行ROM252中***启动指令,将存储在存储器的操作***的临时数据拷贝至RAM 251中,以便于启动或运行操作***。当操作***启动完成后,CPU再将存储器中各种应用程序的临时数据拷贝至RAM 251中,然后,以便于启动或运行各种应用程序。
在一些实施例中,处理器254,用于执行存储在存储器中操作***和应用程序指令。以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。
在一些示例性实施例中,处理器254,可以包括多个处理器。多个处理器可包括一个主处理器以及一个或多个子处理器。主处理器,用于在预加电模式中执行显示设备200一些操作,和/或在正常模式下显示画面的操作。一个或多个子处理器,用于在待机模式等状态下一种操作。
在一些实施例中,图形处理器253,用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令显示图形等。包括运算器,通过接收用户输入各种交互指令进行运算,根据显示属性显示各种对象。以及包括渲染器,对基于运算器得到的各种对象,进行渲染,上述渲染后的对象用于显示在显示器上。
在一些实施例中,视频处理器270被配置为将接收外部视频信号,根据输入信号的标准编解码协议,进行解压缩、解码、缩放、降噪、帧率转换、分辨率转换、图像合成等等视频处理,可得到直接可显示设备200上显示或播放的信号。
在一些实施例中,视频处理器270,包括解复用模块、视频解码模块、图像合成模块、帧率转换模块、显示格式化模块等。
其中,解复用模块,用于对输入音视频数据流进行解复用处理,如输入MPEG-2,则解复用模块进行解复用成视频信号和音频信号等。
视频解码模块,则用于对解复用后的视频信号进行处理,包括解码和缩放处理等。
图像合成模块,如图像合成器,其用于将图形生成器根据用户输入或自身生成的GUI信号,与缩放处理后视频图像进行叠加混合处理,以生成可供显示的图像信号。
帧率转换模块,用于对转换输入视频帧率,如将60Hz帧率转换为120Hz帧率或240Hz帧率,通常的格式采用如插帧方式实现。
显示格式化模块,则用于将接收帧率转换后视频输出信号,改变信号以符合显示格式的信号,如输出RGB数据信号。
在一些实施例中,图形处理器253可以和视频处理器可以集成设置,也可以分开设置,集成设置的时候可以执行输出给显示器的图形信号的处理,分离设置的时候可以分别执行不同的功能,例如GPU+FRC(Frame Rate Conversion))架构。
在一些实施例中,音频处理器280,用于接收外部的音频信号,根据输入信号的标准编解码协议,进行解压缩和解码,以及降噪、数模转换、和放大处理等处理,得到可以在扬声器中播放的声音信号。
在一些实施例中,视频处理器270可以包括一颗或多颗芯片组成。音频处理器,也可以包括一颗或多颗芯片组成。
在一些实施例中,视频处理器270和音频处理器280,可以单独的芯片,也可以于控制器一起集成在一颗或多颗芯片中。
在一些实施例中,音频输出,在控制器250的控制下接收音频处理器280输出的声音信号,如:扬声器286,以及除了显示设备200自身携带的扬声器之外,可以输出至外接设备的发生装置的外接音响输出端子,如:外接音响接口或耳机接口等,还可以包括通信接口中的近距离通信模块,例如:用于进行蓝牙扬声器声音输出的蓝牙模块。
供电电源290,在控制器250控制下,将外部电源输入的电力为显示设备200提供电源供电支持。供电电源290可以包括安装显示设备200内部的内置电源电路,也可以是安装在显示设备200外部电源,在显示设备200中提供外接电源的电源接口。
用户接口265,用于接收用户的输入信号,然后,将接收用户输入信号发送给控制器250。用户输入信号可以是通过红外接收器接收的遥控器信号,可以通过网络通信模块接收各种用户控制信号。
在一些实施例中,用户通过控制装置100或移动终端300输入用户命令,用户输入接口则根据用户的输入,显示设备200则通过控制器250响应用户的输入。
在一些实施例中,用户可在显示器275上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
在一些实施例中,“用户界面”,是应用程序或操作***与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。用户界面常用的表现形式是图形用户界面(Graphic User Interface,GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
存储器260,包括存储用于驱动显示设备200的各种软件模块。如:第一存储器中存储的各种软件模块,包括:基础模块、检测模块、通信模块、显示控制模块、浏览器模块、和各种服务模块等中的至少一种。
基础模块用于显示设备200中各个硬件之间信号通信、并向上层模块发送处理和控制信号的底层软件模块。检测模块用于从各种传感器或用户输入接口中收集各种信息,并进行数模转换以及分析管理的管理模块。
例如,语音识别模块中包括语音解析模块和语音指令数据库模块。显示控制模块用于控制显示器进行显示图像内容的模块,可以用于播放多媒体图像内容和UI界面等信息。通信模块,用于与外部设备之间进行控制和数据通信的模块。浏览器模块,用于执行浏览服务器之间数据通信的模块。服务模块,用于提供各种服务以及各类应用程序在内的模块。同时,存储器260还用存储接收外部数据和用户数据、各种用户界面中各个项目的图像以及焦点对象的视觉效果图等。
图3示例性示出了根据示例性实施例中控制设备100的配置框图。如图3所示,控制设备100包括控制器110、通信接口130、用户输入/输出接口、存储器、供电电源。
控制设备100被配置为控制显示设备200,以及可接收用户的输入操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起用用户与显示设备200之间交互中介作用。如:用户通过操作控制设备100上频道加减键,显示设备200响应频道加减的操作。
在一些实施例中,控制设备100可是一种智能设备。如:控制设备100可根据用户需求安装控制显示设备200的各种应用。
在一些实施例中,如图1所示,移动终端300或其他智能电子设备,可在安装操控显示设备200的应用之后,可以起到控制设备100类似功能。如:用户可以通过安装应用,在移动终端300或其他智能电子设备上可提供的图形用户界面的各种功能键或虚拟按钮,以实现控制设备100实体按键的功能。
控制器110包括处理器112和RAM 113和ROM 114、通信接口130以及通信总线。控制器用于控制控制设备100的运行和操作,以及内部各部件之间通信协作以及外部和内部的数据处理功能。
通信接口130在控制器110的控制下,实现与显示设备200之间控制信号和数据信号的通信。如:将接收到的用户输入信号发送至显示设备200上。通信接口130可包括WiFi芯片131、蓝牙模块132、NFC模块133等其他近场通信模块中至少之一种。
用户输入/输出接口140,其中,输入接口包括麦克风141、触摸板142、传感器143、按键144等其他输入接口中至少一者。如:用户可以通过语音、触摸、手势、按压等动作实现用户指令输入功能,输入接口通过将接收的模拟信号转换为数字信号,以及数字信号转换为相应指令信号,发送至显示设备200。
输出接口包括将接收的用户指令发送至显示设备200的接口。在一些实施例中,可以红外接口,也可以是射频接口。如:红外信号接口时,需要将用户输入指令按照红外控制协议转化为红外控制信号,经红外发送模块进行发送至显示设备200。再如:射频信号接口时,需将用户输入指令转化为数字信号,然后按照射频控制信号调制协议进行调制后,由射频发送端子发送至显示设备200。
在一些实施例中,控制设备100包括通信接口130和输入输出接口140中至少一者。控制设备100中配置通信接口130,如:WiFi、蓝牙、NFC等模块,可将用户输入指令通过WiFi协议、或蓝牙协议、或NFC协议编码,发送至显示设备200。
存储器190,用于在控制器的控制下存储驱动和控制控制设备200的各种运行程序、数据和应用。存储器190,可以存储用户输入的各类控制信号指令。
供电电源180,用于在控制器的控制下为控制设备100各元件提供运行电力支持。可以电池及相关控制电路。
在一些实施例中,***可以包括内核(Kernel)、命令解析器(shell)、文件***和应用程序。内核、shell和文件***一起组成了基本的操作***结构,它们让用户可以管理文件、运行程序并使用***。上电后,内核启动,激活内核空间,抽象硬件、初始化硬件参数等,运行并维护虚拟内存、调度器、信号及进程间通信(IPC)。内核启动后,再加载Shell和用户应用程序。应用程序在启动后被编译成机器码,形成一个进程。
参见图4,在一些实施例中,将***分为四层,从上至下分别为应用程序(Applications)层(简称“应用层”),应用程序框架(Application Framework)层(简称“框架层”),安卓运行时(Android runtime)和***库层(简称“***运行库层”),以及内核层。
在一些实施例中,应用程序层中运行有至少一个应用程序,这些应用程序可以是操作***自带的窗口(Window)程序、***设置程序、时钟程序、相机应用等;也可以是第三方开发者所开发的应用程序,比如嗨见程序、K歌程序、魔镜程序等。在具体实施时,应用程序层中的应用程序包不限于以上举例,实际还可以包括其它应用程序包,本申请实施例对此不做限制。
框架层为应用程序层的应用程序提供应用编程接口(application programminginterface,API)和编程框架。应用程序框架层包括一些预先定义的函数。应用程序框架层相当于一个处理中心,这个中心决定让应用层中的应用程序做出动作。应用程序通过API接口,可在执行中访问***中的资源和取得***的服务。
如图4所示,本申请实施例中应用程序框架层包括管理器(Managers),内容提供者(Content Provider)等,其中管理器包括以下模块中的至少一个:活动管理器(ActivityManager)用与和***中正在运行的所有活动进行交互;位置管理器(Location Manager)用于给***服务或应用提供了***位置服务的访问;文件包管理器(Package Manager)用于检索当前安装在设备上的应用程序包相关的各种信息;通知管理器(NotificationManager)用于控制通知消息的显示和清除;窗口管理器(Window Manager)用于管理用户界面上的括图标、窗口、工具栏、壁纸和桌面部件。
在一些实施例中,活动管理器用于:管理各个应用程序的生命周期以及通常的导航回退功能,比如控制应用程序的退出(包括将显示窗口中当前显示的用户界面切换到***桌面)、打开、后退(包括将显示窗口中当前显示的用户界面切换到当前显示的用户界面的上一级用户界面)等。
在一些实施例中,窗口管理器用于管理所有的窗口程序,比如获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕,控制显示窗口变化(例如将显示窗口缩小显示、抖动显示、扭曲变形显示等)等。
在一些实施例中,***运行库层为上层即框架层提供支撑,当框架层被使用时,安卓操作***会运行***运行库层中包含的C/C++库以实现框架层要实现的功能。
在一些实施例中,内核层是硬件和软件之间的层。如图4所示,内核层至少包含以下驱动中的至少一种:音频驱动、显示驱动、蓝牙驱动、摄像头驱动、WIFI驱动、USB驱动、HDMI驱动、传感器驱动(如指纹传感器,温度传感器,触摸传感器、压力传感器等)等。
在一些实施例中,内核层还包括用于进行电源管理的电源驱动模块。
在一些实施例中,图4中的软件架构对应的软件程序和/或模块存储在图2或图3所示的第一存储器或第二存储器中。
在一些实施例中,以魔镜应用(拍照应用)为例,当遥控接收装置接收到遥控器输入操作,相应的硬件中断被发给内核层。内核层将输入操作加工成原始输入事件(包括输入操作的值,输入操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,根据焦点当前的位置识别该输入事件所对应的控件以及以该输入操作是确认操作,该确认操作所对应的控件为魔镜应用图标的控件,魔镜应用调用应用框架层的接口,启动魔镜应用,进而通过调用内核层启动摄像头驱动,实现通过摄像头捕获静态图像或视频。
在一些实施例中,对于具备触控功能的显示设备,以分屏操作为例,显示设备接收用户作用于显示屏上的输入操作(如分屏操作),内核层可以根据输入操作产生相应的输入事件,并向应用程序框架层上报该事件。由应用程序框架层的活动管理器设置与该输入操作对应的窗口模式(如多窗口模式)以及窗口位置和大小等。应用程序框架层的窗口管理根据活动管理器的设置绘制窗口,然后将绘制的窗口数据发送给内核层的显示驱动,由显示驱动在显示屏的不同显示区域显示与之对应的应用界面。
在一些实施例中,如图5中所示,应用程序层包含至少一个应用程序可以在显示器中显示对应的图标控件,如:直播电视应用程序图标控件、视频点播应用程序图标控件、媒体中心应用程序图标控件、应用程序中心图标控件、游戏应用图标控件等。
在一些实施例中,直播电视应用程序,可以通过不同的信号源提供直播电视。例如,直播电视应用程可以使用来自有线电视、无线广播、卫星服务或其他类型的直播电视服务的输入提供电视信号。以及,直播电视应用程序可在显示设备200上显示直播电视信号的视频。
在一些实施例中,视频点播应用程序,可以提供来自不同存储源的视频。不同于直播电视应用程序,视频点播提供来自某些存储源的视频显示。例如,视频点播可以来自云存储的服务器端、来自包含已存视频节目的本地硬盘储存器。
在一些实施例中,媒体中心应用程序,可以提供各种多媒体内容播放的应用程序。例如,媒体中心,可以为不同于直播电视或视频点播,用户可通过媒体中心应用程序访问各种图像或音频所提供服务。
在一些实施例中,应用程序中心,可以提供储存各种应用程序。应用程序可以是一种游戏、应用程序,或某些和计算机***或其他设备相关但可以在智能电视中运行的其他应用程序。应用程序中心可从不同来源获得这些应用程序,将它们储存在本地储存器中,然后在显示设备200上可运行。
基于上述显示设备200,可以通过增加触控组件276使显示设备200支持触控交互功能。通常,触控组件276可以与显示器275共同构成触摸屏。在触摸屏上用户可以通过触摸操作输入不同的控制指令。例如,用户可以通过不同的触摸动作,输入点击、滑动、长按、双击等触控指令,不同的触控指令可以代表不同的控制功能。
为了实现上述不同的触摸动作,触控组件276可以在用户输入不同触摸动作时,产生不同的电信号,并将产生的电信号发送给控制器250。控制器250可以对接收到的电信号进行特征提取,从而根据提取的特征确定用户要执行的控制功能。
例如,当用户在应用程序界面中的任一程序图标位置输入点击触摸动作时,触控组件276将感应到触摸动作从而产生电信号。控制器250在接收到电信号后,可以先对电信号中触摸动作对应电平的持续时间进行判断,在持续时间小于预设时间阈值时,识别出用户输入的是点击触控指令。控制器250再对电信号产生的位置特征进行提取,从而确定触摸位置。当触摸位置在应用图标显示范围内时,确定用户在应用图标位置输入了点击触控指令。相应的,点击触控指令在当前场景下用于执行运行相应应用程序的功能,因此控制器250可以启动运行对应的应用程序。
又例如,当用户在媒资展示页面中输入滑动动作时,触控组件276同样将感应到的电信号发送给控制器250。控制器250先对电信号中触摸动作对应信号的持续时间进行判断。在确定持续时间大于预设时间阈值时,再对信号产生的位置变化情况进行判断,显然,对于互动触摸动作,其信号的产生位置将发生变化,从而确定用户输入了滑动触控指令。控制器250再根据信号产生位置的变化情况,对滑动触控指令的滑动方向进行判断,控制在媒资展示页面中对显示画面进行翻页,以显示更多的媒资选项。进一步地,控制器250还可以对滑动触控指令的滑动速度、滑动距离等特征进行提取,并按照所提取的特征进行翻页的画面控制,以达到跟手效果等。
同理,对于双击、长按等触控指令,控制器250可以通过提取不同的特征,并通过特征判断确定触控指令的类型后,按照预设的交互规则执行相应的控制功能。在一些实施例中,触控组件276还支持多点触控,从而使用户可以在触摸屏上通过多指输入触摸动作,例如,多指点击、多指长按、多指滑动等。
由于在输入触摸动作时,用户需要手指接触触摸屏,以使触控组件276能够感应到触摸动作,因此,触控交互需要用户距离显示设备200在较近的位置上。使得在显示设备200的显示器275屏幕尺寸较大时,用户需要移动距离才能完成触控交互动作,这对用户的操作造成了不便。
为了便于用户操作,显示设备200可以在显示的界面中增加一个触控菜单,触控菜单上可以设有常用的UI交互功能控件。例如,触控菜单中可以包括返回控件、更多控件、跳转至主页控件等。当用户点击触控菜单上的任一控件时,可以执行相对应的控制功能。例如,用户点击返回控件时,可以控制跳转至当前界面的上一级界面;而用户点击主页控件时,可以控制跳转至主页界面。
触控菜单上所包含的控件可以由用户自定义,使用户可以将经常启动的应用程序或控制方式设置在触控菜单上。例如,用户可以将“护眼模式”设置在触控菜单上,当用户想要启动护眼模式时,直接在触控菜单上点击该控件即可完成护眼模式设置。为了便于用户执行操作,触控菜单可以在具体显示内容的上层进行显示。同时,用户在一定时间内未输入触控指令时,自动将触控菜单隐藏,以免影响下层界面内容的显示。
触控菜单的显示位置应便于用户执行操作,并且不对原界面中的内容进行过分遮挡,例如可以显示在整体显示画面的右侧偏下的位置上。触控菜单的显示位置还支持用户自定义设置,例如可以通过在触控菜单上执行长按动作触发移动后,通过滑动的方式将触控菜单移动至新的位置上。
但对于屏幕尺寸较大的显示设备200,用户在执行触控交互动作时,会根据需要在不同的位置上实施,使得在部分情况下用户操作位置与触控菜单相距较远,为用户执行交互动作带来不便。
为了便于用户执行触控动作,本申请的部分实施例中提供一种触控菜单显示方法,如图6所示,包括以下步骤:
S110:接收用户输入的触控指令。
本实施例中,控制器250可以通过触控组件276接收用户输入的触控指令,并根据触控指令执行相对应的控制程序。通常,用户输入触控指令的一般动作流程为,用户将手指触摸到显示器275上的触摸屏,并根据不同的触控指令执行后续动作。
例如,对于点击触控指令,在触摸屏幕后,会在较短的时间内(小于或等于1s)抬起手指,使手指与屏幕分离。又例如,对于滑动触控指令,用户的手指会在触摸屏幕后,在屏幕上滑动一段距离,并在滑动到指定位置后,抬起手指,使手指与屏幕分离,完成滑动触控指令的输入。同理,对于长按触控指令,用户的手指会在接触屏幕后,在最开始接触的位置上保持接触超过一定时间(如2-3s)后,使手指与屏幕分离,完成长按触控指令的输入。
而对于双击或多次点击触控指令,用户的手指在接触屏幕后,会在较短的时间内分离,以输入点击触控指令,并在较短的时间内再次输入触控指令,直至最后一次点击触控指令的手指抬起后,完成多次点击触控指令的输入。
上述输入的触控动作都可以由触控组件276检测到,并发送给控制器250,以使控制器250根据输入的触控指令执行控制功能。需要说明的是,在步骤S1中,控制器250所接收到的触控指令可以是用户在触控交互过程中输入的任何一个触控指令,并非是用户为显示触控菜单而特别输入的触控指令。
S120:响应于所述触控指令,提取所述触控指令中手指抬起位置。
在接收到用户输入的触控指令后,控制器250一方面根据触控指令执行其对应的控制功能,以实现在当前页面下的UI交互;另一方面提取触控指令对应的手指抬起位置,以确定用户当前的操作位置。
例如,当用户在媒资界面中输入向上的滑动触控指令时,控制器250在接收到触控指令后,先根据滑动触控指令实现向上的翻页功能,显示更多媒资图标。控制器250还对触控指令中的手指抬起位置进行提取,即在触控组件276发送的电信号中,提取手指抬起动作特征,以及确定抬起动作所对应的位置。
由于在多数情况下,用户所输入的触控指令是在用户方便输入的区域内执行,因此触控指令中手指抬起动作的位置也可以作为用户当前的操作位置。需要说明的是,由于在触控指令中提取手指抬起位置是为了获取用户操作位置,因此在实际应用中,也可以对触控指令中其他能够代表操作位置的特征进行提取。例如,也可以在触控指令中,提取手指的初始触摸点位置,通过初始触摸点位置代替用户的操作位置。
S130:获取当前触控菜单位置。
在提取触控指令中手指抬起位置后,控制器250还可以对当前触控菜单位置进行提取,并将提取的触控菜单位置与手指抬起位置进行对比,确定两者的位置关系。
其中,触控菜单位置可以通过触控菜单显示控件中的指定点位置坐标进行表示,也可以通过与手指抬起位置最远的点表示触控菜单的位置。根据触控菜单显示的形状不同,能够表示触控菜单位置的指定点也可以不同。例如,当触控菜单为圆形或环形菜单形状时,可以通过触控菜单的圆心点坐标表示触控菜单的位置;当触控菜单为矩形菜单形状时,可以通过触控菜单的对角线交点,或者任一顶点坐标表示触控菜单的位置。
S140:如果所述手指抬起位置与当前所述触控菜单位置满足预设位置关系,在所述手指抬起位置的关联区域内显示所述触控菜单。
在获取当前触控菜单的位置后,控制器250还可以对当前触控菜单位置与手指抬起位置进行位置关系检测,确定其位置关系是否满足预设位置关系。由于在实际应用中,检测位置关系是为了确定当前触控菜单的位置是否便于用户操作,因此预设位置关系应能够反映触控菜单位置与用户操作位置之间的距离是否在合适的范围内。例如,预设位置关系可以为触控菜单位置与手指抬起位置之间的距离是否大于或等于设定阈值。也可以根据其他预设位置关系,确定触控菜单位置与手指抬起位置是否在合理的范围内,例如,触控菜单位置与手指抬起位置是否在不同的分区内等。
在确定手指抬起位置与当前触控菜单位置满足预设位置关系时,例如触控菜单位置与手指抬起位置之间的距离大于设定的阈值时,控制器250可以控制显示器275在手指抬起位置的关联区域显示触控菜单。其中,手指抬起位置的关联区域可以是以手指抬起位置为中心的预设大小显示区域。即在确定手指抬起位置与当前触控菜单位置满足预设位置关系时,直接在手指抬起位置上显示触控菜单。
手指抬起位置的关联区域还可以是指与手指抬起位置处于同一个分区的特定显示位置。例如,可以按照预设分区方式将显示器275屏幕上的显示区域划分为多个分区,每个分区的中下方位置用于显示触控菜单,即每个分区的中下方区域为手指抬起位置的关联区域。在确定手指抬起位置与当前触控菜单位置满足预设位置关系时,可以在手指抬起位置所在的分区中下方显示触控菜单。
显然,手指抬起位置的关联区域通常是与手指抬起位置距离较近的区域,因此在手指抬起位置的关联区域显示触控菜单,可以使用户在不移动位置时就能够在触控菜单上执行交互操作,方便用户操作。
由以上技术方案可知,上述实施例提供的触控菜单显示方法可以在用户输入触控指令后,对触控指令中手指抬起位置进行提取,并获取当前触控菜单的显示位置,从而根据触控菜单位置与手指抬起位置之间位置关系是否满足预设位置关系,确定是否将触控菜单移动至手指抬起位置关联区域内进行显示。可见,所述方法可以在触控菜单与用户输入位置相隔较远时,将触控菜单移动至较近的区域显示,以便用户通过触控菜单输入触控动作,方便用户执行触控操作。
在本申请的部分实施例中,为了确定确定手指抬起位置与当前触控菜单位置是否满足预设位置关系,显示设备200的操作***中,可以预先根据显示器275的显示区域特定,将显示器的显示区域划分为多个预设分区,并根据手指抬起位置与当前触控菜单所属的分区判断手指抬起位置与当前触控菜单位置是否满足预设位置关系,即如图7所示,步骤S4还包括以下步骤:
S411:获取所述手指抬起位置与当前触控菜单所属的预设分区;
S412:如果所述手指抬起位置与当前触控菜单不在同一个预设分区内,控制所述显示器在所述手指抬起位置所属的预设分区内显示所述触控菜单。
在提取手指抬起位置与当前触控菜单位置后,可以分别对手指抬起位置与当前触控菜单位置所属的预设分区进行获取。当手指抬起位置与当前触控菜单位置所属的预设分区不是同一个预设分区时,即确定手指抬起位置与当前触控菜单位置满足预设位置关系,因此可以控制显示器275在指抬起位置所属的预设分区内显示触控菜单。
例如,所述显示器275的显示区域包括左侧分区、中部分区和右侧分区,在获取所述手指抬起位置与当前触控菜单所属的预设分区后,判断手指抬起位置与当前触控菜单位置是否位于不同的分区。如果手指抬起位置位于左侧分区,当前触控菜单位置位于右侧分区,则控制显示器在左侧分区显示触控菜单;如果手指抬起位置位于右侧分区,当前触控菜单位置位于左侧分区,则控制显示器在右侧分区显示触控菜单,从而实现触控菜单显示位置跟随用户操作移动的功能。
由于在实际应用中,用户在执行触控操作时通常位于靠近显示器275屏幕中部的区域,并且显示画面在中部分区显示的内容一般为画面的主要内容,因此在检测到用户在靠近中部区域进行操作时,可以无需将触控菜单的位置进行移动,以缓解触控菜单对显示内容造成遮挡。即,所述触控菜单显示方法还包括:
如果所述手指抬起位置位于所述中部分区,停止执行控制所述显示器在所述手指抬起位置所属的预设分区内显示所述触控菜单的步骤。
例如,可以将屏幕横向分为三等份,在控制器250通过触控组件276监听到用户的手指抬起动作,即“MotionEvent.ACTION_UP”事件后,对于手指抬起位置和触控菜单所在的位置进行判断,如果手指抬起位置处于屏幕中部分区,则不做任何处理,仍保持触控菜单的当前显示位置。
需要说明的是,在实际应用中,在触控菜单上还可以设置“锁定”控件,锁定控件可以在被用户点击触控后,关闭触控菜单的移动功能,使用户在不需要触控菜单跟随功能时,可点击锁定控件停止移动触控菜单。
在本申请的部分实施例中,还可以根据手指抬起位置与当前触控菜单位置之间的间隔距离确定手指抬起位置与当前触控菜单位置的位置关系是否满足预设位置关系,即如图8所示,步骤S4还包括以下步骤:
S421:计算所述手指抬起位置与当前触控菜单位置之间的间隔距离;
S422:如果所述间隔距离大于或等于预设判断阈值,控制所述显示器在所述手指抬起位置的关联区域内显示所述触控菜单。
在提取手指抬起位置与触控菜单的当前位置后,控制器250可以通过提取的位置数据计算手指抬起位置与当前触控菜单位置之间的间隔距离。例如,可以根据显示器275的屏幕布置方式构建一个平面坐标系,相应提取的手指抬起位置对应的坐标为(x1,y1),当前触控菜单位置对应的坐标为(x2,y2),则可以根据勾股定理计算间隔距离:L2=(x2-x1)2+(y2-y1)2。通过计算得到间隔距离后,控制器250可以将计算得到的间隔距离与预设判断阈值进行对比,确定间隔距离是否大于或等于预设判断阈值。
如果间隔距离大于或等于预设判断阈值即代表触控菜单的当前显示位置与用户操作位置的距离较远,即确定手指抬起位置与当前触控菜单位置的位置关系满足预设位置关系,控制显示器275在手指抬起位置的关联区域内显示触控菜单。
其中,预设判断阈值可以根据用户的臂长进行设置,例如,可以设置预设判断阈值为60cm。当手指抬起位置与当前触控菜单位置的间隔距离超过60cm时,用户通常无法通过伸长手臂而需要移动位置,才能触摸到触控菜单。这种情况下,则可以将触控菜单移动至用户操作区域进行显示。
基于上述触控菜单显示方法,本申请的部分实施例中还提供一种显示设备200,如图9所示,包括:显示器275、触控组件276以及控制器250。其中,显示器275被配置为呈现用户界面,触控组件276,被配置为检测用户输入的触控动作。触控组件276可以设置在显示器275的屏幕上上,以在显示器275上形成触摸屏。显示器275和触控组件276均连接控制器250,以通过控制器250控制触控操作过程和显示内容。
控制器250被进一步配置为执行以下程序步骤:
S110:接收用户输入的触控指令,
S120:响应于所述触控指令,提取所述触控指令中手指抬起位置;
S130:获取当前触控菜单位置;
S140:如果所述手指抬起位置与当前所述触控菜单位置满足预设位置关系,控制所述显示器在所述手指抬起位置的关联区域内显示所述触控菜单。
实际应用中,控制器250可以通过触控组件276接收用户输入的触控指令,并在触控指令中提取用户的手指抬起位置以及获取显示器275所显示内容中,触控菜单的当前显示位置。再通过对比手指抬起位置与当前所述触控菜单位置,确定手指抬起位置与当前所述触控菜单位置的位置关系,如果手指抬起位置与当前所述触控菜单位置的位置关系满足预设位置关系时,控制显示器275在手指抬起位置的关联区域内显示触控菜单。从而实现触控菜单跟随触控交互动作的功能,便于用户执行触控动作。
由于在实际应用中,用户在执行触控交互动作时,手指抬起动作不一定是便于用户操作的位置,因此在部分情况下触控菜单跟随触控动作的移动方式可能不便于用户输入触控动作。为了便于用户输入,在本申请的部分实施例中还提供一种触控菜单显示方法,用于实现在任意位置唤醒触控菜单。如图10所示,所述触控菜单显示方法包括以下步骤:
S210:接收用户输入的用于移动触控菜单的触控指令。
控制器250可以通过触控组件276接收用户输入的用于移动触控菜单的触控指令。其中,用于移动触控菜单的触控指令可以是操作***中设置的特定触控动作。例如,用于移动触控菜单的触控指令可以是多次点击指令,即在用户多次、快速点击同一位置时,确定输入了用于移动触控菜单的触控指令。
同样,在实际应用中,控制器250可以对用户输入的触控动作进行特征提取,当提取的特征与操作***中设定的特征相同时,则确定接收到的触控指令用于移动触控菜单。
S220:响应于所述触控指令,提取所述触控指令中的手指抬起位置。
在接收到用户输入的用于移动触控菜单的触控指令后,控制器250可以在触控指令中提取手指抬起位置。显然,如果用于移动触控菜单的触控指令为多次点击触控动作,触控指令中手指抬起位置为多次点击触控动作中,最后一次点击动作的手指抬起位置。
S230:在所述手指抬起位置的关联区域内显示所述触控菜单。
在提取触控指令中的手指抬起位置后,控制器250可以将触控菜单移动至手指抬起位置或者手指抬起位置的关联区域内进行显示,从而便于用户执行触控交互。例如,操作***设置用于移动触控菜单的触控指令为双击指令,即在操作***中增加双击呼唤触控菜单功能。控制器250在监听到用户输入连续两次点击的指令后,将触控菜单移动到后一次点击抬起时的位置。
需要说明的是,由于触控菜单需要占用一定的显示面积,因此在实际应用中,用户输入触控指令的位置应足够将触控菜单显示完全。而对于部分位于屏幕边缘位置上的操作,为了将触控菜单完全显示,可以对触控菜单进行平移。例如,用户在显示器275屏幕的左上方输入双击触控指令时,提取的手指第二次抬起位置靠近左上方区域。如果以手指抬起位置为中心点显示触控菜单不全时,则可以向右平移触控菜单,至能够完全显示的位置。
在本申请的部分实施例中,为了判断用户是否输入了用于移动触控菜单的触控指令,响应于所述触控指令,提取所述触控指令中的手指抬起位置的步骤还包括:
S221:检测所述触控指令对应的触控动作;
S222:如果所述触控动作与预设触控动作相符,提取所述触控指令中的手指抬起位置。
在获取触控指令后,控制可以先对控制指令对应的触控动作进行检测,即通过检测触控指令中的信号特征,确定用户输入的触控动作。检测触控动作后,可以对检测的结果与预设的触控动作进行对比。如果触控动作与预设触控动作相符,则确定用户输入了用于移动触控菜单的触控指令,因此再提取触控指令中的手指抬起位置。
例如,预设触控动作为双击动作时,控制器250通过对触控指令中点击次数的特征进行提取,确定其触控动作为双击动作。此时,确定触控动作与预设触控动作相符,因此可以对最后一次点击动作的手指抬起位置进行提取。
在本实施例中,触控动作与预设触控动作相符是指用户输入的触控动作与预设触控动作相同或相似。针对不同的预设触控动作,判断触控动作与预设触控动作是否相符的方式也不同。例如,预设触控动作为手指滑动特定形状的路径,如三角形时,则可以在触控动作与预设触控动作相似时即确定触控动作与预设触控动作相符,即用户输入大一些的三角形或小一些的三角形都确定为输入了与预设触控动作相符的触控动作。而对于点击触控指令,则需要输入的触控动作与预设触控动作相同。可见,通过对触控指令对应触控动作的判断,可以缓解用户误操作,提高用户体验。
在本申请的部分实施例中,通过输入移动触控菜单的触控指令进行显示控制时,也可以先对触控菜单的显示位置进行判断,从而在手指抬起位置与当前触控菜单位置满足预设位置关系时,再对触控菜单的位置进行移动。即,所述触控菜单显示方法还包括:
S251:获取当前触控菜单位置;
S252:判断所述手指抬起位置与当前所述触控菜单位置是否满足预设位置关系;
S253:如果所述手指抬起位置与当前所述触控菜单位置满足预设位置关系,控制所述显示器在所述手指抬起位置的关联区域内显示所述触控菜单。
在获取手指抬起位置后,控制器250还可以通过显示器275显示画面中提取触控菜单的显示位置。再通过判断手指抬起位置与当前所述触控菜单位置是否满足预设位置关系,确定当前触控菜单的显示位置是否需要移动。如果手指抬起位置与当前所述触控菜单位置满足预设位置关系,则需要移动触控菜单的显示位置,从而在手指抬起位置的关联区域内显示触控菜单。
与上述实施例中的位置关系判断方式相同,本实施例中,也可以通过判断手指抬起位置与当前所述触控菜单位置的间隔距离是否大于或等于预设判断阈值,或者通过判断手指抬起位置与当前所述触控菜单位置是否属于不同的分区确定手指抬起位置与当前所述触控菜单位置满足预设位置关系。
基于上述触控菜单显示方法,本申请的部分实施例中还提供一种显示设备200,如图10所示,包括:显示器275、触控组件276以及控制器250。其中,显示器275被配置为呈现用户界面,触控组件276,被配置为检测用户输入的触控动作。触控组件276可以设置在显示器275的屏幕上上,以在显示器275上形成触摸屏。显示器275和触控组件276均连接控制器250,以通过控制器250控制触控操作过程和显示内容。
控制器250被进一步配置为执行以下程序步骤:
S210:接收用户输入的用于移动触控菜单的触控指令;
S220:响应于所述触控指令,提取所述触控指令中的手指抬起位置;
S230:控制所述显示器在所述手指抬起位置的关联区域内显示所述触控菜单。
在实际应用中,控制器250可以通过触控组件276接收用于移动触控菜单的触控指令,并在触控指令中提取手指抬起位置,从而控制显示器276在手指抬起位置的关联区域显示触控菜单。所述显示设备200可以实现在需要使用触控菜单时,直接通过输入移动触控菜单的触控指令,使触控菜单移动至用户操作位置,方便用户输入触控动作。
由于对触控菜单显示的控制不仅包括触控菜单位置的移动,还包括对触控菜单中显示内容的调整,即如图11所示,在本申请的部分实施例中,还提供一种触控菜单显示方法,包括以下步骤:
S310:接收用户输入的用于显示网格界面的触控指令。
网格界面是指应用选择界面、媒资选择界面、文件选择界面等具有A×B格子状布局的界面。网格界面中可以根据具体的项目图标划分为多个可选择区域。在这种界面中,用户的触控操作通常是不连贯的,例如,如图12所示,当用户站在屏幕左侧时,想要打开文件20必须走到屏幕右侧区域。
对于此类显示网格界面,实际应用中,控制器250可以先接收用于显示网格界面的触控指令,再根据触控指令调整触控菜单中的显示控件。其中,用于显示网格界面的触控指令可以根据对应网格界面的不同,具有不同的触控动作。例如,当用户在“我的应用”图标上输入点击触控指令后,控制器250将展示应用选择界面,此时控制器250收到的触控指令则为用于显示网格界面的触控指令。
S320:响应于所述触控指令,提取所述触控指令中的手指抬起位置。
在接收到用户输入的用于显示网格界面的触控指令后,控制器250一方面启动显示网格界面,另一方面还可以对触控指令中的手指抬起位置进行提取,提取方法可以与上述实施例相同。
S330:获取所述网格界面中可选择区域布局。
在提取手指抬起位置的同时,控制器250可以对所显示的网格界面中可选择区域的布局方式进行提取。例如,当启动的网格界面为文件选择界面时,所展示的文件选择界面中共包含12个文件图标,并且这12个文件图标采用4×3的布局方式时,获取当前网格界面的可选择区域布局为4×3。
S340:按照所述可选择区域布局生成区域转换控件,以及在所述手指抬起位置的关联区域显示触控菜单。
在获取网格界面中的可选择区域布局信息后,控制器250可以通过执行画面调整程序,按照可选择区域布局生成区域转换控件,并在手指抬起位置的关联区域显示触控菜单,其中所述触控菜单中包括所述区域转换控件,即控制器250可以控制显示器275在触控菜单中显示该区域转换控件。
例如,对于有网格状选择界面的预置应用,当出现该界面且用户的滑动触控动作停止时,控制器250可以通知到触控菜单,并在触控菜单增加一个Touch区域转换控件。通知的内容包括,屏幕区域内可显示的项目个数和横竖排列数。触控菜单对应的Touch区域转换部分根据收到的信息,生成对应屏幕中各项目显示位置的横竖排图案。
在显示区域转换控件以后,用户可以在区域转换控件上执行触控输入,从而实现对当前显示界面中的项目控制。即如图13所示,在一种实现方式中,触控菜单显示方法还包括以下步骤:
S351:接收用户在所述区域转换控件上输入的点击指令;
S352:响应于所述点击指令,获取点击位置;
S353:对所述网格界面中,与所述所点击位置相对应位置上的控件执行点击交互动作。
在显示区域转换控件以后,控制器250可以接收用户在区域转换控件上输入的点击指令,从而根据点击指令获取触控动作的点击位置,从而对网格界面中,与所点击位置相对应位置上的控件执行点击交互动作。
例如,当用户想要打开文件20时,可以直接点击Touch区域转换控件中的第三行第四列网格区域,即可打开文件选择界面中的文件20。
基于上述触控菜单显示方法,本申请的部分实施例中还提供一种显示设备200,包括:显示器275、触控组件276以及控制器250。其中,显示器275被配置为呈现用户界面,触控组件276,被配置为检测用户输入的触控动作。触控组件276可以设置在显示器275的屏幕上上,以在显示器275上形成触摸屏。显示器275和触控组件276均连接控制器250,以通过控制器250控制触控操作过程和显示内容。
控制器250被进一步配置为执行以下程序步骤:
S310:接收用户输入的用于显示网格界面的触控指令;
S320:响应于所述触控指令,提取所述触控指令中的手指抬起位置;
S330:获取所述网格界面中可选择区域布局;
S340:按照所述可选择区域布局生成区域转换控件,以及控制所述显示器在所述手指抬起位置的关联区域显示触控菜单,所述触控菜单中包括所述区域转换控件。
实际应用中,控制器250通过触控组件276接收用户输入的用于显示网格界面的触控指令后,可以对触控指令中的手指抬起位置以及网格界面中可选择区域布局进行提取,从而按照可选择区域布局生成区域转换控件,以及控制显示器275在手指抬起位置的关联区域显示带有区域转换控件的触控菜单,使用户可以在区域转换控件上执行触控操作,以实现与在网格界面中相同的控制功能,无需用户移动位置即可完成任意位置上的程序启动或文件打开,方便用户执行触控交互操作。
由以上技术方案可知,通过触控菜单跟随触控操作、通过触控指令唤醒触控菜单以及通过在触控菜单中显示Touch区域转换控件,可以使用户在任意位置上通过触控菜单执行触控操作,并且上述操作方式可以相互的配合使用,对很多常用场景都有实用价值,可以有效改善用户操作触屏电视的便捷性。
另外,在本申请的部分实施例中,触控菜单上包含的控件还可以根据当前显示的界面进行调整,即所述触控菜单显示方法还包括:获取当前显示画面的界面类型,并根据所述界面类型调整所述触控菜单包含的控件。
本实施例可以根据显示设备200的实时状态控制触控菜单中的具体控件内容。例如,控制器250可以通过判断显示设备200是处于媒体播放状态还是直播状态,来自动增减快捷控制键个数和排序。当显示设备200处于音乐播放状态时,在快捷控制键区域自动增加播放、暂停、进度条、上一曲、下一曲等快捷键,从而便于用户用户执行触控交互。
本申请提供的实施例之间的相似部分相互参见即可,以上提供的具体实施方式只是本申请总的构思下的几个示例,并不构成本申请保护范围的限定。对于本领域的技术人员而言,在不付出创造性劳动的前提下依据本申请方案所扩展出的任何其他实施方式都属于本申请的保护范围。

Claims (15)

1.一种显示设备,其特征在于,包括:
显示器;
触控组件,被配置为检测用户输入的触控动作;
控制器,被配置为:
接收用户输入的触控指令;
响应于所述触控指令,提取所述触控指令中手指抬起位置;
获取当前触控菜单位置;
如果所述手指抬起位置与当前所述触控菜单位置满足预设位置关系,控制所述显示器在所述手指抬起位置的关联区域内显示所述触控菜单。
2.根据权利要求1所述的显示设备,其特征在于,所述显示器的显示区域包括多个预设分区,所述控制器被进一步配置为:
获取所述手指抬起位置与当前触控菜单所属的预设分区;
如果所述手指抬起位置与当前触控菜单不在同一个预设分区内,控制所述显示器在所述手指抬起位置所属的预设分区内显示所述触控菜单。
3.根据权利要求2所述的显示设备,其特征在于,所述显示器的显示区域包括左侧分区和右侧分区,所述控制器被进一步配置为:
如果所述手指抬起位置位于所述左侧分区,当前触控菜单位置位于所述右侧分区,则控制显示器在所述左侧分区显示所述触控菜单;
如果所述手指抬起位置位于所述右侧分区,当前触控菜单位置位于所述左侧分区,则控制显示器在所述右侧分区显示所述触控菜单。
4.根据权利要求3所述的显示设备,其特征在于,所述显示器的显示区域还包括中部分区,所述控制器被进一步配置为:
如果所述手指抬起位置位于所述中部分区,停止执行控制所述显示器在所述手指抬起位置所属的预设分区内显示所述触控菜单的步骤。
5.根据权利要求1所述的显示设备,其特征在于,所述控制器被进一步配置为:
计算所述手指抬起位置与当前触控菜单位置之间的间隔距离;
如果所述间隔距离大于或等于预设判断阈值,控制所述显示器在所述手指抬起位置的关联区域内显示所述触控菜单。
6.根据权利要求1所述的显示设备,其特征在于,所述控制器被进一步配置为:
获取当前显示画面的界面类型;
根据所述界面类型调整所述触控菜单包含的控件。
7.一种显示设备,其特征在于,包括:
显示器;
触控组件,被配置为检测用户输入的触控动作;
控制器,被配置为:
接收用户输入的用于移动触控菜单的触控指令;
响应于所述触控指令,提取所述触控指令中的手指抬起位置;
控制所述显示器在所述手指抬起位置的关联区域内显示所述触控菜单。
8.根据权利要求7所述的显示设备,其特征在于,用于移动触控菜单的触控指令为多次点击触控动作,所述触控指令中手指抬起位置为多次点击触控动作中,最后一次点击动作的手指抬起位置。
9.根据权利要求7所述的显示设备,其特征在于,所述控制器被进一步配置为:
获取当前触控菜单位置;
判断所述手指抬起位置与当前所述触控菜单位置是否满足预设位置关系;
如果所述手指抬起位置与当前所述触控菜单位置满足预设位置关系,控制所述显示器在所述手指抬起位置的关联区域内显示所述触控菜单。
10.根据权利要求7所述的显示设备,其特征在于,所述控制器被进一步配置为:
检测所述触控指令对应的触控动作;
如果所述触控动作与预设触控动作相符,提取所述触控指令中的手指抬起位置。
11.一种显示设备,其特征在于,包括:
显示器;
触控组件,被配置为检测用户输入的触控动作;
控制器,被配置为:
接收用户输入的用于显示网格界面的触控指令;
响应于所述触控指令,提取所述触控指令中的手指抬起位置;
获取所述网格界面中可选择区域布局;
按照所述可选择区域布局生成区域转换控件,以及控制所述显示器在所述手指抬起位置的关联区域显示触控菜单,所述触控菜单中包括所述区域转换控件。
12.根据权利要求11所述的显示设备,其特征在于,所述控制器被进一步配置为:
接收用户在所述区域转换控件上输入的点击指令;
响应于所述点击指令,获取点击位置;
对所述网格界面中,与所述所点击位置相对应位置上的控件执行点击交互动作。
13.一种触控菜单显示方法,其特征在于,包括:
接收用户输入的触控指令;
响应于所述触控指令,提取所述触控指令中手指抬起位置;
获取当前触控菜单位置;
如果所述手指抬起位置与当前所述触控菜单位置满足预设位置关系,在所述手指抬起位置的关联区域内显示所述触控菜单。
14.一种触控菜单显示方法,其特征在于,包括:
接收用户输入的用于移动触控菜单的触控指令;
响应于所述触控指令,提取所述触控指令中的手指抬起位置;
在所述手指抬起位置的关联区域内显示所述触控菜单。
15.一种触控菜单显示方法,其特征在于,包括:
接收用户输入的用于显示网格界面的触控指令;
响应于所述触控指令,提取所述触控指令中的手指抬起位置;
获取所述网格界面中可选择区域布局;
按照所述可选择区域布局生成区域转换控件,以及在所述手指抬起位置的关联区域显示触控菜单,所述触控菜单中包括所述区域转换控件。
CN202010734301.2A 2020-07-23 2020-07-23 一种显示设备及触控菜单显示方法 Pending CN111901646A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010734301.2A CN111901646A (zh) 2020-07-23 2020-07-23 一种显示设备及触控菜单显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010734301.2A CN111901646A (zh) 2020-07-23 2020-07-23 一种显示设备及触控菜单显示方法

Publications (1)

Publication Number Publication Date
CN111901646A true CN111901646A (zh) 2020-11-06

Family

ID=73189270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010734301.2A Pending CN111901646A (zh) 2020-07-23 2020-07-23 一种显示设备及触控菜单显示方法

Country Status (1)

Country Link
CN (1) CN111901646A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113434068A (zh) * 2021-05-28 2021-09-24 北京信和时代科技有限公司 悬浮快捷菜单的控制方法、装置、电子设备及存储介质
CN113552996A (zh) * 2021-09-22 2021-10-26 深圳技术大学 一种根据人体姿态自动调节界面布局的方法及触控屏设备
CN114296623A (zh) * 2020-12-24 2022-04-08 海信视像科技股份有限公司 一种显示设备
WO2023050079A1 (zh) * 2021-09-28 2023-04-06 京东方科技集团股份有限公司 一种显示设备及其菜单栏的显示方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102929520A (zh) * 2011-08-10 2013-02-13 三星电子株式会社 触摸屏终端的输入和输出方法及装置
CN103513871A (zh) * 2013-09-30 2014-01-15 北界创想(北京)软件有限公司 控制移动终端的方法和装置
JP2014044657A (ja) * 2012-08-28 2014-03-13 Sharp Corp 携帯情報装置、選択メニュー表示方法、選択メニュー表示プログラム、および、プログラム記録媒体
CN105975166A (zh) * 2016-04-29 2016-09-28 广州华多网络科技有限公司 应用控制方法及装置
CN109683771A (zh) * 2018-12-19 2019-04-26 努比亚技术有限公司 三维触控菜单配置方法、移动终端及计算机可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102929520A (zh) * 2011-08-10 2013-02-13 三星电子株式会社 触摸屏终端的输入和输出方法及装置
JP2014044657A (ja) * 2012-08-28 2014-03-13 Sharp Corp 携帯情報装置、選択メニュー表示方法、選択メニュー表示プログラム、および、プログラム記録媒体
CN103513871A (zh) * 2013-09-30 2014-01-15 北界创想(北京)软件有限公司 控制移动终端的方法和装置
CN105975166A (zh) * 2016-04-29 2016-09-28 广州华多网络科技有限公司 应用控制方法及装置
CN109683771A (zh) * 2018-12-19 2019-04-26 努比亚技术有限公司 三维触控菜单配置方法、移动终端及计算机可读存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114296623A (zh) * 2020-12-24 2022-04-08 海信视像科技股份有限公司 一种显示设备
CN113434068A (zh) * 2021-05-28 2021-09-24 北京信和时代科技有限公司 悬浮快捷菜单的控制方法、装置、电子设备及存储介质
CN113552996A (zh) * 2021-09-22 2021-10-26 深圳技术大学 一种根据人体姿态自动调节界面布局的方法及触控屏设备
CN113552996B (zh) * 2021-09-22 2022-03-25 深圳技术大学 一种根据人体姿态自动调节界面布局的方法及触控屏设备
WO2023050079A1 (zh) * 2021-09-28 2023-04-06 京东方科技集团股份有限公司 一种显示设备及其菜单栏的显示方法

Similar Documents

Publication Publication Date Title
CN111901646A (zh) 一种显示设备及触控菜单显示方法
CN112135180B (zh) 一种内容显示方法和显示设备
CN112055240B (zh) 一种显示设备及其与遥控器配对的操作提示展示方法
CN114157889B (zh) 一种显示设备及触控协助交互方法
CN112087671B (zh) 一种输入法控件的操控提示信息的显示方法及显示设备
CN111970549A (zh) 菜单显示方法和显示设备
CN112437334A (zh) 一种显示设备
CN112165641A (zh) 一种显示设备
CN111954059A (zh) 屏保的展示方法及显示设备
CN112073787B (zh) 显示设备及首页显示方法
CN113630569A (zh) 显示设备及显示设备的控制方法
CN113485613A (zh) 显示设备及自由画屏幕边缘涂色实现方法
CN111913622B (zh) 屏幕界面交互显示方法及显示设备
CN111913621B (zh) 屏幕界面交互显示方法及显示设备
CN113810747B (zh) 一种显示设备及信号源设置界面交互方法
CN111988646B (zh) 一种应用程序的用户界面显示方法和显示设备
CN112235621B (zh) 一种可视区域的显示方法及显示设备
CN111787350B (zh) 显示设备及视频通话中的截图方法
CN112199560B (zh) 一种设置项的搜索方法及显示设备
CN112040297B (zh) 一种epg页面的翻页方法及显示设备
CN111897463A (zh) 屏幕界面交互显示方法及显示设备
CN115185392A (zh) 显示设备、图像处理方法及装置
CN114417035A (zh) 一种图片浏览方法和显示设备
CN114079827A (zh) 菜单显示方法和显示设备
CN111988649A (zh) 一种控件分离放大方法及显示设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20201106

RJ01 Rejection of invention patent application after publication