CN114143580B - 一种显示设备及手柄操控图案显示方法 - Google Patents

一种显示设备及手柄操控图案显示方法 Download PDF

Info

Publication number
CN114143580B
CN114143580B CN202010916199.8A CN202010916199A CN114143580B CN 114143580 B CN114143580 B CN 114143580B CN 202010916199 A CN202010916199 A CN 202010916199A CN 114143580 B CN114143580 B CN 114143580B
Authority
CN
China
Prior art keywords
display
handle
pattern
data
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010916199.8A
Other languages
English (en)
Other versions
CN114143580A (zh
Inventor
赵玉峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Hisense Electronic Industry Holdings Co Ltd
Original Assignee
Qingdao Hisense Electronic Industry Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Hisense Electronic Industry Holdings Co Ltd filed Critical Qingdao Hisense Electronic Industry Holdings Co Ltd
Priority to CN202010916199.8A priority Critical patent/CN114143580B/zh
Publication of CN114143580A publication Critical patent/CN114143580A/zh
Application granted granted Critical
Publication of CN114143580B publication Critical patent/CN114143580B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42221Transmission circuitry, e.g. infrared [IR] or radio frequency [RF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4431OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB characterized by the use of Application Program Interface [API] libraries
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Databases & Information Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Library & Information Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本申请提供一种显示设备及手柄操控图案显示方法,所述显示设备包括显示器、外部装置接口和控制器。控制器可以通过外部装置接口获取手柄的位姿信息,并根据位姿信息中的位置数据和姿态数据计算手柄当前状态在显示器上的映射点位置,以便根据映射点位置实时显示操控图案,并控制显示器进行显示。所述显示设备可以实现通过手柄进行互动,以提供更加多样化、个性化的交互方式。

Description

一种显示设备及手柄操控图案显示方法
技术领域
本申请涉及智能电视技术领域,尤其涉及一种显示设备及手柄操控图案显示方法。
背景技术
智能电视是基于Internet应用技术,具备开放式操作***与芯片,拥有开放式应用平台,可实现双向人机交互功能,集影音、娱乐、数据等多种功能于一体的电视产品,用于满足用户多样化和个性化需求。智能电视常配有操控设备,例如基于红外、蓝牙、wifi等无线传输方式的遥控器,可以将用户在操控设备上执行的控制动作发送给智能电视,实现与用户间的交互操作。
传统的操控设备交互动作单一,所实现的功能极其有限。通常,用户在使用遥控器进行交互时,只能通过遥控器上的按键输入几种预先定义的指令,例如通过按下电源键开启或关闭智能电视、通过按下音量键调节音量大小等。这种单一的操作形式不能适应当前智能电视多样化、个性化的需求。例如,通过智能电视展示某些内容时,用户无法实时在显示内容上进行划线、标记等操作。
发明内容
本申请提供了一种显示设备及手柄操控图案显示方法,以解决传统智能电视不能满足用户多样化、个性化交互需求的问题。
一方面,本申请提供一种显示设备,包括显示器、外部装置接口以及控制器。其中,所述显示器被配置为显示用户界面以及操控图案;所述外部装置接口被配置为接入手柄;所述控制器被配置为执行以下程序步骤:
通过所述外部装置接口获取所述手柄的位姿信息,所述位姿信息包括所述手柄的当前位置数据、姿态数据以及手柄识别ID;
根据所述当前位置数据和所述姿态数据,计算所述手柄在所述显示器上的映射点位置;
控制所述显示器根据所述映射点位置实时显示操控图案,所述操控图案的颜色和/或图案形状为根据所述手柄识别ID设定的颜色和/或图案形状。
由以上技术方案可知,本申请第一方面提供的显示设备包括显示器、外部装置接口和控制器。控制器可以通过外部装置接口获取手柄的位姿信息,并根据位姿信息中的位置数据和姿态数据计算手柄当前状态在显示器上的映射点位置,以便根据映射点位置实时显示操控图案,并控制显示器进行显示。所述显示设备可以实现通过手柄进行互动,以提供更加多样化、个性化的交互方式。
另一方面,本申请还提供一种手柄操控图案显示方法,应用于显示设备,所述显示设备包括显示器、外部装置接口以及控制器,所述外部装置接口连接有手柄;所述方法包括:
通过所述外部装置接口获取所述手柄的位姿信息,所述位姿信息包括所述手柄的当前位置数据、姿态数据以及手柄识别ID;
根据所述当前位置数据和所述姿态数据,计算所述手柄在所述显示器上的映射点位置;
控制所述显示器根据所述映射点位置实时显示操控图案,所述操控图案的颜色和/或图案形状为根据所述手柄识别ID设定的颜色和/或图案形状。
由以上技术方案可知,本申请第二方面提供的手柄操控图案显示方法可以配置在显示设备的控制器中,实现实时监测手柄的位置和姿态,并映射在显示器的显示区域范围内,从而控制显示器根据映射点位置实时显示操控图案。其中,所显示的操控图案的颜色和/或图案形状可以根据不同手柄分别设置,实现不同手柄操控图案的区分。因此,所述方法可以充分利用显示设备支持多手柄交互功能,方便不同手柄操作者与显示设备上执行交互操作,提供更加多样化、个性化的交互方式。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中显示设备与控制装置之间操作场景的示意图;
图2为本申请实施例中显示设备的硬件配置框图;
图3为本申请实施例中控制设备的硬件配置框图;
图4为本申请实施例中显示设备软件配置示意图;
图5为本申请实施例中显示设备应用程序的图标控件界面显示示意图;
图6为本申请实施例中外接装置连接结构示意图;
图7为本申请实施例中一种手柄操控图案显示方法的流程示意图;
图8为本申请实施例中显示设备与定位基站位置关系示意图;
图9为本申请实施例中映射点位置水平定位几何关系示意图;
图10为本申请实施例中映射点位置竖直定位几何关系示意图;
图11为本申请实施例中操控图案显示效果示意图。
具体实施方式
下面将详细地对实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下实施例中描述的实施方式并不代表与本申请相一致的所有实施方式。仅是与权利要求书中所详述的、本申请的一些方面相一致的***和方法的示例。
为使本申请的目的、实施方式和优点更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施方式进行清楚、完整地描述,显然,所描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
基于本申请描述的示例性实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请所附权利要求保护的范围。此外,虽然本申请中公开内容按照示范性一个或几个实例来介绍,但应理解,可以就这些公开内容的各个方面也可以单独构成一个完整实施方式。
需要说明的是,本申请中对于术语的简要说明,仅是为了方便理解接下来描述的实施方式,而不是意图限定本申请的实施方式。除非另有说明,这些术语应当按照其普通和通常的含义理解。
本申请中说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”等是用于区别类似或同类的对象或实体,而不必然意味着限定特定的顺序或先后次序,除非另外注明(Unless otherwi se indicated)。应该理解这样使用的用语在适当情况下可以互换,例如能够根据本申请实施例图示或描述中给出那些以外的顺序实施。
此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的那些组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
本申请中使用的术语“模块”,是指任何已知或后来开发的硬件、软件、固件、人工智能、模糊逻辑或硬件或/和软件代码的组合,能够执行与该元件相关的功能。
本申请中使用的术语“遥控器”,是指电子设备(如本申请中公开的显示设备)的一个组件,通常可在较短的距离范围内无线控制电子设备。一般使用红外线和/或射频(RF)信号和/或蓝牙与电子设备连接,也可以包括WiFi、无线USB、蓝牙、动作传感器等功能模块。例如:手持式触摸遥控器,是以触摸屏中用户界面取代一般遥控装置中的大部分物理内置硬键。
本申请中使用的术语“手势”,是指用户通过一种手型的变化或手部运动等动作,用于表达预期想法、动作、目的/或结果的用户行为。
图1中示例性示出了根据实施例中显示设备与控制装置之间操作场景的示意图。如图1中示出,用户可通过移动终端300和控制装置100操作显示设备200。
在一些实施例中,控制装置100可以是遥控器,遥控器和显示设备的通信包括红外协议通信或蓝牙协议通信,及其他短距离通信方式等,通过无线或其他有线方式来控制显示设备200。用户可以通过遥控器上按键,语音输入、控制面板输入等输入用户指令,来控制显示设备200。如:用户可以通过遥控器上音量加减键、频道控制键、上/下/左/右的移动按键、语音输入按键、菜单键、开关机按键等输入相应控制指令,来实现控制显示设备200的功能。
在一些实施例中,也可以使用移动终端、平板电脑、计算机、笔记本电脑、和其他智能设备以控制显示设备200。例如,使用在智能设备上运行的应用程序控制显示设备200。该应用程序通过配置可以在与智能设备关联的屏幕上,在直观的用户界面(UI)中为用户提供各种控制。
在一些实施例中,移动终端300可与显示设备200安装软件应用,通过网络通信协议实现连接通信,实现一对一控制操作的和数据通信的目的。如:可以实现用移动终端300与显示设备200建立控制指令协议,将遥控控制键盘同步到移动终端300上,通过控制移动终端300上用户界面,实现控制显示设备200的功能。也可以将移动终端300上显示音视频内容传输到显示设备200上,实现同步显示功能。
如图1中还示出,显示设备200还与服务器400通过多种通信方式进行数据通信。可允许显示设备200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器400可以向显示设备200提供各种内容和互动。示例的,显示设备200通过发送和接收信息,以及电子节目指南(EPG)互动,接收软件程序更新,或访问远程储存的数字媒体库。服务器400可以是一个集群,也可以是多个集群,可以包括一类或多类服务器。通过服务器400提供视频点播和广告服务等其他网络服务内容。
显示设备200,可以液晶显示器、OLED显示器、投影显示设备。具体显示设备类型,尺寸大小和分辨率等不作限定,本领技术人员可以理解的是,显示设备200可以根据需要做性能和配置上一些改变。
显示设备200除了提供广播接收电视功能之外,还可以附加提供计算机支持功能的智能网络电视功能,包括但不限于,网络电视、智能电视、互联网协议电视(IPTV)等。
图2中示例性示出了根据示例性实施例中显示设备200的硬件配置框图。
在一些实施例中,显示设备200中包括控制器250、调谐解调器210、通信器220、检测器230、输入/输出接口255、显示器275,音频输出接口285、存储器260、供电电源290、用户接口265、外部装置接口240中的至少一种。
在一些实施例中,显示器275,用于接收源自第一处理器输出的图像信号,进行显示视频内容和图像以及菜单操控界面的组件。
在一些实施例中,显示器275,包括用于呈现画面的显示屏组件,以及驱动图像显示的驱动组件。
在一些实施例中,显示视频内容,可以来自广播电视内容,也可以是说,可通过有线或无线通信协议接收的各种广播信号。或者,可显示来自网络通信协议接收来自网络服务器端发送的各种图像内容。
在一些实施例中,显示器275用于呈现显示设备200中产生且用于控制显示设备200的用户操控UI界面。
在一些实施例中,根据显示器275类型不同,还包括用于驱动显示的驱动组件。
在一些实施例中,显示器275为一种投影显示器,还可以包括一种投影装置和投影屏幕。
在一些实施例中,通信器220是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如:通信器可以包括Wifi芯片,蓝牙通信协议芯片,有线以太网通信协议芯片等其他网络通信协议芯片或近场通信协议芯片,以及红外接收器中的至少一种。
在一些实施例中,显示设备200可以通过通信器220与外部控制设备100或内容提供设备之间建立控制信号和数据信号发送和接收。
在一些实施例中,用户接口265,可用于接收控制装置100(如:红外遥控器等)红外控制信号。
在一些实施例中,检测器230是显示设备200用于采集外部环境或与外部交互的信号。
在一些实施例中,检测器230包括光接收器,用于采集环境光线强度的传感器,可以通过采集环境光可以自适应性显示参数变化等。
在一些实施例中,检测器230还可以包括图像采集器,如相机、摄像头等,可以用于采集外部环境场景,以及用于采集用户的属性或与用户交互手势,可以自适应变化显示参数,也可以识别用户手势,以实现与用户之间互动的功能。
在一些实施例中,检测器230还可以包括温度传感器等,如通过感测环境温度。
在一些实施例中,显示设备200可自适应调整图像的显示色温。如当温度偏高的环境时,可调整显示设备200显示图像色温偏冷色调,或当温度偏低的环境时,可以调整显示设备200显示图像偏暖色调。
在一些实施例中,检测器230还可声音采集器等,如麦克风,可以用于接收用户的声音。示例性的,包括用户控制显示设备200的控制指令的语音信号,或采集环境声音,用于识别环境场景类型,使得显示设备200可以自适应适应环境噪声。
在一些实施例中,如图2所示,输入/输出接口255被配置为,可进行控制器250与外部其他设备或其他控制器250之间的数据传输。如接收外部设备的视频信号数据和音频信号数据、或命令指令数据等。
在一些实施例中,外部装置接口240可以包括,但不限于如下:可以高清多媒体接口HDMI接口、模拟或数据高清分量输入接口、复合视频输入接口、USB输入接口、RGB端口等任一个或多个接口。也可以是上述多个接口形成复合性的输入/输出接口。
在一些实施例中,如图2所示,调谐解调器210被配置为,通过有线或无线接收方式接收广播电视信号,可以进行放大、混频和谐振等调制解调处理,从多多个无线或有线广播电视信号中解调出音视频信号,该音视频信号可以包括用户所选择电视频道频率中所携带的电视音视频信号,以及EPG数据信号。
在一些实施例中,调谐解调器210解调的频点受到控制器250的控制,控制器250可根据用户选择发出控制信号,以使的调制解调器响应用户选择的电视信号频率以及调制解调该频率所携带的电视信号。
在一些实施例中,广播电视信号可根据电视信号广播制式不同区分为地面广播信号、有线广播信号、卫星广播信号或互联网广播信号等。或者根据调制类型不同可以区分为数字调制信号,模拟调制信号等。或者根据信号种类不同区分为数字信号、模拟信号等。
在一些实施例中,控制器250和调谐解调器210可以位于不同的分体设备中,即调谐解调器210也可在控制器250所在的主体设备的外置设备中,如外置机顶盒等。这样,机顶盒将接收到的广播电视信号调制解调后的电视音视频信号输出给主体设备,主体设备经过第一输入/输出接口接收音视频信号。
在一些实施例中,控制器250,通过存储在存储器上中各种软件控制程序,来控制显示设备的工作和响应用户的操作。控制器250可以控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器275上显示UI对象的用户命令,控制器250便可以执行与由用户命令选择的对象有关的操作。
在一些实施例中,所述对象可以是可选对象中的任何一个,例如超链接或图标。与所选择的对象有关操作,例如:显示连接到超链接页面、文档、图像等操作,或者执行与所述图标相对应程序的操作。用于选择UI对象用户命令,可以是通过连接到显示设备200的各种输入装置(例如,鼠标、键盘、触摸板等)输入命令或者与由用户说出语音相对应的语音命令。
如图2所示,控制器250包括随机存取存储器251(Random Access Memory,RAM)、只读存储器252(Read-Only Memory,ROM)、视频处理器270、音频处理器280、其他处理器253(例如:图形处理器(Graphics Processing Unit,GPU)、中央处理器254(CentralProcessing Unit,CPU)、通信接口(Communication Interface),以及通信总线256(Bus)中的至少一种。其中,通信总线连接各个部件。
在一些实施例中,RAM 251用于存储操作***或其他正在运行中的程序的临时数据在一些实施例中,ROM 252用于存储各种***启动的指令。
在一些实施例中,ROM 252用于存储一个基本输入输出***,称为基本输入输出***(Basic Input Output System,BIOS)。用于完成对***的加电自检、***中各功能模块的初始化、***的基本输入/输出的驱动程序及引导操作***。
在一些实施例中,在收到开机信号时,显示设备200电源开始启动,CPU运行ROM252中***启动指令,将存储在存储器的操作***的临时数据拷贝至RAM 251中,以便于启动或运行操作***。当操作***启动完成后,CPU再将存储器中各种应用程序的临时数据拷贝至RAM 251中,然后,以便于启动或运行各种应用程序。
在一些实施例中,处理器254,用于执行存储在存储器中操作***和应用程序指令。以及根据接收外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。
在一些示例性实施例中,处理器254,可以包括多个处理器。多个处理器可包括一个主处理器以及一个或多个子处理器。主处理器,用于在预加电模式中执行显示设备200一些操作,和/或在正常模式下显示画面的操作。一个或多个子处理器,用于在待机模式等状态下一种操作。
在一些实施例中,图形处理器253,用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令显示图形等。包括运算器,通过接收用户输入各种交互指令进行运算,根据显示属性显示各种对象。以及包括渲染器,对基于运算器得到的各种对象,进行渲染,上述渲染后的对象用于显示在显示器上。
在一些实施例中,视频处理器270被配置为将接收外部视频信号,根据输入信号的标准编解码协议,进行解压缩、解码、缩放、降噪、帧率转换、分辨率转换、图像合成等等视频处理,可得到直接可显示设备200上显示或播放的信号。
在一些实施例中,视频处理器270,包括解复用模块、视频解码模块、图像合成模块、帧率转换模块、显示格式化模块等。
其中,解复用模块,用于对输入音视频数据流进行解复用处理,如输入MPEG-2,则解复用模块进行解复用成视频信号和音频信号等。
视频解码模块,则用于对解复用后的视频信号进行处理,包括解码和缩放处理等。
图像合成模块,如图像合成器,其用于将图形生成器根据用户输入或自身生成的GUI信号,与缩放处理后视频图像进行叠加混合处理,以生成可供显示的图像信号。
帧率转换模块,用于对转换输入视频帧率,如将60Hz帧率转换为120Hz帧率或240Hz帧率,通常的格式采用如插帧方式实现。
显示格式化模块,则用于将接收帧率转换后视频输出信号,改变信号以符合显示格式的信号,如输出RGB数据信号。
在一些实施例中,图形处理器253可以和视频处理器可以集成设置,也可以分开设置,集成设置的时候可以执行输出给显示器的图形信号的处理,分离设置的时候可以分别执行不同的功能,例如GPU+FRC(Frame Rate Conversion))架构。
在一些实施例中,音频处理器280,用于接收外部的音频信号,根据输入信号的标准编解码协议,进行解压缩和解码,以及降噪、数模转换、和放大处理等处理,得到可以在扬声器中播放的声音信号。
在一些实施例中,视频处理器270可以包括一颗或多颗芯片组成。音频处理器,也可以包括一颗或多颗芯片组成。
在一些实施例中,视频处理器270和音频处理器280,可以单独的芯片,也可以于控制器一起集成在一颗或多颗芯片中。
在一些实施例中,音频输出,在控制器250的控制下接收音频处理器280输出的声音信号,如:扬声器286,以及除了显示设备200自身携带的扬声器之外,可以输出至外接设备的发生装置的外接音响输出端子,如:外接音响接口或耳机接口等,还可以包括通信接口中的近距离通信模块,例如:用于进行蓝牙扬声器声音输出的蓝牙模块。
供电电源290,在控制器250控制下,将外部电源输入的电力为显示设备200提供电源供电支持。供电电源290可以包括安装显示设备200内部的内置电源电路,也可以是安装在显示设备200外部电源,在显示设备200中提供外接电源的电源接口。
用户接口265,用于接收用户的输入信号,然后,将接收用户输入信号发送给控制器250。用户输入信号可以是通过红外接收器接收的遥控器信号,可以通过网络通信模块接收各种用户控制信号。
在一些实施例中,用户通过控制装置100或移动终端300输入用户命令,用户输入接口则根据用户的输入,显示设备200则通过控制器250响应用户的输入。
在一些实施例中,用户可在显示器275上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
在一些实施例中,“用户界面”,是应用程序或操作***与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。用户界面常用的表现形式是图形用户界面(Graphic User Interface,GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
存储器260,包括存储用于驱动显示设备200的各种软件模块。如:第一存储器中存储的各种软件模块,包括:基础模块、检测模块、通信模块、显示控制模块、浏览器模块、和各种服务模块等中的至少一种。
基础模块用于显示设备200中各个硬件之间信号通信、并向上层模块发送处理和控制信号的底层软件模块。检测模块用于从各种传感器或用户输入接口中收集各种信息,并进行数模转换以及分析管理的管理模块。
例如,语音识别模块中包括语音解析模块和语音指令数据库模块。显示控制模块用于控制显示器进行显示图像内容的模块,可以用于播放多媒体图像内容和UI界面等信息。通信模块,用于与外部设备之间进行控制和数据通信的模块。浏览器模块,用于执行浏览服务器之间数据通信的模块。服务模块,用于提供各种服务以及各类应用程序在内的模块。同时,存储器260还用存储接收外部数据和用户数据、各种用户界面中各个项目的图像以及焦点对象的视觉效果图等。
图3示例性示出了根据示例性实施例中控制设备100的配置框图。如图3所示,控制设备100包括控制器110、通信接口130、用户输入/输出接口、存储器、供电电源。
控制设备100被配置为控制显示设备200,以及可接收用户的输入操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起用用户与显示设备200之间交互中介作用。如:用户通过操作控制设备100上频道加减键,显示设备200响应频道加减的操作。
在一些实施例中,控制设备100可是一种智能设备。如:控制设备100可根据用户需求安装控制显示设备200的各种应用。
在一些实施例中,如图1所示,移动终端300或其他智能电子设备,可在安装操控显示设备200的应用之后,可以起到控制设备100类似功能。如:用户可以通过安装应用,在移动终端300或其他智能电子设备上可提供的图形用户界面的各种功能键或虚拟按钮,以实现控制设备100实体按键的功能。
控制器110包括处理器112和RAM 113和ROM 114、通信接口130以及通信总线。控制器用于控制控制设备100的运行和操作,以及内部各部件之间通信协作以及外部和内部的数据处理功能。
通信接口130在控制器110的控制下,实现与显示设备200之间控制信号和数据信号的通信。如:将接收到的用户输入信号发送至显示设备200上。通信接口130可包括WiFi芯片131、蓝牙模块132、NFC模块133等其他近场通信模块中至少之一种。
用户输入/输出接口140,其中,输入接口包括麦克风141、触摸板142、传感器143、按键144等其他输入接口中至少一者。如:用户可以通过语音、触摸、手势、按压等动作实现用户指令输入功能,输入接口通过将接收的模拟信号转换为数字信号,以及数字信号转换为相应指令信号,发送至显示设备200。
输出接口包括将接收的用户指令发送至显示设备200的接口。在一些实施例中,可以红外接口,也可以是射频接口。如:红外信号接口时,需要将用户输入指令按照红外控制协议转化为红外控制信号,经红外发送模块进行发送至显示设备200。再如:射频信号接口时,需将用户输入指令转化为数字信号,然后按照射频控制信号调制协议进行调制后,由射频发送端子发送至显示设备200。
在一些实施例中,控制设备100包括通信接口130和输入输出接口140中至少一者。控制设备100中配置通信接口130,如:WiFi、蓝牙、NFC等模块,可将用户输入指令通过WiFi协议、或蓝牙协议、或NFC协议编码,发送至显示设备200.
存储器190,用于在控制器的控制下存储驱动和控制控制设备200的各种运行程序、数据和应用。存储器190,可以存储用户输入的各类控制信号指令。
供电电源180,用于在控制器的控制下为控制设备100各元件提供运行电力支持。可以电池及相关控制电路。
在一些实施例中,***可以包括内核(Kernel)、命令解析器(shell)、文件***和应用程序。内核、shell和文件***一起组成了基本的操作***结构,它们让用户可以管理文件、运行程序并使用***。上电后,内核启动,激活内核空间,抽象硬件、初始化硬件参数等,运行并维护虚拟内存、调度器、信号及进程间通信(IPC)。内核启动后,再加载Shell和用户应用程序。应用程序在启动后被编译成机器码,形成一个进程。
参见图4,在一些实施例中,将***分为四层,从上至下分别为应用程序(Applicat ions)层(简称“应用层”),应用程序框架(Appl icat ion Framework)层(简称“框架层”),安卓运行时(Android runtime)和***库层(简称“***运行库层”),以及内核层。
在一些实施例中,应用程序层中运行有至少一个应用程序,这些应用程序可以是操作***自带的窗口(Window)程序、***设置程序、时钟程序、相机应用等;也可以是第三方开发者所开发的应用程序,比如嗨见程序、K歌程序、魔镜程序等。在具体实施时,应用程序层中的应用程序包不限于以上举例,实际还可以包括其它应用程序包,本申请实施例对此不做限制。
框架层为应用程序层的应用程序提供应用编程接口(application programminginterface,API)和编程框架。应用程序框架层包括一些预先定义的函数。应用程序框架层相当于一个处理中心,这个中心决定让应用层中的应用程序做出动作。应用程序通过API接口,可在执行中访问***中的资源和取得***的服务
如图4所示,本申请实施例中应用程序框架层包括管理器(Managers),内容提供者(Content Provider)等,其中管理器包括以下模块中的至少一个:活动管理器(ActivityManager)用与和***中正在运行的所有活动进行交互;位置管理器(Location Manager)用于给***服务或应用提供了***位置服务的访问;文件包管理器(Package Manager)用于检测当前安装在设备上的应用程序包相关的各种信息;通知管理器(NotificationManager)用于控制通知消息的显示和清除;窗口管理器(Window Manager)用于管理用户界面上的括图标、窗口、工具栏、壁纸和桌面部件。
在一些实施例中,活动管理器用于:管理各个应用程序的生命周期以及通常的导航回退功能,比如控制应用程序的退出(包括将显示窗口中当前显示的用户界面切换到***桌面)、打开、后退(包括将显示窗口中当前显示的用户界面切换到当前显示的用户界面的上一级用户界面)等。
在一些实施例中,窗口管理器用于管理所有的窗口程序,比如获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕,控制显示窗口变化(例如将显示窗口缩小显示、抖动显示、扭曲变形显示等)等。
在一些实施例中,***运行库层为上层即框架层提供支撑,当框架层被使用时,安卓操作***会运行***运行库层中包含的C/C++库以实现框架层要实现的功能。
在一些实施例中,内核层是硬件和软件之间的层。如图4所示,内核层至少包含以下驱动中的至少一种:音频驱动、显示驱动、蓝牙驱动、摄像头驱动、WIFI驱动、USB驱动、HDMI驱动、传感器驱动(如指纹传感器,温度传感器,触摸传感器、压力传感器等)等。
在一些实施例中,内核层还包括用于进行电源管理的电源驱动模块。
在一些实施例中,图4中的软件架构对应的软件程序和/或模块存储在图2或图3所示的第一存储器或第二存储器中。
在一些实施例中,以魔镜应用(拍照应用)为例,当遥控接收装置接收到遥控器输入操作,相应的硬件中断被发给内核层。内核层将输入操作加工成原始输入事件(包括输入操作的值,输入操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,根据焦点当前的位置识别该输入事件所对应的控件以及以该输入操作是确认操作,该确认操作所对应的控件为魔镜应用图标的控件,魔镜应用调用应用框架层的接口,启动魔镜应用,进而通过调用内核层启动摄像头驱动,实现通过摄像头捕获静态图像或视频。
在一些实施例中,对于具备触控功能的显示设备,以分屏操作为例,显示设备接收用户作用于显示屏上的输入操作(如分屏操作),内核层可以根据输入操作产生相应的输入事件,并向应用程序框架层上报该事件。由应用程序框架层的活动管理器设置与该输入操作对应的窗口模式(如多窗口模式)以及窗口位置和大小等。应用程序框架层的窗口管理根据活动管理器的设置绘制窗口,然后将绘制的窗口数据发送给内核层的显示驱动,由显示驱动在显示屏的不同显示区域显示与之对应的应用界面。
在一些实施例中,如图5中所示,应用程序层包含至少一个应用程序可以在显示器中显示对应的图标控件,如:直播电视应用程序图标控件、视频点播应用程序图标控件、媒体中心应用程序图标控件、应用程序中心图标控件、游戏应用图标控件等。
在一些实施例中,直播电视应用程序,可以通过不同的信号源提供直播电视。例如,直播电视应用程可以使用来自有线电视、无线广播、卫星服务或其他类型的直播电视服务的输入提供电视信号。以及,直播电视应用程序可在显示设备200上显示直播电视信号的视频。
在一些实施例中,视频点播应用程序,可以提供来自不同存储源的视频。不同于直播电视应用程序,视频点播提供来自某些存储源的视频显示。例如,视频点播可以来自云存储的服务器端、来自包含已存视频节目的本地硬盘储存器。
在一些实施例中,媒体中心应用程序,可以提供各种多媒体内容播放的应用程序。例如,媒体中心,可以为不同于直播电视或视频点播,用户可通过媒体中心应用程序访问各种图像或音频所提供服务。
在一些实施例中,应用程序中心,可以提供储存各种应用程序。应用程序可以是一种游戏、应用程序,或某些和计算机***或其他设备相关但可以在智能电视中运行的其他应用程序。应用程序中心可从不同来源获得这些应用程序,将它们储存在本地储存器中,然后在显示设备200上可运行。
基于上述显示设备200,用户可以通过显示设备200的外部装置接口240接入多种接口设备500。所述接口设备500可以是具有特定功能的设备,可根据其所具有的特定功能,将接口设备500分为输入装置和输出装置。例如,摄像头、麦克风、手柄等能够采集视频、音频、动作信号的设备为输入装置;音响、外接显示器等能够输出音频、视频信号的设备为输出装置。
其中,输入装置可以根据采集到的信号生成显示设备200可读取和/或可处理的电信号。并通过外部装置接口240将采集到的电信号发送给显示设备200,以使显示设备200能够利用接口设备500的信号实现不同的功能。输出装置则可以将显示设备200中的电信号转化为其他信号进行输出,以利用输出装置丰富输出音频、视频信号的输出模式。
手柄501作为一种输入装置,可以通过外部装置接口240接入显示设备200,以向显示设备200发送位姿信息。所述手柄501中集成有基于位姿追踪技术的元件,能够在使用过程中实时反馈手柄501的位置数据和姿态数据。
根据手柄501所采用的位置和姿态的检测方式不同,手柄501可以内置不同的传感器元件。例如,为了检测手柄501的当前位置,手柄501可以内置基于激光、超声波等追踪方式的发射元件和接收元件。为了检测手柄501的当前姿态,手柄501中还内置有重力传感器、陀螺仪等元件。在将手柄501接入外部装置接口240后,手柄501可以实时将自身的位置数据和姿态数据发送给显示设备200,以使显示设备200能够获取手柄501的当前位姿信息。
需要说明的是,部分手柄501受限于定位原理,需要配合定位基站502才能够将位置数据发送给显示设备200。例如,采用激光或者超声波的outside-in位姿追踪手柄,其可以利用激光或者超声波定位原理获得手柄501到定位基站502之间的方向和距离,并按照这个距离数据确定手柄501在三维坐标中的位置。
因此,如图6所示,在实际应用中,显示设备200可以通过外部装置接口240连接定位基站502,再由定位基站502与手柄501连接,实现将手柄501接入外部装置接口240。显然,定位基站502和显示设备200均可以支持多个手柄501同时获得相对位置。
手柄501上还可以设有多个按键,用户可以结合具体的使用场景,定义手柄501上的按键功能,以完成对应的交互功能。例如,在会议讨论时,可以使用显示设备200进行文件展示,会议参与者则可以利用手柄501上的按键在展示的画面中执行操作,如划线、画圆圈、画方框等,将特定的位置上显示内容进行标记,以辅助表达自己的观点。
因此,显示设备200通过外部装置接口240可以在接收手柄501的位姿信息的同时,还可以接收用户在手柄501上执行的操作信息。位姿信息和操作信息可以经过外部装置接口240发送给控制器250,从而使控制器250能够控制显示器275实时显示用于表征操控过程的图案。
操控图案可以包括两种,一种是用于追踪手柄501位置和姿态的追踪标记,另一种是根据用户输入的交互动作绘制的动作图案。其中,追踪标记可以具有特定的形状,例如可以为指针、圆圈、菱形块等。为了追踪手柄501的位置和姿态,追踪标记的位置需要随着手柄501的位置变化而变化,如用户操作手柄501向左移动时,追踪标记也向显示器275的左侧实时移动。本申请的部分实施例中,在显示设备200连接有多个手柄501时,可以通过不同的颜色和/或不同的形状对多个追踪标记进行区分。
动作图案可以根据用户输入的交互动作实时绘制。在不同的交互动作下,绘制的动作图案也不同。例如,在执行划线操作时,用户可以通过按下手柄501上定义为划线功能的按键启动划线操作,同时移动手柄501的位置,则显示设备200在显示的内容中将移动的路径通过曲线进行显示,形成动作图案。
又例如,在执行画圆圈操作时,用户可以在选定画圆圈操作功能后,按下对应按键,则以显示设备200可以在按下按键时追踪标记对应的位置显示一个圆圈图案,并随着手柄的移动实时调整圆圈的大小和形状,直到用户松开对应按键后,形成最终的动作图案。
对于展示的不同内容,以及不同的会议参与者,需要对显示内容进行的标记位置也不同,因此在实施手柄501操作时,用户可以调整手柄501的位置和/或姿态,从而在不同的位置对展示的内容进行标记。
为了实现上述功能,如图7所示,本申请的部分实施例中提供一种手柄操控图案显示方法,所述方法可以配置在显示设备200的控制器250中,所述方法包括以下步骤:
S1:通过所述外部装置接口获取所述手柄的位姿信息。
在将手柄501接入外部装置接口240后,控制器250可以按照设定的频率获取手柄501的位姿信息,用于确定手柄501的当前位置和姿态。其中,所述位姿信息包括手柄501的当前位置数据、姿态数据以及手柄识别ID。
为了对不同的手柄501进行区分,每个手柄501可以设置一个手柄识别ID。手柄识别ID可以在接入外部装置接口240后,由用户通过显示设备200自定义设置。例如显示设备200在对手柄501完成软件配置后,按照设定的规则为该手柄501添加一个手柄识别ID,如序号、端口号等。手柄识别ID也可以由显示设备200通过读取手柄501设备的型号编码自动设置,例如手柄识别ID可以是通过读取手柄501获得的能够表示其唯一性的任意代码,包括Mac地址、产品主板编号等。
实际应用中,每一个手柄501在接入显示设备200时,需要显示设备200针对该手柄501进行适配,例如安装驱动程序等。在完成适配后,显示设备200可以对接入的手柄501对应的手柄识别ID进行存储,以便下一次该手柄501接入显示设备200时能够直接完成适配。
在手柄501接入外部装置接口240后,手柄501可以实时通过外部装置接口240向显示设备200传递位置数据和姿态数据。为了区分不同的手柄501,以便于后续分析,手柄501向显示设备200发送的位姿信息中还可以包括手柄识别ID。具体在传递位姿信息时,可以按照数据包的形式将位置数据和姿态数据进行封装,并在数据包添加带有手柄识别ID的标签,以便控制器250能够获取位姿信息。
S2:根据所述当前位置数据和所述姿态数据,计算所述手柄在所述显示器上的映射点位置。
在获取手柄501的位姿信息后,控制器250可以对位姿信息进行解析,从而获得位姿信息中的位置数据和姿态数据,再根据手柄501在实际操作空间中的布置情况,将手柄501的位置和姿态映射到显示器275的显示区域内。即根据手柄501所处的位置数据和姿态数据计算手柄501在显示器275上的映射点位置。
实际应用中,手柄501每一个位置和每一种姿态都可以对应在显示器275上有一个映射点。具体的映射方式可以根据手柄501的位姿检测原理设定映射规则。例如,手柄501可以等同于一个原点,这个原点在显示器275上的正投影位置即可作为手柄501在显示器275上的映射点位置。由此,当用户移动手柄501位置时,其映射点位置也将发生改变,从而便于后续显示操控图案。
而对于部分手柄501,可以在根据位置数据和姿态数据按照空间几何投影关系,在显示器275上确定映射点位置。例如,对于圆柱形结构的手柄501,映射点可以是手柄501中轴线的延长线与显示器275平面的交点。这样的映射方式可以当手柄501离显示设备200有一定距离时,根据用户的使用习惯,使手柄501在指向显示设备200时,手柄501的姿态直接对应指向显示设备200的点,准确的映射在显示设备200上。实现当用户移动手柄501和转动手柄501时均能够改变映射点位置,便于用户执行操作。
S3:控制所述显示器根据所述映射点位置实时显示操控图案。
在确定映射点位置后,控制器250还可以根据映射点位置实时显示操作图案。为了区分不同手柄501的操作图案,控制显示的操控图案的颜色和/或图案形状可以根据手柄识别ID设定的颜色和/或图案形状。
例如,手柄识别ID可以是按照手柄501与显示设备200匹配顺序而生成的序号,则在显示操控图案时,序号为01的手柄对应操控图案的颜色是红色、序号为02的手柄对应操控图案的颜色是紫色、序号为03的手柄对应操控图案的颜色绿色、序号为04的手柄对应操控图案的颜色是蓝色、序号为05的手柄对应操控图案的颜色是黑色。通过不同的、且对比区分明显的颜色,以显示不同手柄501所对应的操控图案。
同理,也可以通过显示不同的图案形状,对多个手柄501对应的操控图案进行区分。例如,序号为01的手柄对应操控图案的形状是圆形;序号为02的手柄对应操控图案的形状是矩形;序号为03的手柄对应操控图案的形状是三角形;序号为04的手柄对应操控图案的形状是菱形;序号为05的手柄对应操控图案的形状是梯形,以通过不同形状显示不同手柄501所对应的操控图案。
显然,由于操作图案可以包括追踪标记和动作图案,因此在根据手柄识别ID设定的颜色和/或图案形状时,可以同时对追踪标记和动作图案均进行设置,并且追踪标记可以和动作图案相适应。例如,序号为01的手柄对应操控图案的颜色是红色,则追踪标记为红色圆形的图案,相应的其产生的动作图案也可以与红色圆形图案相适应,如在划线操作时,所形成的划线形状为端部呈圆弧形的线,且线的颜色也是红色,线的宽度等于追踪标记中圆形的直径。
需要说明的是,在实际应用中,同一个手柄501所对应显示的操控图案可以具有多种形式。例如,序号为01的手柄对应操控图案可以是红色圆形,也可以是黄色五角星形,并且可以由用户操作进行切换,以便适应不同背景图案或适应不同的表达意图。
由以上技术方案可知,上述实施例中提供的手柄操控图案显示方法可以配置在显示设备200的控制器250中,实现实时监测手柄501的位置和姿态,并映射在显示器275的显示区域范围内,从而控制显示器275根据映射点位置实时显示操控图案。其中,所显示的操控图案的颜色和/或图案形状可以根据不同手柄501分别设置,实现对不同手柄501操控图案的区分。所述方法可以充分利用显示设备200支持多手柄501交互功能,方便不同手柄501操作者与显示设备200上执行交互操作,提供更加多样化、个性化的交互方式。
在上述实施例中,不同手柄501可以设置不同的操控图案,操控图案的设置过程可以在手柄501接入外部装置接口240后完成。由于在显示设备200每次开机时,需重新连接手柄501,因此在本申请的部分实施例中,所述方法还包括:
S401:获取用户输入的开机指令;
S402:响应于所述开机指令,检测连接至所述外部装置接口的手柄识别ID;
S403:为连接至所述外部装置接口的每个手柄设置操控图案的颜色和/或图案形状;
S404:创建信息标签;
S405:存储所述信息标签。
在每次开机启动过程中,用户可以通过控制装置100输入开机指令,或者通过显示设备200上的开机键输入开机指令。控制器250在收到开机指令后,可以响应于该开机指令,检测接入外部装置接口240的手柄识别ID。
再根据检测的手柄识别ID为每个手柄501设置操控图案的颜色和/或形状,并创建一个信息标签(informationTab)用于记录设置结果,即所述信息标签中记录有所述手柄识别ID以及所述手柄识别ID对应的操控图案的颜色和/或图案形状。最后,将创建的信息标签进行存储,以便后续调用。
例如,显示设备200在上电开机之后,可以通过USB外接无线通信模组检测到位姿追踪手柄501时,创建informationTab以记录手柄501的信息。在informationTab中,每一个记录包含序号、手柄识别ID、操控图案颜色、操控图案形状等信息,以供应用程序查询。
显示设备200的信息标签可以掉电不保存,并在每次开机时重新连接手柄501以创建信息标签,从而减少数据存储量,并且及时更新信息标签中记录的内容。显然,显示设备200在开机使用中,如果手柄501掉电并重新上电,显示设备200在获得手柄501接入外部装置接口240的信息后,可以采用查找手柄识别ID的方式,在之前存储的信息标签中查找记录的序号和操控图案颜色、形状等信息,便于快速确定该手柄识别ID对应的操控图案颜色和形状。
在上述实施例中,由于理论上显示设备200可以支持无限多个手柄501接入,相应对于每个接入的手柄501,显示设备200都需要对其操控图案进行设置以实现相互区分。因此,在一些实施例中,为连接至所述外部装置接口的每个手柄设置操控图案的颜色和/或图案形状的步骤还包括:
S4031:生成基色数据;
S4032:组合所述基色数据生成操控图案的颜色。
为了对每个手柄501设置不同的操控图案,在为连接至外部装置接口240的每个手柄501设置操控图案的颜色时,可以先生成基色数据,再将基色数据生成操控图案的颜色进行组合,从而生成手柄501对应操控图案的颜色。其中,所述基色数据包括三个在0-255之间的随机数,分别用于表示所述操控图案的RGB三基色数值,即每一手柄501对应的颜色采用在0-255之间获得三次随机数的方式,分别作为操控图案颜色的对应RGB三基色,确定三基色的数值后,即可确定操控图案的颜色。
显然,在设置操控图案颜色时,不同手柄501对应设置的颜色应存在差异,因此获得的三次随机数,不能与已经设置的其他手柄对应颜色相同。即在获得三次随机数以后,可以与存储的信息标签中记录的操控图案颜色进行一次对比,如果生成的操控图案颜色与已记录的任一手柄501操控图案颜色相同,则重新生成三次随机数,直至将手柄501的操控图案设置为其他颜色。
需要说明的是,为了避免设置的操控图案颜色与其他已设置的操控图案颜色相同,还可以在获得三次随机数的范围0-255中,将一个或多个基色下对应的已设置颜色基色值删除,从而直接获得不同于已设置颜色的基色数据,生成不同的操控图案颜色。
同理,也可以通过在预设集合中选取的方式,完成对于操控图案形状的设置。例如,可以在显示设备200中存储一个控制图案的形状集合,每个形状可以对应一个序号,这个序号可以与手柄501的序号相同,以便在确定手柄501的序号后,直接按照序号确定对应的控制图案形状。
由以上技术方案可知,上述实施例通过在显示设备200中存储信息标签,可以实现将接入外部装置接口240的手柄501进行统一管理,并且能够被应用程序查询,以实现多个手柄501与显示设备200之间的交互。
为了连接更多数量手柄501以及适应部分手柄501的定位方式,在本申请的部分实施例中,所述外部装置接口240上连接有定位基站502,以使多个手柄501通过定位基站502接入外部装置接口240。定位基站502是一种与手柄501配合的设备,用于定位手柄501的位置。因此,定位基站502可以与手柄501具有相同的信号检测原理,如都是基于激光或超声波的定位原理。
例如,对于部分手柄501,定位基站502可以通过向不同的方向发送特定形式的激光信号实施扫描。扫描范围内的手柄501可以接收到该激光信号并反馈信号。定位基站502能够检测到反馈信号并根据反馈信号的方位以及反馈信号的传输时间确定手柄501的方位,实现对手柄501的定位。在完成定位后,定位基站502可以生成手柄501对应的位置数据,并将位置数据通过外部装置接口240发送给显示设备200。
需要说明的是,定位基站502还可以实时与手柄501之间进行数据通信,从而接收手柄501中重力加速度传感器和陀螺仪等元件检测的姿态数据。并且,在接收到姿态数据后,定位基站502可以将姿态数据与同时段内检测的位置数据进行组合,从而统一发送给显示设备200。
定位基站502可以设置在一个便于扫描到手柄501的位置。定位基站502与显示器275位置相对固定,并且控制器250能获得相对位置信息。定位基站502可以固定在显示器275的四周,例如设置在显示器275的顶部中心位置上。此时,定位基站502的中心点到显示器275的中心点距离和偏差角度是固定的,可以便于精确确定空间几何关系。在一些实施例中,计算所述手柄在所述显示器上的映射点位置的步骤中还包括:
S201:通过所述定位基站测量所述手柄相对于所述定位基站的三维位置坐标,以及所述手柄的水平姿态角和竖直姿态角;
S202:获取所述显示器的宽度值和高度值,以及获取所述定位基站与所述显示器之间的距离值;
S203:根据所述三维位置坐标、宽度值以及所述水平姿态角计算映射点的水平坐标;
S204:根据所述三维位置坐标、高度值以及所述竖直姿态角计算映射点的竖直坐标。
本实施例中,位置数据可以包括手柄501相对于定位基站的相对位置,可以通过三维位置坐标(x,y,z)进行表示。姿态数据可以通过手柄501的IMU信息和手柄501接收的定位基站502超声/激光信息获得。姿态数据可以包括手柄501相对于水平方向和数值方向的倾斜角度,分别通过水平姿态角α和竖直姿态角进行表示β。
同时,如图8所示,控制器250还可以获取显示器275的宽度值和高度值,以及获取所述定位基站502与所述显示器275之间的距离值D。其中,显示器275的宽度值W和高度值H即屏幕尺寸,可以根据不同规格的显示设备200确定。例如,65寸的智能电视,其宽度值为1480mm,高度值为897mm。距离值D则根据定位基站502的摆放位置确定。
在获取上述数据后,控制器250可以根据手柄501与显示设备200的空间几何关系,将手柄501的位置数据和姿态数据映射到显示器275上。为了便于表达映射点位置,可以显示器275的左下角为原点,在显示器275的平面上构建一个直角坐标系,并在直角坐标系中表示映射点位置,即映射点位置坐标为P(lcd_w,lcd_h)。
具体的,如图9所示,可以根据三维位置坐标、宽度值以及水平姿态角计算映射点的水平坐标。即,映射点的水平坐标为:
lcd_w=(x*tanα+W/2+y);
式中,lcd_w为映射点的水平坐标;x为三维位置坐标中的水平x轴坐标;y为三维位置坐标中的水平y轴坐标;α为水平姿态角;W为显示器的宽度值;
如图10所示,可以根据三维位置坐标、高度值以及竖直姿态角计算映射点的竖直坐标。即,映射点的竖直坐标:
Lcd_h=H-(-z-D-tanβ*x);
式中,Lcd_h为映射点的竖直坐标;H为显示器的高度值;x为三维位置坐标中的水平x轴坐标;z为三维位置坐标中的竖直z轴坐标;D为所述定位基站与所述显示器之间的距离值;β为竖直姿态角。
可见,在本实施例中,可以通过空间几何关系确定手柄501中轴线延长线与显示器275平面交点的位置坐标,从而确定映射点位置。需要说明的是,随着用户的操作动作,手柄501中轴线延长线与显示器275平面交点可能超出显示区域范围,此时,可以在超出显示范围时,在边缘位置固定显示操控图案。即通过上述公式计算后,如果lcd_h为负数或者大于H,则超出显示器275的范围,可在超出方向邻近的边缘位置显示操控图案;如果lcd_w为负数或者大于W,则超出显示器275的范围,可在超出方向邻近的边缘位置显示操控图案。
经计算获得手柄501在显示器275上的映射点位置后,一方面可以通过追踪标记对映射点位置进行实时追踪,以便于用户确定交互控制点的位置;另一方面可以在用户执行部分交互操作时,显示动作图案。
例如,用户执行划线操作时,可以通过按下手柄501上相应功能的按键,开始执行划线。并移动手柄501的位置或改变手柄501的姿态,以持续形成线条。直到到达特定位置后,松开按键,结束划线。
因为,为了显示动作图案,在本申请的部分实施例中,控制所述显示器根据所述映射点位置实时显示操控图案的步骤还包括:
S311:获取用户通过手柄输入的操作信息;
S312:创建输入标签;
S313:存储所述输入标签。
在实际应用中,用户可以通过手柄501输入多种操作动作,手柄501则可以将操作动作转化为操作信息,并与位姿信息一同发送给显示设备200。因此,控制器250可以获取用户通过手柄501输入的操作信息,再根据操作信息创建输入标签(InputInformTab)并进行存储。所述输入标签中记录有根据操作信息中的手柄识别ID、按键识别序号、按键事件数据以及与位姿信息对应的映射点位置。
例如,显示设备200通过USB接口接收手柄501的位姿实时信息和操作信息,并保存在InputInformTab中。InputInformTab中记录手柄识别ID、按键识别序号、按键按下或者抬起事件、计算后的手柄指向的位置信息等。
其中,InputInformTab可以是大小为65536的循环队列。以Linux/android***为例,当显示设备200接收到手柄501的操作信息时,可以调用“send_event”函数,并设置函数关键参数中,类型参数为“EV_MSC”、代码参数为“MSC_RAW”、取值参数为Inp utInformTab中最新记录的序号。函数“send_event”可以发送事件到应用,提醒应用查询操作信息。
另外,在实际应用中,多手柄501的操作信息和位姿信息需要带有手柄501的识别ID信息,以区别多个手柄501的操作,防止多个手柄501的操作事件产生混淆。
在一些实施例中,为了在显示画面中呈现追踪标记和动作图案,可以在显示操作图案的步骤中,针对每个手柄501创建两个图层,以分别用来显示追踪标记和动作图案,因此,控制所述显示器根据所述映射点位置实时显示操控图案的步骤还包括:
S321:调用所述输入标签;
S322:根据所述输入标签中的所述手柄识别ID和所述映射点位置在第一图层上实时显示追踪所述映射点位置的追踪标记;
S323:根据所述输入标签中的所述手柄识别ID、按键识别序号、按键事件数据以及映射点位置在第二图层上绘制动作图案;
S324:控制所述显示器显示所述第一图层和所述第二图层。
在显示设备200中,存储的输入标签可以被应用程序调用,从而分别生成追踪标记和动作图案。其中,追踪标记可以根据输入标签中的手柄识别ID和映射点位置实时调整位置,使追踪标记始终跟随映射点位置进行移动。动作图案则可以根据输入标签中的手柄标识ID、按键识别序号、按键事件数据以及映射点位置进行综合确定生成。
例如,应用软件查询到InputInformTab和/或informationTab中保存的信息包含手柄识别ID、操控图案颜色或形状、按键识别序号、按键事件数据以及映射点位置,绘制出动作图案。如在案件事件数据中提取按下位置和抬起位置,并通过两个位置之间映射点位置变化确定划线轨迹,从而形成线条图案,如图11所示。
在显示过程中,显示设备200的应用软件,可以在使用手柄501传递的信息时,为每一个手柄501对应设置两个surfaceflinger中的图层(Surface)。其中一个对应位姿追踪手柄指向的位置,即在第一图层上完成对追踪标记的显示;另一个对应画圈、标记符号等操作图案,即在第二图层上完成对动作图案的显示。最终,在Surfaceflinger服务中按需要进行实时的图层合成,并在显示器275上进行显示。
可见,在上述实施例中,可以针对每个手柄501设置两个图层分别对追踪标记和动作图案进行显示,可以实现对于动作的追踪不影响具体的交互动作,并且为每一个手柄的可视化操作对应设置相互独立的图层,从而避免多个手柄501交互动作之间的影响。
在一些实施例中,为了进一步消除多手柄501交互动作间的相互影响,控制所述显示器根据所述映射点位置实时显示操控图案的步骤还包括:
S331:从所述按键事件数据中获取用于优先显示的按键指令;
S332:响应于所述按键指令,控制所述显示器显示当前手柄对应的所述第一图层和所述第二图层;
S333:隐藏其他手柄对应的所述第一图层和所述第二图层。
用户还可以通过手柄501上具有优先显示功能按键输入用于优先显示的按键指令,控制器250在接收到该按键指令后,可以控制显示器275调整显示的图层,即只显示当前手柄对应的追踪标记和动作图案所在的图层,隐藏其他手柄对应的追踪标记和动作图案所在的图层。实现当标记内容过多时,使用手柄501上的按键,控制Surfacefl inger不显示其他手柄的图层。
显然,不同的手柄可以设置有不同的优先显示请求权限,即对于权限较高的手柄,可以通过优先显示的按键指令,隐藏所有优先显示请求权限较低的手柄对应的图层。而权限较低的手柄则不能隐藏权限高于自身的其他手柄对应的图层,只能隐藏权限低于自身权限的其他手柄对应的图层。
此外,还可以通过软件配置,将手柄501上的按键配置为不同的交互功能,例如可以通过手柄按键输入撤销指令、重做指令等,而显示设备200的控制器250在接收到相应的指令后,通过执行控制程序完成相应的功能。
基于上述手柄操控图案显示方法,本申请的部分实施例中还提供一种显示设备200,包括显示器275、外部装置接口240以及控制器250。
其中,所述显示器275被配置为显示用户界面以及操控图案;所述外部装置接口240被配置为接入手柄501;所述控制器250被配置为执行以下程序步骤:
S1:通过所述外部装置接口获取所述手柄的位姿信息,所述位姿信息包括所述手柄的当前位置数据、姿态数据以及手柄识别ID;
S2:根据所述当前位置数据和所述姿态数据,计算所述手柄在所述显示器上的映射点位置;
S3:控制所述显示器根据所述映射点位置实时显示操控图案,所述操控图案的颜色和/或图案形状为根据所述手柄识别ID设定的颜色和/或图案形状。
控制器250通过执行上述步骤,可以实现用户通过手柄501执行多样化、个性化的交互。显示设备200可以作为一个固定位置的公共屏幕,可供多人同时使用。
例如,在使用显示设备200进行会议讨论时,参与讨论的人员要指出显示的某个部分内容时,可以使用位姿追踪手柄501完成指向动作,控制器250则根据指向动作对应的位姿信息,确定其在显示器275上的映射点位置,再通过按下手柄501的按键,在选定的位置实现画圈、标记符号等操作,为讨论的内容增加标记。
所述显示设备200能够充分利用所支持的位姿追踪手柄501的功能,在会议讨论的时候,使各个会议的参加者方便的在当前显示内容上指出自己的关注点,以表达自己的观点,并且不会影响主要人员的主要观点的表达。
由以上技术方案可知,本申请第一方面提供的显示设备200包括显示器275、外部装置接口240和控制器250。控制器250可以通过外部装置接口240获取手柄501的位姿信息,并根据位姿信息中的位置数据和姿态数据计算手柄501当前状态在显示器275上的映射点位置,以便根据映射点位置实时显示操控图案,并控制显示器275进行显示。所述显示设备200可以实现通过手柄501进行互动,以提供更加多样化、个性化的交互方式。
本申请提供的实施例之间的相似部分相互参见即可,以上提供的具体实施方式只是本申请总的构思下的几个示例,并不构成本申请保护范围的限定。对于本领域的技术人员而言,在不付出创造性劳动的前提下依据本申请方案所扩展出的任何其他实施方式都属于本申请的保护范围。

Claims (9)

1.一种显示设备,其特征在于,包括:
显示器;
外部装置接口,所述外部装置接口上连接有定位基站,以使手柄通过所述定位基站接入所述外部装置接口;
控制器,被配置为:
通过所述外部装置接口获取所述手柄的位姿信息,所述位姿信息包括所述手柄的当前位置数据、姿态数据以及手柄识别ID;
根据所述当前位置数据和所述姿态数据,计算所述手柄在所述显示器上的映射点位置,包括:通过所述定位基站测量所述手柄相对于所述定位基站的三维位置坐标,以及所述手柄的水平姿态角和竖直姿态角;获取所述显示器的宽度值和高度值,以及获取所述定位基站与所述显示器之间的距离值;根据所述三维位置坐标、宽度值以及所述水平姿态角计算映射点的水平坐标;根据所述三维位置坐标、高度值以及所述竖直姿态角计算映射点的竖直坐标;
控制所述显示器根据所述映射点位置实时显示操控图案,所述操控图案的颜色和/或图案形状为根据所述手柄识别ID设定的颜色和/或图案形状。
2.根据权利要求1所述的显示设备,其特征在于,所述控制器被进一步配置为:
获取用户输入的开机指令;
响应于所述开机指令,检测连接至所述外部装置接口的手柄识别ID;
为连接至所述外部装置接口的每个手柄设置操控图案的颜色和/或图案形状;
创建信息标签,所述信息标签中记录有所述手柄识别ID以及所述手柄识别ID对应的操控图案的颜色和/或图案形状;
存储所述信息标签。
3.根据权利要求2所述的显示设备,其特征在于,为连接至所述外部装置接口的每个手柄设置操控图案的颜色和/或图案形状的步骤中,所述控制器被进一步配置为:
生成基色数据,所述基色数据包括三个在0-255之间的随机数,分别用于表示所述操控图案的RGB三基色数值;
组合所述基色数据生成操控图案的颜色。
4.根据权利要求1所述的显示设备,其特征在于,所述控制器按照下式计算映射点的水平坐标:
lcd_w=(x*tanα+W/2+y);
式中,lcd_w为映射点的水平坐标;x为三维位置坐标中的水平x轴坐标;y为三维位置坐标中的水平y轴坐标;α为水平姿态角;W为显示器的宽度值。
5.根据权利要求1所述的显示设备,其特征在于,所述控制器按照下式计算映射点的竖直坐标:
Lcd_h=H-(-z-D-tanβ*x);
式中,Lcd_h为映射点的竖直坐标;H为显示器的高度值;x为三维位置坐标中的水平x轴坐标;z为三维位置坐标中的竖直z轴坐标;D为所述定位基站与所述显示器之间的距离值;β为竖直姿态角。
6.根据权利要求1所述的显示设备,其特征在于,控制所述显示器根据所述映射点位置实时显示操控图案的步骤中,所述控制器被进一步配置为:
获取用户通过手柄输入的操作信息;
创建输入标签,所述输入标签中记录有根据所述操作信息中的手柄识别ID、按键识别序号、按键事件数据以及与所述位姿信息对应的映射点位置;
存储所述输入标签。
7.根据权利要求6所述的显示设备,其特征在于,控制所述显示器根据所述映射点位置实时显示操控图案的步骤中,所述控制器被进一步配置为:
调用所述输入标签;
根据所述输入标签中的所述手柄识别ID和所述映射点位置在第一图层上实时显示追踪所述映射点位置的追踪标记;
根据所述输入标签中的所述手柄识别ID、按键识别序号、按键事件数据以及映射点位置在第二图层上绘制动作图案;
控制所述显示器显示所述第一图层和所述第二图层。
8.根据权利要求7所述的显示设备,其特征在于,控制所述显示器根据所述映射点位置实时显示操控图案的步骤中,所述控制器被进一步配置为:
从所述按键事件数据中获取用于优先显示的按键指令;
响应于所述按键指令,控制所述显示器显示当前手柄对应的所述第一图层和所述第二图层;
隐藏其他手柄对应的所述第一图层和所述第二图层。
9.一种手柄操控图案显示方法,其特征在于,应用于显示设备,所述显示设备包括显示器、外部装置接口以及控制器,所述外部装置接口上连接有定位基站,以使所述手柄通过所述定位基站接入所述外部装置接口;所述方法包括:
通过所述外部装置接口获取所述手柄的位姿信息,所述位姿信息包括所述手柄的当前位置数据、姿态数据以及手柄识别ID;
根据所述当前位置数据和所述姿态数据,计算所述手柄在所述显示器上的映射点位置,包括:通过所述定位基站测量所述手柄相对于所述定位基站的三维位置坐标,以及所述手柄的水平姿态角和竖直姿态角;获取所述显示器的宽度值和高度值,以及获取所述定位基站与所述显示器之间的距离值;根据所述三维位置坐标、宽度值以及所述水平姿态角计算映射点的水平坐标;根据所述三维位置坐标、高度值以及所述竖直姿态角计算映射点的竖直坐标;
控制所述显示器根据所述映射点位置实时显示操控图案,所述操控图案的颜色和/或图案形状为根据所述手柄识别ID设定的颜色和/或图案形状。
CN202010916199.8A 2020-09-03 2020-09-03 一种显示设备及手柄操控图案显示方法 Active CN114143580B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010916199.8A CN114143580B (zh) 2020-09-03 2020-09-03 一种显示设备及手柄操控图案显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010916199.8A CN114143580B (zh) 2020-09-03 2020-09-03 一种显示设备及手柄操控图案显示方法

Publications (2)

Publication Number Publication Date
CN114143580A CN114143580A (zh) 2022-03-04
CN114143580B true CN114143580B (zh) 2024-05-17

Family

ID=80438238

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010916199.8A Active CN114143580B (zh) 2020-09-03 2020-09-03 一种显示设备及手柄操控图案显示方法

Country Status (1)

Country Link
CN (1) CN114143580B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118022304A (zh) * 2024-04-11 2024-05-14 腾讯科技(深圳)有限公司 一种数据处理方法及相关装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145842A (ja) * 2010-01-14 2011-07-28 Hitachi Consumer Electronics Co Ltd 入力装置
RU2487418C1 (ru) * 2012-04-26 2013-07-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Нижегородский государственный технический университет им. Р.Е. Алексеева" (НГТУ) Способ комплексного телемониторинга подвижных объектов
CN103488453A (zh) * 2013-09-16 2014-01-01 四川航天***工程研究所 集成定位与显示解算的超宽带定位跟踪***及方法
KR20150019123A (ko) * 2013-08-12 2015-02-25 엘지전자 주식회사 영상표시장치 및 영상표시장치 동작방법
CN108446075A (zh) * 2018-03-20 2018-08-24 北京硬壳科技有限公司 触控位置提示方法及被控设备
CN109375764A (zh) * 2018-08-28 2019-02-22 北京凌宇智控科技有限公司 一种头戴显示器、云端服务器、vr***及数据处理方法
CN109564434A (zh) * 2016-08-05 2019-04-02 深圳市大疆创新科技有限公司 用于定位可移动物体的***和方法
CN209514567U (zh) * 2019-03-28 2019-10-18 深圳市未来感知科技有限公司 一种虚拟现实交互手柄及虚拟现实交互***
CN110530356A (zh) * 2019-09-04 2019-12-03 青岛海信电器股份有限公司 位姿信息的处理方法、装置、设备及存储介质
CN111024059A (zh) * 2019-12-02 2020-04-17 上海金艺检测技术有限公司 用于厂区内三维空间的高精度人员定位***及方法
CN111246266A (zh) * 2020-03-04 2020-06-05 海信视像科技股份有限公司 一种显示设备及旋转时ui显示方法
CN111399665A (zh) * 2020-04-20 2020-07-10 济南奥维信息科技有限公司 一种基于虚拟现实交互的展厅***及其使用方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145842A (ja) * 2010-01-14 2011-07-28 Hitachi Consumer Electronics Co Ltd 入力装置
RU2487418C1 (ru) * 2012-04-26 2013-07-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Нижегородский государственный технический университет им. Р.Е. Алексеева" (НГТУ) Способ комплексного телемониторинга подвижных объектов
KR20150019123A (ko) * 2013-08-12 2015-02-25 엘지전자 주식회사 영상표시장치 및 영상표시장치 동작방법
CN103488453A (zh) * 2013-09-16 2014-01-01 四川航天***工程研究所 集成定位与显示解算的超宽带定位跟踪***及方法
CN109564434A (zh) * 2016-08-05 2019-04-02 深圳市大疆创新科技有限公司 用于定位可移动物体的***和方法
CN108446075A (zh) * 2018-03-20 2018-08-24 北京硬壳科技有限公司 触控位置提示方法及被控设备
CN109375764A (zh) * 2018-08-28 2019-02-22 北京凌宇智控科技有限公司 一种头戴显示器、云端服务器、vr***及数据处理方法
CN209514567U (zh) * 2019-03-28 2019-10-18 深圳市未来感知科技有限公司 一种虚拟现实交互手柄及虚拟现实交互***
CN110530356A (zh) * 2019-09-04 2019-12-03 青岛海信电器股份有限公司 位姿信息的处理方法、装置、设备及存储介质
CN111024059A (zh) * 2019-12-02 2020-04-17 上海金艺检测技术有限公司 用于厂区内三维空间的高精度人员定位***及方法
CN111246266A (zh) * 2020-03-04 2020-06-05 海信视像科技股份有限公司 一种显示设备及旋转时ui显示方法
CN111399665A (zh) * 2020-04-20 2020-07-10 济南奥维信息科技有限公司 一种基于虚拟现实交互的展厅***及其使用方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
2D Shape Manipulations with Holomorphic Coordinates;Zheng Li;《 2012 Fourth International Conference on Digital Home》;全文 *
发射机控制器显示控制手柄的Windows CE操作***移植;方鑫;党宏社;;陕西科技大学学报(自然科学版)(02);全文 *
基于VR设备的跌落式熔断器操作虚拟实训***设计;陈丽丹;《实验技术与管理》;全文 *

Also Published As

Publication number Publication date
CN114143580A (zh) 2022-03-04

Similar Documents

Publication Publication Date Title
CN112055240B (zh) 一种显示设备及其与遥控器配对的操作提示展示方法
CN111970549B (zh) 菜单显示方法和显示设备
CN112866773B (zh) 一种显示设备及多人场景下摄像头追踪方法
CN112473121B (zh) 一种显示设备及基于肢体识别的躲避球显示方法
CN112181207B (zh) 一种显示设备及几何图形识别方法
CN114157889B (zh) 一种显示设备及触控协助交互方法
CN111949782A (zh) 一种信息推荐方法和服务设备
CN116235522A (zh) 一种显示方法及显示设备
CN113630569B (zh) 显示设备及显示设备的控制方法
CN111984167B (zh) 一种快捷命名的方法及显示设备
CN111939561B (zh) 显示设备及交互方法
CN112073787B (zh) 显示设备及首页显示方法
CN111787364B (zh) 媒体数据获取方法、智能电视及移动终端
CN114143580B (zh) 一种显示设备及手柄操控图案显示方法
CN113485613A (zh) 显示设备及自由画屏幕边缘涂色实现方法
CN112218145A (zh) 智能电视、vr显示设备以及相关方法
CN111669662A (zh) 显示设备、视频通话方法及服务器
CN112199560B (zh) 一种设置项的搜索方法及显示设备
CN111857936B (zh) 一种应用程序的用户界面显示方法和显示设备
CN112073777B (zh) 一种语音交互方法及显示设备
CN114390190B (zh) 显示设备及监测应用启动摄像头的方法
CN114760513A (zh) 一种显示设备及光标定位方法
CN113497884B (zh) 一种双***摄像头切换控制方法及显示设备
CN111931692A (zh) 显示设备及图像识别方法
CN113807375B (zh) 一种显示设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant