CN111914133A - 电子设备及查询语句的处理方法 - Google Patents

电子设备及查询语句的处理方法 Download PDF

Info

Publication number
CN111914133A
CN111914133A CN202010633701.4A CN202010633701A CN111914133A CN 111914133 A CN111914133 A CN 111914133A CN 202010633701 A CN202010633701 A CN 202010633701A CN 111914133 A CN111914133 A CN 111914133A
Authority
CN
China
Prior art keywords
scene
intention
user
ambiguous
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010633701.4A
Other languages
English (en)
Inventor
邵星阳
杨善松
刘永霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Visual Technology Co Ltd
Original Assignee
Hisense Visual Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Visual Technology Co Ltd filed Critical Hisense Visual Technology Co Ltd
Priority to CN202010633701.4A priority Critical patent/CN111914133A/zh
Publication of CN111914133A publication Critical patent/CN111914133A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例涉及自然语言处理技术领域,尤其涉及一种电子设备。该电子设备包括:用户接口,用于接收用户输入;控制器被配置为:接收通过所述用户接口输入的查询语句;当查询语句匹配到多个歧义意图场景下的实体名称时,根据已记录的所述用户的历史意图场景的标识,确定各歧义意图场景的场景概率;选择场景概率最大的歧义意图场景作为所述用户的目标意图场景。

Description

电子设备及查询语句的处理方法
技术领域
本申请涉及自然语言处理技术领域,尤其涉及一种电子设备及查询语句的处理方法。
背景技术
电子设备,比如,智能电视、智能手机、智能音箱等,可提供搜索功能。即,根据用户输入的查询信息(亦称为查询语句),为用户提供满足其查询意图的播放内容。
由于用户输入的查询语句可能无法精准表明其查询意图,导致电子设备解析出多种意图。比如,用户输入查询语句“甜蜜蜜”,电子设备对该查询语句进行语义解析,得到两个意图场景,分别为影视意图场景和音乐意图场景。
针对解析出的多个意图场景,电子设备通常根据预设的意图场景优先级,选择优先级高的意图场景作为用户的目标意图场景。仍以查询语句“甜蜜蜜”为例,预设影视意图场景的优先级高于音乐意图场景的优先级,则电子设备选择影视意图场景作为该用户的目标意图场景,为用户推送“甜蜜蜜”相关的影视内容。
但如果用户最近一段时间一直在点播歌曲,说明该用户更倾向于听歌曲“甜蜜蜜”,显然上述意图解析不够准确。
发明内容
本申请示例性的实施方式提供一种电子设备和查询语句的处理方法,用以更加准确地确定用户意图,提供满足用户真实意图的播放内容。
为实现上述申请目的,本申请一些实施例中,提供一种电子设备,该电子设备包括:
用户接口,用于接收用户输入;
控制器,被配置为:
接收通过所述用户接口输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,根据已记录的所述用户的历史意图场景的标识,确定各歧义意图场景的场景概率;
选择场景概率最大的歧义意图场景作为所述用户的目标意图场景。
本申请一些实施例中,提供一种电子设备,该电子设备包括:
用户接口,用于接收用户输入;
控制器,被配置为:
接收通过所述用户接口输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,从所述用户对应的用户画像中,获取各歧义意图场景的场景占比;
选择场景占比最高的歧义意图场景作为所述用户的目标意图场景。
本申请一些实施例中,提供一种电子设备,该电子设备包括:
用户接口,用于接收用户输入;
控制器,被配置为:
接收通过所述用户接口输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,从所述用户对应的用户画像中,获取各歧义意图场景的场景占比,并根据已记录的所述用户的历史意图场景的标识,确定各歧义意图场景的场景概率;
针对每一个歧义意图场景,根据该歧义意图场景的场景占比以及场景概率,确定该歧义意图场景的综合评估值;
选择综合评估值最高的歧义意图场景作为所述用户的目标意图场景。
本申请一些实施例中,提供一种查询语句的处理方法,该方法包括:
接收用户输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,根据已记录的所述用户的历史意图场景标识,确定各歧义意图场景的场景概率;
选择场景概率最大的歧义意图场景作为所述用户的目标意图场景。
本申请一些实施例中,提供一种查询语句的处理方法,该方法包括:
接收用户输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,从所述用户对应的用户画像中,获取各歧义意图场景的场景占比;
选择场景占比最高的歧义意图场景作为所述用户的目标意图场景。
本申请一些实施例中,提供一种查询语句的处理方法,该方法包括:
接收用户输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,从所述用户对应的用户画像中,获取各歧义意图场景的场景占比,并根据已记录的所述用户的历史意图场景的标识,确定各歧义意图场景的场景概率;
针对每一个歧义意图场景,根据该歧义意图场景的场景占比以及场景概率,确定该歧义意图场景的综合评估值;
选择综合评估值最高的歧义意图场景作为所述用户的目标意图场景。
在上述实施例中,显示设备根据随时间不断变化的用户行为数据(历史意图场景数据),动态确定不同时刻用户的真实意图,相较于采用固定优先级的方式,可更加准确地确定用户意图。
附图说明
为了更清楚地说明本申请实施例或相关技术中的实施方式,下面将对实施例或相关技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1中示例性示出了根据一些实施例的显示设备与控制装置之间操作场景的示意图;
图2中示例性示出了根据一些实施例的显示设备200的硬件配置框图;
图3中示例性示出了根据一些实施例的控制设备100的硬件配置框图;
图4中示例性示出了根据一些实施例的显示设备200中软件配置示意图;
图5中示例性示出了根据一些实施例的显示设备200中应用程序的图标控件界面显示示意图;
图6中示例性示出了根据一些实施例的查询语句的处理流程;
图7中示例性示出了根据一些实施例的确定歧义意图场景的场景概率的实现流程;
图8中示例性示出了根据一些实施例的滑动时间窗口的示意图;
图9中示例性示出了根据一些实施例的累计基准标识在滑动时间窗口中出现的相对次数的实现流程;
图10中示例性示出了根据一些实施例的确定歧义意图场景的场景概率的可视化图形;
图11中示例性示出了根据一些实施例的查询语句的处理流程;
图12中示例性示出了根据一些实施例的查询语句的处理流程;
图13中示例性示出了根据一些实施例的确定用户真实意图的实现流程。
具体实施方式
为使本申请的目的、实施方式和优点更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施方式进行清楚、完整地描述,显然,所描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
基于本申请描述的示例性实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请所附权利要求保护的范围。此外,虽然本申请中公开内容按照示范性一个或几个实例来介绍,但应理解,可以就这些公开内容的各个方面也可以单独构成一个完整实施方式。
需要说明的是,本申请中对于术语的简要说明,仅是为了方便理解接下来描述的实施方式,而不是意图限定本申请的实施方式。除非另有说明,这些术语应当按照其普通和通常的含义理解。
本申请中说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”等是用于区别类似或同类的对象或实体,而不必然意味着限定特定的顺序或先后次序,除非另外注明(Unless otherwise indicated)。应该理解这样使用的用语在适当情况下可以互换,例如能够根据本申请实施例图示或描述中给出那些以外的顺序实施。
此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的那些组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
本申请中使用的术语“模块”,是指任何已知或后来开发的硬件、软件、固件、人工智能、模糊逻辑或硬件或/和软件代码的组合,能够执行与该元件相关的功能。
本申请中使用的术语“遥控器”,是指电子设备(如本申请中公开的显示设备)的一个组件,通常可在较短的距离范围内无线控制电子设备。一般使用红外线和/或射频(RF)信号和/或蓝牙与电子设备连接,也可以包括WiFi、无线USB、蓝牙、动作传感器等功能模块。例如:手持式触摸遥控器,是以触摸屏中用户界面取代一般遥控装置中的大部分物理内置硬键。
本申请中使用的术语“手势”,是指用户通过一种手型的变化或手部运动等动作,用于表达预期想法、动作、目的和/或结果的用户行为。
本申请中的电子设备包括但不限于显示设备(比如,智能电视、手机、平板电脑等)、音频设备(比如,智能音箱等)。本申请以显示设备为例,示例性描述本申请的实施方式。
图1中示例性示出了根据一些实施例中显示设备与控制装置之间操作场景的示意图。如图1中示出,用户可通过移动终端300和控制装置100操作显示设备200。
在一些实施例中,控制装置100可以是遥控器,遥控器和显示设备的通信包括红外协议通信或蓝牙协议通信,及其他短距离通信方式等,通过无线或其他有线方式来控制显示设备200。用户可以通过遥控器上按键,语音输入、控制面板输入等输入用户指令,来控制显示设备200。如:用户可以通过遥控器上音量加减键、频道控制键、上/下/左/右的移动按键、语音输入按键、菜单键、开关机按键等输入相应控制指令,来实现控制显示设备200的功能。
在一些实施例中,也可以使用移动终端、平板电脑、计算机、笔记本电脑和其他智能设备控制显示设备200。例如,使用在智能设备上运行的应用程序控制显示设备200。该应用程序通过配置,可以在与智能设备关联的屏幕上,在直观的用户界面(UI)中为用户提供各种控制。
在一些实施例中,移动终端300可与显示设备200安装软件应用,通过网络通信协议实现连接通信,实现一对一控制操作和数据通信的目的。如:可以实现用移动终端300与显示设备200建立控制指令协议,将遥控控制键盘同步到移动终端300上,通过控制移动终端300上用户界面,实现控制显示设备200的功能。也可以将移动终端300上显示的音视频内容传输到显示设备200上,实现同步显示功能。
如图1中还示出,显示设备200还与服务器400通过多种通信方式进行数据通信。可允许显示设备200通过局域网(LAN)、无线局域网(WLAN)和其他网络进行通信连接。服务器400可以向显示设备200提供各种内容和互动。示例的,显示设备200通过发送和接收信息,以及电子节目指南(EPG)互动,接收软件程序更新,或访问远程储存的数字媒体库。服务器400可以是一个集群,也可以是多个集群,可以包括一类或多类服务器。通过服务器400提供视频点播和广告服务等其他网络服务内容。
显示设备200,可以为液晶显示器、OLED显示器、投影显示设备。具体显示设备类型,尺寸大小和分辨率等不作限定,本领域技术人员可以理解的是,显示设备200可以根据需要做性能和配置上的一些改变。
显示设备200除了提供广播接收电视功能之外,还可以附加提供计算机支持功能的智能网络电视功能,包括但不限于,网络电视、智能电视、互联网协议电视(IPTV)等。
图2中示例性示出了根据示例性实施例中显示设备200的硬件配置框图。
在一些实施例中,显示设备200包括控制器250、调谐解调器210、通信器220、检测器230、输入/输出接口255、显示器275,音频输出接口285、存储器260、供电电源290、用户接口265、外部装置接口240中的至少一种。
在一些实施例中,显示器275,用于接收源自第一处理器输出的图像信号,进行显示视频内容和图像以及菜单操控界面的组件。
在一些实施例中,显示器275,包括用于呈现画面的显示屏组件,以及驱动图像显示的驱动组件。
在一些实施例中,显示视频内容,可以来自广播电视内容,也可以说是,通过有线或无线通信协议接收的各种广播信号。或者,可显示来自网络通信协议、接收来自网络服务器端发送的各种图像内容。
在一些实施例中,显示器275用于呈现显示设备200中产生且用于控制显示设备200的用户操控UI界面。
在一些实施例中,根据显示器275类型不同,还包括用于驱动显示的驱动组件。
在一些实施例中,显示器275为一种投影显示器,还可以包括一种投影装置和投影屏幕。
在一些实施例中,通信器220是用于根据各种通信协议类型与外部设备或外部服务器进行通信的组件。例如:通信器可以包括Wifi芯片,蓝牙通信协议芯片,有线以太网通信协议芯片等其他网络通信协议芯片或近场通信协议芯片,以及红外接收器中的至少一种。
在一些实施例中,显示设备200可以通过通信器220与外部控制设备100或内容提供设备之间建立控制信号和数据信号发送和接收。
在一些实施例中,用户接口265,可用于接收控制装置100(如:红外遥控器等)的红外控制信号。
在一些实施例中,检测器230是显示设备200用于采集外部环境或与外部交互的组件。
在一些实施例中,检测器230包括光接收器,用于采集环境光线强度的传感器,可以通过采集环境光自适应变化显示参数等。
在一些实施例中,检测器230还可以包括图像采集器,如相机、摄像头等,可以用于采集外部环境场景,以及用于采集用户的属性或与用户交互手势,可以自适应变化显示参数,也可以识别用户手势,以实现与用户之间互动的功能。
在一些实施例中,检测器230还可以包括温度传感器等,用以感测环境温度。
在一些实施例中,显示设备200可自适应调整图像的显示色温。如当环境温度偏高时,可调整显示设备200显示图像偏冷色调,或当环境温度偏低时,可以调整显示设备200显示图像偏暖色调。
在一些实施例中,检测器230还可包括声音采集器等,如麦克风,可以用于接收用户的声音。示例性的,包括用户控制显示设备200的控制指令的语音信号,或采集环境声音,用于识别环境场景类型,使得显示设备200可以自适应环境噪声。
在一些实施例中,如图2所示,输入/输出接口255被配置为,可进行控制器250与外部其他设备或其他控制器250之间的数据传输。如接收外部设备的视频信号数据和音频信号数据、或命令指令数据等。
在一些实施例中,外部装置接口240可以包括但不限于如下:高清多媒体接口HDMI接口、模拟或数据高清分量输入接口、复合视频输入接口、USB输入接口、RGB端口等任一个或多个接口。也可以是上述多个接口形成复合性的输入/输出接口。
在一些实施例中,如图2所示,调谐解调器210被配置为,通过有线或无线接收方式接收广播电视信号,可以进行放大、混频和谐振等调制解调处理,从多个无线或有线广播电视信号中解调出音视频信号,该音视频信号可以包括用户所选择电视频道频率中所携带的电视音视频信号,以及EPG数据信号。
在一些实施例中,调谐解调器210解调的频点受到控制器250的控制,控制器250可根据用户选择发出控制信号,以使调制解调器响应用户选择的电视信号频率以及调制解调该频率所携带的电视信号。
在一些实施例中,广播电视信号可根据电视信号广播制式不同区分为地面广播信号、有线广播信号、卫星广播信号或互联网广播信号等。或者根据调制类型不同可以区分为数字调制信号,模拟调制信号等。或者根据信号种类不同区分为数字信号、模拟信号等。
在一些实施例中,控制器250和调谐解调器210可以位于不同的分体设备中,即调谐解调器210可在控制器250所在的主体设备的外置设备中,如外置机顶盒等。这样,机顶盒将接收到的广播电视信号调制解调后的电视音视频信号输出给主体设备,主体设备经过第一输入/输出接口接收音视频信号。
在一些实施例中,控制器250,通过存储在存储器中的各种软件控制程序,来控制显示设备的工作和响应用户的操作。控制器250可以控制显示设备200的整体操作。例如:响应于接收到用于选择在显示器275上显示UI对象的用户命令,控制器250便可以执行与由用户命令选择的对象有关的操作。
在一些实施例中,所述对象可以是可选对象中的任何一个,例如超链接或图标。与所选择的对象有关的操作,例如:显示连接到超链接页面、文档、图像等操作,或者执行与所述图标相对应程序的操作。用于选择UI对象的用户命令,可以是通过连接到显示设备200的各种输入装置(例如,鼠标、键盘、触摸板等)输入的命令或者与由用户说出语音相对应的语音命令。
如图2所示,控制器250包括随机存取存储器251(Random Access Memory,RAM)、只读存储器252(Read-Only Memory,ROM)、视频处理器270、音频处理器280、其他处理器253(例如:图形处理器(Graphics Processing Unit,GPU)、中央处理器254(CentralProcessing Unit,CPU)、通信接口(Communication Interface),以及通信总线256(Bus)中的至少一种。其中,通信总线连接各个部件。
在一些实施例中,RAM 251用于存储操作***或其它正在运行中的程序的临时数据。
在一些实施例中,ROM 252用于存储各种***启动的指令。
在一些实施例中,ROM 252用于存储一个基本输入输出***,称为基本输入输出***(Basic Input Output System,BIOS)。用于完成对***的加电自检、***中各功能模块的初始化、***的基本输入/输出的驱动程序及引导操作***。
在一些实施例中,在收到开机信号时,显示设备200电源开始启动,CPU运行ROM252中***启动指令,将存储在存储器的操作***的临时数据拷贝至RAM 251中,以便于启动或运行操作***。当操作***启动完成后,CPU再将存储器中各种应用程序的临时数据拷贝至RAM 251中,以便于启动或运行各种应用程序。
在一些实施例中,CPU处理器254,用于执行存储在存储器中的操作***和应用程序指令,以及根据接收到的外部输入的各种交互指令,来执行各种应用程序、数据和内容,以便最终显示和播放各种音视频内容。
在一些示例性实施例中,CPU处理器254可以包括多个处理器。该多个处理器可包括一个主处理器以及一个或多个子处理器。主处理器用于在预加电模式下执行显示设备200的一些操作,和/或,在正常模式下显示画面的操作。一个或多个子处理器用于在待机模式等状态下执行操作。
在一些实施例中,图形处理器253用于产生各种图形对象,如:图标、操作菜单、以及用户输入指令的显示图形等。包括运算器,通过接收用户输入的各种交互指令进行运算,根据显示属性显示各种对象。以及包括渲染器,对基于运算器得到的各种对象进行渲染,渲染后的对象显示在显示器上。
在一些实施例中,视频处理器270被配置为将接收的外部视频信号,根据输入信号的标准编解码协议进行解压缩、解码、缩放、降噪、帧率转换、分辨率转换、图像合成等视频处理,得到可直接在显示设备200上显示或播放的信号。
在一些实施例中,视频处理器270,包括解复用模块、视频解码模块、图像合成模块、帧率转换模块、显示格式化模块等。
其中,解复用模块,用于对输入音视频数据流进行解复用处理,如输入MPEG-2,则解复用模块进行解复用成视频信号和音频信号等。
视频解码模块,则用于对解复用后的视频信号进行处理,包括解码和缩放处理等。
图像合成模块,如图像合成器,其用于将图形生成器根据用户输入或自身生成的GUI信号,与缩放处理后的视频图像进行叠加混合处理,以生成可供显示的图像信号。
帧率转换模块,用于转换输入视频帧率,如将60Hz帧率转换为120Hz帧率或240Hz帧率,通常的格式采用如插帧方式实现。
显示格式化模块,则用于将帧率转换后的视频输出信号,改变信号以符合显示格式的信号,如输出RGB数据信号。
在一些实施例中,图形处理器253可以和视频处理器集成设置,也可以分开设置,集成设置的时候可以执行输出给显示器的图形信号的处理,分离设置的时候可以分别执行不同的功能,例如GPU+FRC(Frame Rate Conversion))架构。
在一些实施例中,音频处理器280,用于接收外部的音频信号,根据输入信号的标准编解码协议,进行解压缩和解码,以及降噪、数模转换、放大等处理,得到可以在扬声器中播放的声音信号。
在一些实施例中,视频处理器270可以包括一颗或多颗芯片组成。音频处理器280,也可以包括一颗或多颗芯片组成。
在一些实施例中,视频处理器270和音频处理器280,可以单独的芯片,也可以于控制器一起集成在一颗或多颗芯片中。
在一些实施例中,音频输出接口285,在控制器250的控制下接收音频处理器280输出的声音信号,如:扬声器286,以及除了显示设备200自身携带的扬声器之外,可以输出至外接设备的发生装置的外接音响输出端子,如:外接音响接口或耳机接口等,还可以包括通信接口中的近距离通信模块,例如:用于进行蓝牙扬声器声音输出的蓝牙模块。
供电电源290,在控制器250控制下,将外部电源输入的电力为显示设备200提供电源供电支持。供电电源290可以包括安装显示设备200内部的内置电源电路,也可以是安装在显示设备200外部的电源,在显示设备200中提供外接电源的电源接口。
用户接口265,用于接收用户的输入信号,然后,将接收的用户输入信号发送给控制器250。用户输入信号可以是通过红外接收器接收的遥控器信号,可以是通过网络通信模块接收的各种用户控制信号。
在一些实施例中,用户通过控制装置100或移动终端300输入用户命令,用户输入接口接收用户的输入,显示设备200通过控制器250响应用户的输入。
在一些实施例中,用户可在显示器275上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
在一些实施例中,“用户界面”,是应用程序或操作***与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。用户界面常用的表现形式是图形用户界面(Graphic User Interface,GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
存储器260,包括存储用于驱动显示设备200的各种软件模块。如:第一存储器中存储的各种软件模块,包括:基础模块、检测模块、通信模块、显示控制模块、浏览器模块、和各种服务模块等中的至少一种。
基础模块用于显示设备200中各个硬件之间信号通信、并向上层模块发送处理和控制信号的底层软件模块。检测模块用于从各种传感器或用户输入接口中收集各种信息,并进行数模转换以及分析管理的管理模块。
例如,语音识别模块中包括语音解析模块和语音指令数据库模块。显示控制模块用于控制显示器进行显示图像内容的模块,可以用于播放多媒体图像内容和UI界面等信息。通信模块,用于与外部设备之间进行控制和数据通信的模块。浏览器模块,用于执行浏览器与服务器之间数据通信的模块。服务模块,用于提供各种服务以及各类应用程序在内的模块。同时,存储器260还用于存储接收的外部数据和用户数据、各种用户界面中各个项目的图像以及焦点对象的视觉效果图等。
图3示例性示出了根据示例性实施例中控制设备100的配置框图。如图3所示,控制设备100包括控制器110、通信接口130、用户输入/输出接口140、存储器190、供电电源180。
控制设备100被配置为控制显示设备200,以及可接收用户的输入操作指令,且将操作指令转换为显示设备200可识别和响应的指令,起到用户与显示设备200之间交互中介作用。如:用户通过操作控制设备100上频道加减键,显示设备200响应频道加减的操作。
在一些实施例中,控制设备100可是一种智能设备。如:控制设备100可根据用户需求安装控制显示设备200的各种应用。
在一些实施例中,如图1所示,移动终端300或其他智能电子设备,可在安装操控显示设备200的应用之后,可以起到控制设备100类似功能。如:用户可以通过安装应用,在移动终端300或其他智能电子设备上提供图形用户界面的各种功能键或虚拟按钮,以实现控制设备100实体按键的功能。
控制器110包括处理器112和RAM 113和ROM 114、通信接口130以及通信总线。控制器用于控制控制设备100的运行和操作,以及内部各部件之间通信协作以及外部和内部的数据处理功能。
通信接口130在控制器110的控制下,实现与显示设备200之间控制信号和数据信号的通信。如:将接收到的用户输入信号发送至显示设备200上。通信接口130可包括WiFi芯片131、蓝牙模块132、NFC模块133等其他近场通信模块中至少一种。
用户输入/输出接口140,其中,输入接口包括麦克风141、触摸板142、传感器143、按键144等其他输入接口中至少一者。如:用户可以通过语音、触摸、手势、按压等动作实现用户指令输入功能,输入接口通过将接收的模拟信号转换为数字信号,以及数字信号转换为相应指令信号,发送至显示设备200。
输出接口包括将接收的用户指令发送至显示设备200的接口。在一些实施例中,可以红外接口,也可以是射频接口。如:红外信号接口时,需要将用户输入指令按照红外控制协议转化为红外控制信号,经红外发送模块发送至显示设备200。再如:射频信号接口时,需将用户输入指令转化为数字信号,然后按照射频控制信号调制协议进行调制后,由射频发送端子发送至显示设备200。
在一些实施例中,控制设备100包括通信接口130和输入输出接口140中至少一者。控制设备100中配置通信接口130,如:WiFi、蓝牙、NFC等模块,可将用户输入指令通过WiFi协议、或蓝牙协议、或NFC协议编码,发送至显示设备200.
存储器190,用于在控制器的控制下存储驱动和控制控制设备200的各种运行程序、数据和应用。存储器190,可以存储用户输入的各类控制信号指令。
供电电源180,用于在控制器的控制下为控制设备100各元件提供运行电力支持。可以是电池及相关控制电路。
在一些实施例中,***可以包括内核(Kernel)、命令解析器(shell)、文件***和应用程序。内核、shell和文件***一起组成了基本的操作***结构,它们让用户可以管理文件、运行程序并使用***。上电后,内核启动,激活内核空间,抽象硬件、初始化硬件参数等,运行并维护虚拟内存、调度器、信号及进程间通信(IPC)。内核启动后,再加载Shell和用户应用程序。应用程序在启动后被编译成机器码,形成一个进程。
参见图4,在一些实施例中,将***分为四层,从上至下分别为应用程序(Applications)层(简称“应用层”),应用程序框架(Application Framework)层(简称“框架层”),安卓运行时(Android runtime)和***库层(简称“***运行库层”),以及内核层。
在一些实施例中,应用程序层中运行有至少一个应用程序,这些应用程序可以是操作***自带的窗口(Window)程序、***设置程序、时钟程序、相机应用等;也可以是第三方开发者所开发的应用程序,比如,嗨见程序、K歌程序、魔镜程序等。在具体实施时,应用程序层中的应用程序包括但不限于以上举例,实际还可以包括其它应用程序包,本申请实施例对此不做限制。
框架层为应用程序层的应用程序提供应用编程接口(application programminginterface,API)和编程框架。应用程序框架层包括一些预先定义的函数。应用程序框架层相当于一个处理中心,这个中心决定让应用层中的应用程序做出动作。应用程序通过API接口,可在执行中访问***中的资源和取得***的服务
如图4所示,本申请实施例中应用程序框架层包括管理器(Managers),内容提供者(Content Provider)等,其中管理器包括以下模块中的至少一个:活动管理器(ActivityManager)用于和***中正在运行的所有活动进行交互;位置管理器(Location Manager)用于给***服务或应用提供***位置服务的访问;文件包管理器(Package Manager)用于检索当前安装在设备上的应用程序包相关的各种信息;通知管理器(Notification Manager)用于控制通知消息的显示和清除;窗口管理器(Window Manager)用于管理用户界面上的包括图标、窗口、工具栏、壁纸和桌面部件。
在一些实施例中,活动管理器用于:管理各个应用程序的生命周期以及通常的导航回退功能,比如控制应用程序的退出(包括将显示窗口中当前显示的用户界面切换到***桌面)、打开、后退(包括将显示窗口中当前显示的用户界面切换到当前显示的用户界面的上一级用户界面)等。
在一些实施例中,窗口管理器用于管理所有的窗口程序,比如获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕,控制显示窗口变化(例如将显示窗口缩小显示、抖动显示、扭曲变形显示等)等。
在一些实施例中,***运行库层为上层即框架层提供支撑,当框架层被使用时,安卓操作***会运行***运行库层中包含的C/C++库以实现框架层要实现的功能。
在一些实施例中,内核层是硬件和软件之间的层。如图4所示,内核层至少包含以下驱动中的至少一种:音频驱动、显示驱动、蓝牙驱动、摄像头驱动、WIFI驱动、USB驱动、HDMI驱动、传感器驱动(如指纹传感器,温度传感器,触摸传感器、压力传感器等)等。
在一些实施例中,内核层还包括用于进行电源管理的电源驱动模块。
在一些实施例中,图4中的软件架构对应的软件程序和/或模块存储在图2或图3所示的第一存储器或第二存储器中。
在一些实施例中,以魔镜应用(拍照应用)为例,当遥控接收装置接收到遥控器输入操作,相应的硬件中断被发给内核层。内核层将输入操作加工成原始输入事件(包括输入操作的值,输入操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,根据焦点当前的位置识别该输入事件所对应的控件以及以该输入操作是确认操作,该确认操作所对应的控件为魔镜应用图标的控件,魔镜应用调用应用框架层的接口,启动魔镜应用,进而通过调用内核层启动摄像头驱动,实现通过摄像头捕获静态图像或视频。
在一些实施例中,对于具备触控功能的显示设备,以分屏操作为例,显示设备接收用户作用于显示屏上的输入操作(如分屏操作),内核层可以根据输入操作产生相应的输入事件,并向应用程序框架层上报该事件。由应用程序框架层的活动管理器设置与该输入操作对应的窗口模式(如多窗口模式)以及窗口位置和大小等。应用程序框架层的窗口管理根据活动管理器的设置绘制窗口,然后将绘制的窗口数据发送给内核层的显示驱动,由显示驱动在显示屏的不同显示区域显示与之对应的应用界面。
在一些实施例中,如图5中所示,应用程序层包含至少一个应用程序可以在显示器中显示对应的图标控件,如:直播电视应用程序图标控件、视频点播应用程序图标控件、媒体中心应用程序图标控件、应用程序中心图标控件、游戏应用图标控件等。
在一些实施例中,直播电视应用程序,可以通过不同的信号源提供直播电视。例如,直播电视应用程可以使用来自有线电视、无线广播、卫星服务或其他类型的直播电视服务的输入提供电视信号。以及,直播电视应用程序可在显示设备200上显示直播电视信号的视频。
在一些实施例中,视频点播应用程序,可以提供来自不同存储源的视频。不同于直播电视应用程序,视频点播提供来自某些存储源的视频显示。例如,视频点播可以来自云存储的服务器端、来自包含已存视频节目的本地硬盘储存器。
在一些实施例中,媒体中心应用程序,可以提供各种多媒体内容播放的应用程序。例如,媒体中心,可以为不同于直播电视或视频点播,用户可通过媒体中心应用程序访问各种图像或音频所提供服务。
在一些实施例中,应用程序中心,可以提供储存各种应用程序。应用程序可以是一种游戏、应用程序,或某些和计算机***或其他设备相关但可以在智能电视中运行的其他应用程序。应用程序中心可从不同来源获得这些应用程序,将它们储存在本地储存器中,然后在显示设备200上运行。
在一些实施例中,用户可操作控制装置100输入用于获取播放内容的查询语句。显示设备200的控制器250可通过用户接口265接收到该用户输入。显示设备响应于该用户输入,对用户输入的查询语句进行语义解析,以确定用户的查询意图。
比如,用户按压遥控器上的语音输入键,语音输入查询语句“我要听邓丽君演唱的甜蜜蜜”。显示设备响应于该用户输入,对该查询语句进行语义解析,解析出该查询语句对应的意图场景为音乐意图场景,即,确定用户意图为听音乐。显示设备启动音乐搜索服务,为用户搜索邓丽君的歌曲甜蜜蜜进行播放。
然而,在实际使用中,不能保证用户每一次都精准输入表明其查询意图的查询语句。比如,用户输入查询语句“甜蜜蜜”,该“甜蜜蜜”可能指电视剧“甜蜜蜜”,也可能指歌曲“甜蜜蜜”。显示设备对该查询语句进行语义解析时,可解析出2个意图场景,分别为影视意图场景和音乐意图场景。
在一些实施例中,针对解析出的多个意图场景,可根据预先设置的意图场景优先级,选择优先级高的意图场景作为用户的目标意图场景。显示设备提供该目标意图场景下查询语句对应的播放内容。比如,预设影视意图场景的优先级高于音乐意图场景的优先级,则显示设备选择影视意图场景作为用户的目标意图场景,启动影视搜索服务,为用户搜索“甜蜜蜜”相关的影视内容进行播放。
但是,如果该用户在最近一段时间里一直在点播歌曲,说明该用户更倾向于听歌曲“甜蜜蜜”,显然,将用户输入的“甜蜜蜜”解析为影视意图场景下的“甜蜜蜜”,不符合该用户的真实意图。
针对上述问题,在本申请的一些实施例中,显示设备可执行图6所示查询语句的处理流程。
如图6所示,该流程可包括以下步骤:
步骤S61,接收通过用户接口输入的查询语句。
比如,用户可通过按压遥控器上的语音输入键或者远场语音方式输入查询语句“甜蜜蜜”;或者通过键盘输入查询语句“甜蜜蜜”。显示设备中的控制器通过用户接口接收到该查询语句。
步骤S62,当确定查询语句匹配到多个歧义意图场景下的实体名称时,根据已记录的用户的历史意图场景的标识,确定各歧义意图场景的场景概率。
显示设备响应于用户输入的查询语句,基于该查询语句匹配各意图场景下的实体名称。这里,实体指意图场景下具体的播放资源,比如,音乐意图场景下的歌曲《甜蜜蜜》、影视意图场景下的电视剧《甜蜜蜜》。实体名称指实体对应的名称,比如,“甜蜜蜜”。
当确定查询语句匹配到多个意图场景下的实体名称时,比如,用户输入查询语句“甜蜜蜜”,可匹配到音乐意图场景下的“甜蜜蜜”,也可匹配到影视意图场景下的“甜蜜蜜”,即,同一查询语句对应多个意图场景时,显示设备需要从该查询语句对应的多个意图场景中,确定用户的真实意图场景。
这里,将同一查询语句对应的多个意图场景均称为该查询语句对应的歧义意图场景。
在一些实施例中,显示设备可根据该用户最近触发过的历史意图场景(亦可称为上文意图场景,可从用户日志中获取),确定各歧义意图场景的场景概率,再根据场景概率确定用户的真实意图场景。这里,场景概率的大小可表征用户倾向于相应歧义意图场景的程度。
在一些实施例中,显示设备可通过图7所示流程确定各歧义意图场景的场景概率。如图7所示,该流程可包括以下步骤:
步骤S621,获取滑动时间窗口中各历史意图场景的标识。
本申请实施例中,显示设备预设滑动时间窗口大小,比如,预设滑动时间窗口大小为M,表示该滑动时间窗口中包括用户最近依次触发的M个意图场景(亦可称为历史意图场景或上文意图场景)的标识。这里,M为大于等于1的整数。
其中,该滑动时间窗口随时间向前滑动,窗口内的历史意图场景的标识随着用户不断触发新的意图场景而发生变化。具体为,当用户触发新的意图场景时,该新意图场景的标识进入滑动时间窗口,而最先进入滑动时间窗口的意图场景的标识被移出窗口。
参见图8,为示例性示出的一些实施例的滑动时间窗口的示意图。该示意图中,第一行记录用户触发的各意图场景的标识,比如,A意图场景的标识、B意图场景的标识、C意图场景的标识等;第二行记录各意图场景的触发时刻,比如,T时刻、T-1时刻、……、T-14时刻。
其中,黑色粗实线包围区域为滑动时间窗口区域。示例性的,该滑动时间窗口大小为14,即,包括用户最近触发的14个意图场景的标识。
这里,将显示设备接收到用户输入的查询语句的时刻记为T时刻,此时,显示设备还无法确定用户的真实意图,因此,图8中T时刻对应的意图场景的标识为空。此时,滑动时间窗口中包括的意图场景的标识为该用户在T时刻之前依次触发过的14个意图场景的标识。其中,T-14时刻触发的意图场景A为该滑动时间窗口中用户最先触发的意图场景,T-1时刻触发的意图场景B为用户距离当前时刻(T时刻)最近的一次触发的意图场景。
步骤S622,累计滑动时间窗口中各歧义意图场景的标识出现的相对次数。
在一些实施例中,可分别将各歧义意图场景在滑动时间窗口中对应的每一个标识作为基准标识,累计各基准标识在滑动时间窗口中出现的相对次数。
仍以图8所示滑动时间窗口为例,该窗口包括用户最近触发过的14个历史意图场景的标识。其中,A意图场景和B意图场景为当前查询语句对应的歧义意图场景,则可将A意图场景在滑动时间窗口中对应的每一个标识(比如,T-14时刻的A意图场景的标识、T-13时刻的A意图场景的标识、T-10时刻的A意图场景的标识)以及B意图场景在滑动时间窗口中对应的每一个标识(比如,T-12时刻的B意图场景的标识、T-8时刻的B意图场景的标识、T-7时刻的B意图场景的标识、T-6时刻的B意图场景的标识、T-3时刻的B意图场景的标识、T-1时刻的B意图场景的标识)作为基准标识,分别累计各基准标识在滑动时间窗口中出现的相对次数。
参见图9,为示例性示出的一些实施例中累计基准标识在滑动时间窗口中出现的相对次数的实现流程。如图9所示,该流程可包括以下步骤:
步骤S6221,获取按照时间顺序位于当前基准标识后面的各待比较意图场景的标识。
比如,以图8所示T-14时刻的A意图场景的标识作为基准标识为例,在T-14时刻之后触发的各意图场景的标识(T-13至T-1时刻触发的意图场景的标识)均为该T-14时刻基准标识对应的待比较意图场景的标识。
再比如,以图8所示T-12时刻的B意图场景的标识作为基准标识为例,在T-12时刻之后触发的各意图场景的标识(T-11至T-1时刻触发的意图场景的标识)均为该T-12时刻基准标识对应的待比较意图场景的标识。
显示设备按时间顺序依次获取位于当前基准标识后面的各待比较意图场景的标识,执行步骤S6222。
步骤S6222,判断当前获取的待比较意图场景的标识与基准标识是否相同。如果相同,转步骤S6223;如果不同,转步骤S6224。
步骤S6223,该基准标识对应相对次数加一,返回步骤S6221获取下一待比较意图场景的标识。
步骤S6224,判断该待比较意图场景的标识是否为歧义意图场景的标识。如果是,转步骤S6225;如果否,转步骤S6226。
步骤S6225,该基准标识对应相对次数清零,结束针对当前基准标识的累计。
步骤S6226,该基准标识对应相对次数减一。
步骤S6227,判断该基准标识对应相对次数是否为零。如果否,返回步骤S6221获取下一待比较意图场景的标识;如果是,结束针对当前基准标识的累计。
针对图9所示处理流程,现举例说明。仍以A意图场景和B意图场景为当前查询语句对应的歧义意图场景为例,分别将图8中T-14时刻A意图场景的标识、T-13时刻A意图场景的标识、T-12时刻B意图场景的标识、T-10时刻A意图场景的标识、T-8时刻B意图场景的标识、T-7时刻B意图场景的标识、T-6时刻B意图场景的标识、T-3时刻B意图场景的标识、T-1时刻B意图场景的标识作为基准标识。
针对T-14时刻基准标识(A意图场景的标识),累计该基准标识对应的相对次数(记为N1):
获取T-13时刻A意图场景的标识(待比较意图场景的标识),该T-13时刻A意图场景的标识与T-14时刻基准标识(A意图场景的标识)相同,因此,累计该T-14时刻基准标识的相对次数为N1=2。
获取T-12时刻B意图场景的标识(待比较意图场景的标识),该T-12时刻B意图场景的标识与T-14时刻基准标识(A意图场景的标识)不同,且都是当前查询语句对应的歧义意图场景的标识,说明上文中,用户在使用歧义意图A后接着使用了歧义意图B,也就是说,用户意图在歧义意图场景之间出现过变化,用户意图已从A意图场景转向B意图场景,则B意图场景出现之前累计的A意图场景的相对次数不再有参考价值,为此,将T-14时刻A意图场景的标识的相对次数清零,即,N1=0,结束针对该T-14时刻A意图场景标识对应相对次数的累计。
下面针对T-13时刻基准标识(A意图场景的标识),累计该基准标识对应相对次数(记为N2):
获取T-12时刻B意图场景的标识(待比较意图场景的标识),该T-12时刻B意图场景的标识与T-13时刻基准标识(A意图场景的标识)不同,且都是当前查询语句对应的歧义意图场景的标识,说明用户意图已转向B意图场景,则将T-13时刻A意图场景的标识的相对次数清零,即,N2=0,结束针对T-13时刻A意图场景标识对应相对次数的累计。
下面针对T-12时刻基准标识(B意图场景的标识),累计该基准标识对应相对次数(记为K1):
获取T-11时刻C意图场景的标识(待比较意图场景的标识),该T-11时刻C意图场景的标识与T-12时刻基准标识(B意图场景的标识)不同,且该T-11时刻C意图场景的标识不是当前查询语句对应的歧义意图场景的标识,此时,仅对T-12时刻B意图场景的标识的相对次数减一,减一后K1=0,结束针对T-12时刻B意图场景标识对应相对次数的累计。
以此类推,分别累计T-10时刻A意图场景标识对应相对次数(记为N3)、T-8时刻B意图场景标识对应相对次数(记为K2)、T-7时刻B意图场景标识对应相对次数(记为K3)、T-6时刻B意图场景标识对应相对次数(记为K4)、T-3时刻B意图场景标识对应相对次数(记为K5)、以及T-1时刻B意图场景标识对应相对次数(记为K6)。累计过程同上,这里不再赘述。累计结果分别为N3=0、K2=2、K3=0、K4=0、K5=0、K6=1。
在通过图9所示流程,得到滑动时间窗口中各基准标识对应的相对次数后,从属于同一歧义意图场景的各基准标识对应的相对次数中,选择最大相对次数,作为该歧义意图场景的标识在滑动时间窗口中出现的最终相对次数。
仍以A意图场景和B意图场景为当前查询语句对应的歧义意图场景为例,其中,属于A意图场景的基准标识为T-14时刻基准标识(A意图场景的标识)、T-13时刻基准标识(A意图场景的标识)、T-10时刻基准标识(A意图场景的标识),各基准标识对应相对次数分别为N1=0、N2=0、N3=0,则该A意图场景的标识在滑动窗口中出现的最终相对次数为0。
属于B意图场景的基准标识为T-12时刻基准标识(B意图场景的标识)、T-8时刻基准标识(B意图场景的标识)、T-7时刻基准标识(B意图场景的标识)、T-6时刻基准标识(B意图场景的标识)、T-3时刻基准标识(B意图场景的标识)、T-1时刻基准标识(B意图场景的标识),各基准标识对应相对次数分别为K1=0、K2=2、K3=0、K4=0、K5=0、K6=1,则从K1~K6中选择最大相对次数2,作为该B意图场景的标识在滑动时间窗口中出现的最终相对次数。
步骤S623,依据累计的最终相对次数确定歧义意图场景的场景概率。
本步骤中,显示设备根据步骤S622中累计的歧义意图场景的最终相对次数,确定歧义意图场景的场景概率。
在一些实施例中,歧义意图场景的场景概率可通过如下公式计算:
P(x)=1/(1+e^(-(x-1))) 公式(1)
其中,x为歧义意图场景出现的最终相对次数;P(x)表示歧义意图场景的场景概率。
此外,该歧义意图场景的场景概率还可通过图10所示可视化图形表示。其中,横坐标对应公式(1)中的x;纵坐标对应公式(1)中P(x)。
可以看出,意图场景的场景概率与意图场景出现的相对次数呈正相关关系。即,意图场景出现的相对次数越多,对应场景概率越大。
仍以A意图场景和B意图场景为例,A意图场景的最终相对次数为0;B场景的最终相对次数为2。分别代入公式(1),可得A意图场景的场景概率为0.269;B意图场景的场景概率为0.731。
步骤S63,选择场景概率最大的歧义意图场景作为目标意图场景。
比如,B意图场景的场景概率(0.731)大于A意图场景的场景概率(0.269),则选择B意图场景作为用户的目标意图场景。
这里,目标意图场景为预测出的最终意图场景。
显示设备播放该目标意图场景下查询语句对应的播放内容。比如,目标意图场景为音乐意图场景,查询语句为“甜蜜蜜”,则显示设备播放歌曲“甜蜜蜜”。
可以看出,上述实施例中,当查询语句匹配到多个意图场景下的实体名称时,显示设备根据用户的多个连续上文意图场景,确定这一查询语句对应的多个歧义意图场景的场景概率,进而选择场景概率大的意图场景作为用户的目标意图场景,可更加准确的确定用户意图。
在本申请的一些实施例中,显示设备可执行图11所示查询语句的处理流程。如图11所示,该流程可包括以下步骤:
步骤S71,接收通过用户接口输入的查询语句。
参见前述步骤S61的描述,这里不再赘述。
步骤S72,当查询语句匹配到多个歧义意图场景下的实体名称时,从用户对应的用户画像中,获取各歧义意图场景的场景占比。
用户画像是根据用户的历史行为数据(从用户日志中获取)得到的。在一些实施例中,可针对用户在最近一段时间内使用过的历史意图场景,分别累计各历史意图场景的使用次数,并分别计算各历史意图场景的使用次数占所有历史意图场景的使用总次数的比例,作为该用户的用户画像。即,用户画像包括用户使用过的各历史意图场景的场景占比。
比如,用户在最近1小时内使用过意图场景A、B、C、D、E,使用总次数为25次。其中,A意图场景的使用次数为14次、B意图场景的使用次数为6次、C意图场景的使用次数为3次、D意图场景的使用次数为1次、E意图场景的使用次数为1次,则A意图场景的场景占比为14/25=56%,B意图场景的场景占比为6/25=24%,C意图场景的场景占比为3/25=12%,D意图场景的场景占比为1/25=4%,E意图场景的场景占比为1/25=4%。各意图场景的场景占比构成该用户的用户画像。
在确定当前查询语句对应多个歧义意图场景时,显示设备可从用户的用户画像中,获取各歧义意图场景的场景占比。比如,歧义意图场景为A意图场景和B意图场景,则可从用户画像中获取A意图场景的场景占比为56%、B意图场景的场景占比为24%。
步骤S73,选择场景占比最高的歧义意图场景作为目标意图场景。
场景占比越大,说明用户最近一段时间内使用该意图场景的频率越高,用户对该意图场景的感兴趣程度越大。因此,显示设备选择场景占比最高的歧义意图场景作为用户的目标意图场景。比如,选择场景占比最高的A意图场景作为用户的目标意图场景。
显示设备播放该目标意图场景下查询语句对应的播放内容。
可以看出,上述实施例中,显示设备从基于历史意图场景确定的用户画像中获取各歧义意图场景的场景占比,进而选择场景占比最大的歧义意图场景作为用户的目标意图场景,可更加准确的确定用户意图。
在本申请的一些实施例中,显示设备可执行图12所示查询语句的处理流程。如图12所示,该流程可包括以下步骤:
步骤S81,接收通过用户接口输入的查询语句。
参见前述步骤S61的描述,这里不再赘述。
步骤S82,在确定查询语句匹配到多个歧义意图场景下的实体名称时,从用户对应的用户画像中,获取各歧义意图场景的场景占比,并根据已记录的用户的历史意图场景的标识,确定各歧义意图场景的场景概率。
获取各歧义意图场景的场景占比的过程,参见前述步骤S72;确定各歧义意图场景的场景概率的过程,参见前述步骤S62,这里不再赘述。
步骤S83,针对每一个歧义意图场景,根据该歧义意图场景的场景占比以及场景概率,确定该歧义意图场景的综合评估值。
在一些实施例中,可对场景占比和场景概率进行加权处理,即,赋予场景占比、场景概率一定的权重值。比如,场景占比的权重值为0.2、场景概率的权重值为0.8。
仍以A意图场景和B意图场景为歧义意图场景为例,A意图场景的场景占比为56%,场景概率为0.269;B意图场景的场景占比为24%,场景概率为0.731。则A意图场景的综合评估值为0.2×56%+0.8×0.269=0.3272;B意图场景的综合评估值为0.2×24%+0.8×0.731=0.6328。
步骤S84,选择综合评估值最高的歧义意图场景作为目标意图场景。
比如,B意图场景的综合评估值(0.6328)高于A意图场景的综合评估值(0.3272),则选择B意图场景作为用户的目标意图场景。
显示设备播放该目标意图场景下查询语句对应的播放内容。
可以看出,上述实施例中,显示设备综合考虑歧义意图场景的场景概率和场景占比,来确定用户的真实意图。该确定过程亦可通过图13所示流程表示,即,显示设备从用户日志中获取用户行为数据(历史意图场景),根据用户行为数据计算各歧义意图场景的场景概率和场景占比,综合各歧义意图场景对应的以上两个参数推定用户的真实意图,从而准确确定出用户意图。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
为了方便解释,已经结合具体的实施方式进行了上述说明。但是,上述示例性的讨论不是意图穷尽或者将实施方式限定到上述公开的具体形式。根据上述的教导,可以得到多种修改和变形。上述实施方式的选择和描述是为了更好的解释原理以及实际的应用,从而使得本领域技术人员更好的使用所述实施方式以及适于具体使用考虑的各种不同的变形的实施方式。

Claims (10)

1.一种电子设备,其特征在于,包括:
用户接口,用于接收用户输入;
控制器,被配置为:
接收通过所述用户接口输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,根据已记录的所述用户的历史意图场景的标识,确定各歧义意图场景的场景概率;
选择场景概率最大的歧义意图场景作为所述用户的目标意图场景。
2.如权利要求1所述的电子设备,其特征在于,所述根据已记录的所述用户的历史意图场景的标识,确定各歧义意图场景的场景概率,包括:
获取滑动时间窗口中各历史意图场景的标识;
累计所述滑动时间窗口中各歧义意图场景的标识出现的相对次数;
针对每一个歧义意图场景,根据该歧义意图场景的标识出现的相对次数,确定该歧义意图场景的场景概率,其中,所述场景概率与相对次数呈正相关关系。
3.如权利要求2所述的电子设备,其特征在于,所述累计所述滑动时间窗口中各歧义意图场景的标识出现的相对次数,包括:
分别将各歧义意图场景在所述滑动时间窗口中对应的每一个标识作为基准标识;
针对每一个基准标识,获取按时间顺序位于该基准标识后面的各待比较意图场景的标识;
针对每一个待比较意图场景的标识,如果该待比较意图场景的标识与该基准标识相同,则该基准标识的相对次数加一;
如果该待比较意图场景的标识与该基准标识不同,且该待比较意图场景的标识为歧义意图场景的标识,则该基准标识的相对次数清零,结束针对该基准标识的累计;
如果该待比较意图场景的标识与基准标识不同,且该待比较意图场景的标识不为歧义意图场景的标识,则该基准标识的相对次数减一;如果该基准标识的相对次数为零,结束针对该基准标识的累计;
在完成对所有基准标识的相对次数的累计后,针对每一个歧义意图场景,从属于该歧义意图场景的各基准标识对应的相对次数中,选择最大相对次数,作为该歧义意图场景的标识在所述滑动时间窗口中出现的最终相对次数。
4.一种电子设备,其特征在于,包括:
用户接口,用于接收用户输入;
控制器,被配置为:
接收通过所述用户接口输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,从所述用户对应的用户画像中,获取各歧义意图场景的场景占比;
选择场景占比最高的歧义意图场景作为所述用户的目标意图场景。
5.一种电子设备,其特征在于,包括:
用户接口,用于接收用户输入;
控制器,被配置为:
接收通过所述用户接口输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,从所述用户对应的用户画像中,获取各歧义意图场景的场景占比,并根据已记录的所述用户的历史意图场景的标识,确定各歧义意图场景的场景概率;
针对每一个歧义意图场景,根据该歧义意图场景的场景占比以及场景概率,确定该歧义意图场景的综合评估值;
选择综合评估值最高的歧义意图场景作为所述用户的目标意图场景。
6.一种查询语句的处理方法,其特征在于,所述方法包括:
接收用户输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,根据已记录的所述用户的历史意图场景的标识,确定各歧义意图场景的场景概率;
选择场景概率最大的歧义意图场景作为所述用户的目标意图场景。
7.如权利要求6所述的方法,其特征在于,所述根据已记录的所述用户的历史意图场景的标识,确定各歧义意图场景的场景概率,包括:
获取滑动时间窗口中各历史意图场景的标识;
累计所述滑动时间窗口中各歧义意图场景的标识出现的相对次数;
针对每一个歧义意图场景,根据该歧义意图场景的标识出现的相对次数,确定该歧义意图场景的场景概率,其中,所述场景概率与相对次数呈正相关关系。
8.如权利要求7所述的方法,其特征在于,所述累计所述滑动时间窗口中各歧义意图场景的标识出现的相对次数,包括:
分别将各歧义意图场景在所述滑动时间窗口中对应的每一个标识作为基准标识;
针对每一个基准标识,获取按时间顺序位于该基准标识后面的各待比较意图场景的标识;
针对每一个待比较意图场景的标识,如果该待比较意图场景的标识与该基准标识相同,则该基准标识的相对次数加一;
如果该待比较意图场景的标识与该基准标识不同,且该待比较意图场景的标识为歧义意图场景的标识,则该基准标识的相对次数清零,结束针对该基准标识的累计;
如果该待比较意图场景的标识与基准标识不同,且该待比较意图场景的标识不为歧义意图场景的标识,则该基准标识的相对次数减一;如果该基准标识的相对次数为零,结束针对该基准标识的累计;
在完成对所有基准标识的相对次数的累计后,针对每一个歧义意图场景,从属于该歧义意图场景的各基准标识对应的相对次数中,选择最大相对次数,作为该歧义意图场景的标识在所述滑动时间窗口中出现的最终相对次数。
9.一种查询语句的处理方法,其特征在于,所述方法包括:
接收用户输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,从所述用户对应的用户画像中,获取各歧义意图场景的场景占比;
选择场景占比最高的歧义意图场景作为所述用户的目标意图场景。
10.一种查询语句的处理方法,其特征在于,所述方法包括:
接收用户输入的查询语句;
当所述查询语句匹配到多个歧义意图场景下的实体名称时,从所述用户对应的用户画像中,获取各歧义意图场景的场景占比,并根据已记录的所述用户的历史意图场景的标识,确定各歧义意图场景的场景概率;
针对每一个歧义意图场景,根据该歧义意图场景的场景占比以及场景概率,确定该歧义意图场景的综合评估值;
选择综合评估值最高的歧义意图场景作为所述用户的目标意图场景。
CN202010633701.4A 2020-07-02 2020-07-02 电子设备及查询语句的处理方法 Pending CN111914133A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010633701.4A CN111914133A (zh) 2020-07-02 2020-07-02 电子设备及查询语句的处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010633701.4A CN111914133A (zh) 2020-07-02 2020-07-02 电子设备及查询语句的处理方法

Publications (1)

Publication Number Publication Date
CN111914133A true CN111914133A (zh) 2020-11-10

Family

ID=73227292

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010633701.4A Pending CN111914133A (zh) 2020-07-02 2020-07-02 电子设备及查询语句的处理方法

Country Status (1)

Country Link
CN (1) CN111914133A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105975610A (zh) * 2016-05-18 2016-09-28 北京百度网讯科技有限公司 场景识别方法及装置
CN111080339A (zh) * 2019-11-18 2020-04-28 口口相传(北京)网络技术有限公司 基于场景的类目偏好数据生成方法及装置
CN111241245A (zh) * 2020-01-14 2020-06-05 百度在线网络技术(北京)有限公司 人机交互处理方法、装置及电子设备
CN111353299A (zh) * 2020-03-03 2020-06-30 腾讯科技(深圳)有限公司 基于人工智能的对话场景确定方法和相关装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105975610A (zh) * 2016-05-18 2016-09-28 北京百度网讯科技有限公司 场景识别方法及装置
CN111080339A (zh) * 2019-11-18 2020-04-28 口口相传(北京)网络技术有限公司 基于场景的类目偏好数据生成方法及装置
CN111241245A (zh) * 2020-01-14 2020-06-05 百度在线网络技术(北京)有限公司 人机交互处理方法、装置及电子设备
CN111353299A (zh) * 2020-03-03 2020-06-30 腾讯科技(深圳)有限公司 基于人工智能的对话场景确定方法和相关装置

Similar Documents

Publication Publication Date Title
CN111757171A (zh) 一种显示设备及音频播放方法
CN112333509B (zh) 一种媒资推荐方法、推荐媒资的播放方法及显示设备
CN112135180B (zh) 一种内容显示方法和显示设备
CN112004157B (zh) 一种多轮语音交互方法及显示设备
CN111836109A (zh) 显示设备、服务器及自动更新栏目框的方法
CN111770370A (zh) 显示设备、服务器及媒资推荐的方法
CN111479145A (zh) 显示设备及电视节目的推送方法
CN112165641A (zh) 一种显示设备
CN111970549A (zh) 菜单显示方法和显示设备
CN111954059A (zh) 屏保的展示方法及显示设备
CN112380420A (zh) 一种搜索方法及显示设备
CN111885400A (zh) 媒体数据展示方法、服务器及显示设备
CN111083538A (zh) 一种背景图像的显示方法及设备
CN112272331B (zh) 一种节目频道列表快速展示的方法及显示设备
CN112073787B (zh) 显示设备及首页显示方法
CN111836083B (zh) 显示设备及屏幕发声方法
CN111984167A (zh) 一种快捷命名的方法及显示设备
CN112118476B (zh) 一种快速显示节目预约图标的方法及显示设备
CN111988646B (zh) 一种应用程序的用户界面显示方法和显示设备
CN112199560B (zh) 一种设置项的搜索方法及显示设备
CN111918132B (zh) 一种显示设备及多接口设备判断方法
CN114302197A (zh) 一种语音分离控制方法及显示设备
CN111914565A (zh) 电子设备及用户语句的处理方法
CN114390190A (zh) 显示设备及监测应用启动摄像头的方法
CN114079827A (zh) 菜单显示方法和显示设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination