CN111857331A - 一种确定用户场景的方法、***、装置及存储介质 - Google Patents
一种确定用户场景的方法、***、装置及存储介质 Download PDFInfo
- Publication number
- CN111857331A CN111857331A CN202010548343.7A CN202010548343A CN111857331A CN 111857331 A CN111857331 A CN 111857331A CN 202010548343 A CN202010548343 A CN 202010548343A CN 111857331 A CN111857331 A CN 111857331A
- Authority
- CN
- China
- Prior art keywords
- user
- scene
- vector
- information
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 239000013598 vector Substances 0.000 claims abstract description 152
- 238000012545 processing Methods 0.000 claims description 62
- 238000012549 training Methods 0.000 claims description 41
- 238000010801 machine learning Methods 0.000 claims description 5
- 238000013145 classification model Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 230000003993 interaction Effects 0.000 description 8
- 238000003066 decision tree Methods 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000007477 logistic regression Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 238000007637 random forest analysis Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 230000010006 flight Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000010977 jade Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/453—Help systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Acoustics & Sound (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本说明书实施例公开了一种确定用户场景的方法、***、装置及存储介质。所述确定用户场景的方法包括:获取用户信息和文本信息;基于所述用户信息和所述文本信息,确定场景向量;通过向用户场景确定模型输入所述场景向量,确定所述用户的用户场景。本说明书实施例提供的方法可以更有效的确认用户场景,从而解决用户被误分场景的问题。
Description
技术领域
本申请涉及人机交互领域,特别涉及一种确定用户场景的方法、***、装置及存储介质。
背景技术
随着人机交互设备的发展,智能设备可以根据用户的问题进行多轮会话,这被广泛应用于生活工作中,例如,通过客服机器人准确回答用户提出的问题。目前,多轮会话设备主要采用的模式为先进行场景分类,再根据场景选择相应场景的设备。此模式可以有效地提高多轮会话设备的问题解决率。但是,当用户被误分到错误的场景时,会导致问题不能解决,降低解决率。比如,订机票或者查天气,这分别属于不同的单独场景。当场景是订机票,但是用户在订机票时候说了关于目的地天气状况的时候被误分到查天气场景下,从而导致错误答复。因此,亟需提供一种更有效更准确的确定用户场景的方案。
发明内容
针对多轮会话中存在将用户误分到错误的场景,导致问题不能解决,降低解决率的问题,本说明书提供了一种确定用户场景的方案,可以更有效和更准确地确定用户场景,以提高多轮会话设备的解决率。
为达到上述发明目的,本说明书提供的技术方案如下:
本说明书实施例的一个方面提供一种确定用户场景的方法。所述方法包括:获取用户信息和文本信息;基于所述用户信息和所述文本信息,确定场景向量;通过向用户场景确定模型输入所述场景向量,确定所述用户的用户场景。
本说明书实施例的另一个方面提供一种确定用户场景的***。所述***包括:数据获取模块,获取用户信息和文本信息;场景向量确定模块,基于所述用户信息和所述文本信息,确定场景向量;用户场景确定模块,通过向用户场景确定模型输入所述场景向量,确定所述用户的用户场景。
本说明书实施例的另一个方面提供一种确定用户场景的装置。所述装置包括处理器以及存储器;所述存储器用于存储指令,其特征在于,所述指令被所述处理器执行时,导致所述装置实现确定用户场景的方法对应的操作。
本说明书实施例的另一个方面提供一种计算机可读存储介质。所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机运行确定用户场景的方法。
本说明书可能带来的有益效果包括但不限于:(1)基于用户信息和文本信息确定场景向量,可以丰富场景向量内容,提高场景向量对不同用户的针对性,从而更准确地确定用户场景;(2)通过向量处理模型向量化用户信息和文本信息,可以批量处理数据,在准确提取用户信息和文本信息的特征向量的同时提高效率;(3)通过解决率的反馈和更新样本数据,可以对向量处理模型和用户场景确定模型不断更新,进一步提高用户场景确定模型的准确性,提高与用户场景相对应的模块的解决率。
附图说明
图1是根据本申请一些实施例所示的确定用户场景***的应用场景示意图;
图2是根据本申请的一些实施例所示的计算设备的示例性硬件和软件组件的示意图;
图3是根据本申请的一些实施例所示的示例性移动设备300的示例性硬件和/或软件组件的示意图;
图4是根据本申请的一些实施例所示的用户场景确定***的模块图;
图5是根据本申请一些实施例所示的确定用户场景的方法的流程图;
图6是根据本申请一些实施例所示的确定场景向量的方法的流程图;以及
图7是根据本申请一些实施例所示的用户场景确定模型训练方法的流程图。
具体实施方式
为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其它类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。
应当理解,本文使用的“***”、“装置”、“单元”和/或“模组”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
如本申请和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
虽然本申请对根据本申请的实施例的***中的某些模块或单元做出了各种引用,然而,任何数量的不同模块或单元可以被使用并运行在客户端和/或服务器上。所述模块仅是说明性的,并且所述***和方法的不同方面可以使用不同模块。
本申请中使用了流程图用来说明根据本申请的实施例的***所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
本申请实施例涉及一种确定用户场景的方法和***。随着人机交互设备的发展,智能设备可以根据用户的问题进行多轮会话,这被广泛应用于生活工作中,例如,通过客服机器人准确回答用户问题。目前,进行多轮会话设备主要采用先进行场景分类,再根据场景选择对应场景的设备的模式。这可以有效地提供多轮会话设备的解决率。但是,当用户被误分到错误的场景时,会导致问题不能解决,降低解决率。比如,订机票或者查天气,这分别属于不同的单独场景。当场景是订机票,但是用户在订机票时候说了关于目的地天气状况的时候被误分到查天气场景下,从而导致错误答复。在一些实施例中,所述方法和***可以获取用户信息和文本信息。基于所述用户信息和所述文本信息,所述方法和***还可以确定场景向量。通过向用户场景确定模型输入所述场景向量,所述方法和***还可以确定所述用户的用户场景。因此,与只使用文本信息的方法相比,本说明书提供的确定用户场景的方法和***可以更准确地确定用户场景,提高所述与用户场景相对应的装置的解决率。
图1是根据本申请一些实施例所示的确定用户场景***的应用场景示意图。在人机交互过程中,尤其是多轮会话应用中需要对用户场景进行确认。用户场景确定***100可以通过用户信息和文本信息,确定用户的用户场景,选择与用户场景相对应的装置与用户进行交流,帮助解决用户问题,有效提高问题解决率。用户场景确定***100可以是用于互联网服务的线上服务平台。例如,用户场景确定***100可以是运输服务的线上运输服务平台。在一些实施例中,用户场景确定***100可以应用于网约车服务。例如,用户场景确定***100可以应用于司机和/或乘客的咨询服务中确定司机和/或乘客的场景等。在一些实施例中,用户场景确定***100还可以应用于代驾、快递、外卖、网店等服务。用户场景确定***100可以是一个线上服务平台,包含服务器110、网络120、用户终端130以及数据库140。服务器110可包含处理设备112。
在一些实施例中,服务器110可以用于处理与确定用户场景相关的信息和/或数据。服务器110可以是独立的服务器或者服务器组。该服务器组可以是集中式的或者分布式的(如:服务器110可以是分布***)。在一些实施例中该服务器110可以是区域的或者远程的。例如,服务器110可通过网络120访问存储于用户终端130、数据库140中的信息和/或资料。在一些实施例中,服务器110可直接与用户终端130、数据库140连接以访问存储于其中的信息和/或资料。在一些实施例中,服务器110可在云平台上执行。例如,该云平台可包括私有云、公共云、混合云、社区云、分散式云、内部云等中的一种或其任意组合。
在一些实施例中,服务器110可以包含处理设备112。该处理设备112可以处理与确定用户场景有关的数据和/或信息以执行一个或多个本申请中描述的功能。例如处理设备112可以接收用户终端130发送的咨询问题,为用户提供相应的模块反馈信息。在一些实施例中,处理设备112可包含一个或多个子处理设备(例如,单芯处理设备或多核多芯处理设备)。仅仅作为范例,处理设备112可包含中央处理器(CPU)、专用集成电路(ASIC)、专用指令处理器(ASIP)、图形处理器(GPU)、物理处理器(PPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编辑逻辑电路(PLD)、控制器、微控制器单元、精简指令集电脑(RISC)、微处理器等或以上任意组合。
网络120可促进数据和/或信息的交换。在一些实施例中,用户场景确定***100中的一个或多个组件(例如,服务器110、用户终端130、数据库140)可通过网络120发送数据和/或信息给用户场景确定***100中的其他组件。在一些实施例中,网络120可是任意类型的有线或无线网络。例如,网络120可包括缆线网络、有线网络、光纤网络、电信网络、内部网络、网际网络、区域网络(LAN)、广域网络(WAN)、无线区域网络(WLAN)、都会区域网络(MAN)、公共电话交换网络(PSTN)、蓝牙网络、ZigBee网络、近场通讯(NFC)网络等或以上任意组合。在一些实施例中,网络120可包括一个或多个网络进出点。例如,网络120可包含有线或无线网络进出点,如基站和/或网际网络交换点120-1、120-2、…,通过这些进出点,用户场景确定***100的一个或多个组件可连接到网络120上以交换数据和/或信息。
在一些实施例中,用户可以通过用户终端130获取反馈信息。在一些实施例中,服务器110的处理设备112也可以通过用户终端130来获取用户的时输入信息。用户终端130可以包括各类具有信息接收和/或发送功能的设备,如计算机、手机、文字扫描设备、显示设备、打印机等。在一些实施例中,用户终端130可包括移动装置130-1、平板电脑130-2、笔记本电脑130-3等中的一种或其任意组合。在一些实施例中,移动装置130-1可包括智能家居装置、可穿戴装置、智能行动装置、虚拟实境装置、增强实境装置等或其任意组合。在一些实施例中,智能家具装置可包括智能照明装置、智能电器的控制装置、智能监测装置、智能电视、智能摄像机、对讲机等或其任意组合。在一些实施例中,可穿戴装置可包括智能手环、智能鞋袜、智能眼镜、智能头盔、智能手表、智能衣物、智能背包、智能配饰等或其任意组合。在一些实施例中,智能行动装置可包括智能电话、个人数字助理(PDA)、游戏装置、导航装置、POS装置等或其任意组合。在一些实施例中,虚拟实境装置和/或增强实境装置可包括虚拟实境头盔、虚拟实境眼镜、虚拟实境眼罩、增强实境头盔、增强实境眼镜、增强实境眼罩等或以上任意组合。
数据库140可存储资料和/或指令。在一些实施例中,数据库140可存储从用户终端130获取的资料。在一些实施例中,数据库140可存储供服务器110执行或使用的信息和/或指令,以执行本申请中描述的示例性方法。例如,可以由网约车平台的若干服务器,获取用户信息和文本信息,执行程序进行用户场景确认,并将确认结果另外保存到数据库140中。又例如,数据库140可以用于存储大量的与用户场景相对应的装置信息;也可以存储用于模型训练的样本信息。在一些实施例中,数据库140可包括大容量存储器、可移动存储器、挥发性读写存储器(例如,随机存取存储器RAM)、只读存储器(ROM)等或以上任意组合。在一些实施例中,数据库140可在云平台上实现。例如,该云平台可包括私有云、公共云、混合云、社区云、分散式云、内部云等或以上任意组合。
在一些实施例中,数据库140可与网络120连接以与用户场景确定***100的一个或多个组件(例如,服务器110、用户终端130等)通讯。用户场景确定***100的一个或多个组件可通过网络120访问存储于数据库140中的资料或指令。在一些实施例中,数据库140可直接与用户场景确定***100中的一个或多个组件(如,服务器110、用户终端130)连接或通讯。在一些实施例中,数据库140可以是服务器110的一部分。
在上述用户场景确定***100中,所使用的程序指令和/或数据,可能是通过其他过程生成的,比如机器学习模型的训练过程。这些训练过程可以是在上述计算***中进行,也可以是在其他***中进行,并将指令和/或数据迁移到上述计算***中。
例如,在对用户场景进行确认时,执行的程序包括机器学习模型。使用的机器学习模型可以是在另外的服务器中训练好,然后迁移至进行分类的服务器中。
图2是根据本申请的一些实施例所示的计算设备200的示例性硬件和软件组件的示意图。计算设备200可用于实现如本文所述的用户场景确定***100的任何组件。例如,服务器110(例如,处理设备112)和/或用户终端130可以通过其硬件、软件程序、固件或其组合在计算设备200上实现。尽管仅示出了一个这样的计算设备,但是为了方便,与这里描述的用户场景确定***100相关的计算机功能可以在多个类似平台上以分布式方式实现,以分配处理负荷。
如图2所示,计算设备200可以包括通信总线210、处理器220、存储设备、输入/输出(I/O)260和通信端口250。处理器220可以执行计算机指令(例如,程序代码)并且根据本文描述的技术执行用户场景确定***100的一个或以上组件的功能。例如,处理器220可以确定用户场景。所述计算机指令可以包括例如执行在此描述的特定功能的常规、程序、对象、组件、数据结构、过程、模块和功能。在一些实施例中,处理器220可包括接口电路和其中的处理电路。接口电路可以被配置用于接收来自通信总线210的电子信号,其中电子信号编码结构化数据和/或指令以供处理电路处理。处理电路可以进行逻辑计算,然后将结论、结果和/或指令编码确定为电信号。然后,接口电路可以经由通信总线210从处理电路发出电信号。
在一些实施例中,处理器220可以包括一个或以上硬件处理器,诸如微控制器、微处理器、精简指令集计算机(RISC)、特定应用集成电路(ASIC)、特定应用指令集处理器(ASIP)、中央处理单元(CPU)、图形处理单元(GPU)、物理处理单元(PPU)、微控制器单元、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、高阶RISC机器(ARM)、可编程逻辑设备(PLD)、能够执行一个或以上功能的任何电路或处理器等,或其任何组合。
仅为说明之目的,计算设备200中仅示例性绘制了一个处理器。然而,应该注意的是,本申请中的计算设备200还可以包括多个处理器,由此执行的操作和/或方法步骤如本申请中所描述的一个处理器也可以由多个处理器联合地或单独地执行。例如,如果在本申请中,计算设备200的处理器执行步骤A和步骤B,应当理解的是,步骤A和步骤B也可以由计算设备200的两个或以上不同的处理器共同地或独立地执行(例如,第一处理器执行步骤A,第二处理器执行步骤B,或者第一和第二处理器共同地执行步骤A和步骤B)。
存储设备可以存储与用户场景确定***100有关的数据/信息。在一些实施例中,存储设备可包括质量存储设备、可移除存储设备、易失性读写存储器、随机存取存储器(RAM)240、只读存储器(ROM)230、盘270等,或其任何组合。在一些实施例中,存储设备可以存储一个或以上程序和/或指令以执行在本申请中描述的示例性方法。例如,存储设备可以存储用于处理器220执行的程序。
I/O 260可以输入和/或输出信号、数据、信息等。在一些实施例中,I/O 260可以实现用户与计算设备200的交互。在一些实施例中,I/O 260可以包括输入设备和输出设备。示例性的输入设备可以包括键盘、鼠标、触控屏幕、麦克风等,或其任何组合。示例性的输出设备可以包括显示设备、扬声器、打印机、投影机等,或其任何组合。显示设备的示例可以包括液晶显示器(LCD)、基于发光二极管(LED)的显示器、平板显示器、弯曲屏幕、电视设备、阴极射线管(CRT)、触控屏幕等,或其任何组合。通信端口250可以连接到网络(例如,网络120)以促进数据通信。通信端口250可以在计算设备200与用户场景确定***100的一个或以上组件之间建立连接。连接可以是有线连接、无线连接、可以启用数据传输和/或接收的任何其他通信连接,和/或这些连接的任何组合。有线连接可以包括例如电缆、光缆、电话线等,或其任何组合。有线连接可以包括例如电缆、光缆、电话线等或其任意组合。无线连接可以包括例如蓝牙链路、Wi-FiTM链路、WiMaxTM链路、WLAN链路、Zigbee链路、移动网络链路(例如3G、4G、5G等)等或其组合。在一些实施例中,通信端口250可以是和/或包括标准化通信端口,诸如RS232、RS485等。在一些实施例中,通信端口250可以是专门设计的通信端口。
图3是根据本申请的一些实施例所示的示例性移动设备300的示例性硬件和/或软件组件的示意图。在一些实施例中,用户场景确定***100中的一个或以上的组件(例如,用户终端130、处理设备112)可以在移动设备300上实现。
如图3所示,移动设备300可以包括通信平台310、显示器320、图形处理单元(GPU)330、中央处理单元(CPU)340、I/O 350、内存360和存储器390。在一些实施例中,任何其他合适的组件,包括但不限于***总线或控制器(未示出),也可包括在移动设备300内。在一些实施例中,移动操作***370(如,iOS、Android、Windows PhoneTM)和一个或以上应用380可以从存储器390加载到内存360中以便由CPU340执行。应用程序380可以包括浏览器或任何其他合适的移动应用程序,用于从处理设备112接收和呈现与定位或其他信息有关的信息。用户与信息流的交互可以通过I/O 350实现,并通过网络120提供给处理设备112和/或用户场景确定***100的其他组件。
为了实施本申请描述的各种模块、单元及其功能,计算机硬件平台可用作本文中描述的一个或以上组件的硬件平台。具有用户接口组件的计算机可用于实施个人计算机(PC)或任何其他类型的工作站或终端设备。若程控得当,计算机亦可用作服务器。
图4是根据本申请的一些实施例所示的用户场景确定***的模块图。如图4所示,所述用户场景确定***400可以包括数据获取模块410、场景向量确定模块420和用户场景确定模块430。上述模块均在应用场景所介绍的计算***中执行,各模块包括各自的指令,指令可存储在存储介质上,指令可在处理器中执行。不同的模块可以位于相同的设备上,也可以位于不同的设备上。它们之间可以通过程序接口、网络等进行数据的传输,可以从存储设备中读取数据或者将数据写入到存储设备中。
在一些实施例中,数据获取模块410可以用于获取用户信息和文本信息。其中,用户信息是指进行提问的用户的信息;文本信息是指用户的输入信息。在一些实施例中,可以从数据库140或其他存储装置中,或者通过其他接口,获取用户信息;可以从人机交互界面获取文本信息。具体可参见图5的步骤510。
在一些实施例中,场景向量确定模块420可以用于对用户信息和文本信息进行向量化处理,即提取与用户信息相对应的第一特征向量和与文本信息相对应的第二特征向量,再通过拼接第一特征向量和第二特征向量接确定场景向量。在一些实施例中,可以使用向量处理模型确定场景向量。具体可参见图5的步骤520和图6。
在一些实施例中,用户场景确定模块430可以用于通过向用户场景确定模型输入所述场景向量,确定用户场景。其中,用户场景确定模型是分类模型;用户场景确定模型的输入是场景向量;用户场景确定模型的输出是用户场景。具体可参见图5的步骤530。
在一些实施例中,用户场景确定***400还可以包括选择模块,所述选择模块可以基于所确定的用户场景,选择与所述用户场景相对应的装置。所述与用户场景相对应的装置是用于回答用户提问的装置。具体可参见图5。
在一些实施例中,用户场景确定***400还可以包括训练模块,所述训练模块可以获取一个或以上训练样本。每个训练样本可以包括一个样本场景向量和一个与所述样本场景向量相对应的样本用户场景。训练模块还可以以所述样本场景向量作为输入,所述样本用户场景作为标识,训练所述用户场景确定模型。具体可参见图7。
在一些实施例中,训练模块可以设置在服务器侧的处理设备中,也可以设置在用户终端的处理设备中,或者,部分训练模块设置在服务器侧的处理设备中,另一部分训练模块设置在用户终端侧的处理设备中,因此在图4中未示出。
应当理解,图4所示的***及其模块可以利用各种方式来实现。例如,在一些实施例中,***及其模块可以通过硬件、软件或者软件和硬件的结合来实现。其中,硬件部分可以利用专用逻辑来实现;软件部分则可以存储在存储器中,由适当的指令执行***,例如微处理器或者专用设计硬件来执行。本领域技术人员可以理解上述的方法和***可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本申请的***及其模块不仅可以有诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用例如由各种类型的处理器所执行的软件实现,还可以由上述硬件电路和软件的结合(例如,固件)来实现。
需要注意的是,以上对于用户场景确定***及其模块的描述,仅为描述方便,并不能把本申请限制在所举实施例范围之内。可以理解,对于本领域的技术人员来说,在了解该***的原理后,可以在不背离这一原理的情况下,对各个模块进行任意组合,或者构成子***与其他模块连接。例如,在一些实施例中,图4中披露的数据获取模块410、场景向量确定模块420、用户场景确定模块430和选择模块440可以是一个***中的不同模块,也可以是一个模块实现上述的两个或两个以上模块的功能。例如,场景向量确定模块420可以是一个模块,也可以是两个分别提取用户信息和文本信息的用户信息向量确定模块和文本信息向量确定模块。又例如,各个模块可以共用一个存储模块,各个模块也可以分别具有各自的存储模块。诸如此类的变形,均在本申请的保护范围之内。
图5是根据本说明书的一些实施例所示的确定用户场景的方法的流程图。
如图5所示,所述确定用户场景的方法可以包括:
步骤510,获取用户信息和文本信息。具体的,该步骤510可以由数据获取模块410执行。
用户信息可以包括用户个人信息、用户状态信息、用户历史问题信息等。具体的,用户个人信息可以包括用户的姓名、性别、年龄、身份证号码、职业、民族、工龄、位置、居住地、工作地、家庭成员、偏好、习惯等信息。用户状态信息可以是用户所处的状态。在一些实施例中,用户状态信息可以包括第一状态信息和第二状态信息。其中,第一状态信息可以是普通状态信息,例如工作状态或者休假状态的信息;第二状态信息可以是特殊状态信息,例如投诉状态、询问状态、接单状态等信息。在一些实施例中,用户状态信息可以同时包括第一状态信息和第二状态信息,例如工作投诉状态信息、工作询问状态信息等。用户历史问题信息可以是用户历史问过的问题信息。用户历史问题信息可以包括历史问题的具体内容、历史问题所处的用户场景、历史问题所使用的用户场景确定模型、历史问题所对应的模块等信息。在步骤510中,用户信息可以从数据库或其他存储装置中,或者通过其他接口获取。
文本信息可以是用户实时的输入信息。在一些实施例中,文本信息可以包括用户的实时提问、用户的多轮问题等。例如,“今天XX的天气如何?”“现在XX路的路况如何?”“今天去XX的航班有哪些?”文本信息可以包括文字信息、语音信息等。在步骤510中,文字信息可以包括用户通过键盘或屏幕手动输入的文字信息,还可以包括用户通过麦克风语音输入转化的文字信息;语音信息可以包括用户通过麦克风直接输入的语音信息。在一些实施例中,文本信息可以在人机交互界面呈现。
步骤520,基于所述用户信息和所述文本信息,确定场景向量。具体的,该步骤520可以由场景向量确定模块420执行。
场景向量可以是包括用户信息和文本信息的特征的向量。在一些实施例中,可以对用户信息和文本信息进行向量化处理,即提取与用户信息相对应的第一特征向量和与文本信息相对应的第二特征向量,再通过拼接第一特征向量和第二特征向量确定场景向量。在一些实施例中,可以使用向量处理模型确定场景向量。例如,将第一特征向量和第二特征向量输入向量处理模型,确定场景向量。更多关于确定场景向量的描述可以参见图6。
步骤530,通过向用户场景确定模型输入所述场景向量,确定所述用户的用户场景。具体的,该步骤530可以由用户场景确定模块430执行。
用户场景确定模型可以是分类模型。具体的,用户场景确定模型可以包括K最邻近(K-NearestNeighbor,KNN)模型、贝叶斯(Bayesian)模型、决策树(Decision Tree)模型、随机森林(random forest)模型、对数几率回归(logistic regression)模型、神经网络(Neural Network,NN)模型、集成学习(Ensemble Learning)模型等。
用户场景确定模型的输入可以是步骤520所确定的场景向量。用户场景确定模型的输出可以是用户的用户场景。在一些实施例中,用户场景确定模型的输出可以包括文字(例如,“查天气场景”、“投诉场景”、“查服务分场景”等)、向量(例如,平面坐标(x,y)、空间坐标(x,y,z)、矩阵等)、代码、指令等可以用于表示用户场景的任意形式。所述用户的用户场景是用户提问的场景。在一些实施例中,用户场景可以包括查天气、投诉、查服务分、接单、定票等场景。
所述用户场景确定模型是训练过的模型。所述用户场景确定模型的训练方法可以参见图7的说明。
在一些实施例中,基于所确定的用户场景,还可以选择与所述用户场景相对应的装置。具体的,该步骤可以由选择模块执行。
所述与用户场景相对应的装置是用于回答用户提问的装置。在一些实施例中,所述与用户场景相对应的装置可以包括具有会话功能的智能设备,例如,多轮机器人、人工智能设备、具有人机交互功能的设备、人工智能软件等。例如,基于步骤530确定用户的用户场景为查天气,处理器(例如,选择模块)可以选择相对应的查天气装置(例如,具有查天气功能的多轮机器人、具有查天气功能的人工智能设备等)。又例如,基于步骤530确定用户的用户场景为订机票,处理器(例如,选择模块)可以选择相对应的订机票装置(例如,具有订机票功能的多轮机器人、具有订机票功能的人工智能设备等)。
在一些实施例中,所述与用户场景相对应的装置还可以包括智能设备的不同模块,例如,购物模块、记录模块、提醒模块等。例如,基于步骤530确定的订机票场景,与订机票场景相对应的客服机器人可以与用户进行对话,并且当用户确认机票时,可以提供购买机票的功能。又例如,基于步骤530确定的查天气场景,与查天气场景相对应的客服机器人可以与用户进行对话,并且当天气是恶劣天气(例如,雨、雪、冰雹、雾霾等)时,可以提供提醒功能(例如,下雨提醒用户带伞、雾霾提醒用户戴口罩)。
在一些实施例中,在与相对应的装置交互结束后,用户可以对问题的回答状况进行评分。例如,所述评分可以包括“满意”、“一般”和“不满意”。又例如,所述评分可以包括“一颗星”、“两颗星”、“三颗星”、“四颗星”和“五颗星”。在一些实施例中,用户可以对问题的回答进行其他反馈。例如,在用户提问结束以后,人机交互界面可以提供文本框,用于用户输入用户体验和/或用户评价。输入方式可以包括用户通过键盘或屏幕手动输入文本框,还可以包括用户通过麦克风语音转化为文字输入文本框。又例如,在用户提问结束以后,人机交互界面可以提供录音按钮,用于用户通过麦克风语音输入用户体验和/或用户评价。在一些实施例中,所述评分结果可以储存在数据库或其他存储装置中,用于在一定时间段后更新用户场景确定模型。所述用户场景确定模型的更新方法可以参见图7的说明。
上述方式的关键是通过用户信息和文本信息拼接确定的场景向量确定用户场景,相比仅通过文本信息的向量确定用户场景,本说明书所提供的方法更具有针对性,可以更准确地确认用户场景,从而解决用户被误分场景的问题,提高多轮会话的解决率。
图6是根据本说明书的一些实施例所示的确定场景向量的方法的流程图。
如图6所示,所述确定场景向量的方法可以包括:
步骤610,基于用户信息,提取与所述用户信息相对应的至少一个第一特征向量。具体的,该步骤610可以由场景向量确定模块420执行。
在步骤610中,对所述用户信息进行向量化处理,提取与所述用户信息相对应的至少一个向量。在本说明书中对所得到的向量称为第一特征向量。
向量化处理可以是将用户信息输入第一向量处理模型,输出对应的一个或一组向量。输出的向量是用户信息语义的数字化代表。在一些实施例中,第一向量处理模型可以是Word2Vec模型、ElMo模型、词袋模型、BERT模型等,本说明书对此不作限制。
步骤620,基于文本信息,提取与所述文本信息相对应的至少一个第二特征向量。具体的,该步骤620可以由场景向量确定模块420执行。
在步骤620中,对所述文本信息进行向量化处理,提取与所述文本信息相对应的至少一个向量。在本说明书中对所得到的向量称为第二特征向量。
向量化处理可以是将文本信息输入第二向量处理模型,输出对应的一个或一组向量。输出的向量是文本信息语义的数字化代表。在一些实施例中,第二向量处理模型可以是Word2Vec模型、ElMo模型、词袋模型、BERT模型等,本说明书对此不作限制。在一些实施例中,第二向量处理模型可以与第一向量处理模型相同。在一些实施例中,第二向量处理模型可以与第一向量处理模型不同。
步骤630,基于所述至少一个第一特征向量和所述至少一个第二特征向量,确定所述场景向量。具体的,该步骤630可以由场景向量确定模块420执行。
在步骤630中,可以通过拼接第一特征向量和第二特征向量来确定场景向量。所述拼接方法可以是基于规则的拼接,例如:“第一特征向量and第二特征向量”的形式、“第一特征向量+第二特征向量”的形式。又例如,第一特征向量和第二特征向量可以为一阶行列阵,拼接后形成一个二阶行列式。具体的,第一特征向量可以是[a,b],第二特征向量可以是[c,d],拼接后为在一些实施例中,所述拼接方法可以是基于向量处理模型的拼接方法。例如,将第一特征向量和第二特征向量输入向量处理模型,可以获取拼接后的场景向量。所述向量处理模型可以包括Word2Vec模型、ElMo模型、词袋模型、BERT模型等,本说明书对此不作限制。
在一些实施例中,所述确定场景向量的方法还可以包括:将用户信息和文本信息输入向量处理模型,确定所述场景向量。其中,所述向量处理模型可以是统计模型或机器学习模型中的一种,包括但不限于分类与逻辑回归(Logistic Regression)模型、k-最近邻算法(K-Nearest Neighbor,kNN)模型、朴素贝叶斯(Naive Bayes,NB)模型、支持向量机(Support Vector Machine,SVM)、决策树(Decision Tree,DT)模型、随机森林(RandomForests,RF)模型、回归树(Classification and Regression Trees,CART)模型、梯度提升决策树(Gradient Boosting Decision Tree,GBDT)模型、xgboost(eXtreme GradientBoosting)、轻量级梯度提升机器(Light Gradient Boosting Machine,LightGBM)、梯度提升机(Gradient Boosting Machines,GBM)、LASSO(Least Absolute Shrinkage andSelection Operator,LASSO)、人工神经网络(Artificial Neural Networks,ANN)模型等。所述向量处理模型的输入可以是用户信息和文本信息,所述向量处理模型的输出可以是场景向量。在一些实施例中,所述向量处理模型可以是用户信息和历史文本信息进行训练后得到的。所述向量处理模型的训练过程可以包括:获得样本数据。所述样本数据可以包括:用户信息和对应的文本信息。在一些实施例中,所述向量处理模型的训练过程还可以包括:以所述用户信息和对应的文本信息作为输入,所述场景向量作为标识,训练所述向量处理模型。
上述实施例至少具备以下之一的技术效果:(1)通过向量处理模型向量化用户信息和文本信息,可以批量处理数据,提高效率。(2)通过向量处理模型向量化用户信息和文本信息,可以准确提取用户信息和文本信息的特征向量,从而提高用户场景确定模型的精确性。
图7是根据本说明书的一些实施例所示的用户场景确定模型训练方法的流程图。
如图7所示,在一些实施例中,用户场景确定模型的训练方法700可以包括以下步骤:
步骤710,获取一个或以上训练样本。具体的,该步骤710可以由训练模块执行。
在步骤710中,可以获取一个或以上训练样本。每个训练样本可以包括一个样本场景向量和一个与所述样本场景向量相对应的样本用户场景。在一些实施例中,训练样本可以是用户历史数据或者人为模拟数据。用户历史数据可以包括用户曾经向服务器110咨询和/或反馈的问题和确定的对应问题的用户场景。例如,过去一个月中用户反馈满意的情况下的场景向量和相对应的用户场景。人为模拟数据可以包括人为模拟的场景向量和与场景向量对应的用户场景,也可以包括基于模拟数据算法模拟的场景向量和与场景向量对应的用户场景。在一些实施例中,所述模拟数据算法可以包括集成器、mock-api、mock-js、蒙特卡罗方法、元胞自动机等。在一些实施例中,所述训练样本可以从数据库或其他存储装置中,或者通过其他接口获取。
训练样本的来源和类型可以与用户信息和文本信息相同,参加图5的步骤510。
步骤720,以所述样本场景向量作为输入,所述样本用户场景作为标识,训练所述用户场景确定模型。具体的,该步骤720可以由训练模块执行。
在步骤720中,将所述样本场景向量输入用户场景确定模型进行训练,与所述样本场景向量相对应的样本用户场景作为标识,训练所述用户场景确定模型的参数。当满足某一预设条件时,例如,训练样本数量达到预定的数量、模型的预测正确率大于某一预定正确率阈值,训练过程将停止,并将训练后的模型指定为所述用户场景确定模型。
在一些实施例中,在用户场景确定模型使用一定时间(例如,一天、一周、一月)或用户反馈满足一定条件(例如,用户不满意反馈次数超过100次、解决率低于一定阈值),可以对用户场景确定模型进行更新。具体的,通过获取过去一个月中用户反馈满意的情况下的场景向量和相对应的用户场景数据或者最近一万份用户反馈满意的情况下的场景向量和相对应的用户场景数据,可以更新训练样本数据;基于更新的训练样本数据,对用户场景确定模型进行训练,确定更新后的用户场景确定模型的参数。
上述实施例至少具备以下之一的技术效果:(1)通过用户信息和文本信息拼接的场景向量训练样本,可以提高用户场景确定模型的准确性。(2)定期对用户场景确定模型进行更新,可以进一步提高用户场景确定模型的精确性。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本申请的限定。虽然此处并没有明确说明,本领域技术人员可能会对本申请进行各种修改、改进和修正。该类修改、改进和修正在本申请中被建议,所以该类修改、改进、修正仍属于本申请示范实施例的精神和范围。
同时,本申请使用了特定词语来描述本申请的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本申请至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一个替代性实施例”并不一定是指同一实施例。此外,本申请的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,本领域技术人员可以理解,本申请的各方面可以通过若干具有可专利性的种类或情况进行说明和描述,包括任何新的和有用的工序、机器、产品或物质的组合,或对他们的任何新的和有用的改进。相应地,本申请的各个方面可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件或软件均可被称为“数据块”、“模块”、“引擎”、“单元”、“组件”或“***”。此外,本申请的各方面可能表现为位于一个或多个计算机可读介质中的计算机产品,该产品包括计算机可读程序编码。
计算机存储介质可能包含一个内含有计算机程序编码的传播数据信号,例如在基带上或作为载波的一部分。该传播信号可能有多种表现形式,包括电磁形式、光形式等,或合适的组合形式。计算机存储介质可以是除计算机可读存储介质之外的任何计算机可读介质,该介质可以通过连接至一个指令执行***、装置或设备以实现通讯、传播或传输供使用的程序。位于计算机存储介质上的程序编码可以通过任何合适的介质进行传播,包括无线电、电缆、光纤电缆、RF、或类似介质,或任何上述介质的组合。
本申请各部分操作所需的计算机程序编码可以用任意一种或多种程序语言编写,包括面向对象编程语言如Java、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、Python等,常规程序化编程语言如C语言、Visual Basic、Fortran 2003、Perl、COBOL 2002、PHP、ABAP,动态编程语言如Python、Ruby和Groovy,或其他编程语言等。该程序编码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在用户计算机上运行部分在远程计算机运行、或完全在远程计算机或服务器上运行。在后种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网(LAN)或广域网(WAN),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如软件即服务(SaaS)。
此外,除非权利要求中明确说明,本申请所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本申请流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本申请实施例实质和范围的修正和等价组合。例如,虽然以上所描述的***组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的***。
同理,应当注意的是,为了简化本申请披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本申请实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本申请对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
Claims (11)
1.一种确定用户场景的方法,包括:
获取用户信息和文本信息;
基于所述用户信息和所述文本信息,确定场景向量;以及
通过向用户场景确定模型输入所述场景向量,确定所述用户的用户场景。
2.如权利要求1所述的方法,其特征在于,所述确定所述场景向量的方法还包括:
基于所述用户信息,提取与所述用户信息相对应的至少一个第一特征向量;
基于所述文本信息,提取与所述文本信息相对应的至少一个第二特征向量;以及
基于所述至少一个第一特征向量和所述至少一个第二特征向量,确定所述场景向量。
3.如权利要求1-2所述的方法,其特征在于,将所述至少一个第一特征向量和所述至少一个第二特征向量输入向量处理模型,确定所述场景向量。
4.如权利要求1-3所述的方法,其特征在于,所述向量处理模型是机器学习模型。
5.如权利要求1所述的方法,其特征在于,所述用户场景确定模型通过以下训练方法获取:
获取一个或以上训练样本,其中,每个训练样本包括一个样本场景向量和一个与所述样本场景向量相对应的样本用户场景;
以所述样本场景向量作为输入,所述样本用户场景作为标识,训练所述用户场景确定模型。
6.如权利要求1或权利要求5所述的方法,其特征在于,所述用户场景确定模型是分类模型。
7.一种确定用户场景的***,包括:
数据获取模块,用于获取用户信息和文本信息;
场景向量确定模块,用于基于所述用户信息和所述文本信息,确定场景向量;以及
用户场景确定模块,用于通过向用户场景确定模型输入所述场景向量,确定所述用户的用户场景。
8.如权利要求7所述的***,其特征在于,所述场景向量确定模块用于:
基于所述用户信息,提取与所述用户信息相对应的至少一个第一特征向量;
基于所述文本信息,提取与所述文本信息相对应的至少一个第二特征向量;以及
基于所述至少一个第一特征向量和所述至少一个第二特征向量,确定所述场景向量。
9.如权利要求7所述的***,其特征在于,所述用户场景确定模型通过以下训练方法获取:
获取一个或以上训练样本,其中,每个训练样本包括一个样本场景向量和一个与所述样本场景向量相对应的样本用户场景;
以所述样本场景向量作为输入,所述样本用户场景作为标识,训练所述用户场景确定模型。
10.一种确定用户场景的装置,所述装置包括处理器以及存储器;所述存储器用于存储指令,其特征在于,所述指令被所述处理器执行时,导致所述装置实现如权利要求1至6中任一项所述确定用户场景的方法对应的操作。
11.一种计算机可读存储介质,其特征在于,所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机运行如权利要求1至6中任意一项所述确定用户场景的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010548343.7A CN111857331A (zh) | 2020-06-16 | 2020-06-16 | 一种确定用户场景的方法、***、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010548343.7A CN111857331A (zh) | 2020-06-16 | 2020-06-16 | 一种确定用户场景的方法、***、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111857331A true CN111857331A (zh) | 2020-10-30 |
Family
ID=72986693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010548343.7A Pending CN111857331A (zh) | 2020-06-16 | 2020-06-16 | 一种确定用户场景的方法、***、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111857331A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113643684A (zh) * | 2021-07-21 | 2021-11-12 | 广东电力信息科技有限公司 | 语音合成方法、装置、电子设备及存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104991887A (zh) * | 2015-06-18 | 2015-10-21 | 北京京东尚科信息技术有限公司 | 提供信息的方法及装置 |
CN105005593A (zh) * | 2015-06-30 | 2015-10-28 | 北京奇艺世纪科技有限公司 | 多用户共用设备的场景识别方法和装置 |
CN107168546A (zh) * | 2017-03-27 | 2017-09-15 | 上海奔影网络科技有限公司 | 输入提示方法及装置 |
CN108959396A (zh) * | 2018-06-04 | 2018-12-07 | 众安信息技术服务有限公司 | 机器阅读模型训练方法及装置、问答方法及装置 |
CN109522483A (zh) * | 2018-11-14 | 2019-03-26 | 北京百度网讯科技有限公司 | 用于推送信息的方法和装置 |
CN110209897A (zh) * | 2018-02-12 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 智能对话方法、装置、存储介质及设备 |
CN110334201A (zh) * | 2019-07-18 | 2019-10-15 | 中国工商银行股份有限公司 | 一种意图识别方法、装置及*** |
CN110413790A (zh) * | 2019-08-02 | 2019-11-05 | 上海云绅智能科技有限公司 | 一种场景分类方法及装置 |
WO2019237450A1 (zh) * | 2018-06-15 | 2019-12-19 | 深圳大学 | 物体功能性预测方法、计算机设备和存储介质 |
CN110750658A (zh) * | 2019-09-18 | 2020-02-04 | 平安科技(深圳)有限公司 | 一种媒体资源的推荐方法、服务器及计算机可读存储介质 |
CN110853613A (zh) * | 2019-11-15 | 2020-02-28 | 百度在线网络技术(北京)有限公司 | 韵律停顿等级预测的校正方法、装置、设备和介质 |
CN111124925A (zh) * | 2019-12-25 | 2020-05-08 | 斑马网络技术有限公司 | 基于大数据的场景提取方法、装置、设备和存储介质 |
-
2020
- 2020-06-16 CN CN202010548343.7A patent/CN111857331A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104991887A (zh) * | 2015-06-18 | 2015-10-21 | 北京京东尚科信息技术有限公司 | 提供信息的方法及装置 |
CN105005593A (zh) * | 2015-06-30 | 2015-10-28 | 北京奇艺世纪科技有限公司 | 多用户共用设备的场景识别方法和装置 |
CN107168546A (zh) * | 2017-03-27 | 2017-09-15 | 上海奔影网络科技有限公司 | 输入提示方法及装置 |
CN110209897A (zh) * | 2018-02-12 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 智能对话方法、装置、存储介质及设备 |
CN108959396A (zh) * | 2018-06-04 | 2018-12-07 | 众安信息技术服务有限公司 | 机器阅读模型训练方法及装置、问答方法及装置 |
WO2019237450A1 (zh) * | 2018-06-15 | 2019-12-19 | 深圳大学 | 物体功能性预测方法、计算机设备和存储介质 |
CN109522483A (zh) * | 2018-11-14 | 2019-03-26 | 北京百度网讯科技有限公司 | 用于推送信息的方法和装置 |
CN110334201A (zh) * | 2019-07-18 | 2019-10-15 | 中国工商银行股份有限公司 | 一种意图识别方法、装置及*** |
CN110413790A (zh) * | 2019-08-02 | 2019-11-05 | 上海云绅智能科技有限公司 | 一种场景分类方法及装置 |
CN110750658A (zh) * | 2019-09-18 | 2020-02-04 | 平安科技(深圳)有限公司 | 一种媒体资源的推荐方法、服务器及计算机可读存储介质 |
CN110853613A (zh) * | 2019-11-15 | 2020-02-28 | 百度在线网络技术(北京)有限公司 | 韵律停顿等级预测的校正方法、装置、设备和介质 |
CN111124925A (zh) * | 2019-12-25 | 2020-05-08 | 斑马网络技术有限公司 | 基于大数据的场景提取方法、装置、设备和存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113643684A (zh) * | 2021-07-21 | 2021-11-12 | 广东电力信息科技有限公司 | 语音合成方法、装置、电子设备及存储介质 |
CN113643684B (zh) * | 2021-07-21 | 2024-02-27 | 广东电力信息科技有限公司 | 语音合成方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238409B2 (en) | Techniques for extraction and valuation of proficiencies for gap detection and remediation | |
CN110443222A (zh) | 用于训练脸部关键点检测模型的方法和装置 | |
CN109983480A (zh) | 使用聚类损失训练神经网络 | |
CN112380870A (zh) | 用户意图分析方法、装置、电子设备及计算机存储介质 | |
CN112783921A (zh) | 一种数据库操作方法及装置 | |
CN110852785B (zh) | 用户分级方法、装置及计算机可读存储介质 | |
CN107862339A (zh) | 用于输出信息的方法和装置 | |
US20170032253A1 (en) | Information processing apparatus, control method, and program | |
CN109101309A (zh) | 用于更新用户界面方法和装置 | |
CN116802629A (zh) | 用于自然语言处理的多因素建模 | |
Zhang et al. | Comprehensive understanding of smart product service system from multi-dimension and multi-perspective: an innovative service model for Customer-product Interaction Life Cycle (CILC) | |
CN112884235A (zh) | 出行推荐方法、出行推荐模型的训练方法、装置 | |
TW201842474A (zh) | 活動推薦系統和方法 | |
CN111857331A (zh) | 一种确定用户场景的方法、***、装置及存储介质 | |
CN113216790B (zh) | 开关门控制方法、装置、终端设备和计算机介质 | |
US10922717B2 (en) | Systems and methods for activity recommendation | |
CN111144512B (zh) | 基于EMLo预训练模型的职业指导方法、装置及存储介质 | |
CN107679635A (zh) | 基于优先级的客户跟进方法、***及可读存储介质 | |
EP4198809A1 (en) | Pitman-yor process topic modeling pre-seeded by keyword groupings | |
CN116843481A (zh) | 知识图谱分析方法、装置、设备及存储介质 | |
CN109977011A (zh) | 测试脚本的自动生成方法、装置、存储介质及电子设备 | |
CN116186089A (zh) | 一种产业资源智能匹配方法、***、介质及设备 | |
CN112529624B (zh) | 生成业务预测模型的方法、装置、设备以及存储介质 | |
CN111881270A (zh) | 一种智能对话方法和*** | |
Shafipour-Omrani et al. | A Fuzzy Crew Rostering Model Based on Crew Preferences and Seniorities considering Training Courses: A Robust Optimization Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |