CN110162191A - 一种表情推荐方法、装置及存储介质 - Google Patents
一种表情推荐方法、装置及存储介质 Download PDFInfo
- Publication number
- CN110162191A CN110162191A CN201910267896.2A CN201910267896A CN110162191A CN 110162191 A CN110162191 A CN 110162191A CN 201910267896 A CN201910267896 A CN 201910267896A CN 110162191 A CN110162191 A CN 110162191A
- Authority
- CN
- China
- Prior art keywords
- expression
- recommended
- target
- label
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 239000013598 vector Substances 0.000 claims description 70
- 238000012549 training Methods 0.000 claims description 59
- 238000003062 neural network model Methods 0.000 claims description 38
- 230000015654 memory Effects 0.000 claims description 28
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 21
- 101150054987 ChAT gene Proteins 0.000 description 14
- 101100203187 Mus musculus Sh2d3c gene Proteins 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 230000003068 static effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 206010028916 Neologism Diseases 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 108010074506 Transfer Factor Proteins 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Marketing (AREA)
- Computing Systems (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供了一种表情推荐方法、装置及存储介质;其中,方法包括:确定基于客户端输入的目标文本;获取待推荐表情元素对应的表情标签,获取所述目标文本与所述表情标签的相似度;基于所述相似度,从所述待推荐表情元素中选取目标表情元素进行表情推荐,所述目标表情元素包括:与所述目标文本非完全相同的表情标签对应的表情元素。
Description
技术领域
本发明涉及通信技术,尤其涉及一种表情推荐方法、装置及存储介质。
背景技术
随着社交和网络的不断发展,基于社交客户端通过表情进行沟通已形成一种流行文化,为了使互动双方能够获得良好的沟通体验,该类社交客户端还支持表情推荐功能,即在用户互动过程中为用户推荐合适的表情。
相关技术中依赖循环神经网络(RNN,Recurrent Neural Network)和卷积神经网络(CNN,Convolutional Neural Networks)的学习模型进行表情推荐,这需要大量的数据训练,而用户表情基于不同互动场景需求并不一致,表情推荐准确度低。
发明内容
本发明实施例提供一种表情推荐方法、装置及存储介质,能够实现表情的准确推荐。
本发明实施例的技术方案是这样实现的:
一方面,本发明实施例提供一种表情推荐方法,包括:
确定基于客户端输入的目标文本;
获取待推荐表情元素对应的表情标签;
获取所述目标文本与所述表情标签的相似度;
基于所述相似度,从所述待推荐表情元素中选取目标表情元素进行表情推荐,所述目标表情元素包括:与所述目标文本非完全相同的表情标签对应的表情元素。
一方面,本发明实施例提供一种表情推荐装置,所述装置包括:
确定单元,用于确定基于客户端输入的目标文本;
获取单元,用于获取待推荐表情元素对应的表情标签;
计算单元,用于获取所述目标文本与所述表情标签的相似度;
推荐单元,用于基于所述相似度,从所述待推荐表情元素中选取目标表情元素进行表情推荐,所述目标表情元素包括:与所述目标文本非完全相同的表情标签对应的表情元素。
一方面,本发明实施例提供一种表情推荐装置,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现本发明实施例提供的表情推荐方法。
本发明实施例提供一种存储介质,存储有可执行指令,用于引起处理器执行时,实现本发明实施例提供的表情推荐方法。
本发明实施例具有以下有益效果:
1)对目标表情元素的选取基于用户输入的目标文本,使得选取的进行推荐的表情元素与用户当前的互动场景相适配,提高表情推荐的成功率;
2)通过计算用户输入的目标文本与各表情标签的相似度,实现基于相似度的目标表情元素的选取,所选取的目标表情元素中包括与目标文本非完全相同的表情标签对应的表情元素,扩大了可用于推荐的表情元素的可选范围,给用户提供了更大的表情选择空间,极大的提高了用户体验。
附图说明
图1为本发明实施例提供的进行表情推荐的界面示意图;
图2为本发明实施例提供的表情推荐***100的一个可选的架构示意图;
图3为本发明实施例提供的表情推荐装置的组成结构示意图;
图4为本发明实施例提供的表情推荐方法的流程示意图;
图5为本发明实施例提供的神经网络模型的原理示意图;
图6为本发明实施例提供的神经网络模型的结构示意图;
图7为本发明实施例提供的神经网络模型的结构示意图;
图8为本发明实施例提供的进行表情推荐的界面示意图;
图9为本发明实施例提供的表情推荐方法的流程示意图;
图10为本发明实施例提供的表情推荐方法的流程示意图;
图11为本发明实施例提供的神经网络模型训练的示意图;
图12为本发明实施例提供的表情推荐装置120的组成结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,所描述的实施例不应视为对本发明的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本发明实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本发明实施例的目的,不是旨在限制本发明。
对本发明实施例进行进一步详细说明之前,对本发明实施例中涉及的名词和术语进行说明,本发明实施例中涉及的名词和术语适用于如下的解释。
1)表情元素,即表情,在社交应用活跃之后,形成的一种流行文化,用以表达特定的情感,例如表达用户面部或姿态上所展现的情感;在实际应用中,表情可分为符号表情、静态图片表情、动态图片表情等,比如,表情可以以表达用户各种情绪的人脸为素材,或者以时下流行的明星、动漫、影视截图等为素材,再配上一系列相匹配的文字等。
2)表情标签,表情元素对应的文本描述,一般为一个词;在实际应用中,所显示的对应的表情可携带表情标签,结合表情及表情标签共同表达表情标签的语义内容,亦可仅通过表情表达该表情标签的语义内容。
3)分词,又称为切词,指的是将一个字符(包括汉字、字母、数字等)序列切分成一个个单独的词。
4)停用词,为提高表情推荐效率所过滤的对表情推荐不会产生作用的词;通常不具有明确意义(只有将其放入一个完整的句子中才有一定作用),例如,代词、冠词、副词、介词和连词等。
5)响应于,用于表示所执行的操作所依赖的条件或者状态,当满足所依赖的条件或状态时,所执行的一个或多个操作可以是实时的,也可以具有设定的延迟;在没有特别说明的情况下,所执行的多个操作不存在执行先后顺序的限制。
在一些实施例中,用户基于社交客户端(如微信、QQ)进行互动时,如通过微信聊天,用户基于客户端输入聊天内容,客户端将用户输入的词语与表情包中各个表情对应的标签进行匹配,确定与输入的词语完全相同的标签所对应的表情,然后将确定的表情推荐给用户。图1为本发明实施例提供的进行表情推荐的界面示意图,参见图1,当用户基于当前的聊天客户端输入“开心”时,客户端通过词语匹配得到相应的表情进行推荐。然而,用户往往无法记住每一个表情所对应的表情标签,如当用户在互动过程中想表达感谢,输入“感谢”时,采用上述表情推荐方式便无法匹配到表情标签为“谢谢”的表情,表情推荐局限性很大,无法给用户提供更多的表情选择,用户体验低。
在一些实施例中,用户基于客户端进行互动时,用户在客户端中输入文本,客户端确定用户输入的目标文本,获取待推荐表情元素对应的表情标签,表情标签与待推荐表情元素存在一一对应关系;获取目标文本与各表情标签的相似度;基于相似度,从待推荐表情元素中选取目标表情元素进行表情推荐,目标表情元素至少包括:与目标文本非完全相同的表情标签对应的表情元素。如此,扩大了可用于推荐的表情元素的可选范围,给用户提供了更大的表情选择空间,极大的提高了用户体验。
接下来对本发明实施例提供的表情推荐***、装置及方法分别进行说明。
图2为本发明实施例提供的表情推荐***100的一个可选的架构示意图,参见图2,为实现支撑一个示例性应用,终端(包括终端400-1和终端400-2)上设置有供用户社交互动的客户端,终端通过网络300连接服务器200,网络300可以是广域网或者局域网,又或者是二者的组合,使用无线链路实现数据传输。
终端(终端400-1和/或终端400-2),用于确定基于客户端输入的目标文本,以及获取待推荐表情元素对应的表情标签,所述表情标签与所述待推荐表情元素存在一一对应关系;
服务器200,用于计算所述目标文本与各所述表情标签的相似度,并返回相似度计算结果给终端;
所述终端,还用于基于相似度计算结果,从所述待推荐表情元素中选取目标表情元素进行表情推荐,所述目标表情元素至少包括:与所述目标文本非完全相同的表情标签对应的表情元素。
在一些实施例中,终端中设置的客户端可将输入的目标文本,及获取的待推荐表情元素对应的表情标签发送给服务器,所述表情标签与所述待推荐表情元素存在一一对应关系;服务器分别计算所述目标文本与各所述表情标签的相似度,并返回相似度计算结果给客户端;客户端基于相似度计算结果,从所述待推荐表情元素中选取目标表情元素进行表情推荐,所述目标表情元素至少包括:与所述目标文本非完全相同的表情标签对应的表情元素。
接下来对本发明实施例提供的表情推荐装置进行说明。本发明实施例的表情推荐装置可以以各种形式来实施,如:由智能手机、平板电脑和台式机等终端或服务器单独实施,或者由终端、服务器协同实施。本发明实施例提供的表情推荐装置可以实施为硬件或者软硬件结合的方式,下面说明本发明实施例提供的装置的各种示例性实施。
下面对本发明实施例的表情推荐装置的硬件结构做详细说明,图3为本发明实施例提供的表情推荐装置的组成结构示意图,可以理解,图3仅仅示出了表情推荐装置的示例性结构而非全部结构,根据需要可以实施图3示出的部分结构或全部结构。
本发明实施例提供的表情推荐装置20包括:至少一个处理器201、存储器202、用户接口203和至少一个网络接口204。表情推荐装置20中的各个组件通过总线***205耦合在一起。可以理解,总线***205用于实现这些组件之间的连接通信。总线***205除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图3中将各种总线都标为总线***205。
其中,用户接口203可以包括显示器、键盘、鼠标、轨迹球、点击轮、按键、按钮、触感板或者触摸屏等。
可以理解,存储器202可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Programmable Read-Only Memory)、闪存(Flash Memory)等。易失性存储器可以是随机存取存储器(RAM,Random Access Memory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,StaticRandom Access Memory)、同步静态随机存取存储器(SSRAM,Synchronous Static RandomAccess Memory)。本发明实施例描述的存储器202旨在包括这些和任意其它适合类型的存储器。
本发明实施例中的存储器202能够存储数据以支持终端(如400-1)的操作。这些数据的示例包括:用于在终端(如400-1)上操作的任何计算机程序,如操作***和应用程序。其中,操作***包含各种***程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序可以包含各种应用程序。
作为本发明实施例提供的方法采用软硬件结合实施的示例,本发明实施例所提供的方法可以直接体现为由处理器201执行的软件模块组合,软件模块可以位于存储介质中,存储介质位于存储器202,处理器201读取存储器202中软件模块包括的可执行指令,结合必要的硬件(例如,包括处理器201以及连接到总线205的其他组件)完成本发明实施例提供的表情推荐方法。
作为示例,处理器201可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
作为本发明实施例提供的表情推荐方法采用硬件实施的示例,本发明实施例所提供的方法可以直接采用硬件译码处理器形式的处理器201来执行完成,例如,被一个或多个应用专用集成电路(ASIC,Application Specific Integrate d Circuit)、DSP、可编程逻辑器件(PLD,Programmable Logic Device)、复杂可编程逻辑器件(CPLD,ComplexProgrammable Logic Device)、现场可编程门阵列(FPGA,Field-Programmable GateArray)或其他电子元件执行实现本发明实施例提供的方法。
本发明实施例中的存储器202用于存储各种类型的数据以支持表情推荐装置20的操作。这些数据的示例包括:用于在表情推荐装置20上操作的任何可执行指令,如可执行指令,实现本发明实施例的表情推荐方法的程序可以包含在可执行指令中。
接下来对本发明实施例提供的表情推荐方法进行说明。图4是本发明实施例提供的表情推荐方法的流程示意图,在一些实施例中,该表情推荐方法可由终端实施,如通过图2中的终端400-1实施,参见图4,本发明实施例提供的表情推荐方法包括:
步骤301:终端确定基于客户端输入的目标文本。
在实际应用中,终端上设置有社交应用的客户端,如即时通讯客户端(微信/QQ)、微博客户端等,客户端本地存储有至少一个表情元素,每个表情元素存在对应的一个或多个表情标签,用户可通过客户端进行互动,通过客户端输入互动的文本信息。
在一些实施例中,终端可通过如下方式确定基于客户端输入的目标文本,包括:终端获取分词词库,该分词词库至少包括待推荐表情元素对应的表情标签;基于分词词库,对基于客户端输入的文本进行分词处理,得到相应的词序列;选取词序列中最后一个词作为目标文本。
在实际实施时,用于对输入的文本进行分词的分词词库还可包括预设的分词词库,如包括Jieba词库,结合预设的分词词库及待推荐表情元素对应的表情标签对输入的文本进行分词,能够贴合用户的用语习惯更好的进行分词,提高对一些新词和网络词分词的识别,进而更准确的进行表情推荐。例如:用户基于客户端输入的文本为“666,今天真的太开森”,在该输入文本中“666”及“开森”为网络用语,若采用的分词词库中未包含表情元素对应的表情标签,则得到的分词结果为“6|6|6|,|今天|真的|太|开|森”,基于该分词结果得到的用户输入的最后一个词,终端显然无法匹配及推荐合适的表情,采用本发明实施例提供的上述分词词库进行文本分词后得到的结果为“666|,|今天|真的|太|开森”,显然分词更为准确。
在一些实施例中,终端在采用分词词库对输入的文本进行分词前,还包括构造分词词库的操作,在实际应用中,终端获取终端本地存储的表情元素,确定存储的表情元素所对应的表情标签,将确定的表情标签加入预设分词词库(如Jieba词库),形成上述用于对输入的文本进行分词的分词词库。
在一些实施例中,终端在基于分词词库对用户输入的文本进行分词之后,还可基于所构造的分词词库进行停用词的过滤,进一步实现对用于进行目标表情元素选取的目标文本的筛选;例如,对于分词结果“666|,|今天|真的|太|开森|了”在过滤停用词前的最后一个词为“了”,而过滤停用词后的最后一个词为“开森”,如此,提高了确定目标文本的准确度。
步骤302:终端获取待推荐表情元素对应的表情标签。
在一些实施例中,终端中存储了多个表情元素,存储的多个表情元素作为待推荐表情元素,每个待推荐表情元素对应至少一个表情标签,在一些实施例中,表情标签与待推荐表情元素存在一一对应关系,如某待推荐表情元素对应的表情标签为“开心”,在另一些实施例中,一个待推荐表情元素对应两个或两个以上的表情标签,如某待推荐表情元素对应的表情标签为“感谢”和“谢谢”。
步骤303:终端计算目标文本与表情标签的相似度。
在一些实施例中,终端可通过训练得到的神经网络模型计算目标文本与各表情标签的相似度,具体地,可通过如下方式计算目标文本与各表情标签的相似度:终端将目标文本输入神经网络模型,得到对应的语义向量,获取各表情标签对应的标签向量;分别计算得到的语义向量与各标签向量的夹角余弦值,得到目标文本与各表情标签的相似度;其中,神经网络模型基于目标用户的历史输入文本及预设的第一训练样本集合训练得到。
在实际实施时,终端可通过如下方式训练上述神经网络模型:初始化神经网络模型包括的输入层、中间层及输出层;构建第二训练样本集合,第二训练样本集合包括:历史输入文本中的第一样本词及相应的第一语义向量,由预设的第二样本词及相应的第二语义向量构成的第一训练样本集合;终端分别以第一样本词及第二样本词作为输入,以相应的第一语义向量及第二语义向量作为输出,训练神经网络模型根据输入的文本输出对应语义向量的性能。
这里,对神经网络模型根据输入的文本输出对应语义向量的性能的训练进行说明,在一些实施例中,可通过如下方式实施:构建对应神经网络模型的损失函数,基于所构建的损失函数确定神经网络模型的误差信号,将所述误差信号在神经网络模型中反向传播,并在传播的过程中更新各个层的模型参数。在实际应用中,损失函数可以为神经网络模型输出的语义向量所对应的文本的条件概率。
这里对反向传播进行说明,将训练样本数据输入到神经网络模型的输入层,经过隐藏层,最后达到输出层并输出结果,这是神经网络模型的前向传播过程,由于神经网络模型的输出结果与实际结果有误差,则计算输出结果与实际值之间的误差,并将该误差从输出层向隐藏层反向传播,直至传播到输入层,在反向传播的过程中,根据误差调整模型参数的值;不断迭代上述过程,直至收敛。
历史输入文本中的第一样本词为将目标用户的历史输入文本分词得到,由于用户间互动的文本信息同一般的文章相比更生活化,有很多俗语化的表达,以及一些家乡话的表达,如此,将用户的历史输入文本用作神经网络模型训练的数据,能够提高词向量的语义关联度,更加贴合用户的互动(聊天)场景;在实际应用中,可能存在用户的历史输入文本较少,使得模型训练数据不足的情况,因此,可预设训练好的词(第二样本词)及相应的词向量(第二语义向量)作为本发明实施例中神经网络模型的训练样本,避免模型训练数据不足的情况出现,预设的第二样本词及相应的第二语义向量可基于网络中的“百科”,“新闻文章”等得到。
图5为本发明实施例提供的神经网络模型的原理示意图,参见图5,通过神经网络模型实现根据给定的输入文本预测上下文,具体地可通过输入一个单词xk,输出窗口大小C中各个单词的概率。例如,对于句子“I drive my car to the store”,若“car”为样本词,即作为训练输入数据,相应的,单词组{“I”,“drive”,“my”,“to”,“the”,“store”}则为输出。
图6为本发明实施例提供的神经网络模型的结构示意图,参见图6,神经网络模型包括输入层、隐藏层及输出层,在实际实施时,由于字符串无法直接作为模型的输入输出,因此,在将文本(词)输入神经网络模型前需要对输入文本进行独热码编码,得到对应输入文本的独热码,也即将输入单词表示成一个one-hot向量,参见图6,向量的维度为用于训练神经网络模型的词典的单词量,例如,若训练词典中包含1000个单词,那么单词编码为1000维的,单词对应的位置的值为1,其它位置为0,在实际应用中,隐藏层对输入向量进行特征提取,隐藏层的行数为1000,列数为特征数。
图7为本发明实施例提供的神经网络模型的结构示意图,参见图7,输入向量x代表某个单词的独热码,V为对应输入向量的维度,对应的输出向量{y1…yC},输入层与隐藏层之间的权重矩阵W的第i行代表词表中第i个单词的权重,每个输出单词向量有N×V维的输出向量W‘,输出层中的每个单词均共享权重,对于softmax函数对应的输出层,产生第C个单词的多项式分布,即该值为第C个输出单词的第j个节点的概率大小如下公式:
其中,其中Wc,j表示输出层的第c个面板的第j个单词;WO,c为输出上下文的第c个单词;WI是唯一的输入单词;yc,j是输出层第c个面板上第j个神经元节点的输出值(概率);uc,j输是出层在第c个面板上第j个节点的输出值,输出层的所有面板共享同一权值矩阵;其中,面板为输出层的表示每个上下文单词的神经元的组合。
在一些实施例中,为了提高对神经网络模型的训练速度,可以采用“负采样”的方法,不同于原本每个训练样本更新所有的权重,负采样每次让一个训练样本仅仅更新一小部分的权重,当输入的词为一对目标词-上下文时,标签设置为1(这里的上下文也是一个词),另外任意取k对目标词-非上下文作为负样本,标签设置为0,如此能够降低梯度下降过程中的计算量。
需要说明的是,在一些实施例中,目标文本与表情标签相似度的计算亦可由服务器执行。
步骤304:终端基于相似度计算结果,从待推荐表情元素中选取目标表情元素进行表情推荐,目标表情元素包括:与目标文本非完全相同的表情标签对应的表情元素。
这里,对目标表情元素所包括的表情元素进行说明,在一实施例中,目标表情元素至少包括与目标文本非完全相同的表情标签对应的表情元素,也即,至少包括与目标文本的相似度小于1的表情标签所对应的表情元素,在实际应用中,目标表情元素中,与目标文本的相似度小于1的表情标签所对应的表情元素可以有多个,如此为用户提供了更大的表情选择空间,当然,在另一实施例中,目标表情元素还可包括与目标文本完全相同的表情标签对应的表情元素,也即,包括与目标文本的相似度等于1的表情标签所对应的表情元素,如此,为用户提供与输入文本的契合度最高的表情,提高用户体验。
在一些实施例中,终端可通过如下方式实现目标表情元素的选取及推荐:
基于相似度计算结果,确定与目标文本的相似度达到相似度阈值的表情标签,将确定的表情标签对应的待推荐表情元素作为目标表情元素;采用第一显示方式,通过客户端呈现目标表情元素。
这里,相似度阈值的大小可基于实际需要进行设定,在实际应用中,与目标文本的相似度达到相似度阈值的表情标签可以有多个,例如,目标文本为“高兴”,与目标文本的相似度达到相似度阈值的表情标签包括如下:“开心”,相应的相似度为0.7313591241836548;“激动”,相应的相似度为0.5977063179016113;“欣慰”,相应的相似度为0.5703485012054443;“兴奋”,相应的相似度为0.5697213411331177;“哈哈”,相应的相似度为0.5673317909240723;“幸福”,相应的相似度为0.5251850485801697;当预设的相似度阈值为0.57时,选取表情标签为“开心”、“激动”、“欣慰”所分别对应的待推荐表情元素作为目标表情元素。在实际应用中,第一显示方式对应目标表情元素的显示效果,如悬浮显示、移动显示、静态显示、预设透明度显示等,图8为本发明实施例提供的进行表情推荐的界面示意图,参见图8,终端基于用户输入的“高兴”,进行相似度计算后不存在与“高兴”完全相同的表情标签,取相似度大于阈值的表情标签对应的表情元素,推荐的表情分别为“开心”、“激动”、“欣慰”。
在一些实施例中,终端还可通过如下方式实现目标表情元素的选取及推荐:
基于相似度计算结果,按照相似度的高低对待推荐表情元素进行排序,得到待推荐表情元素序列;从待推荐表情元素序列中第一个待推荐表情元素开始,选取预设数量的待推荐表情元素作为目标表情元素;采用第二显示方式,通过客户端呈现目标表情元素。也即,在选取目标表情元素的过程中不去考虑具体的相似度的值,无论是否存在与目标文本的相似度大于阈值的表情标签,均选取预设数量的待推荐表情元素进行推荐,如此,给用户提供更大的表情选择空间,引导用户进行表情使用,用户体验好。
在一些实施例中,本发明实施例的表情推荐方法还可由终端、服务器协同实施,如通过图2中的终端400-1及服务器200实施,终端上设置有用于即时通讯的客户端,图9是本发明实施例提供的表情推荐方法的流程示意图,参见图9,本发明实施例提供的表情推荐方法包括:
步骤401:客户端接收到目标用户输入的文本。
这里,目标用户基于客户端进行聊天互动,基于客户端显示的文本输入框输入文本(即聊天内容),例如,目标用户输入“我好激动”。
步骤402:客户端选取文本中最后一个词作为目标词。
在实际实施时,客户端通过如下方式实现目标词的选取:
客户端获取包含多个表情标签及预设词库的分词词库,基于获取的分词词库对输入从文本进行分词,并过滤停用词,得到词序列,选取词序列中最后一个词为目标词。这里所述的分词词库中的表情标签为客户端本地存储的表情元素所对应的表情标签。
步骤403:客户端获取本地存储的表情元素所对应的表情标签。
在一些实施例中,表情元素与表情标签为一一对应关系,每个表情元素对应一个表情标签。
步骤404:客户端发送相似度计算请求给服务器。
在实际实施时,相似度计算请求中携带目标词及获取的表情标签,用于请求服务器计算目标词与各个表情标签的相似度。
步骤405:服务器分别获取对应目标词的词向量及对应表情标签的标签向量。
在实际实施时,服务器将目标词输入训练得到的神经网络模型,输出对应的词向量;神经网络模型基于目标用户的历史输入文本及预设的训练样本集合训练得到,该神经网络模型的训练过程参见前述记载,此处不做赘述。在一些实施例中,服务器中存储了表情标签与标签向量的映射表,通过索引表情标签可得到相应的标签向量。
步骤406:服务器计算目标词与各表情标签的相似度,返回相似度结果给客户端。
这里,在实际实施时,服务器通过分别计算词向量与各标签向量的夹角余弦值,得到目标词与各表情标签的相似度。
步骤407:客户端确定与目标词的相似度达到相似度阈值的表情标签。
在实际应用中,相似度阈值可依据实际需要进行设定。
步骤408:客户端采用悬浮显示方式呈现确定的表情标签所对应的表情元素。
图10是本发明实施例提供的表情推荐方法的流程示意图,参见图10,以用户通过即时通讯客户端进行聊天为应用场景,当用户输入聊天文本后,通过进行文本分词,获取最近的一个词,并获取该词对应的词向量,计算该词向量与表情标签的余弦相似度,按相似度从高到低排序,选取大于“阈值”的表情标签,获取选取的表情标签对应的表情并推荐给用户,以实现对用户的表情推荐。
基于图10,其中,步骤S1,即词向量的获取,具体可通过训练得到的神经网络模型得到,而该神经网络模型的训练可参见图11,图11为本发明实施例提供的模型训练的示意图,模型的训练样本包括用户的历史聊天文本信息及预先训练好的词向量,接下来基于图11分别对各个操作进行说明。
在步骤S2中,因为中文不同于英文的特殊性,在构造词向量之前,需要对文本进行分词,一个好的分词效果能很大程度上提高词向量训练的效果。所以除了使用默认“Jieba分词”字典以外,我们把本地表情对应的标签也作为一个词,加载到分词工具中,能提高对一些新词和网络词分词的识别。例如:句子“666,今天真的太开森了”,不加载表情标签的分词效果为:“6|6|6|,|今天|真的|太|开|森|了”,加载表情文本后的分词效果:“666|,|今天|真的|太|开森|了”。
在步骤S3中,对词向量进行初始化。为了防止用户聊天信息不多时缺乏训练数据,可以预载入一些已经训练好的模型,这些模型训练的数据一般基于网上的“百科”,“新闻文章”等,而因为聊天的文本信息同一般的文章相比更生活化,有很多俗语化的表达,此外还有一些基于家乡话的表达,所以才需要在已有的词向量模型上,追加本地聊天信息进行进一步的词向量训练,以提高词向量的语义关联度,更加贴合用户的聊天场景。
S4是词向量的训练模型,该模型是以当前词预测上下文,其神经网络结构参见图6,对于模型的训练参见前述记载,这里不做赘述。
应用本发明上述实施例在原有中文分词的基础上,追加了表情标签作为分词字典的一部分,可以更好的对文本分词,尤其在一些新词或者表情中常出现的词有更好的分词表现;相比于要基于用户大量数据历史聊天信息的深度学习推荐,而有可能导致侵犯隐私的可能,基于词向量的训练,可以建立在已有的大规模词向量集上,补充性的在本地加载用户历史聊天信息训练,而这些补充部分,可以更好地体现一些用户个性化的表达。
继续对本发明实施例提供的表情推荐装置的软件实施进行说明,图12为本发明实施例提供的表情推荐装置120的组成结构示意图,参见图12,本发明实施例提供的表情推荐装置120包括:
确定单元121,用于确定基于客户端输入的目标文本;
获取单元122,用于获取待推荐表情元素对应的表情标签;
计算单元123,用于计算所述目标文本与所述表情标签的相似度;
推荐单元124,用于基于相似度计算结果,从所述待推荐表情元素中选取目标表情元素进行表情推荐,所述目标表情元素至少包括:与所述目标文本非完全相同的表情标签对应的表情元素。
在一些实施例中,所述确定单元,还用于获取分词词库,所述分词词库至少包括所述待推荐表情元素对应的表情标签;
基于所述分词词库,对基于所述客户端输入的文本进行分词处理,得到相应的词序列;
选取所述词序列中最后一个输入的词作为所述目标文本。
在一些实施例中,所述推荐单元,还用于基于相似度计算结果,确定与所述目标文本的相似度达到相似度阈值的表情标签,将确定的表情标签对应的待推荐表情元素作为所述目标表情元素;
采用第一显示方式,通过所述客户端呈现所述目标表情元素。
在一些实施例中,所述推荐单元,还用于基于相似度计算结果,按照相似度的高低对所述待推荐表情元素进行排序,得到待推荐表情元素序列;
从所述待推荐表情元素序列中第一个待推荐表情元素开始,选取预设数量的待推荐表情元素作为所述目标表情元素;
采用第二显示方式,通过所述客户端呈现所述目标表情元素。
在一些实施例中,所述计算单元,还用于将所述目标文本输入神经网络模型,得到对应的语义向量;所述神经网络模型基于目标用户的历史输入文本及预设的第一训练样本集合训练得到;
获取各所述表情标签对应的标签向量;
分别计算所述语义向量与各所述标签向量的夹角余弦值,得到所述目标文本与各所述表情标签的相似度。
在一些实施例中,所述装置还包括训练单元;
所述训练单元,用于构建第二训练样本集合,所述第二训练样本集合包括:所述历史输入文本中的第一样本词及相应的第一语义向量,由预设的第二样本词及相应的第二语义向量构成的所述第一训练样本集合;
分别以所述第一样本词及所述第二样本词作为输入,以相应的第一语义向量及第二语义向量作为输出,训练所述神经网络模型根据输入的文本输出对应语义向量的性能。
在一些实施例中,所述计算单元,还用于对所述目标文本进行独热码编码,得到对应所述目标文本的独热码;
将所述独热码输入所述神经网络模型,输出用于表征所述目标文本语义的语义向量。
这里需要指出的是:以上涉及表情推荐装置的描述,与上述方法描述是类似的,同方法的有益效果描述,不做赘述,对于本发明实施例所述表情推荐装置中未披露的技术细节,请参照本发明表情推荐方法实施例的描述。
本发明实施例还提供一种存储有可执行指令的存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本发明实施例提供的表情推荐方法,例如,如图4示出的表情推荐方法。
在一些实施例中,存储介质可以是FRAM、ROM、PROM、EPROM、EE PROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件***中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(H TML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
以上所述,仅为本发明的实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本发明的保护范围之内。
Claims (15)
1.一种表情推荐方法,其特征在于,所述方法包括:
确定基于客户端输入的目标文本;
获取待推荐表情元素对应的表情标签;
获取所述目标文本与所述表情标签的相似度;
基于所述相似度,从所述待推荐表情元素中选取目标表情元素进行表情推荐,所述目标表情元素包括:与所述目标文本非完全相同的表情标签对应的表情元素。
2.如权利要求1所述的方法,其特征在于,所述确定基于客户端输入的目标文本,包括:
获取分词词库,所述分词词库至少包括所述待推荐表情元素对应的表情标签;
基于所述分词词库,对基于所述客户端输入的文本进行分词处理,得到相应的词序列;
选取所述词序列中最后一个词作为所述目标文本。
3.如权利要求1所述的方法,其特征在于,所述基于所述相似度,从所述待推荐表情元素中选取目标表情元素进行表情推荐,包括:
基于所述相似度,确定与所述目标文本的相似度达到相似度阈值的表情标签,将确定的表情标签对应的待推荐表情元素作为所述目标表情元素;
采用第一显示方式,通过所述客户端呈现所述目标表情元素。
4.如权利要求1所述的方法,其特征在于,所述基于所述相似度,从所述待推荐表情元素中选取目标表情元素进行表情推荐,包括:
基于所述相似度,按照相似度的高低对所述待推荐表情元素进行排序,得到待推荐表情元素序列;
从所述待推荐表情元素序列中第一个待推荐表情元素开始,选取预设数量的待推荐表情元素作为所述目标表情元素;
采用第二显示方式,通过所述客户端呈现所述目标表情元素。
5.如权利要求1所述的方法,其特征在于,所述获取所述目标文本与所述表情标签的相似度,包括:
将所述目标文本输入神经网络模型,得到对应的语义向量;所述神经网络模型基于目标用户的历史输入文本及预设的第一训练样本集合训练得到;
获取各所述表情标签对应的标签向量;
分别获取所述语义向量与各所述标签向量的夹角余弦值,得到所述目标文本与各所述表情标签的相似度。
6.如权利要求5所述的方法,其特征在于,所述方法还包括:
构建第二训练样本集合,所述第二训练样本集合包括:所述历史输入文本中的第一样本词及相应的第一语义向量,由预设的第二样本词及相应的第二语义向量构成的所述第一训练样本集合;
分别以所述第一样本词及所述第二样本词作为输入,以相应的第一语义向量及第二语义向量作为输出,训练所述神经网络模型根据输入的文本输出对应语义向量的性能。
7.如权利要求5所述的方法,其特征在于,所述将所述目标文本输入神经网络模型,得到对应的语义向量,包括:
对所述目标文本进行独热码编码,得到对应所述目标文本的独热码;
将所述独热码输入所述神经网络模型,输出用于表征所述目标文本语义的语义向量。
8.一种表情推荐装置,其特征在于,所述装置包括:
确定单元,用于确定基于客户端输入的目标文本;
获取单元,用于获取待推荐表情元素对应的表情标签;
计算单元,用于获取所述目标文本与所述表情标签的相似度;
推荐单元,用于基于所述相似度,从所述待推荐表情元素中选取目标表情元素进行表情推荐,所述目标表情元素包括:与所述目标文本非完全相同的表情标签对应的表情元素。
9.如权利要求8所述的装置,其特征在于,
所述确定单元,用于获取分词词库,所述分词词库至少包括所述待推荐表情元素对应的表情标签;
基于所述分词词库,对基于所述客户端输入的文本进行分词处理,得到相应的词序列;
选取所述词序列中最后一个词作为所述目标文本。
10.如权利要求8所述的装置,其特征在于,
所述推荐单元,用于基于所述相似度,确定与所述目标文本的相似度达到相似度阈值的表情标签,将确定的表情标签对应的待推荐表情元素作为所述目标表情元素;
采用第一显示方式,通过所述客户端呈现所述目标表情元素。
11.如权利要求8所述的装置,其特征在于,
所述推荐单元,用于基于所述相似度,按照相似度的高低对所述待推荐表情元素进行排序,得到待推荐表情元素序列;
从所述待推荐表情元素序列中第一个待推荐表情元素开始,选取预设数量的待推荐表情元素作为所述目标表情元素;
采用第二显示方式,通过所述客户端呈现所述目标表情元素。
12.如权利要求8所述的装置,其特征在于,
所述计算单元,用于将所述目标文本输入神经网络模型,得到对应的语义向量;所述神经网络模型基于目标用户的历史输入文本及预设的第一训练样本集合训练得到;
获取各所述表情标签对应的标签向量;
分别获取所述语义向量与各所述标签向量的夹角余弦值,得到所述目标文本与各所述表情标签的相似度。
13.如权利要求12所述的装置,其特征在于,所述装置还包括训练单元;
所述训练单元,用于构建第二训练样本集合,所述第二训练样本集合包括:所述历史输入文本中的第一样本词及相应的第一语义向量,由预设的第二样本词及相应的第二语义向量构成的所述第一训练样本集合;
分别以所述第一样本词及所述第二样本词作为输入,以相应的第一语义向量及第二语义向量作为输出,训练所述神经网络模型根据输入的文本输出对应语义向量的性能。
14.一种表情推荐装置,其特征在于,所述装置包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至7任一项所述的表情推荐方法。
15.一种存储介质,其特征在于,所述存储介质存储有可执行指令,用于引起处理器执行时,实现权利要求1至7任一项所述的表情推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910267896.2A CN110162191A (zh) | 2019-04-03 | 2019-04-03 | 一种表情推荐方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910267896.2A CN110162191A (zh) | 2019-04-03 | 2019-04-03 | 一种表情推荐方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110162191A true CN110162191A (zh) | 2019-08-23 |
Family
ID=67638473
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910267896.2A Pending CN110162191A (zh) | 2019-04-03 | 2019-04-03 | 一种表情推荐方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110162191A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110619357A (zh) * | 2019-08-29 | 2019-12-27 | 北京搜狗科技发展有限公司 | 一种图片处理方法、装置和电子设备 |
CN111460177A (zh) * | 2020-03-27 | 2020-07-28 | 北京奇艺世纪科技有限公司 | 影视类表情搜索方法、装置、存储介质、计算机设备 |
CN111507104A (zh) * | 2020-03-19 | 2020-08-07 | 北京百度网讯科技有限公司 | 建立标签标注模型的方法、装置、电子设备和可读存储介质 |
CN111931494A (zh) * | 2020-08-10 | 2020-11-13 | 北京字节跳动网络技术有限公司 | 用于生成预测信息的方法、装置、电子设备和介质 |
CN112748974A (zh) * | 2020-08-05 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 基于会话的信息展示方法、装置、设备及存储介质 |
CN112905079A (zh) * | 2019-11-19 | 2021-06-04 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和介质 |
CN113204703A (zh) * | 2021-05-10 | 2021-08-03 | 北京明略昭辉科技有限公司 | 一种物料推荐方法、装置、设备和存储介质 |
CN113674008A (zh) * | 2020-05-14 | 2021-11-19 | 北京达佳互联信息技术有限公司 | 定向标签推荐方法、装置、服务器及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110026218A (ko) * | 2009-09-07 | 2011-03-15 | 동국대학교 산학협력단 | 문자 메시지 입력 장치 및 방법 그리고 그를 위한 프로그램을 기록한 기록 매체 |
CN104063427A (zh) * | 2014-06-06 | 2014-09-24 | 北京搜狗科技发展有限公司 | 一种基于语义理解的表情输入方法和装置 |
CN106095983A (zh) * | 2016-06-20 | 2016-11-09 | 北京百度网讯科技有限公司 | 一种基于个性化深度神经网络的相似度确定方法及装置 |
CN106888158A (zh) * | 2017-02-28 | 2017-06-23 | 努比亚技术有限公司 | 一种即时通信方法和装置 |
CN107423277A (zh) * | 2016-02-16 | 2017-12-01 | 中兴通讯股份有限公司 | 一种表情输入方法、装置及终端 |
-
2019
- 2019-04-03 CN CN201910267896.2A patent/CN110162191A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110026218A (ko) * | 2009-09-07 | 2011-03-15 | 동국대학교 산학협력단 | 문자 메시지 입력 장치 및 방법 그리고 그를 위한 프로그램을 기록한 기록 매체 |
CN104063427A (zh) * | 2014-06-06 | 2014-09-24 | 北京搜狗科技发展有限公司 | 一种基于语义理解的表情输入方法和装置 |
CN107423277A (zh) * | 2016-02-16 | 2017-12-01 | 中兴通讯股份有限公司 | 一种表情输入方法、装置及终端 |
CN106095983A (zh) * | 2016-06-20 | 2016-11-09 | 北京百度网讯科技有限公司 | 一种基于个性化深度神经网络的相似度确定方法及装置 |
CN106888158A (zh) * | 2017-02-28 | 2017-06-23 | 努比亚技术有限公司 | 一种即时通信方法和装置 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110619357A (zh) * | 2019-08-29 | 2019-12-27 | 北京搜狗科技发展有限公司 | 一种图片处理方法、装置和电子设备 |
CN110619357B (zh) * | 2019-08-29 | 2022-03-04 | 北京搜狗科技发展有限公司 | 一种图片处理方法、装置和电子设备 |
CN112905079A (zh) * | 2019-11-19 | 2021-06-04 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和介质 |
CN112905079B (zh) * | 2019-11-19 | 2022-12-13 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和介质 |
CN111507104A (zh) * | 2020-03-19 | 2020-08-07 | 北京百度网讯科技有限公司 | 建立标签标注模型的方法、装置、电子设备和可读存储介质 |
US11531813B2 (en) | 2020-03-19 | 2022-12-20 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method, electronic device and readable storage medium for creating a label marking model |
CN111460177B (zh) * | 2020-03-27 | 2023-12-15 | 北京奇艺世纪科技有限公司 | 影视类表情搜索方法、装置、存储介质、计算机设备 |
CN111460177A (zh) * | 2020-03-27 | 2020-07-28 | 北京奇艺世纪科技有限公司 | 影视类表情搜索方法、装置、存储介质、计算机设备 |
CN113674008A (zh) * | 2020-05-14 | 2021-11-19 | 北京达佳互联信息技术有限公司 | 定向标签推荐方法、装置、服务器及存储介质 |
CN112748974A (zh) * | 2020-08-05 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 基于会话的信息展示方法、装置、设备及存储介质 |
CN112748974B (zh) * | 2020-08-05 | 2024-04-16 | 腾讯科技(深圳)有限公司 | 基于会话的信息展示方法、装置、设备及存储介质 |
CN111931494A (zh) * | 2020-08-10 | 2020-11-13 | 北京字节跳动网络技术有限公司 | 用于生成预测信息的方法、装置、电子设备和介质 |
US11842163B2 (en) | 2020-08-10 | 2023-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Method and apparatus for generating prediction information, and electronic device and medium |
CN113204703A (zh) * | 2021-05-10 | 2021-08-03 | 北京明略昭辉科技有限公司 | 一种物料推荐方法、装置、设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110162191A (zh) | 一种表情推荐方法、装置及存储介质 | |
US9934515B1 (en) | Content recommendation system using a neural network language model | |
CN104781813B (zh) | 用于结构化搜索查询的语法模型 | |
US11487946B2 (en) | Content editing using content modeling and semantic relevancy scoring | |
CN112632385A (zh) | 课程推荐方法、装置、计算机设备及介质 | |
CN111090756B (zh) | 基于人工智能的多目标推荐模型的训练方法及装置 | |
CN113011186B (zh) | 命名实体识别方法、装置、设备及计算机可读存储介质 | |
US10223440B2 (en) | Question and answer system emulating people and clusters of blended people | |
CN116010684A (zh) | 物品推荐方法、装置及存储介质 | |
CN111414561B (zh) | 用于呈现信息的方法和装置 | |
CN111950593A (zh) | 一种推荐模型训练的方法及装置 | |
CN111931054B (zh) | 一种基于改进残差结构的序列推荐方法和*** | |
US9129216B1 (en) | System, method and apparatus for computer aided association of relevant images with text | |
CN109783824A (zh) | 基于翻译模型的翻译方法、装置及存储介质 | |
CN114175018A (zh) | 新词分类技术 | |
US11653071B2 (en) | Responsive video content alteration | |
CN114330704A (zh) | 语句生成模型更新方法、装置、计算机设备和存储介质 | |
CN117708428A (zh) | 推荐信息预测方法、装置以及电子设备 | |
CN116955591A (zh) | 用于内容推荐的推荐语生成方法、相关装置和介质 | |
CN116975254A (zh) | 可视化数据的呈现方法、装置和存储介质 | |
WO2022246162A1 (en) | Content generation using target content derived modeling and unsupervised language modeling | |
CN113869068A (zh) | 场景服务推荐方法、装置、设备及存储介质 | |
Yang | Analysis of top box office film poster marketing scheme based on data mining and deep learning in the context of film marketing | |
Mala et al. | Product response analytics in Facebook | |
CN113360615B (zh) | 基于知识图谱和时序特征的对话推荐方法、***及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |