CN109034203B - 表情推荐模型的训练、表情推荐方法、装置、设备及介质 - Google Patents

表情推荐模型的训练、表情推荐方法、装置、设备及介质 Download PDF

Info

Publication number
CN109034203B
CN109034203B CN201810695138.6A CN201810695138A CN109034203B CN 109034203 B CN109034203 B CN 109034203B CN 201810695138 A CN201810695138 A CN 201810695138A CN 109034203 B CN109034203 B CN 109034203B
Authority
CN
China
Prior art keywords
expression
log
model
expressions
text information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810695138.6A
Other languages
English (en)
Other versions
CN109034203A (zh
Inventor
王硕寰
孙宇
于佃海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201810695138.6A priority Critical patent/CN109034203B/zh
Publication of CN109034203A publication Critical patent/CN109034203A/zh
Application granted granted Critical
Publication of CN109034203B publication Critical patent/CN109034203B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种表情推荐模型的训练、表情推荐方法、装置、设备及介质。所述表情推荐模型的训练方法包括:根据至少两个用户的历史输入日志,构造表情推荐训练样本,所述表情推荐训练样本包括:文本信息,以及与所述文本信息对应的表情;使用所述表情推荐训练样本对设定机器学习模型进行训练,得到所述表情推荐模型。通过本发明实施例的技术方案,能够提高表情推荐模型的表情搜索效率以及使用泛化性。

Description

表情推荐模型的训练、表情推荐方法、装置、设备及介质
技术领域
本发明实施例涉及计算机应用技术领域,尤其涉及一种表情推荐模型的训练、表情推荐方法、装置、设备及介质。
背景技术
随着互联网技术的发展,越来越多的用户使用聊天软件或微博等进行交流。在进行文字交流的过程中,经常需要使用表情图像来进行表达,以使表达内容更加生动形象。
目前的主流聊天软件(类似于微信,QQ,百度Hi等),微型博客与兴趣社区(类似于百度贴吧,豆瓣,微博,Twitter)等会内置很多表情提供用户使用。但是由于内置的表情非常多,有的软件中甚至有多达上千个表情,使得用户在实际使用时很难检索,大量的内置表情没有人使用。
针对这一问题,有些软件中使用的表情推荐模型是根据表情的来源与风格来进行构建的,具体为对其内置的表情进行分页存储,使得用户在使用过程中,需先选择表情的来源与风格,再选择具体表情;还有些软件或者社区中使用的表情推荐模型是利用对每个表情标注上特定的关键词来进行构建的,使得只有当用户键入了与表情名称一致的关键词时,才能把表情推荐给用户。
现有技术的缺陷在于:第一种表情推荐模型,其分页存储的是同一种风格的表情,导致用户在使用的过程中,仍然需要查看每一个分页,寻找到合适的表情,模型搜索效率低下;第二种表情推荐模型,没有泛化性,例如标注的关键词为“谢谢”的表情,只有当用户输入的文本为“谢谢”时才会触发该表情推荐,且只推荐这一个关键词对应的表情,当用户输入的文本为“感谢”或者“thanks”等,则无法推荐相关的表情。
发明内容
本发明实施例提供了一种表情推荐模型的训练、表情推荐方法、装置、设备及介质,以实现提高表情推荐模型的表情搜索效率以及使用泛化性。
第一方面,本发明实施例提供了一种表情推荐模型的训练方法,包括:
根据至少两个用户的历史输入日志,构造表情推荐训练样本,所述表情推荐训练样本包括:文本信息,以及与所述文本信息对应的表情;
使用所述表情推荐训练样本对设定机器学习模型进行训练,得到所述表情推荐模型。
第二方面,本发明实施例还提供了一种表情推荐方法,该方法包括:
获取用户输入的文本信息;
将所述文本信息与至少两个备选表情分别输入至预先训练的表情推荐模型中,所述表情推荐模型的输入为文本以及表情,所述表情推荐模型的输出为所述文本与所述表情是否关联的结果;
根据所述表情推荐模型针对各所述备选表情的输出结果,在所述备选表情中确定出与所述文本信息对应的关联表情提供给所述用户。
第三方面,本发明实施例还提供了一种表情推荐模型的训练装置,包括:
样本构造模块,用于根据至少两个用户的历史输入日志,构造表情推荐训练样本,所述表情推荐训练样本包括:文本信息,以及与所述文本信息对应的表情;
模型训练模块,用于使用所述表情推荐训练样本对设定机器学习模型进行训练,得到所述表情推荐模型。
第四方面,本发明实施例还提供了一种表情推荐装置,该装置包括:
信息获取模块,用于获取用户输入的文本信息;
表情输入模块,用于将所述文本信息与至少两个备选表情分别输入至预先训练的表情推荐模型中,所述表情推荐模型的输入为文本以及表情,所述表情推荐模型的输出为所述文本与所述表情是否关联的结果;
表情确定模块,用于根据所述表情推荐模型针对各所述备选表情的输出结果,在所述备选表情中确定出与所述文本信息对应的关联表情提供给所述用户。
第五方面,本发明实施例还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序所述处理器执行所述程序时实现如本发明实施例所述的表情推荐模型的训练方法或候选文本排序方法。
第六方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所述的表情推荐模型的训练方法或候选文本排序方法。
本发明实施例通过使用至少两个用户的历史输入日志来构造表情推荐训练样本,并使用该表情推荐训练样本对设定机器学习模型进行训练,得到表情推荐模型。由于构造的表情推荐训练样本中,包含有从历史输入日志中提取的文本信息及其对应的表情,因此,使用该样本训练机器学习模型的过程中,能够学习文本信息与表情之间的关联性,从而使得到的表情推荐模型在使用时,能够根据用户输入文本的语义实时为用户推荐最合适的表情,提高了表情推荐模型的表情搜索效率以及使用泛化性。
附图说明
图1a是本发明实施例一提供的一种表情推荐模型的训练方法的流程示意图;
图1b是本发明实施例一适用的一种机器学习模型的结构示意图;
图2a是本发明实施例二提供的一种表情推荐模型的训练方法的流程示意图;
图2b是本发明实施例二适用的一种表情推荐训练流程示意图;
图3是本发明实施例三提供的一种表情推荐方法的流程示意图;
图4是本发明实施例四提供的一种表情推荐模型的训练装置的结构示意图;
图5是本发明实施例五提供的一种表情推荐装置的结构示意图;
图6是本发明实施例六提供的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
图1a为本发明实施例一提供的一种表情推荐模型的训练方法的流程示意图,本实施例可适用于对表情推荐模型进行训练的情况,该方法可以由本发明实施例提供的表情推荐模型的训练装置来执行,该装置可采用软件和/或硬件的方式实现,并一般可集成在服务器中。如图1a所示,本实施例的方法具体包括:
S110、根据至少两个用户的历史输入日志,构造表情推荐训练样本,表情推荐训练样本包括:文本信息,以及与文本信息对应的表情。
本实施例中,历史输入日志包括但不限于***中记录的至少两个用户的历史聊天数据、用户发布的博客以及用户评论的内容等。对应的,***可以为聊天软件,也可以为微型博客,还可以为兴趣社区等。具体的,可从获取的所有用户的历史输入日志中抽取有效文本及其对应的表情信息,来构造表情推荐训练样本。其中,文本与表情之间的对应关系可以是正相关,也可以是负相关,例如,文本为“我很高兴见到你”与笑脸表情为正相关,而与哭脸表情为负相关。相应的,构造出的表情推荐训练样本可以为正例样本,也可以为负例样本。
根据用户的历史输入日志,构造用于训练机器学习模型的表情推荐训练样本的好处在于,可以将同一表情对应的多种文本表达方式用于对模型进行训练,使得在输入相似的文本时,表情推荐模型就能够进行相应的表情推荐,增加输入文本与表情推荐对应关系的灵活性,提高表情推荐模型的使用泛化性。
S120、使用表情推荐训练样本对设定机器学习模型进行训练,得到表情推荐模型。
本实施例中设定机器学习模型可以是基于设定机器学习算法建立的训练模型,其中,设定机器学习算法包括但不限于循环神经网络算法(Recurrent Neural Network,RNN)、卷积神经网络算法(Convolutional Neural Network,CNN)等。具体的,可将表情推荐训练样本中的表情作为文本信息的标签,使用预设算法对机器学习模型进行训练,其中,预设算法可以为反向传播(Error Back Propagation,BP)算法。对模型进行训练的过程可以是调整各模型参数的过程,经过不断的训练,获得最优的模型参数,具有最优模型参数的模型即为最终要获得的模型。
示例性的,在获得多个表情推荐训练样本后,使用BP算法对设定的机器学习模型进行训练,对每一个样本优化分类的损失函数,不断优化机器学习模型中的模型参数,使得机器学习模型具有对输入的文本和表情进行关联性判定的能力,从而得到表情推荐模型。
在本实施例的一种可选实施方式中,如图1b所示,设定机器学习模型可以包括:文本端子模型5、表情端子模型6、分别与文本端子模型5和表情端子模型6相连的第一全连接层7,以及与第一全连接层7相连的二分类层8;文本端子模型5,具体包括:至少一个词语语义层51,与词语语义层51相连的第一双向RNN层52,与第一双向RNN层52相连的第一池化层53;词语语义层51,具体包括:第二双向RNN层511,与第二双向RNN层511相连的第二池化层512,以及与第二池化层512相连的第一拼接层513;表情端子模型6,具体包括:第三双向RNN层61,与第三双向RNN层61相连的第三池化层62,以及与第三池化层62相连的第二拼接层63;词语语义层51,用于将输入的文本信息中分词的词特征输入至第一拼接层513,以及将分词中各个字的字特征输入至第二双向RNN层511;表情端子模型6,用于将输入的表情标识、表情词语表示的词特征分别输入至第二拼接层63,以及将表情词语表示的各个字特征输入至第三双向RNN层61;二分类层8,用于输出文本信息与表情是否关联的结果。
示例性的,如图1b所示,文本端子模型5输入的是文本信息,使用的文本特征包括词特征和/或字特征。例如,输入的文本信息为“这次合作很愉快”。具体的,先将文本信息输入至词语语义层51中,词特征部分,使用语义表示层(也即Embedding层)获得词层面的语义表示A,例如将“合作”这个词转换为对应的词向量;字特征部分,使用另外的Embedding层获得字层面的语义表示,例如将“合作”这个词拆解为“合”“作”两个字后,再转换为对应的字向量。其中,对字特征部分的具体处理是,先经过第二双向RNN层511得到每个字的全局化表示,将正反双向的表示拼接,通过第二池化层512进行降维处理后,得到一个词语在字粒度层面整体的语义表示B。然后,将语义表示A和语义表示B经过第一拼接层513拼接后,作为一个整体,输入至上层的第一双向RNN层52,将正反双向的表示拼接,经过更上一层的第一池化层53得到整个文本信息的语义表示。这样的模型先经RNN得到每一个词的全局表示,再利用CNN中的池化层,综合建模了表情在文本中不同位置的情况。
图1b中,表情端子模型6输入的是表情标识以及表情词语表示(例如握手表情图像对应的ID以及对应的预设词语“握手”),可采用与上述同样的技术手段得到表情词语表示的词特征所对应的语义表示A,和字特征所对应的语义表示B。除此之外,还将表情图像的ID(也即表情标识)作为一个新的一维特征,经表情的Embedding层,得到语义表示C,然后,将三者输入至第二拼接层63进行拼接,获得表情的语义表示。
最后,将文本信息的语义表示和表情的语义表示输入至第一全连接层7进行拼接后,输入至二分类层8,以区分文本信息和表情是否有关联性。当然,本领域技术人员可以理解的是,本实施例提供的预设机器学习模型中的第一全连接层7与二分类层8也可替换为其他相似度计算层,例如余弦相似度计算层,也即对于每一条样本数据,使用对应的表情作为正例,随机补充表情库里的其他表情作为负例,使用成对Pairwise训练方法,并采用余弦相似度计算方法,建模句子和表情之间的关系,只要能够计算文本与表情之间的相似度的模型结构均可,本实施例对此并不进行限制。
本发明实施例的技术方案,通过使用至少两个用户的历史输入日志来构造表情推荐训练样本,并使用该表情推荐训练样本对设定机器学习模型进行训练,得到表情推荐模型。由于构造的表情推荐训练样本中,包含有从历史输入日志中提取的文本信息及其对应的表情,因此,使用该样本训练机器学习模型的过程中,能够学习文本信息与表情之间的关联性,从而使得到的表情推荐模型在使用时,能够根据用户输入文本的语义实时为用户推荐最合适的表情,提高了表情推荐模型的表情搜索效率以及使用泛化性。
实施例二
图2a为本发明实施例二提供的一种表情推荐模型的训练方法的流程示意图,本实施例以上述实施例为基础进行具体化。在本实施例中,将根据至少两个用户的历史输入日志,构造表情推荐训练样本进一步优化为,包括:在历史输入日志中,获取包括表情的日志作为参考日志;根据参考日志中包括的文本信息以及表情,构造表情推荐训练样本中的正例样本;根据参考日志中包括的文本信息,以及除去参考日志中包括的表情之外的其他表情,构造表情推荐训练样本中的负例样本。
相应的,本实施例的方法包括:
S210、在历史输入日志中,获取包括表情的日志作为参考日志。
其中,表情在日志中的位置可以是在日志开头,也可以是在日志中间,也可以是在日志结尾,在此不作限定。具体的,可截取历史输入日志中包含表情的日志片段作为参考日志,并将历史输入日志中其他不包含表情的日志片段删除。举一个实际例子,获取***中存储的用户聊天记录,抽取其中包含表情图片的一条聊天记录作为参考日志。
可选的,在历史输入日志中,获取包括表情的日志作为参考日志之前,还包括:如果确定历史输入日志中包括文本长度小于设定阈值的待合并日志,则获取与待合并日志对应的第一目标用户;获取与第一目标用户对应的第一参考合并日志,第一参考合并日志的第一生成时间与待合并日志的第二生成时间相邻,且第一生成时间位于第二生成时间之前;如果第一生成时间与第二生成时间之间的时间差值满足设定时间阈值条件,则将第一参考合并日志与待合并日志进行合并,得到新的历史输入日志。
在实际的参考日志获取过程中,一种特殊情况是,历史输入日志中存在某个日志的文本长度过短,而这种日志所包含的文本信息往往难以体现出语义环境特征,因此,为了保证后续利用提取的参考日志构造推荐训练样本时文本信息的有效性,可在获取参考日志之前,将历史输入日志中文本长度较短的日志,与上一条日志进行合并,其中,进行合并的前提条件为该日志的生成时间,与上一条日志的生成时间的差值,满足设定时间阈值条件,例如小于设定的时长,这样可以保证两条日志之间具有一定的语义关联性。例如,用户聊天记录中的某条记录为“棒”,且该条记录与上一条记录“刚吃过午餐”的生成时间之差小于预设的一分钟时长,则将该条记录与上一条记录进行合并。
可选的,在历史输入日志中,获取包括表情的日志作为参考日志之后,还包括:如果确定在参考日志中,包括仅具有表情的空文本日志,则获取与空文本日志对应的第二目标用户;获取与第二目标用户对应的第二参考合并日志,第二参考合并日志的第三生成时间与空文本日志的第四生成时间相邻,且第三生成时间位于第四生成时间之前;如果第三生成时间与第四生成时间之间的时间差值满足设定时间阈值条件,且第二参考合并日志中包括文本信息,则将第二参考合并日志与空文本日志进行合并,得到新的参考日志。
在获取到参考日志后,还可能出现的一种特殊情况是,获取的参考日志仅包含表情,也即该参考日志中不包含文本信息,而这种日志更加无法体现出表情使用时的文本语义环境特征,因此,为了保证后续利用提取的参考日志构造推荐训练样本时文本信息的有效性,可在获取参考日志之后,将其中仅具有表情的空文本日志,与上一条日志进行合并,其中,进行合并的前提条件为该日志的生成时间,与上一条日志的生成时间的差值,满足设定时间阈值条件,例如小于设定的时长,这样可以保证两条日志之间具有一定的语义关联性。例如,用户聊天记录中的某条记录为一个握手表情,且该条记录与上一条记录“这次合作很愉快”的生成时间之差小于预设的一分钟时长,则将该条记录与上一条记录进行合并。
可选的,在历史输入日志中,获取包括表情的日志作为参考日志之后,还包括:检测参考日志中的文本信息中是否包括预先标注的命名实体:若是,则将文本信息中检测出的命名实体使用实体标签进行替换。
示例性的,当获取到参考日志后,可对参考日志中的文本信息进行分词处理,然后进行命名实体的识别以及匿名化处理,也即将文本信息中检测出的命名实体使用实体标签进行替换,同时在参考日志中保留匿名化的实体标签。其中,分词处理是将文本信息分割为多个词语的组合,命名体识别以及匿名化处理具体可以包括将参考日志中涉及到的人名、地名、时间等专有名词转化为对应的ID。例如,将参考日志中的文本信息“麻烦张三给李四打电话,13000000000”处理为“麻烦PER0给PER1打电话,NUM0”。这样处理的好处在于,可以降低文本信息中专有名词特征的稀疏性,优化了模型效果。
S220、根据参考日志中包括的文本信息以及表情,构造表情推荐训练样本中的正例样本。
由于参考日志中包括的文本信息以及表情之间是正相关的,因此,可将参考日志中包括的文本信息以及表情,用于构造表情推荐训练样本中的正例样本。
构造正例样本的目的在于,为模型训练时提供文本信息与表情之间为关联关系的样本,对模型进行正例训练。
进一步的,根据参考日志中包括的文本信息以及表情,构造表情推荐训练样本中的正例样本,包括:如果参考日志中包括有至少两个表情,则分别使用各表情与参考日志中包括的文本信息,构造至少两个正例样本。
举一个具体例子,若对于某个参考日志中既包含了愉快的表情又包含的握手的表情,其中,该参考日志包含的文本信息为“和你合作很愉快”,则可根据该参考日志构造成两个正例样本,分别为:“和你合作很愉快”及其对应的愉快的表情,“和你合作很愉快”及其对应的握手的表情。
S230、根据参考日志中包括的文本信息,以及除去参考日志中包括的表情之外的其他表情,构造表情推荐训练样本中的负例样本。
由于参考日志中包括的文本信息,与除去参考日志中包括的表情之外的其他表情之间是负相关的,因此,可将参考日志中包括的文本信息,与从预设的表情库选取的除参考日志中包括的表情之外的其他表情,用于构造表情推荐训练样本中的负例样本。
构造负例样本的目的在于,与正例样本相对应,为模型训练时提供文本信息与表情之间为非关联关系的样本,对模型进行负例训练。其中,对模型既进行正例训练又进行负例训练,可以尽可能拉开正例样本与负例样本对应输出结果之间的相似程度,也即能够更好地优化机器学习模型中的损失函数,最终提高表情推荐模型的关联性判别准确率。
S240、使用表情推荐训练样本对设定机器学习模型进行训练,得到表情推荐模型。
本发明实施例的技术方案通过在历史输入日志中,获取包括表情的日志作为参考日志,并根据参考日志中包括的文本信息以及表情,以及除去参考日志中包括的表情之外的其他表情,构造表情推荐训练样本中的正例样本和负例样本,从而在对设定机器学习模型训练过程中能够尽可能拉开正例样本与负例样本对应输出结果之间的相似程度,也即能够更好地优化机器学习模型中的损失函数,进而最终提高了表情推荐模型的关联性判别准确率。
在上述各实施例的基础上,针对表情推荐模型的训练过程,可采用如图2b所示的表情推荐训练流程后,最终得到经训练的表情推荐模型。如图2b所示,从线上***中获取所有用户的聊天数据、发布的博客以及评论数据,从中抽取文本后进行切词与匿名化处理,再将其中使用到的表情抽取出来,作为剩余文本的标签,对模型进行训练,从而最终获取表情推荐模型。
实施例三
图3为本发明实施例三提供的一种表情推荐方法的流程示意图,本实施例可适用于对用户输入文本时进行表情推荐的情况,本实施例的方法可以由本发明实施例提供的表情推荐装置来执行,该装置可采用软件和/或硬件的方式实现,并一般可集成在表情服务器中。如图3所示,本实施例的方法具体包括:
S310、获取用户输入的文本信息。
本实施例中,用户输入的文本信息包括但不限于在使用聊天软件、兴趣社区、微型博客等软件过程中,输入的文字。例如,用户在使用聊天软件时,实时获取用户在对话框中已输入的文字,或者,在用户点击表情功能按钮时,获取用户在对话框中已输入的文字。
当然,本领域技术人员可以理解的是,获取用户输入的文本信息的方式根据使用软件的不同而不同,本实施例对此并不进行限制。
S320、将文本信息与至少两个备选表情分别输入至预先训练的表情推荐模型中,表情推荐模型的输入为文本以及表情,表情推荐模型的输出为文本与表情是否关联的结果。
示例性的,可在表情库中预置多个备选表情,当获取到文本信息时,依次将每个备选表情以及该文本信息输入至预先训练的表情推荐模型中进行识别。其中,输入至表情推荐模型中的表情可包括表情标识及其表情词语表示。例如握手表情图像对应的ID以及对应的预设词语“握手”。表情推荐模型的训练方法可采用上述各实施例中所述的表情推荐模型的训练方法,在此不再赘述。
具体的,在将文本信息输入至表情推荐模型之前,可先对文本信息进行预处理,其中,预处理可以包括分词处理、命名实体识别以及匿名化处理,也即将文本信息中检测出的命名实体使用实体标签进行替换,同时在参考日志中保留匿名化的实体标签。其中,分词处理是将文本信息分割为多个词语的组合,命名体识别以及匿名化处理具体可以包括将参考日志中涉及到的人名、地名、时间等专有名词转化为对应的ID。这样处理的好处在于,可以降低文本信息中专有名词特征的稀疏性,提高模型推荐效果。
S330、根据表情推荐模型针对各备选表情的输出结果,在备选表情中确定出与文本信息对应的关联表情提供给用户。
本实施例中将每个备选表情与获取的同一文本信息输入至表情推荐模型后,均会得到与各备选表情对应的输出结果,以表征该备选表情与获取的文本信息是否关联。示例性的,可根据表情推荐模型针对各备选表情的输出结果,将所有备选表情分为两类,一类为关联表情,一类为非关联表情,并将其中的关联表情推荐给用户。
举一个实际例子,可将关联表情以输入法中实时表情推荐的方式提供给用户,以供用户选择,也可将关联表情置于聊天软件、兴趣社区、微型博客等软件的表情栏中,当用户点击表情按钮时,可查看到针对当前已输入的文本所推荐的表情。
当然,可以理解的是,其他能够区别于普通表情的关联表情推荐的方式,均可用于本实施例中,在此不做限定。
可选的,在备选表情中确定出与文本信息对应的关联表情提供给用户,包括:在与用户的当前输入操作关联的表情栏中的设定分页内,提供关联表情。
示例性的,可在文本输入界面的表情栏中,在不改变原有表情位置的基础上,增加一个分页,作为推荐表情组,***会根据用户目前输入的文本进行关联性预测,并将具有关联性的表情置于该分页内,推荐给用户,其中,关联表情在分页中的排列方式,可以是按照关联性从大到小依次排列,以方便用户进行选择。
在分页内提供关联表情的好处在于,在不影响原有表情位置的基础上,方便用户浏览推荐表情,使得用户既能快速找到***实时推荐的表情,也能按照原有位置快速找到其他非推荐的表情,提升了用户体验。
可选的,在根据表情推荐模型针对各备选表情的输出结果,在备选表情中确定出与文本信息对应的关联表情提供给用户之后,还包括:根据用户对提供的关联表情的选择,构造新的表情推荐训练样本对表情推荐模型进行再训练。
为了实时更新表情推荐模型中的模型参数,使表情推荐模型推荐的表情更具有个性化,可将用户对提供的关联表情的选择,以及对应的用户输入的文本信息,构造成新的表情推荐训练样本,实时对表情推荐模型进行训练,形成数据闭环,不断改善表情推荐模型的推荐效果。其中,表情推荐训练样本的构造方法可采用上述各实施例中所述的表情推荐训练样本的构造方法,在此不再赘述。
本发明实施例提供了一种表情推荐方法,通过将获取的用户输入的文本信息,与至少两个备选表情分别输入至预先训练的表情推荐模型中,得到针对各备选表情的输出结果,进而根据该输出结果在备选表情中确定出文本信息对应的关联表情提供给用户,避免了用户在大量内置表情中查找需要的表情的情况,同时也提高了输入文本的多样性,实现了只需用户输入任意文本即可从大量内置表情中实时为用户推荐最合适的表情,提高了表情搜索效率,降低了用户的表达成本,提高了用户体验。
实施例四
图4为本发明实施例四提供的一种表情推荐模型的训练装置的结构示意图,如图4所示,所述装置包括:样本构造模块410以及模型训练模块420。
样本构造模块410,用于根据至少两个用户的历史输入日志,构造表情推荐训练样本,所述表情推荐训练样本包括:文本信息,以及与所述文本信息对应的表情;
模型训练模块420,用于使用所述表情推荐训练样本对设定机器学习模型进行训练,得到所述表情推荐模型。
本发明实施例提供了一种表情推荐模型的训练装置,通过使用至少两个用户的历史输入日志来构造表情推荐训练样本,并使用该表情推荐训练样本对设定机器学习模型进行训练,得到表情推荐模型。由于构造的表情推荐训练样本中,包含有从历史输入日志中提取的文本信息及其对应的表情,因此,使用该样本训练机器学习模型的过程中,能够学习文本信息与表情之间的关联性,从而使得到的表情推荐模型在使用时,能够根据用户输入文本的语义实时为用户推荐最合适的表情,提高了表情推荐模型的表情搜索效率以及使用泛化性。
进一步的,样本构造模块410可以包括:
参考日志获取子模块,用于在所述历史输入日志中,获取包括表情的日志作为参考日志;
正例样本构造子模块,用于根据所述参考日志中包括的文本信息以及表情,构造所述表情推荐训练样本中的正例样本;
负例样本构造子模块,用于根据所述参考日志中包括的文本信息,以及除去所述参考日志中包括的表情之外的其他表情,构造所述表情推荐训练样本中的负例样本。
进一步的,样本构造模块410还可以包括:
第一用户获取子模块,用于在所述历史输入日志中,获取包括表情的日志作为参考日志之前,如果确定所述历史输入日志中包括文本长度小于设定阈值的待合并日志,则获取与所述待合并日志对应的第一目标用户;
第一日志获取子模块,用于获取与所述第一目标用户对应的第一参考合并日志,所述第一参考合并日志的第一生成时间与所述待合并日志的第二生成时间相邻,且所述第一生成时间位于所述第二生成时间之前;
历史日志生成子模块,用于如果所述第一生成时间与所述第二生成时间之间的时间差值满足设定时间阈值条件,则将所述第一参考合并日志与所述待合并日志进行合并,得到新的历史输入日志。
进一步的,样本构造模块410还可以包括:
第二用户获取子模块,用于在所述历史输入日志中,获取包括表情的日志作为参考日志之后,如果确定在所述参考日志中,包括仅具有表情的空文本日志,则获取与所述空文本日志对应的第二目标用户;
第二日志获取子模块,用于获取与所述第二目标用户对应的第二参考合并日志,所述第二参考合并日志的第三生成时间与所述空文本日志的第四生成时间相邻,且所述第三生成时间位于所述第四生成时间之前;
参考日志生成子模块,用于如果所述第三生成时间与所述第四生成时间之间的时间差值满足设定时间阈值条件,且所述第二参考合并日志中包括文本信息,则将所述第二参考合并日志与所述空文本日志进行合并,得到新的参考日志。
进一步的,样本构造模块410还可以包括:
命名实体检测子模块,用于在所述历史输入日志中,获取包括表情的日志作为参考日志之后,检测所述参考日志中的文本信息中是否包括预先标注的命名实体:若是,则将所述文本信息中检测出的命名实体使用实体标签进行替换。
进一步的,正例样本构造子模块具体可以用于:
如果所述参考日志中包括有至少两个表情,则分别使用各所述表情与所述参考日志中包括的文本信息,构造至少两个正例样本。
进一步的,所述设定机器学习模型可以包括:文本端子模型、表情端子模型、分别与所述文本端子模型和所述表情端子模型相连的第一全连接层,以及与所述第一全连接层相连的二分类层;所述文本端子模型,具体可以包括:至少一个词语语义层,与所述词语语义层相连的第一双向RNN层,与所述第一双向RNN层相连的第一池化层;所述词语语义层,具体可以包括:第二双向RNN层,与所述第二双向RNN层相连的第二池化层,以及与所述第二池化层相连的第一拼接层;所述表情端子模型,具体可以包括:第三双向RNN层,与所述第三双向RNN层相连的第三池化层,以及与所述第三池化层相连的第二拼接层;所述词语语义层,用于将输入的文本信息中分词的词特征输入至所述第一拼接层,以及将所述分词中各个字的字特征输入至所述第二双向RNN层;所述表情端子模型,用于将输入的表情标识、表情词语表示的词特征分别输入至所述第二拼接层,以及将所述表情词语表示的各个字特征输入至所述第三双向RNN层;所述二分类层,用于输出所述文本信息与所述表情是否关联的结果。
上述表情推荐模型的训练装置可执行本发明任意实施例所提供的表情推荐模型的训练方法,具备执行表情推荐模型的训练方法相应的功能模块和有益效果。
实施例五
图5为本发明实施例五提供的一种表情推荐装置的结构示意图,如图5所示,所述装置包括:信息获取模块510、表情输入模块520以及表情确定模块530。
信息获取模块510,用于获取用户输入的文本信息;
表情输入模块520,用于将所述文本信息与至少两个备选表情分别输入至预先训练的表情推荐模型中,所述表情推荐模型的输入为文本以及表情,所述表情推荐模型的输出为所述文本与所述表情是否关联的结果;
表情确定模块530,用于根据所述表情推荐模型针对各所述备选表情的输出结果,在所述备选表情中确定出与所述文本信息对应的关联表情提供给所述用户。
本发明实施例提供了一种表情推荐装置,通过将获取的用户输入的文本信息,与至少两个备选表情分别输入至预先训练的表情推荐模型中,得到针对各备选表情的输出结果,进而根据该输出结果在备选表情中确定出文本信息对应的关联表情提供给用户,避免了用户在大量内置表情中查找需要的表情的情况,同时也提高了输入文本的多样性,实现了只需用户输入任意文本即可从大量内置表情中实时为用户推荐最合适的表情,提高了表情搜索效率,降低了用户的表达成本,提高了用户体验。
进一步的,表情确定模块530具体可以用于:
在与所述用户的当前输入操作关联的表情栏中的设定分页内,提供所述关联表情。
进一步的,表情推荐装置还可以包括:
模型再训练模块,用于在根据所述表情推荐模型针对各所述备选表情的输出结果,在所述备选表情中确定出与所述文本信息对应的关联表情提供给所述用户之后,根据用户对提供的所述关联表情的选择,构造新的表情推荐训练样本对所述表情推荐模型进行再训练。
上述表情推荐装置可执行本发明任意实施例所提供的表情推荐方法,具备执行表情推荐方法相应的功能模块和有益效果。
实施例六
图6为本发明实施例六提供的一种计算机设备的结构示意图。图6示出了适于用来实现本发明实施方式的示例性计算机设备12的框图。图6显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,***存储器28,连接不同***组件(包括***存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机设备12典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图6中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元16通过运行存储在***存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的表情推荐模型的训练方法。也即,所述处理单元执行所述程序时实现:根据至少两个用户的历史输入日志,构造表情推荐训练样本,所述表情推荐训练样本包括:文本信息,以及与所述文本信息对应的表情;使用所述表情推荐训练样本对设定机器学习模型进行训练,得到所述表情推荐模型。
又例如:实现本发明实施例所提供的表情推荐方法。也即,获取用户输入的文本信息;将所述文本信息与至少两个备选表情分别输入至预先训练的表情推荐模型中,所述表情推荐模型的输入为文本以及表情,所述表情推荐模型的输出为所述文本与所述表情是否关联的结果;根据所述表情推荐模型针对各所述备选表情的输出结果,在所述备选表情中确定出与所述文本信息对应的关联表情提供给所述用户。
实施例七
本发明实施例七提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请所有发明实施例提供的表情推荐模型的训练方法:也即,该程序被处理器执行时实现:根据至少两个用户的历史输入日志,构造表情推荐训练样本,所述表情推荐训练样本包括:文本信息,以及与所述文本信息对应的表情;使用所述表情推荐训练样本对设定机器学习模型进行训练,得到所述表情推荐模型。
或者,实现如本申请所有发明实施例提供的表情推荐方法:也即,该程序被处理器执行时实现:获取用户输入的文本信息;将所述文本信息与至少两个备选表情分别输入至预先训练的表情推荐模型中,所述表情推荐模型的输入为文本以及表情,所述表情推荐模型的输出为所述文本与所述表情是否关联的结果;根据所述表情推荐模型针对各所述备选表情的输出结果,在所述备选表情中确定出与所述文本信息对应的关联表情提供给所述用户。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (14)

1.一种表情推荐模型的训练方法,其特征在于,包括:
根据至少两个用户的历史输入日志,构造表情推荐训练样本,所述表情推荐训练样本包括:文本信息,以及与所述文本信息对应的表情;
使用所述表情推荐训练样本对设定机器学习模型进行训练,得到所述表情推荐模型;
其中,所述设定机器学习模型包括:文本端子模型、表情端子模型、分别与所述文本端子模型和所述表情端子模型相连的第一全连接层,以及与所述第一全连接层相连的二分类层;所述表情推荐模型的输出为所述文本与所述表情是否关联的结果。
2.根据权利要求1所述的方法,其特征在于,根据至少两个用户的历史输入日志,构造表情推荐训练样本,包括:
在所述历史输入日志中,获取包括表情的日志作为参考日志;
根据所述参考日志中包括的文本信息以及表情,构造所述表情推荐训练样本中的正例样本;
根据所述参考日志中包括的文本信息,以及除去所述参考日志中包括的表情之外的其他表情,构造所述表情推荐训练样本中的负例样本。
3.根据权利要求2所述的方法,其特征在于,在所述历史输入日志中,获取包括表情的日志作为参考日志之前,还包括:
如果确定所述历史输入日志中包括文本长度小于设定阈值的待合并日志,则获取与所述待合并日志对应的第一目标用户;
获取与所述第一目标用户对应的第一参考合并日志,所述第一参考合并日志的第一生成时间与所述待合并日志的第二生成时间相邻,且所述第一生成时间位于所述第二生成时间之前;
如果所述第一生成时间与所述第二生成时间之间的时间差值满足设定时间阈值条件,则将所述第一参考合并日志与所述待合并日志进行合并,得到新的历史输入日志。
4.根据权利要求2所述的方法,其特征在于,在所述历史输入日志中,获取包括表情的日志作为参考日志之后,还包括:
如果确定在所述参考日志中,包括仅具有表情的空文本日志,则获取与所述空文本日志对应的第二目标用户;
获取与所述第二目标用户对应的第二参考合并日志,所述第二参考合并日志的第三生成时间与所述空文本日志的第四生成时间相邻,且所述第三生成时间位于所述第四生成时间之前;
如果所述第三生成时间与所述第四生成时间之间的时间差值满足设定时间阈值条件,且所述第二参考合并日志中包括文本信息,则将所述第二参考合并日志与所述空文本日志进行合并,得到新的参考日志。
5.根据权利要求2所述的方法,其特征在于,在所述历史输入日志中,获取包括表情的日志作为参考日志之后,还包括:
检测所述参考日志中的文本信息中是否包括预先标注的命名实体:若是,则将所述文本信息中检测出的命名实体使用实体标签进行替换。
6.根据权利要求2所述的方法,其特征在于,根据所述参考日志中包括的文本信息以及表情,构造所述表情推荐训练样本中的正例样本,包括:
如果所述参考日志中包括有至少两个表情,则分别使用各所述表情与所述参考日志中包括的文本信息,构造至少两个正例样本。
7.根据权利要求1-6任一项所述的方法,其特征在于:
所述文本端子模型,具体包括:至少一个词语语义层,与所述词语语义层相连的第一双向RNN层,与所述第一双向RNN层相连的第一池化层;
所述词语语义层,具体包括:第二双向RNN层,与所述第二双向RNN层相连的第二池化层,以及与所述第二池化层相连的第一拼接层;
所述表情端子模型,具体包括:第三双向RNN层,与所述第三双向RNN层相连的第三池化层,以及与所述第三池化层相连的第二拼接层;
所述词语语义层,用于将输入的文本信息中分词的词特征输入至所述第一拼接层,以及将所述分词中各个字的字特征输入至所述第二双向RNN层;
所述表情端子模型,用于将输入的表情标识、表情词语表示的词特征分别输入至所述第二拼接层,以及将所述表情词语表示的各个字特征输入至所述第三双向RNN层;
所述二分类层,用于输出所述文本信息与所述表情是否关联的结果。
8.一种表情推荐方法,其特征在于,包括:
获取用户输入的文本信息;
将所述文本信息与至少两个备选表情分别输入至预先训练的表情推荐模型中,所述表情推荐模型的输入为文本以及表情,所述表情推荐模型的输出为所述文本与所述表情是否关联的结果;
根据所述表情推荐模型针对各所述备选表情的输出结果,在所述备选表情中确定出与所述文本信息对应的关联表情提供给所述用户;
其中,所述表情推荐模型采用如权利要求1-7任一所述的表情推荐模型的训练方法训练得到。
9.根据权利要求8所述的方法,其特征在于,在所述备选表情中确定出与所述文本信息对应的关联表情提供给所述用户,包括:
在与所述用户的当前输入操作关联的表情栏中的设定分页内,提供所述关联表情。
10.根据权利要求8所述的方法,其特征在于,在根据所述表情推荐模型针对各所述备选表情的输出结果,在所述备选表情中确定出与所述文本信息对应的关联表情提供给所述用户之后,还包括:
根据用户对提供的所述关联表情的选择,构造新的表情推荐训练样本对所述表情推荐模型进行再训练。
11.一种表情推荐模型的训练装置,其特征在于,包括:
样本构造模块,用于根据至少两个用户的历史输入日志,构造表情推荐训练样本,所述表情推荐训练样本包括:文本信息,以及与所述文本信息对应的表情;
模型训练模块,用于使用所述表情推荐训练样本对设定机器学习模型进行训练,得到所述表情推荐模型;
其中,所述设定机器学习模型包括:文本端子模型、表情端子模型、分别与所述文本端子模型和所述表情端子模型相连的第一全连接层,以及与所述第一全连接层相连的二分类层;所述表情推荐模型的输出为所述文本与所述表情是否关联的结果。
12.一种表情推荐装置,其特征在于,包括:
信息获取模块,用于获取用户输入的文本信息;
表情输入模块,用于将所述文本信息与至少两个备选表情分别输入至预先训练的表情推荐模型中,所述表情推荐模型的输入为文本以及表情,所述表情推荐模型的输出为所述文本与所述表情是否关联的结果;
表情确定模块,用于根据所述表情推荐模型针对各所述备选表情的输出结果,在所述备选表情中确定出与所述文本信息对应的关联表情提供给所述用户;
其中,所述表情推荐模型采用如权利要求1-7任一所述的表情推荐模型的训练方法训练得到。
13.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7中任一所述的表情推荐模型的训练方法或如权利要求8-10中任一所述的表情推荐方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的表情推荐模型的训练方法或如权利要求8-10中任一所述的表情推荐方法。
CN201810695138.6A 2018-06-29 2018-06-29 表情推荐模型的训练、表情推荐方法、装置、设备及介质 Active CN109034203B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810695138.6A CN109034203B (zh) 2018-06-29 2018-06-29 表情推荐模型的训练、表情推荐方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810695138.6A CN109034203B (zh) 2018-06-29 2018-06-29 表情推荐模型的训练、表情推荐方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN109034203A CN109034203A (zh) 2018-12-18
CN109034203B true CN109034203B (zh) 2021-04-30

Family

ID=65520913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810695138.6A Active CN109034203B (zh) 2018-06-29 2018-06-29 表情推荐模型的训练、表情推荐方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN109034203B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977409A (zh) * 2019-03-28 2019-07-05 北京科技大学 一种基于用户聊天习惯的智能表情推荐方法和***
CN110163121B (zh) * 2019-04-30 2023-09-05 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质
CN111695357A (zh) * 2020-05-28 2020-09-22 平安科技(深圳)有限公司 文本标注方法及相关产品
CN112231605A (zh) * 2020-10-09 2021-01-15 北京三快在线科技有限公司 信息展示的方法和装置
CN112364241A (zh) * 2020-10-27 2021-02-12 北京五八信息技术有限公司 信息推送的方法、装置、电子设备及存储介质
CN112860979B (zh) * 2021-02-09 2024-03-26 北京达佳互联信息技术有限公司 资源搜索方法、装置、设备及存储介质
CN114792097B (zh) * 2022-05-14 2022-12-06 北京百度网讯科技有限公司 预训练模型提示向量的确定方法、装置及电子设备
CN114997251B (zh) * 2022-08-02 2022-11-08 中国农业科学院农业信息研究所 一种基于气体传感器阵列的混合气体识别方法及***
CN117076702B (zh) * 2023-09-14 2023-12-15 荣耀终端有限公司 图像查找方法及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104933113A (zh) * 2014-06-06 2015-09-23 北京搜狗科技发展有限公司 一种基于语义理解的表情输入方法和装置
US9767094B1 (en) * 2016-07-07 2017-09-19 International Business Machines Corporation User interface for supplementing an answer key of a question answering system using semantically equivalent variants of natural language expressions
CN107818160A (zh) * 2017-10-31 2018-03-20 上海掌门科技有限公司 表情标签更新和实现表情获取的方法、设备及***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104933113A (zh) * 2014-06-06 2015-09-23 北京搜狗科技发展有限公司 一种基于语义理解的表情输入方法和装置
US9767094B1 (en) * 2016-07-07 2017-09-19 International Business Machines Corporation User interface for supplementing an answer key of a question answering system using semantically equivalent variants of natural language expressions
CN107818160A (zh) * 2017-10-31 2018-03-20 上海掌门科技有限公司 表情标签更新和实现表情获取的方法、设备及***

Also Published As

Publication number Publication date
CN109034203A (zh) 2018-12-18

Similar Documents

Publication Publication Date Title
CN109034203B (zh) 表情推荐模型的训练、表情推荐方法、装置、设备及介质
US11403680B2 (en) Method, apparatus for evaluating review, device and storage medium
US11948058B2 (en) Utilizing recurrent neural networks to recognize and extract open intent from text inputs
US11645314B2 (en) Interactive information retrieval using knowledge graphs
CN107330023B (zh) 基于关注点的文本内容推荐方法和装置
CN112015859A (zh) 文本的知识层次抽取方法及装置、计算机设备及可读介质
US11194963B1 (en) Auditing citations in a textual document
CN112380331A (zh) 信息推送的方法和装置
CN112347760A (zh) 意图识别模型的训练方法及装置、意图识别方法及装置
CN116821318B (zh) 基于大语言模型的业务知识推荐方法、装置及存储介质
CN112667816B (zh) 一种基于深度学习的方面级情感分析方法及***
Saha et al. Towards sentiment aided dialogue policy learning for multi-intent conversations using hierarchical reinforcement learning
CN117011737A (zh) 一种视频分类方法、装置、电子设备和存储介质
CN111310065A (zh) 一种社交推荐方法、装置、服务器及存储介质
CN109408175B (zh) 通用高性能深度学习计算引擎中的实时交互方法及***
CN117056575B (zh) 一种基于智能图书推荐***数据采集的方法
US11501071B2 (en) Word and image relationships in combined vector space
Sahin et al. Introduction to Apple ML tools
CN116955591A (zh) 用于内容推荐的推荐语生成方法、相关装置和介质
US11558471B1 (en) Multimedia content differentiation
US20230376537A1 (en) Multi-chunk relationship extraction and maximization of query answer coherence
CN116090450A (zh) 一种文本处理方法及计算设备
CN114780757A (zh) 短媒体标签抽取方法、装置、计算机设备和存储介质
CN113807920A (zh) 基于人工智能的产品推荐方法、装置、设备及存储介质
CN117909505B (zh) 事件论元的抽取方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant