CN114765033A - 基于直播间的信息处理方法及装置 - Google Patents

基于直播间的信息处理方法及装置 Download PDF

Info

Publication number
CN114765033A
CN114765033A CN202110057957.XA CN202110057957A CN114765033A CN 114765033 A CN114765033 A CN 114765033A CN 202110057957 A CN202110057957 A CN 202110057957A CN 114765033 A CN114765033 A CN 114765033A
Authority
CN
China
Prior art keywords
emotion
target
interactive
live broadcast
analysis result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110057957.XA
Other languages
English (en)
Inventor
韩卫生
万玉龙
高杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN202110057957.XA priority Critical patent/CN114765033A/zh
Publication of CN114765033A publication Critical patent/CN114765033A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computer Graphics (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本说明书实施例提供了基于直播间的信息处理方法及装置,该方法的一具体实施方式包括:响应于获取到至少一个观众用户在目标直播间内提交的交互语句,根据交互语句,识别出该至少一个观众用户分别对应的目标情感标记;根据目标情感标记,生成第一情感分析结果;向目标直播间的主播提供第一情感分析结果。

Description

基于直播间的信息处理方法及装置
技术领域
本说明书实施例涉及计算机技术领域,具体地,涉及基于直播间的信息处理方法及装置、基于电商直播间的信息处理方法及装置、基于政务直播间的信息处理方法及装置、基于教育直播间的信息处理方法及装置、基于会议直播间的信息处理方法及装置。
背景技术
随着直播行业快速发展,各类型直播平台越来越多,也有越来越多的人投入到直播行业,呈现出“百花齐放”的发展态势。当前主播主要根据观众评论的实时字幕获取观众反馈,根据观众反馈做出直播调整,工作强度比较大。
因此,迫切需要一种合理、可靠的方案,可以使得主播快速、***地掌握直播状况,根据直播状况做出直播调整,减轻主播的工作负担。
发明内容
本说明书实施例提供了基于直播间的信息处理方法及装置、基于电商直播间的信息处理方法及装置、基于政务直播间的信息处理方法及装置、基于教育直播间的信息处理方法及装置、基于会议直播间的信息处理方法及装置。
第一方面,本说明书实施例提供了一种基于直播间的信息处理方法,包括:响应于获取到至少一个观众用户在目标直播间内提交的交互语句,将所述交互语句输入预先训练的情感识别模型,使得所述情感识别模型输出所述至少一个观众用户分别对应的目标情感标记;根据所述目标情感标记,生成第一情感分析结果;向所述目标直播间的主播提供所述第一情感分析结果。
在一些实施例中,所述目标情感标记包括以下任一项:中性、积极情感、消极情感。
在一些实施例中,所述积极情感包括以下任一项:高兴、兴奋、崇拜;所述消极情感包括以下任一项:生气、愤怒、悲伤、厌恶、害怕。
在一些实施例中,所述根据所述目标情感标记,生成第一情感分析结果,包括:在识别出的目标情感标记中,统计出互不相同的目标情感标记分别对应的出现频次;生成第一情感分析结果,所述第一情感分析结果包括,所述互不相同的目标情感标记,以及以下至少一项:所述出现频次、所述出现频次和所述互不相同的目标情感标记的总出现频次的比值。
在一些实施例中,所述根据所述目标情感标记,生成第一情感分析结果,包括:获取本次直播过程中已生成的第二情感分析结果;根据所述目标情感标记,更新所述第二情感分析结果,并将更新后的所述第二情感分析结果确定为所述第一情感分析结果。
在一些实施例中,在使得所述情感识别模型输出所述至少一个观众用户分别对应的目标情感标记之后,所述方法还包括:根据所述交互语句和所述目标情感标记,获取所述交互语句对应的交互语音数据;向所述主播提供所述交互语音数据。
在一些实施例中,所述根据所述交互语句和所述目标情感标记,获取所述交互语句对应的交互语音数据,包括:将所述交互语句和所述目标情感标记输入目标情感语音合成模型,使得所述目标情感语音合成模型输出所述交互语音数据。
在一些实施例中,在所述将所述交互语句和所述目标情感标记输入目标情感语音合成模型之前,所述方法还包括:根据所述目标情感标记,在预先训练的多个情感语音合成模型中,确定出所述目标情感语音合成模型。
在一些实施例中,预设的第一情感标记组对应至少一种方言,第一情感标记属于消极情感,所述多个情感语音合成模型包括,所述至少一种方言分别对应的情感语音合成模型;以及所述根据所述目标情感标记,在预先训练的多个情感语音合成模型中,确定出所述目标情感语音合成模型,包括:若所述目标情感标记包含在所述第一情感标记组中,则从所述至少一种方言中选取出一种方言,并将该方言对应的情感语音合成模型,确定为所述目标情感语音合成模型。
在一些实施例中,在所述向所述主播提供所述交互语音数据之后,所述方法还包括:响应于所述目标情感标记包含在预设的第二情感标记组中,向所述主播提供目标语音模板,其中,第二情感标记属于积极情感,所述目标语音模板表达积极情感。
在一些实施例中,所述目标情感语音合成模型对应样本发声对象和目标语音模板,所述目标语音模板通过对所述样本发声对象读出样本文本模板的声音进行录制而得到,所述样本文本模板表达积极情感。
第二方面,本说明书实施例提供了一种基于直播间的信息处理方法,包括:响应于获取到至少一个观众用户在直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;根据所述目标情感标记,生成第一情感分析结果;向所述直播间的主播提供所述第一情感分析结果。
第三方面,本说明书实施例提供了一种基于直播间的信息处理方法,包括:响应于获取到观众用户在直播间内提交的交互语句,根据所述交互语句,识别出所述观众用户对应的目标情感标记;根据所述交互语句和所述目标情感标记,获取所述交互语句对应的交互语音数据;向所述目标直播间的主播提供所述交互语音数据。
第四方面,本说明书实施例提供了一种基于电商直播间的信息处理方法,包括:响应于获取到至少一个观众用户在电商直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;根据所述目标情感标记,生成第一情感分析结果;向所述电商直播间的主播提供所述第一情感分析结果。
第五方面,本说明书实施例提供了一种基于政务直播间的信息处理方法,包括:响应于获取到至少一个观众用户在政务直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;根据所述目标情感标记,生成第一情感分析结果;向所述政务直播间的主播提供所述第一情感分析结果。
第六方面,本说明书实施例提供了一种基于教育直播间的信息处理方法,包括:响应于获取到至少一个观众用户在教育直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;根据所述目标情感标记,生成第一情感分析结果;向所述教育直播间的主播提供所述第一情感分析结果。
第七方面,本说明书实施例提供了一种基于会议直播间的信息处理方法,包括:响应于获取到至少一个观众用户在会议直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;根据所述目标情感标记,生成第一情感分析结果;向所述会议直播间的主播提供所述第一情感分析结果。
第八方面,本说明书实施例提供了一种基于直播间的信息处理装置,包括:情感识别单元,被配置成响应于获取到至少一个观众用户在目标直播间内提交的交互语句,将所述交互语句输入预先训练的情感识别模型,使得所述情感识别模型输出所述至少一个观众用户分别对应的目标情感标记;生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;提供单元,被配置成向所述目标直播间的主播提供所述第一情感分析结果。
第九方面,本说明书实施例提供了一种基于直播间的信息处理装置,包括:情感识别单元,被配置成响应于获取到至少一个观众用户在目标直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;提供单元,被配置成向所述目标直播间的主播提供所述第一情感分析结果。
第十方面,本说明书实施例提供了一种基于直播间的信息处理装置,包括:情感识别单元,被配置成响应于获取到观众用户在目标直播间内提交的交互语句,根据所述交互语句,识别出所述观众用户对应的目标情感标记;获取单元,被配置成根据所述交互语句和所述目标情感标记,获取所述交互语句对应的交互语音数据;提供单元,被配置成向所述目标直播间的主播提供所述交互语音数据。
第十一方面,本说明书实施例提供了一种基于电商直播间的信息处理装置,包括:情感识别单元,被配置成响应于获取到至少一个观众用户在电商直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;提供单元,被配置成向所述电商直播间的主播提供所述第一情感分析结果。
第十二方面,本说明书实施例提供了一种基于政务直播间的信息处理装置,包括:情感识别单元,被配置成响应于获取到至少一个观众用户在政务直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;提供单元,被配置成向所述政务直播间的主播提供所述第一情感分析结果。
第十三方面,本说明书实施例提供了一种基于教育直播间的信息处理装置,包括:情感识别单元,被配置成响应于获取到至少一个观众用户在教育直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;提供单元,被配置成向所述教育直播间的主播提供所述第一情感分析结果。
第十四方面,本说明书实施例提供了一种基于会议直播间的信息处理装置,包括:情感识别单元,被配置成响应于获取到至少一个观众用户在会议直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;提供单元,被配置成向所述会议直播间的主播提供所述第一情感分析结果。
第十五方面,本说明书实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,当该计算机程序在计算机中执行时,令该计算机执行如第一方面至第七方面中任一实现方式描述的方法。
第十六方面,本说明书实施例提供了一种计算设备,包括存储器和处理器,其中,该存储器中存储有可执行代码,该处理器执行该可执行代码时,实现如第一方面至第七方面中任一实现方式描述的方法。
本说明书的上述实施例提供的基于直播间的信息处理方法及装置,通过响应于获取到至少一个观众用户在目标直播间内提交的交互语句,根据交互语句,识别出该至少一个观众用户分别对应的目标情感标记,而后根据目标情感标记,生成第一情感分析结果,以便向目标直播间的主播提供第一情感分析结果。由此,实现了富于针对性的信息生成,丰富了直播功能。并且,能使得主播通过第一情感分析结果,快速、***地掌握直播状况,进而根据直播状况及时做出直播调整,能有效地减轻主播的工作负担。
附图说明
为了更清楚地说明本说明书披露的多个实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书披露的多个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本说明书的一些实施例可以应用于其中的一个示例性***架构图;
图2是根据本说明书的基于直播间的信息处理方法的一个实施例的流程图;
图3a是第一情感分析结果的展示效果的一个示意图;
图3b是第一情感分析结果的展示效果的另一个示意图;
图3c是个性化语音播报子流程的一个示意图;
图3d是个性化语音播报子流程的另一个示意图;
图4是根据本说明书的基于电商直播间的信息处理方法的一个实施例的流程图;
图5是根据本说明书的基于政务直播间的信息处理方法的一个实施例的流程图;
图6是根据本说明书的基于教育直播间的信息处理方法的一个实施例的流程图;
图7是根据本说明书的基于会议直播间的信息处理方法的一个实施例的流程图;
图8是根据本说明书的基于直播间的信息处理方法的一个实施例的流程图;
图9是根据本说明书的基于直播间的信息处理方法的一个实施例的流程图;
图10是根据本说明书的基于直播间的信息处理装置的一个结构示意图;
图11是根据本说明书的基于直播间的信息处理装置的一个结构示意图;
图12是根据本说明书的基于直播间的信息处理装置的一个结构示意图;
图13是根据本说明书的基于电商直播间的信息处理装置的一个结构示意图;
图14是根据本说明书的基于政务直播间的信息处理装置的一个结构示意图;
图15是根据本说明书的基于教育直播间的信息处理装置的一个结构示意图;
图16是根据本说明书的基于会议直播间的信息处理装置的一个结构示意图。
具体实施方式
下面结合附图和实施例对本说明书作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本说明书中的实施例及实施例中的特征可以相互组合。另外,本说明书中的“第一”、“第二”等词,仅用于信息区分,不起任何限定作用。
如前所述,当前主播主要根据观众评论的实时字幕获取观众反馈,根据观众反馈做出直播调整,工作强度比较大。
基于此,本说明书的一些实施例提供了基于直播间的信息处理方法,通过该方法,可以实现富于针对性的信息生成,以及丰富直播功能。并且,可以使得主播快速、***地掌握直播状况,根据直播状况做出直播调整,能有效地减轻主播的工作负担。具体地,图1示出了适用于这些实施例的示例性***架构图。
如图1所示,其示出了终端设备101、102、103、105和服务端104。其中,终端设备101、102、103分别安装有观众版APP(Application,应用程序),终端设备105安装有主播版APP,服务端104是对这两种APP提供支持的后台服务端。
需要指出,终端设备可以是各种电子设备,例如可以包括但不限于智能手机、平板电脑、笔记本电脑、台式计算机等等,在此不做具体限定。
观众版APP可以是供观看直播的观众用户使用的APP。进一步地,观众版APP的应用类别例如可以是购物类APP,社交类APP,游戏类APP,教育类APP,政务类APP,会议类APP,或者直播类APP等等,在此不做具体限定。当观众版APP属于直播类APP时,观众版APP可称为直播观众版APP。
主播版APP可以是供主播使用的APP。利用主播版APP中开通的直播间进行直播的用户,称为主播。在主播版APP中开通的直播间,可称为目标直播间。实践中,主播版APP的应用类别可以与观众版APP的一致,在此不做具体限定。当主播版APP属于直播类APP时,主播版APP可称为直播主播版APP。
在不同的直播场景下,目标直播间可以有不同的称谓。例如,在教育直播场景下,目标直播间可称为教育直播间。在会议直播场景下,目标直播间可称为会议直播间。在电商直播场景下,目标直播间可称为电商直播间。在政务直播场景下,目标直播间可称为政务直播间。
通常,目标直播间的观众用户,可以利用观众版APP进入目标直播间,并在目标直播间内提交交互语句。其中,交互语句可以是观众用户与主播进行交互的语句。进一步地,交互语句可以包括但不限于评论语句。
以交互语句为评论语句,终端设备105上安装的主播版APP中开通的目标直播间为直播间A为例。终端设备101所属的观众用户User1,可以在终端设备101上安装的观众版APP中,打开直播间A的观众版直播界面,之后在该界面的评论区域输入评论语句1,并触发(例如点击)提交按钮,以使得观众版APP将评论语句1发送至服务端104。终端设备102所属的观众用户User2,可以采用与User1类似的方法,使得终端设备102上安装的观众版APP,将评论语句2发送至服务端104。终端设备103所属的观众用户User3,也可以采用与User1类似的方法,使得终端设备103上安装的观众版APP,将评论语句3发送至服务端104。其中,观众版直播界面为观众版APP中的直播界面。应该理解,评论语句1、评论语句2、评论语句3仅是示例性评论语句,本说明书不对评论语句的具体评论内容做任何限定。
通常情况下,服务端104可以将观众用户在直播间A内提交的交互语句,例如如前所述的评论语句1、评论语句2、评论语句3,发送至终端设备105上安装的主播版APP,使得主播版APP在直播间A的主播版直播界面上的交互语句显示区域(例如评论语句显示区域),展示接收到的交互语句。其中,主播版直播界面为主播版APP中的直播界面。需要指出,图1中未示出服务端104对交互语句的发送,以及主播版APP对交互语句的展示。
应该理解,除了在交互语句显示区域显示交互语句外,还可以显示与交互语句有关的其他信息,例如发送该交互语句的观众用户的昵称、头像,和/或该交互语句的发送时间等等,在此不做具体限定。
为了实现富于针对性的信息生成,丰富直播功能,并且使得主播快速、***地掌握直播状况,根据直播状况做出直播调整,以及有效地减轻主播的工作负担,服务端104可以根据观众用户在目标直播间内提交的交互语句,对观众情感进行统计分析,并向目标直播间的主播提供情感分析结果,使得主播根据情感分析结果对直播内容进行调整。
继续以评论语句1、评论语句2、评论语句3为例,如图1中所示,服务端104在获取到终端设备101、102、103分别所属的观众用户在直播间A内提交的评论语句1、评论语句2、评论语句3后,可以根据这3条评论语句,识别出观众用户User1对应的目标情感标记1,观众用户User2对应的目标情感标记2,以及观众用户User3对应的目标情感标记3。之后,服务端104可以根据这3个目标情感标记,生成第一情感分析结果。然后,服务端104可以将第一情感分析结果发送至终端设备105上安装的主播版APP,使得主播版APP向主播展示第一情感分析结果,例如在直播间A的主播版直播界面上展示第一情感分析结果。
以上简单介绍了在服务端侧对观众情感进行统计分析的情况。需要指出,在终端设备105的计算能力和存储能力较强时,对观众情感进行统计分析的操作,也可以在终端侧执行,例如由主播版APP执行,在此不做具体限定。另外,对观众情感进行统计分析的操作,可以在已针对目标直播间开启观众情感统计分析功能的情况下执行。
应该理解,图1中的终端设备和服务端的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备和服务端。
下面,结合具体的实施例,描述上述方法的具体实施步骤。需要说明的是,为了区分本次直播过程中当前生成的情感分析结果,以及在先生成的情感分析结果,将当前生成的情感分析结果称为第一情感分析结果,将在先生成的情感分析结果称为第二情感分析结果。
参看图2,其示出了基于直播间的信息处理方法的一个实施例的流程200。该方法的执行主体可以为如图1所示的服务端104、终端设备105或终端设备105上安装的主播版APP。该方法包括以下步骤:
步骤201,响应于获取到至少一个观众用户在目标直播间内提交的交互语句,根据交互语句,识别出至少一个观众用户分别对应的目标情感标记;
步骤202,根据目标情感标记,生成第一情感分析结果;
步骤203,向目标直播间的主播提供第一情感分析结果。
下面,对以上步骤做进一步说明。
在步骤201中,可以实时地获取至少一个观众用户在目标直播间内提交的交互语句,并根据所获取的交互语句,识别出该至少一个观众用户分别对应的目标情感标记。其中,交互语句可以包括但不限于评论语句。
单个目标情感标记例如可以包括中性、积极情感或消极情感。进一步地,该积极情感可以包括高兴、兴奋或崇拜等,该消极情感可以包括生气、愤怒、悲伤、厌恶或害怕等。可选地,该中性可以进一步包括惊讶、无聊或乏力等。
需要说明的是,无论上述执行主体是位于终端侧,还是位于服务端侧,都可以采用本地识别方式,识别观众用户对应的目标情感标记。可选地,当上述执行主***于终端侧时,上述执行主体也可以采用远程识别方式,识别观众用户对应的目标情感标记,例如,可以将观众用户在目标直播间内提交的交互语句,发送至相应的情感识别服务端,由情感识别服务端根据交互语句,识别出观众用户对应的目标情感标记,并返回该目标情感标记。
进一步地,具体的情感标记识别方法例如可以包括,关键词识别方法。例如,可以预设有情感标记集合,情感标记集合中的每个情感标记对应关键词集合。该关键词集合中的关键词表示该情感标记指示的情感。以开心情感标记为例,该情感标记对应的关键词集合例如可以包括开心、哈哈、呵呵和/或比心等关键词。对于观众用户在目标直播间内提交的交互语句,可以计算该交互语句和情感标记集合中的情感标记对应的关键词集合的匹配度,并将与该交互语句匹配度最高的关键词集合对应的情感标记,确定为该观众用户对应的目标情感标记。
可选地,具体的情感标记识别方法例如可以包括,通过NLP(Natural LanguageProcessing,自然语言处理)技术自动鉴别观众用户对应的目标情感标记。例如,将交互语句输入预先训练的情感识别模型,使得情感识别模型输出目标情感标记。其中,情感识别模型例如可以是用于情感分类的分类器等。在利用情感识别模型进行情感识别时,每次可以往情感识别模型输入一个或多个交互语句。应该理解,本说明书不对情感识别模型做具体限定。基于此,步骤201可以进一步包括:步骤2011,响应于获取到至少一个观众用户在目标直播间内提交的交互语句,将交互语句输入预先训练的情感识别模型,使得情感识别模型输出至少一个观众用户分别对应的目标情感标记。因而,图2对应的实施例描述的方法可以进一步如图8所示。其中,图8是根据本说明书的基于直播间的信息处理方法的一个实施例的流程图。
在步骤202中,可以根据目标情感标记,生成第一情感分析结果。需要指出,第一情感分析结果可以是本次直播过程中的累计结果,也可以不是累计结果,在此不做具体限定。
当第一情感分析结果是本次直播过程中的累计结果时,第一情感分析结果可以在本次直播过程中在先生成的情感分析结果(下文中称为第二情感分析结果)的基础上生成。当第一情感分析结果不是累计结果时,第一情感分析结果仅根据本轮识别出的目标情感标记而生成。
作为一种实现方式,若第一情感分析结果不是累计结果,或者第一情感分析结果是累计结果且上述流程200在本次直播过程中首次执行,则在步骤202中,可以在识别出的各个目标情感标记中,统计出互不相同的目标情感标记分别对应的出现频次。而后,可以生成第一情感分析结果,第一情感分析结果可以包括,该互不相同的目标情感标记,以及以下至少一项:该出现频次、该出现频次和该互不相同的目标情感标记的总出现频次的比值。其中,该比值可以视为出现频次所占比例。
应该理解,上述互不相同的目标情感标记中的任意一个目标情感标记对应的出现频次,是该目标情感标记在上述各个目标情感标记中的出现频次。
作为另一种实现方式,若第一情感分析结果是累计结果且上述流程200在本次直播过程中不是首次执行,则在步骤202中,可以获取本次直播过程中已生成的第二情感分析结果,根据目标情感标记,更新第二情感分析结果,并将更新后的第二情感分析结果确定为第一情感分析结果。
应该理解,第二情感分析结果和第一情感分析结果包括相同的字段,例如均包括情感标记和情感标记的以下至少一项:出现频次、出现频次所占比例。
假设本次直播过程中已生成的第二情感分析结果包括情感标记、出现频次和出现频次所占比例字段,对于识别出的任意一个目标情感标记,若该第二情感分析结果包括该目标情感标记,则可以在该第二情感分析结果中调整该目标情感标记的出现频次和出现频次所占比例。若该第二情感分析结果不包括该目标情感标记,则可以在该第二情感分析结果中,补入该目标情感标记、该目标情感标记的出现频次和出现频次所占比例。
在步骤203中,上述执行主体可以向目标直播间的主播提供第一情感分析结果。具体地,当上述执行主***于终端侧时,上述执行主体可以直接向主播展示第一情感分析结果。当上述执行主***于服务端侧时,上述执行主体可以将第一情感分析结果发送至目标直播间所在的主播版APP,使得主播版APP向主播展示第一情感分析结果。
作为一个示例,假设第一情感分析结果包括情感标记和出现频次两个字段,在步骤202中生成的第一情感分析结果包括[高兴:3,生气:1;中性:1],其中,数字3、1均是出现频次。该第一情感分析结果的展示效果可以如图3a所示。其中,图3a是第一情感分析结果的展示效果的一个示意图。
作为另一个示例,假设第一情感分析结果包括情感标记、出现频次和出现频次所占比例三个字段,在步骤202中生成的第一情感分析结果包括[高兴:<3,60%>,生气:<1,20%>;中性:<1,20%>],其中,数字3、1均是出现频次,百分比60%、20%均是出现频次所占比例。该第一情感分析结果的展示效果可以如图3b所示。其中,图3b是第一情感分析结果的展示效果的另一个示意图。
本实施例提供的方案,通过响应于获取到观众用户在目标直播间内提交的交互语句,根据交互语句,识别出观众用户对应的目标情感标记,而后根据目标情感标记,生成第一情感分析结果,以便向目标直播间的主播提供第一情感分析结果。由此,实现了富于针对性的信息生成,丰富了直播功能。并且,能使得主播通过第一情感分析结果,快速、***地掌握直播状况,进而根据直播状况及时做出直播调整,能有效地减轻主播的工作负担。另外,通过向主播提供第一情感分析结果,还能促使主播主动与观众用户进行有效沟通,例如在观众不满意比例(如消极情感的出现频次所占比例)达到一定比例时,主播可以暂停当前直播,连麦倾听观众意见。
实践中,本说明书实施例提供的基于直播间的信息处理方法,可以应用于不同的直播场景,例如电商直播场景、政务直播场景、教育直播场景和/或会议直播场景等等。
例如,在电商直播场景中,基于电商直播间的信息处理方法的流程可以如图4所示。图4是基于电商直播间的信息处理方法的一个实施例的流程图。该方法包括:步骤401,响应于获取到至少一个观众用户在电商直播间内提交的交互语句,根据交互语句,识别出至少一个观众用户分别对应的目标情感标记;步骤402,根据目标情感标记,生成第一情感分析结果;步骤403,向电商直播间的主播提供第一情感分析结果。
其中,电商直播间可以是供主播销售商品的直播间。该商品可以包括实物商品和/或虚拟商品等,在此不做具体限定。观众用户在电商直播间内可以提交任意交互语句,例如提交与主播或主播所销售的商品有关的交互语句等。
图4对应的实施例描述的方法,实现了富于针对性的信息生成,丰富了电商直播场景下的直播功能。并且,能使得电商直播间的主播通过第一情感分析结果,快速、***地掌握直播状况,进而根据直播状况及时做出直播调整,能有效地减轻主播的工作负担。
在政务直播场景中,基于政务直播间的信息处理方法的流程可以如图5所示。图5是基于政务直播间的信息处理方法的一个实施例的流程图。该方法包括:步骤501,响应于获取到至少一个观众用户在政务直播间内提交的交互语句,根据交互语句,识别出至少一个观众用户分别对应的目标情感标记;步骤502,根据目标情感标记,生成第一情感分析结果;步骤503,向政务直播间的主播提供第一情感分析结果。
其中,政务直播间可以是用于政务直播的直播间。政务一般指政府的事务性工作。政务直播可以包括与政府的事务性工作有关的直播。例如,政务直播可以包括但不限于与官员述职有关的直播、与听证会有关的直播、与政务公布和意见反馈收集有关的直播、适用于会议旁听的政务会议直播等等,本实施例不对政务直播的直播内容做任何限定。观众用户可以在政务直播间内提交任意交互语句,例如与主播或直播的政务内容有关的交互语句。
图5对应的实施例描述的方法,实现了富于针对性的信息生成,丰富了政务直播场景下的直播功能。并且,能使得政务直播间的主播通过第一情感分析结果,快速、***地掌握直播状况,进而根据直播状况及时做出直播调整,能有效地减轻主播的工作负担。
在教育直播场景中,基于教育直播间的信息处理方法的流程可以如图6所示。图6是基于教育直播间的信息处理方法的一个实施例的流程图。该方法包括:步骤601,响应于获取到至少一个观众用户在教育直播间内提交的交互语句,根据交互语句,识别出至少一个观众用户分别对应的目标情感标记;步骤602,根据目标情感标记,生成第一情感分析结果;步骤603,向教育直播间的主播提供第一情感分析结果。
其中,教育直播间可以是用于教育直播的直播间。实践中,自由教学执业者、学校里以及培训机构里的老师等,均可以利用教育直播间进行在线授课。观众用户可以在教育直播间内提交任意交互语句,例如与主播或直播的课程有关的交互语句等。
图6对应的实施例描述的方法,实现了富于针对性的信息生成,丰富了教育直播场景下的直播功能。并且,能使得教育直播间的主播通过第一情感分析结果,快速、***地掌握直播状况,进而根据直播状况及时做出直播调整,能有效地减轻主播的工作负担。
在会议直播场景中,基于会议直播间的信息处理方法的流程可以如图7所示。图7是基于会议直播间的信息处理方法的一个实施例的流程图。该方法包括:步骤701,响应于获取到至少一个观众用户在会议直播间内提交的交互语句,根据交互语句,识别出至少一个观众用户分别对应的目标情感标记;步骤702,根据目标情感标记,生成第一情感分析结果;步骤703,向会议直播间的主播提供第一情感分析结果。
其中,会议直播间可以是用于会议直播的直播间。会议直播可以包括与各种类别的会议有关的直播。该各种类别可以包括但不限于企业会议、学校的教务会议、国家机构的会议、社会组织会议等等。观众用户可以在会议直播间内提交任意交互语句,例如与主播、会议内容或会议流程等有关的交互语句。
图7对应的实施例描述的方法,实现了富于针对性的信息生成,丰富了会议直播场景下的直播功能。并且,能使得会议直播间的主播通过第一情感分析结果,快速、***地掌握直播状况,进而根据直播状况及时做出直播调整,能有效地减轻主播的工作负担。
可选地,主播版APP还可以具有交互语音播报功能,图2、图8分别对应的实施例的流程还可以包括个性化语音播报子流程。该子流程可以在主播针对目标直播间开启交互语音播报功能的情况下执行。具体地,该子流程在步骤201或步骤2011之后执行,包括:
步骤204,根据交互语句和目标情感标记,获取交互语句对应的交互语音数据;
步骤205,向目标直播间的主播提供交互语音数据。
其中,在步骤205中,当上述执行主***于终端侧时,上述执行主体可以直接向主播播放交互语音数据。当上述执行主***于服务端侧时,上述执行主体可以将交互语音数据发送至目标直播间所在的主播版APP,使得主播版APP向主播播放交互语音数据。需要指出,主播版APP所在的终端设备包括语音播放装置,例如扬声器等,主播版APP可以控制语音播放装置播放交互语音数据。
另外,在步骤204中,无论上述执行主体是位于终端侧,还是位于服务端侧,上述执行主体都可以采用本地获取方式获取交互语句对应的交互语音数据。其中,当该交互语句为评论语句时,该交互语音数据可称为评论语音数据。
可选地,当上述执行主***于终端侧时,也可以采用远程获取方式,获取交互语句对应的交互语音数据。例如,可以将交互语句和目标情感标记发送至相应的语音识别服务端,由语音识别服务端根据交互语句和目标情感标记,获取交互语句对应的交互语音数据,并返回交互语音数据。其中,语音识别服务端与前文中的情感识别服务端,可以是同一个服务端,也可以是不同的服务端,在此不做具体限定。
需要指出,本说明书中的交互语音数据,带有相应的目标情感标记指示的情感,是个性化的语音数据。
可选地,根据交互语句和目标情感标记,获取交互语句对应的交互语音数据,可以进一步包括:将交互语句和目标情感标记输入目标情感语音识别模型,使得目标情感语音识别模型输出交互语句对应的交互语音数据。通过对目标情感语音识别模型的有效利用,可以提升交互语音数据的获取效率和准确度。
目标情感语音合成模型可以通过以下方式进行训练:将第一信息作为输入,该第一信息至少包括文本信息和该文本信息对应的情感标记,将样本发声对象读出该文本信息的语音数据作为训练标签,对初始语音合成模型进行训练。其中,初始语音合成模型可以是经预训练的模型,也可以是未经预训练的模型,在此不做具体限定。
需要说明的是,第一信息中的情感标记,可以是前文中罗列的任意一个情感标记。样本发声对象通常是自然人。作为训练标签的语音数据,可以是样本发声对象采用普通话或某种方言读出的。方言通常是地方语言,例如可以包括四川话、东北话、河南话、广东话、山东话和/或陕西话等等。应该理解,本说明书不对方言的种类做具体限定。
可选地,在步骤204之前,还可以包括:根据目标情感标记,在预先训练的多个情感语音合成模型中,确定出目标情感语音合成模型。
作为一种实现方式,预设的第一情感标记组可以对应至少一种方言,第一情感标记属于消极情感,上述多个情感语音合成模型包括,该至少一种方言分别对应的情感语音合成模型。若目标情感标记包含在第一情感标记组中,则可以从该至少一种方言中选取出一种方言,例如随机选取出一种方言,并将该方言对应的情感语音合成模型,确定为目标情感语音合成模型。
其中,任意一个第一情感标记可以包括生气或愤怒等。上述至少一种方言中的任意一种方言,可以是能用于活跃氛围、趣味性较高的方言,例如东北话或四川话等。该方言对应的情感语音合成模型的训练标签,是采用该方言的语音数据。利用该方言对应的情感语音合成模型进行情感语音合成,能合成采用该方言的个性化的交互语音数据。
参看图3c,其是个性化语音播报子流程的一个示意图。以上述执行主体为服务端,交互语句包括评论语句为例,并且在该子流程中,假设上述至少一种方言包括四川话。如图3c所示,若服务端根据观众用户的评论语句,识别出观众用户对应生气情感标记,则服务端可以从上述至少一种方言中选取出一种方言,例如选取出四川话,并将四川话对应的情感语音合成模型确定为目标语音合成模型。之后,服务端可以将评论语句和生气情感标记输入目标情感语音合成模型,使得目标情感语音合成模型输出合成的评论语音数据。而后,服务端可以将评论语音数据发送至目标直播间所在的主播版APP。然后,主播版APP可以向主播播放评论语音数据。
需要说明的是,当目标情感标记为第一情感标记时,例如生气或愤怒等,通过选择上述至少一种方言中的方言对应的情感语音合成模型,作为目标情感语音合成模型,可以利用目标情感语音合成模型,根据交互语句和目标情感标记,合成个性化的交互语音数据,使得该交互语音数据较为搞怪、具有较高的趣味性。通过向主播提供该交互语音数据,可以有效调节直播氛围。
作为另一种实现方式,将上述至少一种方言分别对应的情感语音合成模型称为第一模型,若目标情感标记未包含在第一情感标记组中,则可以在上述多个情感语音合成模型中的除第一模型以外的第二模型中,确定出目标情感语音合成模型。例如,随机选取出一个第二模型作为目标情感语音合成模型,或者选取普通话对应的第二模型作为目标情感语音合成模型,或者随机选取一个对应方言的第二模型作为目标情感语音合成模型,在此不做具体限定。
可选地,为了丰富直播功能,活跃直播氛围,上述个性化语音播报子流程还可以包括语音模板提供步骤。该语音模板提供步骤可以在步骤205之后执行。具体地,该语音模板提供步骤可以包括:响应于目标情感标记包含在预设的第二情感标记组中,向主播提供目标语音模板。需要指出,当上述执行主***于终端侧时,上述执行主体可以直接向主播播放目标语音模板。当上述执行主***于服务端侧时,上述执行主体可以将目标语音模板发送至目标直播间所在的主播版APP,使得主播版APP向主播播放目标语音模板。
其中,任意一个第二情感标记属于积极情感,该第二情感标记例如可以包括高兴或兴奋等。实践中,目标语音模板表达积极情感,并且可以预先设置。目标语音模板可称为目标语音彩蛋,其语义例如可以包括“给你一个大大的赞”或“棒棒滴”等,在此不做具体限定。
可选地,目标情感语音合成模型可以对应样本发声对象和目标语音模板。目标语音模板可以通过对样本发声对象读出样本文本模板的声音进行录制而得到。其中,样本文本模板表达积极情感。样本文本模板可称为样本文本彩蛋,其文本内容例如可以包括“给你一个大大的赞”或“棒棒滴”等。应该理解,样本文本模板可以根据实际需求设置,本说明书对此不做具体限定。
在利用目标情感语音合成模型获得交互语音数据的基础上,向主播提供的目标语音模板,可以是目标情感语音合成模型对应的目标语音模板。
参看图3d,其是个性化语音播报子流程的另一个示意图。以上述执行主体为服务端,交互语句包括评论语句为例,并且在该子流程中,假设第二情感标记组中存在高兴情感标记。如图3d所示,若服务端根据观众用户的评论语句,识别出观众用户对应高兴情感标记,则服务端可以将评论语句和高兴情感标记输入目标情感语音合成模型,使得目标情感语音合成模型输出合成的评论语音数据。其中,目标情感语音合成模型对应目标语音彩蛋。之后,服务端可以将评论语音数据和目标语音彩蛋发送(例如同时发送或分别发送)至目标直播间所在的主播版APP。然后,主播版APP可以向主播依次播放评论语音数据、目标语音彩蛋。
进一步参考图9,本说明书提供了一种基于直播间的信息处理方法的一个实施例的流程900。该方法的执行主体可以为如图1所示的服务端104、终端设备105或终端设备105上安装的主播版APP。该方法包括以下步骤:
步骤901,响应于获取到观众用户在目标直播间内提交的交互语句,根据交互语句,识别出观众用户对应的目标情感标记;
步骤902,根据交互语句和目标情感标记,获取交互语句对应的交互语音数据;
步骤903,向目标直播间的主播提供交互语音数据。
其中,在步骤901中,观众用户的数量可以为一个或多个,在此不做具体限定。另外,关于步骤901-903的解释说明,可参考前文中的相关描述,在此不再赘述。
本实施例提供的基于直播间的信息处理方法,通过响应于获取到观众用户在目标直播间内提交的交互语句,根据交互语句,识别出观众用户对应的目标情感标记,而后根据交互语句和目标情感标记,获取交互语句对应的交互语音数据,以便向目标直播间的主播提供个性化的交互语音数据。由此,可以丰富直播功能,以及有效调节直播氛围。
进一步参考图10,本说明书提供了一种基于直播间的信息处理装置的一个实施例,该装置可以应用于如图1所示的服务端104、终端设备105或终端设备105上安装的主播版APP。
如图10所示,本实施例的基于直播间的信息处理装置1000包括:情感识别单元1001、生成单元1002和提供单元1003。其中,情感识别单元1001被配置成响应于获取到至少一个观众用户在目标直播间内提交的交互语句,根据交互语句,识别出至少一个观众用户分别对应的目标情感标记;生成单元1002被配置成根据目标情感标记,生成第一情感分析结果;提供单元1003被配置成向目标直播间的主播提供第一情感分析结果。
可选地,情感识别单元1001可以进一步被配置成:将交互语句输入预先训练的情感识别模型,使得情感识别模型输出目标情感标记。
进一步参考图11,本说明书提供了一种基于直播间的信息处理装置的一个实施例,该装置可以应用于如图1所示的服务端104、终端设备105或终端设备105上安装的主播版APP。
如图11所示,本实施例的基于直播间的信息处理装置1100包括:情感识别单元1101、生成单元1102和提供单元1103。其中,情感识别单元1101被配置成响应于获取到至少一个观众用户在目标直播间内提交的交互语句,将交互语句输入预先训练的情感识别模型,使得情感识别模型输出至少一个观众用户分别对应的目标情感标记;生成单元1102被配置成根据目标情感标记,生成第一情感分析结果;提供单元1103被配置成向目标直播间的主播提供第一情感分析结果。
可选地,在图10、11分别对应的实施例中,目标情感标记可以包括以下任一项:中性、积极情感、消极情感。其中,该积极情感可以包括以下任一项:高兴、兴奋、崇拜等。该消极情感可以包括以下任一项:生气、愤怒、悲伤、厌恶、害怕等。
可选地,生成单元1002和/或生成单元1102可以进一步被配置成:统计出互不相同的目标情感标记分别对应的出现频次;生成第一情感分析结果,第一情感分析结果包括,该互不相同的目标情感标记,以及以下至少一项:该出现频次、该出现频次和该互不相同的目标情感标记的总出现频次的比值。
可选地,生成单元1002和/或生成单元1102可以进一步被配置成:获取本次直播过程中已生成的第二情感分析结果;根据目标情感标记,更新第二情感分析结果,并将更新后的第二情感分析结果确定为第一情感分析结果。
可选地,上述装置1000和/或上述装置1100还可以包括:获取单元(图中未示出),被配置成在情感识别单元识别出观众用户对应的目标情感标记之后,根据交互语句和目标情感标记,获取交互语句对应的交互语音数据;语音提供单元(图中未示出),被配置成向主播提供交互语音数据。
可选地,上述获取单元可以进一步被配置成:将交互语句和目标情感标记输入目标情感语音合成模型,使得目标情感语音合成模型输出交互语音数据。
可选地,上述获取单元还可以被配置成:根据目标情感标记,在预先训练的多个情感语音合成模型中,确定出目标情感语音合成模型。
可选地,预设的第一情感标记组可以对应至少一种方言,第一情感标记属于消极情感,上述多个情感语音合成模型可以包括,该至少一种方言分别对应的情感语音合成模型;以及上述获取单元可以进一步被配置成:若目标情感标记包含在第一情感标记组中,则从该至少一种方言中选取出一种方言,并将该方言对应的情感语音合成模型,确定为目标情感语音合成模型。其中,任意一个第一情感标记可以包括高兴或兴奋等。
可选地,上述语音提供单元还可以被配置成:在向主播提供交互语音数据之后,响应于目标情感标记包含在预设的第二情感标记组中,向主播提供目标语音模板,其中,任意一个第二情感标记属于积极情感,目标语音模板表达积极情感。进一步地,该第二情感标记可以包括高兴或兴奋等。
可选地,目标情感语音合成模型可以对应样本发声对象和目标语音模板,目标语音模板通过对样本发声对象读出样本文本模板的声音进行录制而得到,样本文本模板表达积极情感。
进一步参考图12,本说明书提供了一种基于直播间的信息处理装置的一个实施例,该装置可以应用于如图1所示的服务端104、终端设备105或终端设备105上安装的主播版APP。
如图12所示,本实施例的基于直播间的信息处理装置1200包括:情感识别单元1201、获取单元1202和提供单元1203。其中,情感识别单元1201被配置成响应于获取到观众用户在电商直播间内提交的交互语句,根据交互语句,识别出观众用户对应的目标情感标记;获取单元1202被配置成根据交互语句和目标情感标记,获取交互语句对应的交互语音数据;提供单元1203被配置成向目标直播间的主播提供交互语音数据。
进一步参考图13,本说明书提供了一种基于电商直播间的信息处理装置的一个实施例,该装置可以应用于电商直播场景中的服务端、主播版APP或主播版APP所在的终端设备。
如图13所示,本实施例的基于电商直播间的信息处理装置1300包括:情感识别单元1301、生成单元1302和提供单元1303。其中,情感识别单元1301被配置成响应于获取到至少一个观众用户在电商直播间内提交的交互语句,根据交互语句,识别出至少一个观众用户分别对应的目标情感标记;生成单元1302被配置成根据目标情感标记,生成第一情感分析结果;提供单元1303被配置成向电商直播间的主播提供第一情感分析结果。
进一步参考图14,本说明书提供了一种基于政务直播间的信息处理装置的一个实施例,该装置可以应用于政务直播场景中的服务端、主播版APP或主播版APP所在的终端设备。
如图14所示,本实施例的基于政务直播间的信息处理装置1400包括:情感识别单元1401、生成单元1402和提供单元1403。其中,情感识别单元1401被配置成响应于获取到至少一个观众用户在政务直播间内提交的交互语句,根据交互语句,识别出至少一个观众用户分别对应的目标情感标记;生成单元1402被配置成根据目标情感标记,生成第一情感分析结果;提供单元1403被配置成向政务直播间的主播提供第一情感分析结果。
进一步参考图15,本说明书提供了一种基于教育直播间的信息处理装置的一个实施例,该装置可以应用于教育直播场景中的服务端、主播版APP或主播版APP所在的终端设备。
如图15所示,本实施例的基于教育直播间的信息处理装置1500包括:情感识别单元1501、生成单元1502和提供单元1503。其中,情感识别单元1501被配置成响应于获取到至少一个观众用户在教育直播间内提交的交互语句,根据交互语句,识别出至少一个观众用户分别对应的目标情感标记;生成单元1502被配置成根据目标情感标记,生成第一情感分析结果;提供单元1503被配置成向教育直播间的主播提供第一情感分析结果。
进一步参考图16,本说明书提供了一种基于会议直播间的信息处理装置的一个实施例,该装置可以应用于会议直播场景中的服务端、主播版APP或主播版APP所在的终端设备。
如图16所示,本实施例的基于会议直播间的信息处理装置1600包括:情感识别单元1601、生成单元1602和提供单元1603。其中,情感识别单元1601被配置成响应于获取到至少一个观众用户在会议直播间内提交的交互语句,根据交互语句,识别出至少一个观众用户分别对应的目标情感标记;生成单元1602被配置成根据目标情感标记,生成第一情感分析结果;提供单元1603被配置成向会议直播间的主播提供第一情感分析结果。
在图10-图16分别对应的装置实施例中,各单元的具体处理及其带来的技术效果可分别参考相应的方法实施例中的相关说明,在此不再赘述。
本说明书实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,其中,当该计算机程序在计算机中执行时,令计算机执行以上各方法实施例分别描述的方法。
本说明书实施例还提供了一种计算设备,包括存储器和处理器,其中,该存储器中存储有可执行代码,该处理器执行该可执行代码时,实现以上各方法实施例分别描述的方法。
本说明书实施例还提供了一种计算机程序产品,当在数据处理设备上执行时,使得数据处理设备实现以上各方法实施例分别所示的描述的方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本说明书披露的多个实施例所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述的具体实施方式,对本说明书披露的多个实施例的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本说明书披露的多个实施例的具体实施方式而已,并不用于限定本说明书披露的多个实施例的保护范围,凡在本说明书披露的多个实施例的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本说明书披露的多个实施例的保护范围之内。

Claims (26)

1.一种基于直播间的信息处理方法,包括:
响应于获取到至少一个观众用户在目标直播间内提交的交互语句,将所述交互语句输入预先训练的情感识别模型,使得所述情感识别模型输出所述至少一个观众用户分别对应的目标情感标记;
根据所述目标情感标记,生成第一情感分析结果;
向所述目标直播间的主播提供所述第一情感分析结果。
2.根据权利要求1所述的方法,其中,所述根据所述目标情感标记,生成第一情感分析结果,包括:
统计出互不相同的目标情感标记分别对应的出现频次;
生成第一情感分析结果,所述第一情感分析结果包括,所述互不相同的目标情感标记,以及以下至少一项:所述出现频次、所述出现频次和所述互不相同的目标情感标记的总出现频次的比值。
3.根据权利要求1所述的方法,其中,所述根据所述目标情感标记,生成第一情感分析结果,包括:
获取本次直播过程中已生成的第二情感分析结果;
根据所述目标情感标记,更新所述第二情感分析结果,并将更新后的所述第二情感分析结果确定为所述第一情感分析结果。
4.根据权利要求1所述的方法,其中,在使得所述情感识别模型输出所述至少一个观众用户分别对应的目标情感标记之后,所述方法还包括:
根据所述交互语句和所述目标情感标记,获取所述交互语句对应的交互语音数据;
向所述主播提供所述交互语音数据。
5.根据权利要求4所述的方法,其中,所述根据所述交互语句和所述目标情感标记,获取所述交互语句对应的交互语音数据,包括:
将所述交互语句和所述目标情感标记输入目标情感语音合成模型,使得所述目标情感语音合成模型输出所述交互语音数据。
6.根据权利要求5所述的方法,其中,在所述将所述交互语句和所述目标情感标记输入目标情感语音合成模型之前,所述方法还包括:
根据所述目标情感标记,在预先训练的多个情感语音合成模型中,确定出所述目标情感语音合成模型。
7.根据权利要求6所述的方法,其中,预设的第一情感标记组对应至少一种方言,第一情感标记属于消极情感,所述多个情感语音合成模型包括,所述至少一种方言分别对应的情感语音合成模型;以及
所述根据所述目标情感标记,在预先训练的多个情感语音合成模型中,确定出所述目标情感语音合成模型,包括:
若所述目标情感标记包含在所述第一情感标记组中,则从所述至少一种方言中选取出一种方言,并将该方言对应的情感语音合成模型,确定为所述目标情感语音合成模型。
8.根据权利要求4-7之一所述的方法,其中,在所述向所述主播提供所述交互语音数据之后,所述方法还包括:
响应于所述目标情感标记包含在预设的第二情感标记组中,向所述主播提供目标语音模板,其中,第二情感标记属于积极情感,所述目标语音模板表达积极情感。
9.根据权利要求5所述的方法,其中,所述目标情感语音合成模型对应样本发声对象和目标语音模板,所述目标语音模板通过对所述样本发声对象读出样本文本模板的声音进行录制而得到,所述样本文本模板表达积极情感。
10.根据权利要求1所述的方法,其中,所述目标情感标记包括以下任一项:中性、积极情感、消极情感。
11.根据权利要求10所述的方法,其中,
所述积极情感包括以下任一项:高兴、兴奋、崇拜;
所述消极情感包括以下任一项:生气、愤怒、悲伤、厌恶、害怕。
12.一种基于直播间的信息处理方法,包括:
响应于获取到至少一个观众用户在目标直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;
根据所述目标情感标记,生成第一情感分析结果;
向所述目标直播间的主播提供所述第一情感分析结果。
13.一种基于直播间的信息处理方法,包括:
响应于获取到观众用户在目标直播间内提交的交互语句,根据所述交互语句,识别出所述观众用户对应的目标情感标记;
根据所述交互语句和所述目标情感标记,获取所述交互语句对应的交互语音数据;
向所述目标直播间的主播提供所述交互语音数据。
14.一种基于电商直播间的信息处理方法,包括:
响应于获取到至少一个观众用户在电商直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;
根据所述目标情感标记,生成第一情感分析结果;
向所述电商直播间的主播提供所述第一情感分析结果。
15.一种基于政务直播间的信息处理方法,包括:
响应于获取到至少一个观众用户在政务直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;
根据所述目标情感标记,生成第一情感分析结果;
向所述政务直播间的主播提供所述第一情感分析结果。
16.一种基于教育直播间的信息处理方法,包括:
响应于获取到至少一个观众用户在教育直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;
根据所述目标情感标记,生成第一情感分析结果;
向所述教育直播间的主播提供所述第一情感分析结果。
17.一种基于会议直播间的信息处理方法,包括:
响应于获取到至少一个观众用户在会议直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;
根据所述目标情感标记,生成第一情感分析结果;
向所述会议直播间的主播提供所述第一情感分析结果。
18.一种基于直播间的信息处理装置,包括:
情感识别单元,被配置成响应于获取到至少一个观众用户在目标直播间内提交的交互语句,将所述交互语句输入预先训练的情感识别模型,使得所述情感识别模型输出所述至少一个观众用户分别对应的目标情感标记;
生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;
提供单元,被配置成向所述目标直播间的主播提供所述第一情感分析结果。
19.一种基于直播间的信息处理装置,包括:
情感识别单元,被配置成响应于获取到至少一个观众用户在目标直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;
生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;
提供单元,被配置成向所述目标直播间的主播提供所述第一情感分析结果。
20.一种基于直播间的信息处理装置,包括:
情感识别单元,被配置成响应于获取到观众用户在目标直播间内提交的交互语句,根据所述交互语句,识别出所述观众用户对应的目标情感标记;
获取单元,被配置成根据所述交互语句和所述目标情感标记,获取所述交互语句对应的交互语音数据;
提供单元,被配置成向所述目标直播间的主播提供所述交互语音数据。
21.一种基于电商直播间的信息处理装置,包括:
情感识别单元,被配置成响应于获取到至少一个观众用户在电商直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;
生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;
提供单元,被配置成向所述电商直播间的主播提供所述第一情感分析结果。
22.一种基于政务直播间的信息处理装置,包括:
情感识别单元,被配置成响应于获取到至少一个观众用户在政务直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;
生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;
提供单元,被配置成向所述政务直播间的主播提供所述第一情感分析结果。
23.一种基于教育直播间的信息处理装置,包括:
情感识别单元,被配置成响应于获取到至少一个观众用户在教育直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;
生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;
提供单元,被配置成向所述教育直播间的主播提供所述第一情感分析结果。
24.一种基于会议直播间的信息处理装置,包括:
情感识别单元,被配置成响应于获取到至少一个观众用户在会议直播间内提交的交互语句,根据所述交互语句,识别出所述至少一个观众用户分别对应的目标情感标记;
生成单元,被配置成根据所述目标情感标记,生成第一情感分析结果;
提供单元,被配置成向所述会议直播间的主播提供所述第一情感分析结果。
25.一种计算机可读存储介质,其上存储有计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-17中任一项所述的方法。
26.一种计算设备,包括存储器和处理器,其中,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-17中任一项所述的方法。
CN202110057957.XA 2021-01-15 2021-01-15 基于直播间的信息处理方法及装置 Pending CN114765033A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110057957.XA CN114765033A (zh) 2021-01-15 2021-01-15 基于直播间的信息处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110057957.XA CN114765033A (zh) 2021-01-15 2021-01-15 基于直播间的信息处理方法及装置

Publications (1)

Publication Number Publication Date
CN114765033A true CN114765033A (zh) 2022-07-19

Family

ID=82364809

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110057957.XA Pending CN114765033A (zh) 2021-01-15 2021-01-15 基于直播间的信息处理方法及装置

Country Status (1)

Country Link
CN (1) CN114765033A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116884392A (zh) * 2023-09-04 2023-10-13 浙江鑫淼通讯有限责任公司 一种基于数据分析的语音情感识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116884392A (zh) * 2023-09-04 2023-10-13 浙江鑫淼通讯有限责任公司 一种基于数据分析的语音情感识别方法
CN116884392B (zh) * 2023-09-04 2023-11-21 浙江鑫淼通讯有限责任公司 一种基于数据分析的语音情感识别方法

Similar Documents

Publication Publication Date Title
CN110033659B (zh) 一种远程教学互动方法、服务器、终端以及***
CN107203953B (zh) 一种基于互联网、表情识别和语音识别的教学***及其实现方法
US9621851B2 (en) Augmenting web conferences via text extracted from audio content
JP2021168139A (ja) マンマシンインタラクションのための方法、装置、機器および媒体
JP2022534708A (ja) 動的に反応する仮想キャラクターのためのマルチモーダルモデル
CN114125492B (zh) 直播内容生成方法以及装置
CN112399258A (zh) 直播回放视频生成播放方法、装置、存储介质及电子设备
CN108877803B (zh) 用于呈现信息的方法和装置
Teófilo et al. Exploring virtual reality to enable deaf or hard of hearing accessibility in live theaters: A case study
CN106027485A (zh) 基于语音交互的富媒体展示方法及***
KR20180105861A (ko) 외국어 학습 어플리케이션 및 이에 포함된 콘텐츠를 이용한 외국어 학습 시스템
CN109326151A (zh) 基于语义驱动虚拟形象的实现方法、客户端和服务器
CN111711834A (zh) 录播互动课的生成方法、装置、存储介质以及终端
CN110046290B (zh) 一种个性化自主教学课程***
CN104932862A (zh) 基于语音识别的多角色交互方法
CN114765033A (zh) 基于直播间的信息处理方法及装置
CN113253838A (zh) 基于ar的视频教学方法、电子设备
CN110781327B (zh) 图像搜索方法、装置、终端设备及存储介质
CN113963306B (zh) 基于人工智能的课件片头制作方法和装置
US20220208190A1 (en) Information providing method, apparatus, and storage medium, that transmit related information to a remote terminal based on identification information received from the remote terminal
CN111160051B (zh) 数据处理方法、装置、电子设备及存储介质
CN114201596A (zh) 虚拟数字人使用方法、电子设备和存储介质
CN110059231B (zh) 一种回复内容的生成方法及装置
US20240153398A1 (en) Virtual meeting coaching with dynamically extracted content
ZHANG et al. AidServer: Design and Research of a Communication Accessibility Service System for Hearing Impaired Servers in Silent Restaurants

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination