CN115392227A - 一种虚拟对象的情绪曲线生成方法 - Google Patents
一种虚拟对象的情绪曲线生成方法 Download PDFInfo
- Publication number
- CN115392227A CN115392227A CN202110566639.6A CN202110566639A CN115392227A CN 115392227 A CN115392227 A CN 115392227A CN 202110566639 A CN202110566639 A CN 202110566639A CN 115392227 A CN115392227 A CN 115392227A
- Authority
- CN
- China
- Prior art keywords
- emotion
- parameter
- text
- generating
- text information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 309
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000008859 change Effects 0.000 claims abstract description 34
- 230000002996 emotional effect Effects 0.000 claims description 63
- 238000004458 analytical method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 24
- 230000006399 behavior Effects 0.000 claims description 17
- 238000009825 accumulation Methods 0.000 claims description 12
- 230000003542 behavioural effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 230000015556 catabolic process Effects 0.000 claims 1
- 238000006731 degradation reaction Methods 0.000 claims 1
- 230000036651 mood Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- XOFYZVNMUHMLCC-ZPOLXVRWSA-N prednisone Chemical compound O=C1C=C[C@]2(C)[C@H]3C(=O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 XOFYZVNMUHMLCC-ZPOLXVRWSA-N 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 3
- 244000144730 Amygdalus persica Species 0.000 description 2
- 235000006040 Prunus persica var persica Nutrition 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种虚拟对象的情绪曲线生成方法,包括:获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。本申请的技术方案通过对目标文本信息进行分析,确定目标文本信息中各个文本段包含的虚拟对象的情绪参数,同时结合预设的人格参数,生成连续的情绪曲线,使所述虚拟对象展现目标信息时产生的情绪变化具个性化,拟人化。
Description
技术领域
本申请涉及人工智能领域,具体涉及一种虚拟对象的情绪曲线生成方法。
背景技术
人的各种情感、动机等深层信息在人机交往中扮演着重要角色。随着人工智能的兴起,人们越来越希望在人机交互的过程中赋予机器人、虚拟人情感表达的能力,从而为用户提供播报、推荐等服务。
但现有的人机交互技术中,虚拟人的播报语音文本时的行为设定大多比较单一,且虚拟人在播报语音文本时输出的语音信息和展现的行为信息过于生硬,其表现结果往往缺乏多样性和连续性,无法满足用户对虚拟人信息播报的期望,也无法持久吸引用户的兴趣。因此,如何使虚拟人以一种丰富、连续的行为表达方式展现语音文本成为本领域技术人员所面临的问题。
发明内容
本申请提供一种虚拟对象的情绪曲线生成方法,以解决现有技术中存在的上述问题。本申请同时提供一种虚拟对象的情绪曲线生成装置、电子设备。
本申请提供的虚拟对象的情绪曲线生成方法,用于建构一多媒体档案的虚拟角色的行为表现,其特征在于,包括:
获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;
根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;
根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;
根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
可选的,所述获得虚拟对象的目标文本信息的步骤之后,进行如下步骤:
对所述目标文本信息进行词句粒度解析,获得所述目标文本信息中与时间区间对应的文本段。
可选的,所述针对其中包含的文本段,获得对应每个文本段的情绪特征,以及可能存在的意图特征,包括:
对所述文本段进行情绪特征分析以及意图特征分析,获得所述文本段对应的情绪特征,以及获得与至少一个文本段对应的意图特征。
可选的,所述情绪参数为多维情绪参数。
可选的,所述情绪特征包括第一子情绪参数,所述意图特征包括第二子情绪参数;
所述根据所述意图特征和/或情绪特征,生成对应每个文本段的情绪参数,包括:根据所述第一子情绪参数和/或所述第二子情绪参数,生成对应所述每个时间区间的文本段的情绪参数。
可选的,所述根据所述第一子情绪参数和/或所述第二子情绪参数,生成对应所述每个时间区间的文本段的情绪参数,包括:
确定所述第一子情绪参数和所述第二子情绪参数的权重数据;
根据所述权重数据对所述第一子情绪参数和所述第二子情绪参数进行加权处理,获得加权处理后的情绪参数作为对应所述每个时间区间的文本段的情绪参数。
可选的,所述根据预设的人格参数和所述情绪参数,生成对应所述连续的多个时间区间的情绪曲线,包括:
根据相邻时间区间的所述情绪参数和所述预设的人格参数,生成对应所述相邻时间区间的情绪曲线;
根据所述相邻时间区间的情绪曲线,获得对应所述连续的多个时间区间的情绪曲线。
可选的,所述根据相邻时间区间的所述情绪参数和所述预设的人格参数,生成对应所述相邻时间区间的情绪曲线,包括:
根据所述预设的人格参数,确定由一个文本段的情绪参数变化到与之相邻另一文本段的情绪参数的过程中,所述相邻时间区间内情绪曲线的变化速度。
可选的,所述相邻时间区间内的不同时间点处的所述情绪曲线的变化速度不同。
可选的,所述变化速度包括情绪积累速度和/或情绪衰退速度。
本申请还提供一种虚拟对象的情绪曲线生成装置,用于建构一多媒体档案的虚拟角色的行为表现,包括:
文本获得模块,用于获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;
文本分析模块,用于根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;
参数生成模块,用于根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;
曲线生成模块,用于根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
可选的,还包括:
解析模块,用于对所述目标文本信息进行词句粒度解析,获得所述目标文本信息中与时间区间对应的文本段。
可选的,所述文本分析模块,包括:
文本段分析子模块,用于对所述文本段进行情绪特征分析以及意图特征分析,获得所述文本段对应的情绪特征,以及获得与至少一个文本段对应的意图特征。
可选的,所述情绪参数为多维情绪参数。
可选的,所述情绪特征包括第一子情绪参数,所述意图特征包括第二子情绪参数;
所述参数生成模块,具体用于根据所述第一子情绪参数和/或所述第二子情绪参数,生成对应所述每个时间区间的文本段的情绪参数。
可选的,所述根据所述第一子情绪参数和/或所述第二子情绪参数,生成对应所述每个时间区间的文本段的情绪参数,包括:
确定所述第一子情绪参数和所述第二子情绪参数的权重数据;
根据所述权重数据对所述第一子情绪参数和所述第二子情绪参数进行加权处理,获得加权处理后的情绪参数作为对应所述每个时间区间的文本段的情绪参数。
可选的,所述曲线生成模块,包括:
第一情绪曲线生成子单元,用于根据相邻时间区间的所述情绪参数和所述预设的人格参数,生成对应所述相邻时间区间的情绪曲线;
第二情绪曲线生成子单元,用于根据所述相邻时间区间的情绪曲线,获得对应所述连续的多个时间区间的情绪曲线。
可选的,所述根据相邻时间区间的所述情绪参数和所述预设的人格参数,生成对应所述相邻时间区间的情绪曲线,包括:
根据所述预设的人格参数,确定由一个文本段的情绪参数变化到与之相邻另一文本段的情绪参数的过程中,所述相邻时间区间内情绪曲线的变化速度。
可选的,所述相邻时间区间内的不同时间点处的所述情绪曲线的变化速度不同。
可选的,所述变化速度包括情绪积累速度和/或情绪衰退速度。
本申请还提供一种电子设备,所述电子设备用于建构一多媒体档案的虚拟角色的行为表现,包括:
处理器;以及
存储器,用于存储确定虚拟对象的行为特征的方法的程序,该设备通过处理器运行所述程序后,执行以下步骤:获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
本申请同时还提供一种计算机存储介质,所述计算机存储介质用于建构一多媒体档案的虚拟角色的行为表现,所述计算机存储介质存储有计算机程序,所述程序被执行时实现以下步骤:获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
与现有技术相比,本申请具有以下优点:
本申请提供一种虚拟对象的情绪曲线生成方法,用于建构一多媒体档案的虚拟角色的行为表现,包括:获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。本申请的技术方案通过对目标文本信息进行分析,确定目标文本信息中各个文本段包含的虚拟对象的情绪参数,同时结合预设的人格参数,生成连续的情绪曲线,使所述虚拟对象展现目标信息时产生的情绪变化具个性化,拟人化。
附图说明
图1为本申请提供的虚拟对象的情绪曲线生成方法的应用场景示意图;
图2为本申请第一实施例提供的虚拟对象的情绪曲线生成方法流程图;
图3为本申请第一实施例提供的情绪曲线的示意图;
图4为本申请第二实施例提供的虚拟对象的情绪曲线生成装置的结构示意图;
图5为本申请第三实施例提供的电子设备结构示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是,本申请能够以很多不同于在此描述的其他方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此,本申请不受下面公开的具体实施例的限制。
本申请提供了一种虚拟对象的情绪曲线生成方法,同时还提供一种虚拟对象的情绪曲线生成装置以及电子设备。在下面的实施例中逐一进行详细说明。
本申请实施例提供的所述虚拟对象的情绪曲线生成方法,其核心在于:通过对目标文本信息进行分析,确定目标文本信息中各个文本段包含的虚拟对象的情绪参数,同时结合预设的人格参数,生成连续的情绪曲线,使所述虚拟对象展现目标文本信息时产生的情绪变化具有个性化,拟人化的特点。
请参考图1,其为本申请提供的虚拟对象的情绪曲线生成方法的应用场景示意图。
图1中包括目标文本信息101、服务器102、客户端103。其中,客户端103用于展示虚拟对象。所述虚拟对象可以是网络直播平台构建的虚拟主播,所述服务器102是直播平台对应的数据服务器。
所述服务器102能够对所述目标文本信息101进行分析,获得所述目标文本信息101中的连续的多个时间区间的多个文本段,以及所述文本段对应的情绪特征和/或意图特征,所述意图特征是指期望虚拟对象通过播报所述目标文本信息101达成的目标,例如:具体到虚拟主播,虚拟主播播报目标信息以获得更多的点赞和关注。
所述服务器102获得各个文本段对应的情绪特征和意图特征后,将所述情绪特征和意图特征进行融合处理,获得各个文本段对应的情绪参数,同时结合为所述虚拟对象预设的人格参数,结合各个相邻时间区间内的文本段对应的情绪参数,获得所述目标文本信息101对应的情绪曲线,并将所述情绪曲线发送至所述客户端103。所述客户端103控制所述虚拟对象按照所述情绪曲线,播报所述目标文本信息101。
需要说明的是,本申请并不对所述虚拟对象的情绪曲线生成方法的应用场景进行限定,所述虚拟对象的情绪曲线生成方法不仅可以应用于上述构建虚拟主播的情绪曲线,还可以构建例如:虚拟电商、虚拟偶像、虚拟教室、动画人物等虚拟对象的情绪曲线。因此,上述对本申请应用场景的介绍只是为了便于理解本申请,并非用于限定本申请的应用。
为了便于理解上述虚拟对象的情绪曲线生成过程,本申请第一实施例提供一种虚拟对象的情绪曲线生成方法,所述方法用于建构一多媒体档案的虚拟角色的行为表现。请参考图2,其为本申请第一实施例提供的虚拟对象的情绪曲线生成方法流程图,该方法包括如下步骤:
步骤S201,获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段。
所述虚拟对象是指以虚构的、模拟人类行为特征的对象,例如:虚拟主播、机器人等。所述虚拟对象可以通过不同的渠道展现给大众,例如:虚拟主播可以通过网络平台被用户熟知、服务机器人也可以在各个领域为用户服务(例如:指路机器人、点餐机器人等)。
所述目标文本信息一般为需要采用语音形式的播报的文本信息,但在特殊情况下,也可以存在不包含播放内容的目标信息;例如仅仅指示虚拟人作出微笑表情的目标信息。所述目标文本信息具体是指虚拟对象播报、问答等互动过程中的文本信息,在具体应用过程中,所述目标文本信息可以通过多种方式获得,例如:人工设置、模型生成等,本实施例对此不做限制。
在本申请第一实施例中,所述目标文本信息中包含的对应连续的时间区间的文本段基于对目标文本信息进行词句粒度分析得到的。所述词句粒度分析是对文本信息中的包含的各个字或词进行分析,并获得字或词对应的情绪特征和/或意图特征的过程。在这里,认为如果在对目标文本信息进行分析的过程中,获得了目标文本信息的字或词对应的情绪特征和/或意图特征,则该情绪特征和/或意图特征对应的字或词之前的文本信息为一个文本段,进一步的,如果在该字或词之后仍然存在包含情绪特征和/或意图特征的字和/或词,则认为这两个字或词之间的文本信息为一个文本段。
步骤S202,根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征。
所述情绪特征,是指期望所述虚拟对象在下一时刻展现的情绪特征,一般情况下,所述情绪特征是指心理情况的外在表露,其属于自然人的一种属性,在自然语言中存在大量表达人类情绪的词汇,例如:高兴、悲伤、兴奋、愤怒等,但是这些词汇并不能准确表达情绪的细微差别,例如:高兴、悲伤都有不同的程度,可以进一步细化,在本实施例中,赋予虚拟对象的情绪是连续变化的,可以理解为一个模拟量而非数字量。
同样的,从所述目标文本信息中,还可以获得意图特征,所述意图特征,就是指通过虚拟人播报目标文本信息期望达到的目标。例如:聊天机器人讲一个笑话,意图可能是使人发笑;推销机器人讲解某个产品的性能,可以包括推销产品的意图。不同的意图,需要虚拟对象采用不同的情绪表达文本。
具体的,所述针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征,包括:对所述文本段进行情绪特征分析以及意图特征分析,获得所述文本段对应的情绪特征,以及获得与至少一个文本段对应的意图特征。
本步骤可以通过多种具体的技术方式实现,例如:可以将所述目标信息与情感词典进行匹配,以获得目标信息中的维度情绪;又例如:可以将所述目标信息输入有监督的序列标注模型,获得标注模型输出的维度情绪。可以对目标信息的文字与设置好的意图词典匹配,获得所述目标信息包含的意图。另外,为了对情绪特征进行模拟量表达,可以根据不同的心理学理论设计情绪特征数据。
对于任何文本段,情绪特征是必然包含的特征,但是不一定能够从一个具体的文本段获得意图特征,例如,某些文本段仅仅表达语气;但是,在整个目标文本信息中,必然包含意图特征;一般而言,该意图特征会通过该目标文本信息中某一个或者多个具体的文本段中体现出来。
除此之外,就意图特征的获取而言,也不能排除通过目标文本信息中的多个文本段进行信息整合后,获得对应该目标文本信息整体的意图特征;或者,获得该目标文本信息不同段落(每个段落可包含多个连续文本段)的意图特征。
步骤S203,根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数。
在本申请第一实施例中,所述情绪参数是由意图特征和/或情绪特征构成的多维情绪参数,所述多维情绪参数可以是VA二维情绪、PAD三维情绪、APA三维情绪等。以下以PAD三维情绪对本申请的情绪参数进行说明。
在本实施例中,PAD三维情绪是指,由虚拟对象的P(愉悦度)、A(激活度)、D(优势度)三个维度的特征数据所代表的情绪;其中,P(愉悦度)代表个体情感状态的正负特征、A(激活度)代表所述虚拟对象情感的激活程度、D(优势度)代表虚拟对象对情感状态的主观控制程度,用以区分情感状态是由虚拟对象发出的还是受客观环境影响产生的。
通过获得虚拟对象的上述三个维度的数据值,即获得对所述虚拟对象的情绪特征进行准确描述的情绪特征数据。通过预设上述三个维度的数值,可以控制所述虚拟对象的情绪表达。其中,P、A、D三个数据均为在-1到+1之间变化的连续数值。
例如:若所述P=-0.76、A=0.01、D=0.81,则代表所述虚拟对象的情绪特征为悲伤,用公式表达即为:Emotion(悲伤)=(-0.76,0.01,0.81)。由于PAD三维情绪中的三个维度的情绪特征数据都是连续的,因此可以表达无数细微的情绪。
如果时间区间内的文本段中可以既包括意图特征又包括情绪特征,则进一步的将所述意图特征和所述情绪特征转换为对应的PAD三维情绪参数,并将其融合。得到一个新的PAD三维情绪参数,即为所述对应每个文本段的情绪参数。在这里可以将所述情绪特征对应的PAD三维情绪参数作为第一子情绪参数,将所述意图特征对应的PAD三维情绪参数作为第二子情绪参数。例如:假设所述文本段的意图特征对应的PAD三维情绪参数为E1=(P意图,A意图,D意图)、文本段中的情绪特征对应的PAD三维情绪参数为E2=(P情绪、A情绪、D情绪)。则根据所述文本段中的意图特征和情绪特征获得的所述文本段的情绪参数则为E融合=α1E1+α2E2。
其中,α1、α2是所述第一子情绪参数和所述第二子情绪参数各自对应的权重数据,α1+α2=1。在具体的应用中,α2可以设置的较大,以反映意图的权重更大一些。
另外,可以理解的,一个时间区间内的文本段可能既不包括意图特征也不包括情绪特征,对于这种类型的文本段认为对应的情绪参数为静态情绪参数,在PAD三维情绪参数的表达中,静态情绪参数可以表达为Peace=(0,0,0)。
步骤S204,根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
所述预设的人格参数是指虚拟对象对不用情绪的敏感程度。例如:所述虚拟对象的设定为一个性格开朗的虚拟主播,那么该虚拟主播对悲伤这一情绪的敏感程度就会相对其他情绪的敏感程度较低,即便该虚拟处于悲伤的情绪,也会尽快恢复为平静或高兴的情绪。
具体的,所述根据预设的人格参数,生成对应所述目标文本信息的情绪曲线,包括以下步骤S204-1至步骤S204-2:
步骤S204-1,根据相邻时间区间的所述情绪参数和所述预设的人格参数,生成对应所述相邻时间区间的情绪曲线;
步骤S204-2,根据所述相邻时间区间的情绪曲线,获得对应所述连续的多个时间区间的情绪曲线。
在生成某个相邻时间区间对应的情绪曲线的过程中,所述预设的人格参数具体用于确定由一个文本段的情绪参数变化到与之相邻的另一个文本段的情绪参数的过程中,所述相邻时间区间内的情绪曲线的变化速度并不相同,并且所述相邻时间区间内的不同时间点出的所述情绪曲线的变化速度也不相同。
其中,所述相邻时间区间内的不停时间点处的情绪曲线的变化速度并不相同。另外,所述变化速度包括:情绪积累速度和/或情绪衰退速度。
具体的,在获得某个相邻时间区间的情绪曲线的过程中,可以使用预设的人格参数,计算由前一个情绪参数过度到后一个情绪参数的过程中,各个时间点的情绪参数变化值。
所述各个时间点的情绪参数变化值可以理解为单位时间的情绪变化值。
在情绪参数在相邻的时间区间内变化的过程中,可以包括情绪衰减变化过程和情绪积累变化过程。因此,在计算的过程中需要先根据所述预设的人格参数,获得所述预设的人格参数对应的情绪衰减系数和情绪积累系数。
所述情绪变化曲线是衰减曲线还是积累曲线由相邻时间区域内的情绪参数决定。如果前一个情绪参数大于后一个情绪参数,则意味着所由当前情绪参数过度到后一个情绪参数的过程中,所述情绪曲线呈衰减趋势;对应的,如果前一个情绪参数小于后一个的情绪参数,则意味着由前一个情绪参数过度到后一个情绪参数的过程中,所述情绪曲线呈积累趋势。
所述情绪参数在单位时间内的变化值具体通过以下方式确定:
例如:设定情绪衰减系数为Kp1,如果两个相邻的文本段对应的情绪参数中,前一个情绪参数为E1,后一个情绪参数为静态情绪参数Peace。则下一单位时间段内的情绪衰减过程可以表达为:
△E=Kp1(E1-Peace);
其中,所述△E是情绪随单位时间衰减的变化量,当前一个情绪参数随单位时间的变小,发生△E大小的数据变化,即,由所述文本段中产生情绪参数的时刻的下一时刻的情绪参数为E2=E1-△E。具体的,上述由前一个情绪参数E1变化到静态情绪参数Peaced的过程中,情绪参数的变化过程可以表达为:
E(t+1)=E1-△E;
E(t+2)=E(t+1)-Kp1(E(t+1)-Peace);
E(t+3)=E(t+2)-Kp1(E(t+2)-Peace);
……;
E(t+n)=E(t+n-1)-Kp1(E(t+n-1)-Peace)。
所述情绪积累的过程与上述情况类似,反映由一个情绪参数到另一个情绪参数变化的过程中,情绪参数随时间变化正常的过程。
根据所述前一个情绪参数与后一个情绪参数之间的差值,以及对应的情绪积累系数,获得前一个情绪参数到后一个情绪参数变化的过程中,情绪参数对单位时间变化的变化。
例如:设所述情绪积累系数为Kp2,前一个情绪参数为E1,后一个情绪参数为E2,则情绪融合过程可以表达为:
△E=Kp2(E1-E2);
其中,所述△E是情绪随单位时间增加的变化量,当前一个情绪参数随单位时间的变大,发生△E大小的数据变化,即,由所述文本段中产生情绪参数的时刻的下一时刻的情绪参数为:E2=E1+△E。具体的,上述由前一个情绪参数E1变化到下一个情绪参数E2的过程中,情绪参数的变化过程可以表达为:
E(t+1)=E1+△E;
E(t+2)=E(t+1)+Kp2(E(t+1)-E2);
E(t+3)=E(t+2)+Kp2(E(t+2)-E2);
……;
E(t+n)=E(t+n-1)+Kp2(E(t+n-1)-E2);
其中,E(t+n-1)=E2,t是情绪参数变化的最小时间间隔。具体的,所述根据预设的人格参数和所述情绪参数,生成的对应所述目标文本信息的情绪曲线请参考图3,其为本申请第一实施例提供的情绪曲线的示意图。
具体的,所述根据所述相邻时间区间的情绪曲线,获得对应所述连续的多个时间区间的情绪曲线是指,在获得相邻时间区间的情绪曲线之后,按照时间顺序将所述相邻时间区间的情绪曲线相连,以获得所述情绪曲线。
另外,在本申请的一个可选实施方式中,相邻的情绪特征和/或意图特征之间存在相互影响,例如:所述目标文本信息某个时间区间的相邻的先后两个文本段分别对应的“高兴”和“悲伤”这两个情绪特征,那么,认为“悲伤”这一情绪特征受“高兴”这一情绪特征的影响,在虚拟对象处于“高兴”的状态的情况下,其对“悲伤”这一状态的表现相对较低。在申请实施例中,不同情绪特征之间的影响通过情绪参数的融合实现,具体的,假设两个相邻的文本段的情绪参数分别为E1'和E2',则其融合过程可以表示为:E融合=β1E1'+β2E2',其中,β1和β2为针对所述虚拟对象的人格参数设置的不同情绪之间的融合系数,情绪融合之后获得的情绪参数E融合将作为相邻的文本段中的后一个文本段对应的情绪参数。
综上所述,本申请第一实施例提供的虚拟对象的情绪曲线生成方法,通过对目标文本信息进行分析,确定目标文本信息中各个文本段包含的虚拟对象的情绪参数,同时结合预设的人格参数,生成连续的情绪曲线,使所述虚拟对象展现目标信息时产生的情绪变化具个性化,拟人化。
上述实施例介绍了一种虚拟对象的情绪曲线生成方法,与之相应的,本申请第一实施例提供一种虚拟对象的情绪曲线生成装置,由于装置实施例基本相似与上述方法实施例,所以描述的比较简单,相关之处参见上述方法实施例的部分说明即可,下述描述的装置实施例仅仅是示意性的。
请参考图4,其为本申请第二实施例的虚拟对象的情绪曲线生成装置的结构示意图。该装置用于建构一多媒体档案的虚拟角色的行为表现,包括:
文本获得模块401,用于获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;
文本分析模块402,用于根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;
参数生成模块403,用于根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;
曲线生成模块404,用于根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
可选的,还包括:
解析模块,用于对所述目标文本信息进行词句粒度解析,在所述目标文本信息中获得与时间区间对应的文本段。
可选的,所述文本分析模块,包括:
文本段分析子模块,用于对所述文本段进行情绪特征分析以及意图特征分析,获得所述文本段对应的情绪特征,以及获得与至少一个文本段对应的意图特征。
可选的,所述情绪参数为多维情绪参数。
可选的,所述情绪特征包括第一子情绪参数,所述意图特征包括第二子情绪参数;
所述参数生成模块,具体用于根据所述第一子情绪参数和/或所述第二子情绪参数,生成对应所述每个时间区间的文本段的情绪参数。
可选的,所述根据所述第一子情绪参数和/或所述第二子情绪参数,生成对应所述每个时间区间的文本段的情绪参数,包括:
确定所述第一子情绪参数和所述第二子情绪参数的权重数据;
根据所述权重数据对所述第一子情绪参数和所述第二子情绪参数进行加权处理,获得加权处理后的情绪参数作为对应所述每个时间区间的文本段的情绪参数。
可选的,所述曲线生成模块,包括:
第一情绪曲线生成子单元,用于根据相邻时间区间的所述情绪参数和所述预设的人格参数,生成对应所述相邻时间区间的情绪曲线;
第二情绪曲线生成子单元,用于根据所述相邻时间区间的情绪曲线,获得对应所述连续的多个时间区间的情绪曲线。
可选的,所述根据相邻时间区间的所述情绪参数和所述预设的人格参数,生成对应所述相邻时间区间的情绪曲线,包括:
根据所述预设的人格参数,确定由一个文本段的情绪参数变化到与之相邻另一文本段的情绪参数的过程中,所述相邻时间区间内情绪曲线的变化速度。
可选的,所述相邻时间区间内的不同时间点处的所述情绪曲线的变化速度不同。
可选的,所述变化速度包括情绪积累速度和/或情绪衰退速度。
与上述方法实施例和装置实施例相对应的,本申请第三实施例还提供一种电子设备,由于该电子设备实施例基本相似与上述方法实施例和装置实施例,所以描述的比较简单,相关之处参见上述方法实施例的部分说明即可,下述描述的电子设备仅仅是示意性的。
请参考图5,其为本申请第三实施例提供的电子设备结构示意图。
所述电子设备用于建构一多媒体档案的虚拟角色的行为表现,包括:
处理器501;以及
存储器502,用于存储确定虚拟对象的行为特征的方法的程序,该设备通过处理器运行所述程序后,执行以下步骤:获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
本申请同时还提供一种计算机存储介质,用于建构一多媒体档案的虚拟角色的行为表现,所述计算机存储介质存储有计算机程序,所述程序被执行时实现以下步骤:
获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
需要说明的是,本申请提供的计算机存储介质的详细描述,可以参考对本申请提供的上述方法实施例的相关描述,这里不再赘述。
本申请虽然以较佳实施例公开如上,但其并不是用来限定本申请,任何本领域技术人员在不脱离本申请的精神和范围内,都可以做出可能的变动和修改,因此本申请的保护范围应当以本申请权利要求所界定的范围为准。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
1、计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
2、本领域技术人员应明白,本申请的实施例可提供为***或电子设备。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
Claims (13)
1.一种虚拟对象的情绪曲线生成方法,用于建构一多媒体档案的虚拟角色的行为表现,其特征在于,包括:
获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;
根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;
根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;
根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
2.根据权利要求1所述的虚拟对象的情绪曲线生成方法,其特征在于,所述获得虚拟对象的目标文本信息的步骤之后,进行如下步骤:
对所述目标文本信息进行词句粒度解析,获得所述目标文本信息中与时间区间对应的文本段。
3.根据权利要求1所述的虚拟对象的情绪曲线生成方法,其特征在于,所述针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征,包括:
对所述文本段进行情绪特征分析以及意图特征分析,获得所述文本段对应的情绪特征,以及获得与至少一个文本段对应的意图特征。
4.根据权利要求1所述的虚拟对象的情绪曲线生成方法,其特征在于,所述情绪参数为多维情绪参数。
5.根据权利要求4所述的虚拟对象的情绪曲线生成方法,其特征在于,所述情绪特征包括第一子情绪参数,所述意图特征包括第二子情绪参数;
所述根据所述意图特征和/或情绪特征,生成对应每个文本段的情绪参数,包括:根据所述第一子情绪参数和/或所述第二子情绪参数,生成对应所述每个时间区间的文本段的情绪参数。
6.根据权利要求5所述的虚拟对象的情绪曲线生成方法,其特征在于,所述根据所述第一子情绪参数和/或所述第二子情绪参数,生成对应所述每个时间区间的文本段的情绪参数,包括:
确定所述第一子情绪参数和所述第二子情绪参数的权重数据;
根据所述权重数据对所述第一子情绪参数和所述第二子情绪参数进行加权处理,获得加权处理后的情绪参数作为对应所述每个时间区间的文本段的情绪参数。
7.根据权利要求1所述的虚拟对象的情绪曲线生成方法,其特征在于,所述根据预设的人格参数和所述情绪参数,生成对应所述连续的多个时间区间的情绪曲线,包括:
根据相邻时间区间的所述情绪参数和所述预设的人格参数,生成对应所述相邻时间区间的情绪曲线;
根据所述相邻时间区间的情绪曲线,获得对应所述连续的多个时间区间的情绪曲线。
8.根据权利要求7所述的虚拟对象的情绪曲线生成方法,其特征在于,所述根据相邻时间区间的所述情绪参数和所述预设的人格参数,生成对应所述相邻时间区间的情绪曲线,包括:
根据所述预设的人格参数,确定由一个文本段的情绪参数变化到与之相邻另一文本段的情绪参数的过程中,所述相邻时间区间内情绪曲线的变化速度。
9.根据权利要求8所述的虚拟对象的情绪曲线生成方法,其特征在于,所述相邻时间区间内的不同时间点处的所述情绪曲线的变化速度不同。
10.根据权利要求8所述的虚拟对象的情绪曲线生成方法,其特征在于,所述变化速度包括情绪积累速度和/或情绪衰退速度。
11.一种虚拟对象的情绪曲线生成装置,用于建构一多媒体档案的虚拟角色的行为表现,其特征在于,包括:
文本获得模块,用于获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;
文本分析模块,用于根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;
参数生成模块,用于根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;
曲线生成模块,用于根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
12.一种电子设备,用于建构一多媒体档案的虚拟角色的行为表现,其特征在于,包括:
处理器;以及
存储器,用于存储确定虚拟对象的行为特征的方法的程序,该设备通过处理器运行所述程序后,执行以下步骤:获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
13.一种计算机存储介质,用于建构一多媒体档案的虚拟角色的行为表现,其特征在于,所述计算机存储介质存储有计算机程序,所述程序被执行时实现以下步骤:
获得虚拟对象的目标文本信息,所述目标文本信息中包含对应连续的多个时间区间的多个文本段;根据所述目标文本信息,针对其中包含的文本段,获得对应每个文本段的情绪特征,以及存在于至少一个文本段的意图特征;根据所述意图特征和/或情绪特征,生成所述对应每个文本段的情绪参数;根据预设的人格参数和所述情绪参数,生成对应所述目标文本信息的情绪曲线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110566639.6A CN115392227A (zh) | 2021-05-24 | 2021-05-24 | 一种虚拟对象的情绪曲线生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110566639.6A CN115392227A (zh) | 2021-05-24 | 2021-05-24 | 一种虚拟对象的情绪曲线生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115392227A true CN115392227A (zh) | 2022-11-25 |
Family
ID=84114828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110566639.6A Pending CN115392227A (zh) | 2021-05-24 | 2021-05-24 | 一种虚拟对象的情绪曲线生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115392227A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453549A (zh) * | 2023-05-05 | 2023-07-18 | 广西牧哲科技有限公司 | 基于虚拟数字人物的ai对话方法及在线虚拟数字化*** |
-
2021
- 2021-05-24 CN CN202110566639.6A patent/CN115392227A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453549A (zh) * | 2023-05-05 | 2023-07-18 | 广西牧哲科技有限公司 | 基于虚拟数字人物的ai对话方法及在线虚拟数字化*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Stappen et al. | The multimodal sentiment analysis in car reviews (muse-car) dataset: Collection, insights and improvements | |
KR20210110620A (ko) | 상호작용 방법, 장치, 전자 장치 및 저장 매체 | |
Ou et al. | Multimodal local-global attention network for affective video content analysis | |
Lan et al. | Kineticharts: Augmenting affective expressiveness of charts in data stories with animation design | |
CN111615696A (zh) | 用于相关性检测和审阅的内容的交互式表示 | |
Takeuchi et al. | Speech-to-gesture generation: A challenge in deep learning approach with bi-directional LSTM | |
Sutcliffe | Multimedia user interface design | |
CN113392273A (zh) | 视频播放方法、装置、计算机设备及存储介质 | |
CN113761268A (zh) | 音频节目内容的播放控制方法、装置、设备和存储介质 | |
Yang et al. | Automatic comic generation with stylistic multi-page layouts and emotion-driven text balloon generation | |
CN115392227A (zh) | 一种虚拟对象的情绪曲线生成方法 | |
Kirke et al. | Emotional and multi-agent systems in computer-aided writing and poetry | |
Gjaci et al. | Towards culture-aware co-speech gestures for social robots | |
Hou et al. | " My agent understands me better": Integrating Dynamic Human-like Memory Recall and Consolidation in LLM-Based Agents | |
Tarvainen et al. | Film mood and its quantitative determinants in different types of scenes | |
Akser et al. | SceneMaker: Creative technology for digital storytelling | |
US12058410B2 (en) | Information play control method and apparatus, electronic device, computer-readable storage medium and computer program product | |
Wang et al. | A database for emotional interactions of the elderly | |
Skains | The fragmented digital gaze: The effects of multimodal composition on narrative perspective | |
CN116127003A (zh) | 文本处理方法、装置、电子设备及存储介质 | |
Gansing | The cinema of extractions: film as infrastructure for (artistic?) research | |
Pelzl et al. | Designing a multimodal emotional interface in the context of negotiation | |
CN112153424A (zh) | 内容推送方法、装置、电子设备和存储介质 | |
Wangchen et al. | EDUZONE–A Educational Video Summarizer and Digital Human Assistant for Effective Learning | |
Nakasone et al. | ISRST: An interest based storytelling model using rhetorical relations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20240307 Address after: # 03-06, Lai Zan Da Building 1, 51 Belarusian Road, Singapore Applicant after: Alibaba Innovation Co. Country or region after: Singapore Address before: Room 01, 45th Floor, AXA Building, 8 Shanton Road, Singapore Applicant before: Alibaba Singapore Holdings Ltd. Country or region before: Singapore |