CN115565519A - 对话语音生成方法、装置、设备、计算机可读介质 - Google Patents
对话语音生成方法、装置、设备、计算机可读介质 Download PDFInfo
- Publication number
- CN115565519A CN115565519A CN202211517058.4A CN202211517058A CN115565519A CN 115565519 A CN115565519 A CN 115565519A CN 202211517058 A CN202211517058 A CN 202211517058A CN 115565519 A CN115565519 A CN 115565519A
- Authority
- CN
- China
- Prior art keywords
- user
- voice
- text
- information
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000004044 response Effects 0.000 claims abstract description 9
- 230000004927 fusion Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 2
- 238000007654 immersion Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000007667 floating Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011176 pooling Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 235000015278 beef Nutrition 0.000 description 2
- 235000012149 noodles Nutrition 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 241000533293 Sesbania emerus Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开的实施例公开了对话语音生成方法、装置、设备、计算机可读介质。该方法的一具体实施方式包括:响应于检测到当前用户语音中包含预设关键词,依次采集当前用户语音之后的、用户先后发出的多条语音,得到用户语音序列,以及分别将用户语音序列中的用户语音转换为语音文本,得到用户语音文本序列;将语音文本和推理维度信息输入预先训练的常识推理模型以生成推理文本;从用户在元宇宙中的当前位置的预设范围内的至少一个候选场所的场所信息中选取目标场所信息;根据目标场所信息生成对话文本;将对话文本转化为对话语音以及播放对话语音。该实施方式实现了提高用户在元宇宙中体验沉浸感。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及对话语音生成方法、装置、设备、计算机可读介质。
背景技术
元宇宙是人类运用数字技术构建的,由现实世界映射或超越现实世界,可与现实世界交互的虚拟世界,具备新型社会体系的数字生活空间。在元宇宙中,用户可以通过语音与其他用户或者NPC(非玩家角色)交互。随着自动驾驶技术的逐步成熟,元宇宙也应用在车辆的智能语音设备中。
然而,发明人发现,当采用上述方式进行交互时,经常会存在如下技术问题:
第一、目前的NPC在进行语音交互时,一般从预设的模板语音中选取一些,导致交互语音灵活性差;
第二、一些语音生成网络由于缺少常识,无法生成贴合用户意图的交互语音。例如,当用户提问“附近有电影院吗”NPC回答“有”,用户继续提问,“能定5:00的票吗”此时,现有的NPC仅仅能回答“不能”。很显然,这样的回答不能很好的揣测用户的意图 “即用户可能想找能定5:00的票的电影院”,造成用户可能继续提问,这样给用户造成了一定的不便;
第三、用户所创建的虚拟数字人物在元宇宙中移动时,现有的技术通常采用悬浮窗口或悬浮图标来显示语音助手,造成用户沉浸感低的问题;
第四、用户语音序列中的用户语音是用户在不同的时刻发出的。实践发现,引入历史时刻对于用户当前时刻的意图的推测有提升作用,但也会有一些负面案例;
第五、目前元宇宙的场景往往是人工设计的,元宇宙中的虚拟场景与实际场景差别较大,用户无法将实际场景与元宇宙中的虚拟场景直观的进行对应,导致驾驶误判率高,影响用户驾驶安全和驾驶体验。因此,需要通过实际场景的三维图像来构建元宇宙的场景,但是在车辆安装三维图像拍摄设备的安装成本高,且需要对车辆进行改装,实施难度高且成本大。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了对话语音生成方法、装置、设备、计算机可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种对话语音生成方法,该方法包括:响应于检测到当前用户语音中包含预设关键词,依次采集当前用户语音之后的、用户先后发出的多条语音,得到用户语音序列,以及分别将用户语音序列中的用户语音转换为语音文本,得到用户语音文本序列;对于用户语音文本序列中每个语音文本,将语音文本和推理维度信息输入预先训练的常识推理模型以生成推理文本;根据用户在元宇宙中的当前位置信息、用户语音文本序列对应的推理文本序列,从用户在元宇宙中的当前位置的预设范围内的至少一个候选场所的场所信息中选取目标场所信息;根据目标场所信息生成对话文本;将对话文本转化为对话语音以及播放对话语音。
第二方面,本公开的一些实施例提供了一种对话语音生成装置,装置包括:采集单元,被配置成响应于检测到当前用户语音中包含预设关键词,依次采集当前用户语音之后的、用户先后发出的多条语音,得到用户语音序列,以及分别将用户语音序列中的用户语音转换为语音文本,得到用户语音文本序列;推理单元,被配置成对于用户语音文本序列中每个语音文本,将语音文本和推理维度信息输入预先训练的常识推理模型以生成推理文本;选取单元,被配置成根据用户在元宇宙中的当前位置信息、用户语音文本序列对应的推理文本序列,从用户在元宇宙中的当前位置的预设范围内的至少一个候选场所信息中选取目标场所信息;生成单元,被配置成根据目标场所信息生成对话文本;播放单元,被配置成将对话文本转化为对话语音以及播放对话语音。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例具有如下有益效果:生成的交互语音更具灵活性和针对性,且便于用户使用。具体来说,相关的语音生成网络之所以造成交互语音灵活性差的原因在于:利用预设的模板语音来生成交互语音。基于此,本公开的一些实施例结合推理维度信息和用户在元宇宙中的当前位置来生成对话语音,从而与周围环境的融合度更高,从而提高交互语音灵活性和针对性,提高用户的在元宇宙中的沉浸感。除此之外,通过使用常识推理模型,以及对用户先后发出的多条语音分别进行推理,得到不同时刻的推理文本,使得生成的对话语音融合了常识。在此基础上,融合不同时刻的推理文本,从而能好的理解用户的意图;使得选取出的目标场所信息更为贴合用户的意图,避免用户多次提问,方便用户操作。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开的对话语音生成方法的一些实施例的流程图;
图2是根据本公开的对话语音生成装置的一些实施例的结构示意图;
图3是适于用来实现本公开的一些实施例的电子设备的结构示意图;
图4示出了三维图像生成网络的网络结构和利用三维图像生成网络生成三维图像的过程示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1示出了根据本公开的对话语音生成方法的一些实施例的流程100。该对话语音生成方法,包括以下步骤:
步骤101,响应于检测到当前用户语音中包含预设关键词,依次采集当前用户语音之后的、用户先后发出的多条语音,得到用户语音序列,以及分别将用户语音序列中的用户语音转换为语音文本,得到用户语音文本序列。
在一些实施例中,对话语音生成方法的执行主体可以是车载智能语音设备,例如,可以是各种车载智能终端。其中,预设关键词可以是唤醒词。车载智能语音设备可以利用语音采集设备(麦克风)来采集用户语音。在此基础上,通过ASR(Automatic SpeechRecognition,语音识别)技术转换为语音文本。
举例来说,用户语音文本序列中包括的用户语音可以是“请问有牛肉面吗”、“牛肉面能加辣吗”。
步骤102,对于用户语音文本序列中每个语音文本,将语音文本和推理维度信息输入预先训练的常识推理模型,以生成推理文本,推理维度信息可以是推理维度标识,例如,推理维度标识可以是数字“1”“2”“3”中任一。其中,数字“1”“2”“3”分别用于标识用户意图、用户个性、前置操作。
在一些实施例中,车载智能语音设备可以部署有预先训练的常识推理模型。其中,常识推理模型可以是用于常理推理的模型。例如,常理推理模型可以是经过训练的bert(Bidirectional Encoder Representation from Transformers,语言表征模型)模型。
实践中,由于对于同一个语音文本,其关联的常识有很多。为了有效的对常识推理进行归类,结合智能生活助理的应用场景,即首先需要了解用户意图,其次需要了解用户个性,最后需要了解用户语音文本的前置操作。其中,用户意图可以是用户未明确提出但却希望对方做某事。举例来说,当用户说“你真漂亮”,其对应的用户意图是希望对方也夸奖自己好看。
前置操作,即用户语音对应的操作之前必须的操作。用户语音对应的操作即为用户语音对应的语音文本中所包含的操作相关信息所表征操作。语音文本中所包含的操作相关信息可以通过词性(动词)识别或者人工标注的方式确定。如,当用户说“开始做咖啡”,那么其前置操作是用户准备好了咖啡豆。在NPC的应用场景,充分了解用户意图、用户个性以及前置操作,对于对话语音的语气、内容至关重要,有助于生成准确的对话语音。
常识推理模型可以是通过以下步骤训练得到的:
步骤一、获取初始模型,初始模型为多任务模型,初始模型包括一个编码器和多个解码器,其中,多个解码器中每个解码器对应一个推理维度,编码器用于将语音文本编码为文本向量,多个解码器中的每个解码器用于根据文本向量,生成所对应的推理维度的推理文本。
其中,编码器和解码器可以采用例如bert模型。
步骤二、获取训练样本集,训练样本集中的每个训练样本包括样本语音文本和样本语音文本的样本推理文本和样本推理维度信息。
在一些实施例中,训练样本可以是三元组,包括语音文本、样本推理文本和样本推理维度信息。其中,样本推理维度信息可以是通过人工标注的方式得到的。
步骤三、将样本语音文本输入编码器,得到文本编码向量。
在一些实施例中,车载智能语音设备可以将样本语音文本输入编码器,得到文本编码向量。
步骤四、将文本编码向量输入样本推理维度对应的解码器,生成实际推理文本。
步骤五、基于实际推理文本和样本推理文本之间的差异调整编码器和解码器的参数,直至满足训练结束条件,得到常识推理模型。
在一些实施例中,可以通过各种损失函数来确定实际推理文本和样本推理文本之间的差异,进而通过反向传播、随机梯度下降等算法调整编码器和解码器的参数。当满足训练结束条件时,得到常识推理模型。
步骤103,根据用户在元宇宙中的当前位置信息、用户语音文本序列对应的推理文本序列,从用户在元宇宙中的当前位置的预设范围内的至少一个候选场所的场所信息中选取目标场所信息。
在一些实施例中,上述执行主体可以将推理文本序列输入预先训练的融合网络,得到融合推理信息。其中,融合网络可以是全连接网络。之后,将融合推理信息与至少一个场所信息进行匹配,以及将匹配度最高的若干个场所信息确定为候选场所信息集。然后,从候选场所信息集中选取与当前位置信息之间的距离最近的场所信息作为目标场所信息。实践中,每个场所信息是场所的各种信息。场所可以是娱乐场所、商业场所、教育场所等等。场所信息可以是场所名称、场所服务内容、场所对应的商家信息、场所对应的商品信息等等。可以理解,根据场景的不同,元宇宙中可以包含与现实世界中映射的各类场所。用户语音文本序列对应的推理文本序列是由用户语音文本序列中各个语音文本分别对应的推理文本按序排列得到的。
用户在元宇宙中的当前位置信息可以是用户创建的虚拟数字人物在元宇宙中的当前位置。虚拟数字人物在元宇宙中可以移动。当前位置信息可以用元宇宙中的道路名称、建筑物名称、坐标信息等来表示。可以理解,拟数字人物在元宇宙中的当前位置对应的场景显示在车载智能语音设备中的屏幕中。
步骤104,根据目标场所信息生成对话文本。
在一些实施例中,可以将目标场所信息填充到预先设定的对话生成模板中,得到对话文本。
步骤105,将对话文本转化为对话语音以及播放对话语音。
在一些实施例中,智能语音设备可以对话文本转化为对话语音以及播放对话语音。例如,根据用户在元宇宙中的当前位置信息,确定与用户在元宇宙中的当前位置的距离最近的非玩家角色,响应于播放对话语音,控制非玩家角色展示与对话语音相匹配的形态。另外,还可以将对话语音向宇宙中的其他用户或NPC进行广播。
本公开的一些实施例提供的方法,生成的交互语音更具灵活性和针对性,且便于用户使用。具体来说,相关的语音生成网络之所以造成交互语音灵活性差的原因在于:利用预设的模板语音来生成交互语音。基于此,本公开的一些实施例结合推理维度信息和用户在元宇宙中的当前位置来生成对话语音,从而与周围环境的融合度更高,从而提高交互语音灵活性和针对性,提高用户的在元宇宙中的沉浸感。除此之外,通过使用常识推理模型,以及对用户先后发出的多条语音分别进行推理,得到不同时刻的推理文本,使得生成的对话语音融合了常识。在此基础上,融合不同时刻的推理文本,从而能好的理解用户的意图;使得选取出的目标场所信息更为贴合用户的意图,避免用户多次提问,方便用户操作。
为了解决背景技术部分描述的技术问题三“用户在元宇宙中移动时,现有的技术通常采用悬浮窗口或悬浮图标来显示语音助手,造成用户沉浸感低的问题”,本公开的一些实施例的方法还包括以下步骤:
步骤一、响应于检测到用户在元宇宙中的位置发生变化,确定非玩家角色是否显示在智能语音设备的屏幕中。
步骤二、若非玩家角色已不在智能语音设备的屏幕中,重新确定用户对应的非玩家角色。
为了解决背景技术部分描述的技术问题四“用户语音序列中的用户语音是用户在不同的时刻发出的。实践发现,引入历史时刻对于用户当前时刻的意图的推测容易造成负面影响”,本公开的一些实施例的方法还包括:
步骤一、获取用户语音序列中各个用户语音分别对应的采集时间与当前时间的时间间隔。
步骤二、根据时间间隔为推理文本序列中的各个推理文本设定权重,以使得距离当前时间的时间间隔越大的推理文本的权重越小。以及根据用户在元宇宙中的当前位置信息、用户语音文本序列对应的推理文本序列,从用户在元宇宙中的当前位置的预设范围内的至少一个候选场所信息中选取目标场所信息,包括:根据权重,对推理文本序列中的各个推理文本进行融合,得到融合推理信息;将融合推理信息与至少一个场所信息进行匹配,以及将匹配度最高的场所信息确定为目标场所信息。
由此,可以实现距离当前时间的时间间隔越大的推理文本的权重越小,对于当前时刻的意图推测的影响也就越小,从而可以一定程度减少负面案例。
为了解决背景技术部分描述的技术问题五“目前元宇宙的场景往往是人工设计的,元宇宙中的虚拟场景与实际场景差别较大,用户无法将实际场景与元宇宙中的虚拟场景直观的进行对应,导致驾驶误判率高,影响用户驾驶安全和驾驶体验”,本公开的一些实施例的对话语音生成方法,在根据用户在元宇宙中的当前位置信息、用户语音文本序列对应的推理文本序列,从用户在元宇宙中的当前位置的预设范围内的至少一个候选场所的场所信息中选取目标场所信息之前,上述方法还包括以下步骤:
第一、通过安装于车辆外部的多相机阵列采集不同视角的二维行驶图像。
第二、将上述二维行驶图像输入三维图像生成网络,三维图像生成网络包括多个卷积池化层,每个卷积池化层的输出包括两个分支,一个分支会进行下一个卷积池化层进行特征提取,而另一个分支会进入反卷积层进行上采样得到一个与原图分辨率一致的视差图,如此反复经过多层循环,得到多个视差图(例如图4所示的5个视差图)。
第三、将上述多个视差图相加,然后再经过一层卷积层和 softmax 激活函数,输出一个与原图分辨率一致的视差概率分布图。
第四,利用视差概率分布图对二维行驶图像进行重构,得到三维行驶图像。例如,可以将视差概率分布图对二维行驶图像进行相乘运算,得到三维行驶图像。
在此基础上,可以利用得到通过重构得到三维行驶图像去构建元宇宙场景,不需要在车辆安装三维图像拍摄设备。
进一步参考图2,作为对上述各图所示方法的实现,本公开提供了一种对话语音生成装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图2所示,一些实施例的对话语音生成装置200包括:采集单元201被配置成响应于检测到当前用户语音中包含预设关键词,依次采集当前用户语音之后的、用户先后发出的多条语音,得到用户语音序列,以及分别将用户语音序列中的用户语音转换为语音文本,得到用户语音文本序列;推理单元202被配置成对于用户语音文本序列中每个语音文本,将语音文本和推理维度信息输入预先训练的常识推理模型以生成推理文本;选取单元203被配置成根据用户在元宇宙中的当前位置信息、用户语音文本序列对应的推理文本序列,从用户在元宇宙中的当前位置的预设范围内的至少一个候选场所信息中选取目标场所信息;生成单元204被配置成根据目标场所信息生成对话文本;播放单元205被配置成将对话文本转化为对话语音以及播放对话语音。
可以理解的是,对话语音生成装置200中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置200及其中包含的单元,在此不再赘述。
下面参考图3,其示出了适于用来实现本公开的一些实施例的电子设备300的结构示意图。本公开的一些实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图3示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图3所示,电子设备300可以包括处理装置(例如中央处理器、图形处理器等)301,其可以根据存储在只读存储器(ROM)302中的程序或者从存储装置308加载到随机访问存储器(RAM)303中的程序而执行各种适当的动作和处理。在RAM 303中,还存储有电子设备300操作所需的各种程序和数据。处理装置301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
通常,以下装置可以连接至I/O接口305:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置306;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置307;包括例如磁带、硬盘等的存储装置308;以及通信装置309。通信装置309可以允许电子设备300与其他设备进行无线或有线通信以交换数据。虽然图3示出了具有各种装置的电子设备300,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图3中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置309从网络上被下载和安装,或者从存储装置308被安装,或者从ROM 302被安装。在该计算机程序被处理装置301执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例中记载的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(Hyper Text TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:响应于检测到当前用户语音中包含预设关键词,依次采集当前用户语音之后的、用户先后发出的多条语音,得到用户语音序列,以及分别将用户语音序列中的用户语音转换为语音文本,得到用户语音文本序列;对于用户语音文本序列中每个语音文本,将语音文本和推理维度信息输入预先训练的常识推理模型以生成推理文本;根据用户在元宇宙中的当前位置信息、用户语音文本序列对应的推理文本序列,从用户在元宇宙中的当前位置的预设范围内的至少一个候选场所的场所信息中选取目标场所信息;根据取目标场所信息生成对话文本;将对话文本转化为对话语音以及播放对话语音。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括采集单元、推理单元、选取单元、生成单元、播放单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (8)
1.一种对话语音生成方法,应用于车载智能语音设备,包括:
响应于检测到当前用户语音中包含预设关键词,依次采集所述当前用户语音之后的、用户先后发出的多条语音,得到用户语音序列,以及分别将所述用户语音序列中的用户语音转换为语音文本,得到用户语音文本序列;
对于所述用户语音文本序列中每个语音文本,将所述语音文本和推理维度信息输入预先训练的常识推理模型以生成推理文本;
根据所述用户在元宇宙中的当前位置信息、所述用户语音文本序列对应的推理文本序列,从所述用户在元宇宙中的当前位置的预设范围内的至少一个候选场所的场所信息中选取目标场所信息,其中,所述用户在元宇宙中的当前位置信息是所述用户创建的虚拟数字人物在元宇宙中的当前位置信息,所述虚拟数字人物在元宇宙中的当前位置信息对应的场景显示在所述车载智能语音设备的屏幕中;
根据所述目标场所信息生成对话文本;
将所述对话文本转化为对话语音以及播放所述对话语音。
2.根据权利要求1所述的方法,其中,所述根据所述用户在元宇宙中的当前位置信息、所述用户语音文本序列对应的推理文本序列,从所述用户在元宇宙中的当前位置的预设范围内的至少一个候选场所的场所信息中选取目标场所信息,包括:
将所述推理文本序列输入预先训练的融合网络,得到融合推理信息;
将所述融合推理信息与所述至少一个场所的场所信息进行匹配,以及将匹配度符合预设条件的场所信息确定为候选场所信息,得到候选场所信息集;
从所述候选场所信息集中选取与所述当前位置信息之间的距离最近的候选场所信息作为目标场所信息。
3.根据权利要求2所述的方法,其中,所述将所述对话文本转化为对话语音以及播放所述对话语音,包括:
根据所述用户在元宇宙中的当前位置信息,确定与所述用户在元宇宙中的当前位置的距离最近的非玩家角色;
响应于播放所述对话语音,控制所述非玩家角色展示与所述对话语音相匹配的形态。
4.根据权利要求3所述的方法,其中,所述将所述对话文本转化为对话语音以及播放所述对话语音,还包括:
响应于检测到所述用户在元宇宙中的位置发生变化,确定所述非玩家角色是否显示在所述智能语音设备的屏幕中;
若所述非玩家角色已不在所述智能语音设备的屏幕中,重新确定所述用户对应的非玩家角色。
5.根据权利要求4所述的方法,其中,所述方法还包括:
获取所述用户语音序列中各个用户语音分别对应的采集时间与当前时间的时间间隔;
根据所述时间间隔为所述推理文本序列中的各个推理文本设定权重,以使得距离当前时间的时间间隔越大的推理文本的权重越小;以及
所述根据所述用户在元宇宙中的当前位置信息、所述用户语音文本序列对应的推理文本序列,从所述用户在元宇宙中的当前位置的预设范围内的至少一个候选场所的场所信息中选取目标场所信息,包括:
根据所述权重,对所述推理文本序列中的各个推理文本进行融合,得到融合推理信息;
将所述融合推理信息与所述至少一个场所的场所信息进行匹配,以及将匹配度符合预设条件的场所信息确定为候选场所信息,得到候选场所信息集;
从所述候选场所信息集中选取与所述当前位置信息之间的距离最近的候选场所信息作为目标场所信息。
6.一种对话语音生成装置,应用于智能语音设备,包括:
采集单元,被配置成响应于检测到当前用户语音中包含预设关键词,依次采集所述当前用户语音之后的、用户先后发出的多条语音,得到用户语音序列,以及分别将所述用户语音序列中的用户语音转换为语音文本,得到用户语音文本序列;
推理单元,被配置成对于所述用户语音文本序列中每个语音文本,将所述语音文本和推理维度信息输入预先训练的常识推理模型以生成推理文本;
选取单元,被配置成根据所述用户在元宇宙中的当前位置信息、所述用户语音文本序列对应的推理文本序列,从所述用户在元宇宙中的当前位置的预设范围内的至少一个候选场所的场所信息中选取目标场所信息;
生成单元,被配置成根据所述目标场所信息生成对话文本;
播放单元,被配置成将所述对话文本转化为对话语音以及播放所述对话语音。
7.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
8.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211517058.4A CN115565519B (zh) | 2022-11-30 | 2022-11-30 | 对话语音生成方法、装置、设备、计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211517058.4A CN115565519B (zh) | 2022-11-30 | 2022-11-30 | 对话语音生成方法、装置、设备、计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115565519A true CN115565519A (zh) | 2023-01-03 |
CN115565519B CN115565519B (zh) | 2023-04-07 |
Family
ID=84770800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211517058.4A Active CN115565519B (zh) | 2022-11-30 | 2022-11-30 | 对话语音生成方法、装置、设备、计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115565519B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110010316A1 (en) * | 2009-07-13 | 2011-01-13 | International Business Machines Corporation | Providing a seamless conversation service between interacting environments |
JP2014187559A (ja) * | 2013-03-25 | 2014-10-02 | Yasuaki Iwai | 仮想現実提示システム、仮想現実提示方法 |
US20170004651A1 (en) * | 2014-07-24 | 2017-01-05 | Youngzone Culture (Shanghai) Co., Ltd. | Augmented reality technology-based handheld viewing device and method thereof |
EP3200185A1 (en) * | 2011-09-30 | 2017-08-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
JP2017184842A (ja) * | 2016-04-01 | 2017-10-12 | 株式会社コーエーテクモゲームス | 情報処理プログラム、情報処理装置及び情報処理方法 |
CN109065055A (zh) * | 2018-09-13 | 2018-12-21 | 三星电子(中国)研发中心 | 基于声音生成ar内容的方法、存储介质和装置 |
CN109224432A (zh) * | 2018-08-30 | 2019-01-18 | Oppo广东移动通信有限公司 | 娱乐应用的操控方法、装置、存储介质及穿戴式设备 |
KR101965823B1 (ko) * | 2018-06-25 | 2019-04-04 | 김재환 | 가상 운동 장소 제공 시스템 |
KR102112959B1 (ko) * | 2019-09-09 | 2020-05-19 | 장원석 | 증강 현실과 가상 현실을 이용한 시험지 처리 시스템 및 그 처리 방법 |
WO2021030449A1 (en) * | 2019-08-12 | 2021-02-18 | DMAI, Inc. | System and method for adaptive dialogue via scene modeling using combinational neural networks |
WO2021241190A1 (ja) * | 2020-05-25 | 2021-12-02 | ソニーグループ株式会社 | メディア配信装置およびメディア配信方法、並びにプログラム |
CN114092290A (zh) * | 2022-01-20 | 2022-02-25 | 华中师范大学 | 一种教育元宇宙中教学***及其工作方法 |
CN114118582A (zh) * | 2021-11-29 | 2022-03-01 | 中国第一汽车股份有限公司 | 目的地预测方法、装置、电子终端及存储介质 |
CN114287030A (zh) * | 2019-07-03 | 2022-04-05 | 得麦股份有限公司 | 用于跨真实和增强现实的自适应对话管理的***和方法 |
CN115146048A (zh) * | 2022-07-27 | 2022-10-04 | 网易(杭州)网络有限公司 | 一种多npc对话文本生成、展示方法、设备及介质 |
-
2022
- 2022-11-30 CN CN202211517058.4A patent/CN115565519B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110010316A1 (en) * | 2009-07-13 | 2011-01-13 | International Business Machines Corporation | Providing a seamless conversation service between interacting environments |
EP3200185A1 (en) * | 2011-09-30 | 2017-08-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
JP2014187559A (ja) * | 2013-03-25 | 2014-10-02 | Yasuaki Iwai | 仮想現実提示システム、仮想現実提示方法 |
US20170004651A1 (en) * | 2014-07-24 | 2017-01-05 | Youngzone Culture (Shanghai) Co., Ltd. | Augmented reality technology-based handheld viewing device and method thereof |
JP2017184842A (ja) * | 2016-04-01 | 2017-10-12 | 株式会社コーエーテクモゲームス | 情報処理プログラム、情報処理装置及び情報処理方法 |
KR101965823B1 (ko) * | 2018-06-25 | 2019-04-04 | 김재환 | 가상 운동 장소 제공 시스템 |
CN109224432A (zh) * | 2018-08-30 | 2019-01-18 | Oppo广东移动通信有限公司 | 娱乐应用的操控方法、装置、存储介质及穿戴式设备 |
CN109065055A (zh) * | 2018-09-13 | 2018-12-21 | 三星电子(中国)研发中心 | 基于声音生成ar内容的方法、存储介质和装置 |
CN114287030A (zh) * | 2019-07-03 | 2022-04-05 | 得麦股份有限公司 | 用于跨真实和增强现实的自适应对话管理的***和方法 |
WO2021030449A1 (en) * | 2019-08-12 | 2021-02-18 | DMAI, Inc. | System and method for adaptive dialogue via scene modeling using combinational neural networks |
KR102112959B1 (ko) * | 2019-09-09 | 2020-05-19 | 장원석 | 증강 현실과 가상 현실을 이용한 시험지 처리 시스템 및 그 처리 방법 |
WO2021241190A1 (ja) * | 2020-05-25 | 2021-12-02 | ソニーグループ株式会社 | メディア配信装置およびメディア配信方法、並びにプログラム |
CN114118582A (zh) * | 2021-11-29 | 2022-03-01 | 中国第一汽车股份有限公司 | 目的地预测方法、装置、电子终端及存储介质 |
CN114092290A (zh) * | 2022-01-20 | 2022-02-25 | 华中师范大学 | 一种教育元宇宙中教学***及其工作方法 |
CN115146048A (zh) * | 2022-07-27 | 2022-10-04 | 网易(杭州)网络有限公司 | 一种多npc对话文本生成、展示方法、设备及介质 |
Non-Patent Citations (2)
Title |
---|
SANG-MIN PARK 等: "A Metaverse: Taxonomy, Components, Applications, and Open Challenges", 《IEEE ACCESS》 * |
刘燕华: "虚拟社区多元化管理方式研究", 《中国优秀硕士学位论文全文数据库》 * |
Also Published As
Publication number | Publication date |
---|---|
CN115565519B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110730374B (zh) | 一种动画对象的展示方法、装置、电子设备及存储介质 | |
CN110753238B (zh) | 视频处理方法、装置、终端及存储介质 | |
CN112905839A (zh) | 模型训练方法、模型使用方法、装置、存储介质及设备 | |
CN112698769A (zh) | 信息交互方法、装置、设备、存储介质及程序产品 | |
CN112364144B (zh) | 交互方法、装置、设备和计算机可读介质 | |
CN113257218B (zh) | 语音合成方法、装置、电子设备和存储介质 | |
CN115908640A (zh) | 生成图像的方法、装置、可读介质及电子设备 | |
CN112073821A (zh) | 信息提示方法、装置、电子设备及计算机可读介质 | |
CN113204977A (zh) | 信息翻译方法、装置、设备和存储介质 | |
CN114863214A (zh) | 图像生成模型训练、图像生成方法、装置、介质及设备 | |
CN113190613A (zh) | 车辆路线信息显示方法、装置、电子设备和可读介质 | |
CN110956128A (zh) | 生成车道线图像的方法、装置、电子设备和介质 | |
CN110837334A (zh) | 用于交互控制的方法、装置、终端及存储介质 | |
CN114693876A (zh) | 数字人生成方法、装置、存储介质和电子设备 | |
CN114598824A (zh) | 特效视频的生成方法、装置、设备及存储介质 | |
CN113850890A (zh) | 动物形象的生成方法、装置、设备及存储介质 | |
CN113673446A (zh) | 图像识别方法、装置、电子设备和计算机可读介质 | |
CN115565519B (zh) | 对话语音生成方法、装置、设备、计算机可读介质 | |
CN112070888B (zh) | 图像生成方法、装置、设备和计算机可读介质 | |
CN115270981A (zh) | 对象处理方法、装置、可读介质及电子设备 | |
CN115527538B (zh) | 对话语音生成方法、装置 | |
CN114419298A (zh) | 虚拟物体的生成方法、装置、设备及存储介质 | |
CN108881978B (zh) | 用于智能设备的资源播放方法和装置 | |
CN110991312A (zh) | 生成检测信息的方法、装置、电子设备和介质 | |
CN111292766B (zh) | 用于生成语音样本的方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |