CN114078474A - 基于多模态特征的语音对话处理方法、装置和电子设备 - Google Patents

基于多模态特征的语音对话处理方法、装置和电子设备 Download PDF

Info

Publication number
CN114078474A
CN114078474A CN202111337746.8A CN202111337746A CN114078474A CN 114078474 A CN114078474 A CN 114078474A CN 202111337746 A CN202111337746 A CN 202111337746A CN 114078474 A CN114078474 A CN 114078474A
Authority
CN
China
Prior art keywords
voice
information
speech
user
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111337746.8A
Other languages
English (en)
Inventor
王培英
杨久东
陈蒙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingdong Technology Information Technology Co Ltd
Original Assignee
Jingdong Technology Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingdong Technology Information Technology Co Ltd filed Critical Jingdong Technology Information Technology Co Ltd
Priority to CN202111337746.8A priority Critical patent/CN114078474A/zh
Publication of CN114078474A publication Critical patent/CN114078474A/zh
Priority to PCT/CN2022/113640 priority patent/WO2023082752A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提出一种基于多模态特征的语音对话处理方法、装置和电子设备,其中,该方法包括:在与用户进行对话交互的过程中,结合用户当前输入的语音信息的文本信息和第一语音信息的历史上下文信息,确定文本信息的语义特征信息,根据第一语音信息中在静默段之前的语音片段,确定第一语音信息的语音特征信息,获取第一语音信息的时间特征信息;根据语义特征信息、语音特征信息和时间特征信息,确定所述用户是否结束语音输入。由此,在与用户进行对话交互的过程中,结合语义特征信息、语音特征信息和时间特征信息,准确确定所述用户是否结束语音输入。

Description

基于多模态特征的语音对话处理方法、装置和电子设备
技术领域
本申请涉及计算机技术领域,尤其涉及基于多模态特征的语音对话处理方法、装置和电子设备。
背景技术
在语音对话***中,用户讲话时,语音对话***需要判断在合适的时机接过话语权,即语音对话***在听者和说话者的角色间来回转换,使得人机交互流畅自然。
目前,多数语音对话***采用语音活动检测(Voice Activity Detection,VAD)检测用户静默时长的方式,当用户静默时长超过阈值(比如0.8s~1s)时,***接过话语权。但是,这种固定静默时长的方式存在一些问题:如用户并未讲完且在思考中,但是静默时长超过阈值,这时***响应就会过于迅速敏感;而有时用户的交互迅速简明,这时***仍然等待静默时长达到设定阈值才接过话语权,这时***响应迟钝,可能造成用户重复回答。因此,如何确定语音对话***何时接过话语权是目前亟需解决的问题。
发明内容
本申请提出一种基于多模态特征的语音对话处理方法、装置和电子设备。
本申请一方面实施例提出了一种基于多模态特征的语音对话处理方法,包括:在与用户进行对话交互的过程中,获取用户当前输入的第一语音信息,其中,所述第一语音信息包括静默段;根据所述第一语音信息的文本信息和所述第一语音信息的历史上下文信息,确定所述文本信息的语义特征信息;根据所述第一语音信息中在所述静默段之前的语音片段,确定所述第一语音信息的语音特征信息;获取所述第一语音信息的时间特征信息;根据所述语义特征信息、所述语音特征信息和所述时间特征信息,确定所述用户是否结束语音输入。
在本申请的一个实施例中,所述根据所述第一语音信息的文本信息和所述第一语音信息的历史上下文信息,确定所述文本信息的语义特征信息,包括:对所述第一语音信息进行语音识别,以得到所述第一语音信息的文本信息;获取所述第一语音信息的历史上下文信息;将所述文本信息和所述历史上下文信息输入到语义表示模型中,以得到所述文本信息的语义特征信息。
在本申请的一个实施例中,所述根据所述第一语音信息中在所述静默段之前的语音片段,确定所述第一语音信息的语音特征信息,包括:获取所述第一语音信息中在所述静默段之前的第一预设时间长度的语音片段;按照第二预设时间长度,对所述语音片段进行分段,以得到多段语音片段;提取所述多段语音片段各自对应的声学特征信息,并分别对所述多段语音片段各自对应的声学特征信息进行拼接,以得到所述多段语音频段各自对应的拼接特征;将所述拼接特征输入到深度残差网络中,以得到所述第一语音信息的语音特征信息。
在本申请的一个实施例中,所述获取所述第一语音信息的时间特征信息,包括:获取所述第一语音信息的语音时长、语速和文本长度;将所述语音时长、所述语速和文本长度输入到预先训练好的多层感知机MLP模型,以得到所述第一语音信息的时间特征信息。
在本申请的一个实施例中,所述根据所述语义特征信息、所述语音特征信息和所述时间特征信息,确定所述用户是否结束语音输入,包括:将所述语义特征信息、所述语音特征信息和所述时间特征信息输入到多模态融合模型中;根据所述多模态融合模型的输出结果,确定所述用户是否结束语音输入。
在本申请的一个实施例中,还包括:在确定所述用户结束语音输入的情况下,确定所述第一语音信息所对应的第一回复语音信息,并输出所述第一回复语音信息。
在本申请的一个实施例中,还包括:在确定所述用户未结束语音输入的情况下,获取所述用户再次输入的第二语音信息;根据所述第一语音信息和所述第二语音信息,确定对应的第二回复语音信息,并输出所述第二回复语音信息。
本申请实施例的基于多模态特征的语音对话处理方法,在与用户进行对话交互的过程中,结合用户当前输入的语音信息的文本信息和第一语音信息的历史上下文信息,确定文本信息的语义特征信息,根据第一语音信息中在静默段之前的语音片段,确定第一语音信息的语音特征信息,获取第一语音信息的时间特征信息;根据语义特征信息、语音特征信息和时间特征信息,确定所述用户是否结束语音输入。由此,在与用户进行对话交互的过程中,结合语义特征信息、语音特征信息和时间特征信息,准确确定出了***是否可接过话语权。
本申请一方面实施例提出了一种基于多模态特征的语音对话处理装置,包括:第一获取模块,用于在与用户进行对话交互的过程中,获取用户当前输入的第一语音信息,其中,所述第一语音信息包括静默段;第一确定模块,用于根据所述第一语音信息的文本信息和所述第一语音信息的历史上下文信息,确定所述文本信息的语义特征信息;第二确定模块,用于根据所述第一语音信息中在所述静默段之前的语音片段,确定所述第一语音信息的语音特征信息;第二获取模块,用于获取所述第一语音信息的时间特征信息;第三确定模块,用于根据所述语义特征信息、所述语音特征信息和所述时间特征信息,确定所述用户是否结束语音输入。
在本申请的一个实施例中,所述第一确定模块,具体用于:对所述第一语音信息进行语音识别,以得到所述第一语音信息的文本信息;获取所述第一语音信息的历史上下文信息;将所述文本信息和所述历史上下文信息输入到语义表示模型中,以得到所述文本信息的语义特征信息。
在本申请的一个实施例中,所述第二确定模块,具体用于:获取所述第一语音信息中在所述静默段之前的第一预设时间长度的语音片段;按照第二预设时间长度,对所述语音片段进行分段,以得到多段语音片段;提取所述多段语音片段各自对应的声学特征信息,并分别对所述多段语音片段各自对应的声学特征信息进行拼接,以得到所述多段语音频段各自对应的拼接特征;将所述拼接特征输入到深度残差网络中,以得到所述第一语音信息的语音特征信息。
在本申请的一个实施例中,所述第二获取模块,具体用于:获取所述第一语音信息的语音时长、语速和文本长度;将所述语音时长、所述语速和文本长度输入到预先训练好的多层感知机MLP模型,以得到所述第一语音信息的时间特征信息。
在本申请的一个实施例中,所述第三确定模块,包括:多模态处理单元,用于将所述语义特征信息、所述语音特征信息和所述时间特征信息输入到多模态融合模型中;确定单元,用于根据所述多模态融合模型的输出结果,确定所述用户是否结束语音输入。
在本申请的一个实施例中,还包括:第一处理模块,用于在确定所述用户结束语音输入的情况下,确定所述第一语音信息所对应的第一回复语音信息,并输出所述第一回复语音信息。
在本申请的一个实施例中,还包括:第三获取模块,用于在确定所述用户未结束语音输入的情况下,获取所述用户再次输入的第二语音信息;第二处理模块,用于根据所述第一语音信息和所述第二语音信息,确定对应的第二回复语音信息,并输出所述第二回复语音信息。
本申请实施例的基于多模态特征的语音对话处理装置,在与用户进行对话交互的过程中,结合用户当前输入的语音信息的文本信息和第一语音信息的历史上下文信息,确定文本信息的语义特征信息,根据第一语音信息中在静默段之前的语音片段,确定第一语音信息的语音特征信息,获取第一语音信息的时间特征信息;根据语义特征信息、语音特征信息和时间特征信息,确定所述用户是否结束语音输入。由此,在与用户进行对话交互的过程中,结合语义特征信息、语音特征信息和时间特征信息,准确确定出了***是否可接过话语权。
本申请另一方面实施例提出了一种电子设备,包括:存储器,处理器;所述存储器中存储有计算机指令,当所述计算机指令被所述处理器执行时,实现本申请实施例的基于多模态特征的语音对话处理方法。
本申请另一方面实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请实施例公开的基于多模态特征的语音对话处理方法。
本申请另一方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时实现本申请实施例中的基于多模态特征的语音对话处理方法。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请一个实施例的基于多模态特征的语音对话处理方法的流程示意图。
图2是根据本申请一个具体实施例的结合模型框架图对语音对话处理方法进行描述的示例图。
图3是根据本申请一个实施例的基于多模态特征的语音对话处理装置的结构示意图。
图4是根据本申请另一个实施例的基于多模态特征的语音对话处理装置的结构示意图。
图5是根据本申请一个实施例的电子设备的框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的基于多模态特征的语音对话处理方法、装置和电子设备。
图1是根据本申请一个实施例的基于多模态特征的语音对话处理方法的流程示意图。其中,需要说明的是,本实施例提供的基于多模态特征的语音对话处理方法的执行主体为基于多模态特征的语音对话处理装置,该基于多模态特征的语音对话处理装置可以由软件和/或硬件的方式实现,该实施例中的基于多模态特征的语音对话处理装置语音对话***中,该语音对话***可以配置在电子设备中,其中,电子设备可以包括终端设备或者服务器等,该实施例对此不作具体限定。
如图1所示,该基于多模态特征的语音对话处理方法可以包括:
步骤101,在与用户进行对话交互的过程中,获取用户当前输入的第一语音信息,其中,第一语音信息包括静默段。
步骤102,根据第一语音信息的文本信息和第一语音信息的历史上下文信息,确定文本信息的语义特征信息。
在本申请的一个实施例中,可对第一语音信息进行语音识别,以得到第一语音信息的文本信息,并获取第一语音信息的历史上下文信息,以及将文本信息和历史上下文信息输入到语义表示模型中,以得到文本信息的语义特征信息。
在一些实施例中,为了可以捕获文本信息与历史上下文信息之间的长距离依赖关系,并基于长距离依赖关系准确地确定出文本信息的语义特征信息,上述语义表示模型可以为基于自注意力机制的转换器Transformer模型。
其中,Transformer模型可以包括多层编码层。其中,每层编码层中均包括基于Transformer的编码结构,对应编码结构对输入内容进行编码,并将输出结果输入至对应的下一层编码层进行处理。
在一些实施例中,获取第一语音信息的历史上下文信息的一种示例性的实施方式为:可获取在第一语音信息之前的多条历史语音对话信息,并根据多条历史语音对话信息,获取第一语音信息的历史上下文信息。
步骤103,根据第一语音信息中在静默段之前的语音片段,确定第一语音信息的语音特征信息。
在一些实施例中,可获取第一语音信息中在静默段之前的第一预设时间长度的语音片段;按照第二预设时间长度,对语音片段进行分段,以得到多段语音片段;提取多段语音片段各自对应的声学特征信息,并分别对多段语音片段各自对应的声学特征信息进行拼接,以得到多段语音频段各自对应的拼接特征;将拼接特征输入到深度残差网络中,以得到第一语音信息的语音特征信息。
其中,第一预设时间长度是预先设置的,例如,上述第一预设时间长度可以为2秒,也就是说,可截取第一语音信息中在静默段之前的一段时长长度为2秒的语音片段。
其中,第二预设时间长度是预先设置的,第一预设时间长度大于第二预设时长长度,例如,第一预设时间长度为2秒,上述第二预设时间长度可以为50毫秒(ms),具体地,在获取2秒长度的语音片段后,可按照50ms,对该语音片段进行分段,以得到多段语音片段,其中,每段语音频段场50ms。
其中,声学特征信息可以包括但不限于能量、音量、音高、过零率等。
步骤104,获取第一语音信息的时间特征信息。
具体地,可取第一语音信息的语音时长、语速和文本长度,将语音时长、语速和文本长度输入到预先训练好的多层感知机(Multi Layer Perceptron,MLP)模型,以得到第一语音信息的时间特征信息。
其中,文本长度可以是基于第一语音信息对应的文本信息所确定出的。
步骤105,根据语义特征信息、语音特征信息和时间特征信息,确定用户是否结束语音输入。
在一些实施例中,为了可以准确确定出用户是否结束语音输入,可将语义特征信息、语音特征信息和时间特征信息输入到多模态融合模型中,根据多模态融合模型的输出结果,确定用户是否结束语音输入。
其中,多模态融合模型在获取语义特征信息、语音特征信息和时间特征信息,可获取上述语义特征信息、语音特征信息和时间特征信息各自对应的权重,并基于权重,对语义特征信息、语音特征信息和时间特征信息进行加权处理,并将加权结果输入到多模态融合模型的激活函数中,以得到多模态融合模型的输出结果。
在一些实施例中,在多模态融合模型的输出结果指示用户结束语音输入的情况下,可确定用户结束语音输入,此时,可确定对话***可以接过话语权。在另一些实施例中,在多模态融合模型的输出结果指示用户未结束语音输入的情况下,可确定用户未结束语音输入,此时,对话***可继续倾听,并在确定用户输入结束后进行回复。
本申请实施例的基于多模态特征的语音对话处理方法,在与用户进行对话交互的过程中,结合用户当前输入的语音信息的文本信息和第一语音信息的历史上下文信息,确定文本信息的语义特征信息,根据第一语音信息中在静默段之前的语音片段,确定第一语音信息的语音特征信息,获取第一语音信息的时间特征信息;根据语义特征信息、语音特征信息和时间特征信息,确定用户是否结束语音输入。由此,在与用户进行对话交互的过程中,结合语义特征信息、语音特征信息和时间特征信息,准确确定出了***是否可接过话语权。
基于上述实施例的基础上,为了使得对话***准确对用户输入的语音信息进行回复,在一些实施例中,在确定用户结束语音输入的情况下,确定第一语音信息所对应的第一回复语音信息,并输出第一回复语音信息。
在另一些实施例中,在确定用户未结束语音输入的情况下,获取用户再次输入的第二语音信息;根据第一语音信息和第二语音信息,确定对应的第二回复语音信息,并输出第二回复语音信息。由此,结合用户当前输入的第一语音信息和再次输入的第二语音信息进行准确回复。
为了使得本领域技术人员可以清楚了解本申请,下面结合图2对该实施例的方法进行进一步阐述。
通过图2可以看出,本实施例中在确定用户是否结束语音输入的过程中,使用了语音特征信息、语义特征信息和时间特征信息三个不同维度上的特征,来确定用户是否结束语音输入,即,本实施例中使用了语义特征信息、语音特征信息和时间特征信息三个不同维度上的特征,来确定对话***是否可以接过话语权,即,确定对话***是否输出对应回复。
下面分别对获取语义特征信息、语音特征信息和时间特征信息的过程进行描述:
1)获取语义特征信息。
其中,语义特征信息来源于语音识别后的文本信息,它对于话语权决策的重要性是不言而喻的,尤其是考虑到“语义完整性”是话语权切换的基本要素,也就是说当,在确定用户已经完整表述其意图之后,往往意味着***可以接过话语权。而语义完整性一般也是结合上下文语境来判断的,例如下面的简单示例:
Figure BDA0003345951320000081
左边的例子中,用户进行了确定性的答复,语义明确,此时,对话***可以接过话语权;而右边的例子里用户出现了短暂的犹豫,但,根据用户当前输入的内容,可以确定用户没有讲完,此时,对话***可以该选择继续倾听,等待用户把话讲完。
为了建模这种语义的完整性,在用户与对话***进行对话交互的过程汇总,在获取用户当前输入的语音信息后,可对该语音信息进行语音识别,以得到当前文本信息,可对当前输入的语音信息的历史上上下文context信息以及当前文本信息进行编码,以得到该文本信息的语义特征信息。
在一些实施例中,可采用基于自注意力机制的Transformer模型对当前输入的语音信息的历史上上下文context信息以及当前文本信息所对应的文本信息进行编码。
其中,可以理解的是,Transformer模型中的自注意力机制可以捕获历史上下文信息与文本信息之间的长距离依赖关系。最终语义特征表示为:
rs=Transformer(e)
2)获取语音特征信息
其中,可以理解的是,在对话过程中,一些语音特征例如音调的转变、音量的高低等都判断是否进行话语权切换的重要线索。因此,在与用户进行对话的过程中,在获取用户当前输入的语音信息后,可从语音信息中截取用户静默前的一段音频(2s),然后将其切分成固定长度的小段,即分帧(每桢50ms)。接下来对每帧音频提取其对应的声学特征,如能量,音量,音高、过零率等,并将其拼接成一维向量,得到每一帧音频的特征表示f_i。最后,可将序列帧的特征F=[f1,f2,…,fn]输入到一个多层的深度残差(Residual Network,ResNet)网络中,得到最终的语音特征表示:
ra=ResNet(F)
3)时间特征
其中,需要理解的是,时间特征(例如语音片段的时长、语速、文本长度等)对于判断话语权的切换与否也是有一定作用的。比如在以***为主导的外呼对话场景,多数情况下,在用户进行简短的回复之后***便可接过话语权;而需要***进行倾听的情况则大多是由于用户因为犹豫等因素而产生了比较长的答复,因此,为了可以准确确定出对话***是否可以接过话语权,在与用户进行对话交互的过程中,可获取用户当前输入的语音信息的语音时长、语速和文本长度,并将语音时长、语速和文本长度分别进行分桶处理,并根据处理后的语音时长、语速和文本长度输入到MLP模型中,以得到语音信息的低维度的时间特征信息。
其中,通过多层感知网络提取其低维特征表示:
rt=MLP(t)
4)多模态特征融合
具体地,在获取各个模态的特征表示,接下来通过将其输入到多模态融合模型,融合三种不同特征进行话语权的判断:
y=σ(Wsrs+Wara+Wtrt+b)
其中,σ(·)指的是sigmoid函数,y即预测的二分类标签:1-表示用户结束讲话,***接过话语权;0-则表示***应该继续倾听用户回复,b表示偏置值。
其中,上述多模态融合模型可以是基于前馈神经网络而建立的。
与上述几种实施例提供的基于多模态特征的语音对话处理方法相对应,本申请的一种实施例还提供一种基于多模态特征的语音对话处理装置,由于本申请实施例提供的基于多模态特征的语音对话处理装置与上述几种实施例提供的基于多模态特征的语音对话处理方法相对应,因此在基于多模态特征的语音对话处理方法的实施方式也适用于本实施例提供的基于多模态特征的语音对话处理装置,在本实施例中不再详细描述。
图3是根据本申请一个实施例的基于多模态特征的语音对话处理装置的结构示意图。
如图3所示,该基于多模态特征的语音对话处理装置300包括第一获取模块301、第一确定模块302、第二确定模块303、第二获取模块304和第三确定模块305,其中:
第一获取模块301,用于在与用户进行对话交互的过程中,获取用户当前输入的第一语音信息,其中,第一语音信息包括静默段。
第一确定模块302,用于根据第一语音信息的文本信息和第一语音信息的历史上下文信息,确定文本信息的语义特征信息。
第二确定模块303,用于根据第一语音信息中在静默段之前的语音片段,确定第一语音信息的语音特征信息。
第二获取模块304,用于获取第一语音信息的时间特征信息。
第三确定模块305,用于根据语义特征信息、语音特征信息和时间特征信息,确定用户是否结束语音输入。
在本申请的一个实施例中,第一确定模块302,具体用于:对第一语音信息进行语音识别,以得到第一语音信息的文本信息;获取第一语音信息的历史上下文信息;将文本信息和历史上下文信息输入到语义表示模型中,以得到文本信息的语义特征信息。
在本申请的一个实施例中,第二确定模块303,具体用于:获取第一语音信息中在静默段之前的第一预设时间长度的语音片段;按照第二预设时间长度,对语音片段进行分段,以得到多段语音片段;提取多段语音片段各自对应的声学特征信息,并分别对多段语音片段各自对应的声学特征信息进行拼接,以得到多段语音频段各自对应的拼接特征;将拼接特征输入到深度残差网络中,以得到第一语音信息的语音特征信息。
在本申请的一个实施例中,上述第二获取模块304,具体用于:获取第一语音信息的语音时长、语速和文本长度;将语音时长、语速和文本长度输入到预先训练好的多层感知机MLP模型,以得到第一语音信息的时间特征信息。
在本申请的一个实施例中,在图3所示的装置实施例的基础上,如图4所示,上述第三确定模块305,可以包括:
多模态处理单元3051,用于将语义特征信息、语音特征信息和时间特征信息输入到多模态融合模型中。
确定单元3052,用于根据多模态融合模型的输出结果,确定用户是否结束语音输入。
在本申请的一个实施例中,如图4所示,该装置还包括:
第一处理模块306,用于在确定用户结束语音输入的情况下,确定第一语音信息所对应的第一回复语音信息,并输出第一回复语音信息。
在本申请的一个实施例中,如图4所示,该装置还包括:
第三获取模块307,用于在确定用户未结束语音输入的情况下,获取用户再次输入的第二语音信息。
第二处理模块308,用于根据第一语音信息和第二语音信息,确定对应的第二回复语音信息,并输出第二回复语音信息。
本申请实施例的基于多模态特征的语音对话处理装置,在与用户进行对话交互的过程中,结合用户当前输入的语音信息的文本信息和第一语音信息的历史上下文信息,确定文本信息的语义特征信息,根据第一语音信息中在静默段之前的语音片段,确定第一语音信息的语音特征信息,获取第一语音信息的时间特征信息;根据语义特征信息、语音特征信息和时间特征信息,确定用户是否结束语音输入。由此,在与用户进行对话交互的过程中,结合语义特征信息、语音特征信息和时间特征信息,准确确定出了***是否可接过话语权。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图5所示,是根据本申请一个实施例的电子设备的框图。
如图5所示,该电子设备该电子设备包括:
存储器501、处理器502及存储在存储器501上并可在处理器502上运行的计算机指令。
处理器502执行指令时实现上述实施例中提供的基于多模态特征的语音对话处理方法。
进一步地,电子设备还包括:
通信接口503,用于存储器501和处理器502之间的通信。
存储器501,用于存放可在处理器502上运行的计算机指令。
存储器501可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
处理器502,用于执行程序时实现上述实施例的基于多模态特征的语音对话处理方法。
如果存储器501、处理器502和通信接口503独立实现,则通信接口503、存储器501和处理器502可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry Standard Architecture,简称为ISA)总线、外部设备互连(PeripheralComponent,简称为PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器501、处理器502及通信接口503,集成在一块芯片上实现,则存储器501、处理器502及通信接口503可以通过内部接口完成相互间的通信。
处理器502可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。
本申请还提出一种计算机程序产品,当计算机程序产品中的指令处理器执行时实现本申请实施例的基于多模态特征的语音对话处理方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (16)

1.一种基于多模态特征的语音对话处理方法,其特征在于,所述方法包括:
在与用户进行对话交互的过程中,获取用户当前输入的第一语音信息,其中,所述第一语音信息包括静默段;
根据所述第一语音信息的文本信息和所述第一语音信息的历史上下文信息,确定所述文本信息的语义特征信息;
根据所述第一语音信息中在所述静默段之前的语音片段,确定所述第一语音信息的语音特征信息;
获取所述第一语音信息的时间特征信息;
根据所述语义特征信息、所述语音特征信息和所述时间特征信息,确定所述用户是否结束语音输入。
2.如权利要求1所述的方法,其特征在于,所述根据所述第一语音信息的文本信息和所述第一语音信息的历史上下文信息,确定所述文本信息的语义特征信息,包括:
对所述第一语音信息进行语音识别,以得到所述第一语音信息的文本信息;
获取所述第一语音信息的历史上下文信息;
将所述文本信息和所述历史上下文信息输入到语义表示模型中,以得到所述文本信息的语义特征信息。
3.如权利要求1所述的方法,其特征在于,所述根据所述第一语音信息中在所述静默段之前的语音片段,确定所述第一语音信息的语音特征信息,包括:
获取所述第一语音信息中在所述静默段之前的第一预设时间长度的语音片段;
按照第二预设时间长度,对所述语音片段进行分段,以得到多段语音片段;
提取所述多段语音片段各自对应的声学特征信息,并分别对所述多段语音片段各自对应的声学特征信息进行拼接,以得到所述多段语音频段各自对应的拼接特征;
将所述拼接特征输入到深度残差网络中,以得到所述第一语音信息的语音特征信息。
4.如权利要求1所述的方法,其特征在于,所述获取所述第一语音信息的时间特征信息,包括:
获取所述第一语音信息的语音时长、语速和文本长度;
将所述语音时长、所述语速和文本长度输入到预先训练好的多层感知机MLP模型,以得到所述第一语音信息的时间特征信息。
5.如权利要求1所述的方法,其特征在于,所述根据所述语义特征信息、所述语音特征信息和所述时间特征信息,确定所述用户是否结束语音输入,包括:
将所述语义特征信息、所述语音特征信息和所述时间特征信息输入到多模态融合模型中;
根据所述多模态融合模型的输出结果,确定所述用户是否结束语音输入。
6.如权利要求1-5任一项所述的方法,其特征在于,还包括:
在确定所述用户结束语音输入的情况下,确定所述第一语音信息所对应的第一回复语音信息,并输出所述第一回复语音信息。
7.如权利要求1-5任一项所述的方法,其特征在于,还包括:
在确定所述用户未结束语音输入的情况下,获取所述用户再次输入的第二语音信息;
根据所述第一语音信息和所述第二语音信息,确定对应的第二回复语音信息,并输出所述第二回复语音信息。
8.一种基于多模态特征的语音交互处理装置,其特征在于,所述装置包括:
第一获取模块,用于在与用户进行对话交互的过程中,获取用户当前输入的第一语音信息,其中,所述第一语音信息包括静默段;
第一确定模块,用于根据所述第一语音信息的文本信息和所述第一语音信息的历史上下文信息,确定所述文本信息的语义特征信息;
第二确定模块,用于根据所述第一语音信息中在所述静默段之前的语音片段,确定所述第一语音信息的语音特征信息;
第二获取模块,用于获取所述第一语音信息的时间特征信息;
第三确定模块,用于根据所述语义特征信息、所述语音特征信息和所述时间特征信息,确定所述用户是否结束语音输入。
9.如权利要求8所述的装置,其特征在于,所述第一确定模块,具体用于:
对所述第一语音信息进行语音识别,以得到所述第一语音信息的文本信息;
获取所述第一语音信息的历史上下文信息;
将所述文本信息和所述历史上下文信息输入到语义表示模型中,以得到所述文本信息的语义特征信息。
10.如权利要求8所述的装置,其特征在于,所述第二确定模块,具体用于:
获取所述第一语音信息中在所述静默段之前的第一预设时间长度的语音片段;
按照第二预设时间长度,对所述语音片段进行分段,以得到多段语音片段;
提取所述多段语音片段各自对应的声学特征信息,并分别对所述多段语音片段各自对应的声学特征信息进行拼接,以得到所述多段语音频段各自对应的拼接特征;
将所述拼接特征输入到深度残差网络中,以得到所述第一语音信息的语音特征信息。
11.如权利要求8所述的装置,其特征在于,所述第二获取模块,具体用于:
获取所述第一语音信息的语音时长、语速和文本长度;
将所述语音时长、所述语速和文本长度输入到预先训练好的多层感知机MLP模型,以得到所述第一语音信息的时间特征信息。
12.如权利要求8所述的装置,其特征在于,所述第三确定模块,包括:
多模态处理单元,用于将所述语义特征信息、所述语音特征信息和所述时间特征信息输入到多模态融合模型中;
确定单元,用于根据所述多模态融合模型的输出结果,确定所述用户是否结束语音输入。
13.如权利要求8-12任一项所述的装置,其特征在于,还包括:
第一处理模块,用于在确定所述用户结束语音输入的情况下,确定所述第一语音信息所对应的第一回复语音信息,并输出所述第一回复语音信息。
14.如权利要求8-12任一项所述的装置,其特征在于,还包括:
第三获取模块,用于在确定所述用户未结束语音输入的情况下,获取所述用户再次输入的第二语音信息;
第二处理模块,用于根据所述第一语音信息和所述第二语音信息,确定对应的第二回复语音信息,并输出所述第二回复语音信息。
15.一种电子设备,包括:存储器,处理器;所述存储器中存储有计算机指令,当所述计算机指令被所述处理器执行时,实现如权利要求1-7中任一项所述的基于多模态特征的语音对话处理方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的基于多模态特征的语音对话处理方法。
CN202111337746.8A 2021-11-09 2021-11-09 基于多模态特征的语音对话处理方法、装置和电子设备 Pending CN114078474A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111337746.8A CN114078474A (zh) 2021-11-09 2021-11-09 基于多模态特征的语音对话处理方法、装置和电子设备
PCT/CN2022/113640 WO2023082752A1 (zh) 2021-11-09 2022-08-19 基于多模态特征的语音对话处理方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111337746.8A CN114078474A (zh) 2021-11-09 2021-11-09 基于多模态特征的语音对话处理方法、装置和电子设备

Publications (1)

Publication Number Publication Date
CN114078474A true CN114078474A (zh) 2022-02-22

Family

ID=80283747

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111337746.8A Pending CN114078474A (zh) 2021-11-09 2021-11-09 基于多模态特征的语音对话处理方法、装置和电子设备

Country Status (2)

Country Link
CN (1) CN114078474A (zh)
WO (1) WO2023082752A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114418038A (zh) * 2022-03-29 2022-04-29 北京道达天际科技有限公司 基于多模态融合的天基情报分类方法、装置及电子设备
WO2023082752A1 (zh) * 2021-11-09 2023-05-19 京东科技信息技术有限公司 基于多模态特征的语音对话处理方法、装置和电子设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10592611B2 (en) * 2016-10-24 2020-03-17 Conduent Business Services, Llc System for automatic extraction of structure from spoken conversation using lexical and acoustic features
US11227117B2 (en) * 2018-08-03 2022-01-18 International Business Machines Corporation Conversation boundary determination
CN112825248A (zh) * 2019-11-19 2021-05-21 阿里巴巴集团控股有限公司 语音处理方法、模型训练方法、界面显示方法及设备
CN111105782B (zh) * 2019-11-27 2022-10-11 深圳追一科技有限公司 会话交互处理方法、装置、计算机设备和存储介质
CN113160854A (zh) * 2020-01-22 2021-07-23 阿里巴巴集团控股有限公司 语音交互***、相关方法、装置及设备
CN112101045B (zh) * 2020-11-02 2021-12-14 北京淇瑀信息科技有限公司 一种多模态语义完整性识别方法、装置及电子设备
CN113035180A (zh) * 2021-03-22 2021-06-25 建信金融科技有限责任公司 语音输入完整性判断方法、装置、电子设备和存储介质
CN114078474A (zh) * 2021-11-09 2022-02-22 京东科技信息技术有限公司 基于多模态特征的语音对话处理方法、装置和电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023082752A1 (zh) * 2021-11-09 2023-05-19 京东科技信息技术有限公司 基于多模态特征的语音对话处理方法、装置和电子设备
CN114418038A (zh) * 2022-03-29 2022-04-29 北京道达天际科技有限公司 基于多模态融合的天基情报分类方法、装置及电子设备

Also Published As

Publication number Publication date
WO2023082752A1 (zh) 2023-05-19

Similar Documents

Publication Publication Date Title
CN111968679B (zh) 情感识别方法、装置、电子设备及存储介质
CN112995419B (zh) 一种语音对话的处理方法和***
CN109840052B (zh) 一种音频处理方法、装置、电子设备及存储介质
CN114078474A (zh) 基于多模态特征的语音对话处理方法、装置和电子设备
CN109473104B (zh) 语音识别网络延时优化方法及装置
CN113362828B (zh) 用于识别语音的方法和装置
CN111402894B (zh) 语音识别方法及电子设备
CN109979437B (zh) 语音识别方法、装置、设备和存储介质
CN112581938B (zh) 基于人工智能的语音断点检测方法、装置和设备
CN111930900B (zh) 标准发音生成方法及相关装置
CN108039181A (zh) 一种声音信号的情感信息分析方法和装置
CN110995943B (zh) 多用户流式语音识别方法、***、设备及介质
CN113516964B (zh) 语音合成方法及可读存储介质
CN113793599B (zh) 语音识别模型的训练方法和语音识别方法及装置
CN107886940B (zh) 语音翻译处理方法及装置
CN115831109A (zh) 语音唤醒方法、装置、存储介质及电子设备
CN112397053B (zh) 语音识别方法、装置、电子设备及可读存储介质
CN115376558A (zh) 角色识别方法、装置、计算机设备及存储介质
CN111414468A (zh) 话术选择方法、装置和电子设备
CN113808579B (zh) 生成语音的检测方法、装置、电子设备及存储介质
CN116483960B (zh) 对话识别方法、装置、设备以及存储介质
KR102526173B1 (ko) 음성 데이터에서 특정 화자의 음성을 추출하는 기법
CN113903358B (zh) 语音质检方法、可读存储介质及计算机程序产品
CN113763921B (zh) 用于纠正文本的方法和装置
KR102539256B1 (ko) 음성 데이터에서 특정 화자의 음성을 구분하는 모델을 학습시키는 기법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination