CN114678017A - 语音处理方法及装置 - Google Patents
语音处理方法及装置 Download PDFInfo
- Publication number
- CN114678017A CN114678017A CN202210122867.9A CN202210122867A CN114678017A CN 114678017 A CN114678017 A CN 114678017A CN 202210122867 A CN202210122867 A CN 202210122867A CN 114678017 A CN114678017 A CN 114678017A
- Authority
- CN
- China
- Prior art keywords
- audio
- condition
- current voice
- interactive response
- segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 230000011218 segmentation Effects 0.000 claims abstract description 86
- 230000002452 interceptive effect Effects 0.000 claims abstract description 82
- 230000004044 response Effects 0.000 claims abstract description 78
- 238000012545 processing Methods 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 45
- 230000008569 process Effects 0.000 claims abstract description 25
- 239000012634 fragment Substances 0.000 claims description 45
- 238000003058 natural language processing Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 8
- 238000004519 manufacturing process Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 20
- 238000004891 communication Methods 0.000 abstract description 15
- 230000036632 reaction speed Effects 0.000 abstract description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/027—Syllables being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Telephonic Communication Services (AREA)
Abstract
本公开提供一种语音处理方法及装置,该方法:获取该待处理音频中的一个音节作为当前语音片段,判断当前语音片段是否符合音频切分条件及交互响应条件,音频切分条件基于ASR识别过程设置,交互响应条件基于NLP处理过程及NLP处理结果与反馈消息的匹配度设置。若当前语音片段不符合音频切分条件以及交互响应条件,则将待处理音频中下一顺位的音节合并到当前语音片段中,并转至判断当前语音片段是否符合音频切分条件以及交互响应条件的步骤,直到确定出符合音频切分条件以及交互响应条件的目标语音片段。输出与目标语音片段匹配的反馈消息。该方法大大提高音频切分效率,提升人机交流中机器人或者智能设备的反应速度,改善人机交互体验。
Description
技术领域
本公开涉及数据处理技术领域,尤其涉及一种语音处理方法及装置。
背景技术
随着人工智能技术的发展,为节省人力资源,人机交流越来越常见。
以人机对话场景为例,用户发出语音后,机器人或者智能设备会识别用户语音,基于用户语音进行回复。
在机器人或者智能设备识别用户语音的过程中,需要切分用户语音,即判断音频片段是否结束。相关技术中,通常是在识别到一个音节后等待预设时长(例如500毫秒),若预设时长内未监测到有效音频信号,可以判定该音节结束,将结束后的音节截断为一个音频片段。若预设时长内监测到有效音频信号,可以判定该音节为连续音节,继续处理,直到监测到音节结束。显然,目前用户语音的切分方式,需要等待至少一个预设时长(例如500毫秒),大大降低用户语音处理效率,降低人机交流中机器人或者智能设备的反应速度,导致人机交流体验不佳。
综上,如何提升人机交流中机器人或者智能设备的反应速度,成为亟待解决的技术问题。
发明内容
本公开提供一种语音处理方法及装置,用以提升人机交流中机器人或者智能设备的反应速度。
根据本公开实施例的第一方面,本公开提供一种语音处理方法,包括:
获取待处理音频中的一个音节作为当前语音片段;
判断当前语音片段是否符合音频切分条件以及交互响应条件,音频切分条件基于ASR识别过程设置,交互响应条件基于NLP处理过程以及NLP处理结果与反馈消息的匹配度设置;
若当前语音片段不符合音频切分条件以及交互响应条件,则将待处理音频中下一顺位的音节合并到当前语音片段中,并转至判断当前语音片段是否符合音频切分条件以及交互响应条件的步骤,直到确定出符合音频切分条件以及交互响应条件的目标语音片段;
输出与目标语音片段匹配的反馈消息。
根据本公开实施例的第二方面,本公开提供一种语音处理装置,包括:
处理模块,被配置为获取待处理音频中的一个音节作为当前语音片段;判断当前语音片段是否符合音频切分条件以及交互响应条件,音频切分条件基于ASR识别过程设置,交互响应条件基于NLP处理过程以及NLP处理结果与反馈消息的匹配度设置;若当前语音片段不符合音频切分条件以及交互响应条件,则将待处理音频中下一顺位的音节合并到当前语音片段中,并转至判断当前语音片段是否符合音频切分条件以及交互响应条件的步骤,直到确定出符合音频切分条件以及交互响应条件的目标语音片段;
输出模块,被配置为输出与目标语音片段匹配的反馈消息。
根据本公开实施例的第三方面,提供一种电子设备,其中包括处理器和存储器,其中,存储器上存储有可执行代码,当可执行代码被处理器执行时,使处理器至少可以实现第一方面中的语音处理方法。
根据本公开实施例的第四方面,提供了一种计算机可读存储介质,当所述计算机可读存储介质中的指令由电子设备执行时,使得电子设备能够执行至少可以实现第一方面中的语音处理方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现第一方面中的语音处理方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
本公开中,对于待处理音频,获取该待处理音频中的一个音节作为当前语音片段,判断当前语音片段是否符合音频切分条件以及交互响应条件,该音频切分条件基于ASR识别过程设置,该交互响应条件基于NLP处理过程以及NLP处理结果与反馈消息的匹配度设置。进而,若当前语音片段不符合音频切分条件以及交互响应条件,则将待处理音频中下一顺位的音节合并到所述当前语音片段中,并转至判断所述当前语音片段是否符合音频切分条件以及交互响应条件的步骤,直到确定出符合音频切分条件以及交互响应条件的目标语音片段。最终,输出与目标语音片段匹配的反馈消息。本公开中,通过音频切分条件能够判断出当前语音片段是否能成功完成ASR识别,对于成功完成ASR识别的语音片段还需通过交互响应条件判断是否已包含完整的交互信息足以成功实现NLP处理,从而为成功实现NLP处理的语音片段发出匹配的反馈消息,避免相关技术中因等待至少一个预设时长而导致的用户语音的切分效率以及交互效率下降的问题,大大提高音频切分效率,提升人机交流中机器人或者智能设备的反应速度,改善人机交互体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种语音处理场景的示意图。
图2是根据一示例性实施例示出的一种语音处理方法的流程示意图。
图3是根据一示例性实施例示出的一种判断方式的流程示意图。
图4是根据一示例性实施例示出的一种语音处理装置的结构示意图。
图5是根据一示例性实施例示出的一种电子设备的结构示意图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
如前文所述,在人机对话场景中,用户发出语音后,机器人或者智能设备会识别用户语音,基于用户语音进行回复。实际应用中,对用户语音的回复可以是文字形式也可以是语音形式,以及其他任意形式。
在机器人或者智能设备识别用户语音的过程中,需要切分用户语音,即判断音频片段是否结束。相关技术中,通常是在识别到一个音节后等待预设时长(例如500毫秒),若预设时长内未监测到有效音频信号,可以判定该音节结束,将结束后的音节截断为一个音频片段。若预设时长内监测到有效音频信号,可以判定该音节为连续音节,继续处理,直到监测到音节结束。显然,目前用户语音的切分方式,需要等待至少一个预设时长(例如500毫秒),大大降低用户语音处理效率,降低人机交流中机器人或者智能设备的反应速度,导致人机交流体验不佳。综上,如何提升人机交流中机器人或者智能设备的反应速度,成为亟待解决的技术问题。
为解决相关技术中存在的至少一个技术问题,本公开提供了一种语音处理方法及装置。
上述技术方案的核心思想是:从待处理音频中获取语音片段,结合音频切分条件以及交互响应条件判断当前获取的语音片段(即音节或音节组合)是否能成功完成自动语音识别(Automatic Speech Recognition,ASR)并实现NLP处理,从而为已包含完整的交互信息(如用户所提出的问题)的语音片段发出匹配的反馈消息,避免相关技术中因等待至少一个预设时长导致的用户语音的切分效率以及交互效率下降的问题,大大提高音频切分效率,提升人机交流中机器人或者智能设备的反应速度,改善人机交互体验。
以包含N个音节的语音信息为例,相对于相关技术中的识别方式,本方案需要调用N个***资源进行判断,多消耗了N-1(音节数减一)个***资源,但是,由于语音片段的获取流程与语音片段是否符合音频切分条件的判断流程可以是并行的,因此本方案实际消耗的时间为N个音节的获取耗时以及一次判断流程的耗时,显然大大提升人机交互的响应速度,减少人机交互服务的等待时间。
本公开中,上述方案可以由一个电子设备实现,该电子设备可以是诸如机器人、手机、平板电脑、可穿戴设备(如智能手环、VR眼镜等)、PC等终端设备。以机器人为例,可调用搭载在机器人中的专用应用程序实现,也可调用机器人中设置的其他应用程序实现,还可通过机器人调用云服务器实现。或者上述方案还可以由服务器实现。上述方案也可由多个电子设备配合实现。例如,服务器可以将执行结果发送到终端设备中,以供终端设备展示该执行结果。该服务器可以是包含一独立主机的物理服务器,或者也可以为主机集群承载的虚拟服务器,或者也可以为云服务器,本公开并不限定。
以图1所示场景为例,终端设备可以将录制的待处理音频传输到服务器侧,服务器执行上述方案将匹配的反馈消息(即执行结果)返回终端设备,以使终端设备展示并播放对应的反馈消息。在图1中,终端设备可以是机器人、手机、PC中的一个或多个。
基于前文介绍的核心思想,本公开实施例提供了一种语音处理方法,图2为本公开一示例性实施例提供的语音处理方法的流程示意图。如图2所示,该方法包括:
201、获取待处理音频中的一个音节作为当前语音片段;
202、判断当前语音片段是否符合音频切分条件以及交互响应条件;
203、若当前语音片段不符合音频切分条件以及交互响应条件,则将待处理音频中下一顺位的音节合并到当前语音片段中,并转至判断当前语音片段是否符合音频切分条件以及交互响应条件的步骤,直到确定出符合音频切分条件以及交互响应条件的目标语音片段;
204、输出与目标语音片段匹配的反馈消息。
上述方法中,通过音频切分条件以及交互响应条件判断出从待处理音频中提取的当前语音片段(即音节或音节组合)是否能成功完成ASR识别并实现NLP处理,从而为已包含完整的交互信息(如用户所提出的问题)的语音片段发出匹配的反馈消息,避免相关技术中因等待至少一个预设时长导致的用户语音的切分效率以及交互效率下降的问题,大大提高音频切分效率,提升人机交流中机器人或者智能设备的反应速度,改善人机交互体验。
下面结合具体实施例介绍语音处理方法中的各个步骤。
201中,获取待处理音频中的一个音节作为当前语音片段。
本公开中,待处理音频包括但不限于用户的交互语音,如用户发起的提问、查询请求、记录。以机器人为例,待处理音频可以是由机器人搭载的收音模块(如麦克风)录制的。值得说明的是,除了音频之外,本公开中语音片段还可以从视频或其他类型数据中获取。
具体而言,201中,根据待处理音频中发声能量的收敛趋势,确定一个音节在待处理音频中的起始位置和截止位置。进而,根据起始位置和截止位置从待处理音频中截取出对应的音频片段作为当前语音片段。此步骤可以通过语音活动检测(Voice ActivityDetection,VAD)实现。实际应用中,语音活动检测又称语音端点检测、语音边界检测。
例如,终端设备接收到用户发出的语音之后,监测用户语音的发声能量变化趋势,具体地,如果监测到用户语音中发声能量呈收敛趋势,那么可以根据用户语音中发声能量值确定一个音节的起始位置和截止位置。比如,假设发声能量增加到第一预设能量值,此时可以将第一预设能量值对应的位置设置为音节的起始位置。反之,假设发声能量减小到第二预设能量值,此时可将第二预设能量值对应的位置设置为音节的截止位置。实际应用中,第一预设能量值可以与第二预设能量值相同也可以不同,本公开并不限定。进而,根据起始位置和截止位置从用户语音中截取出对应的音频片段作为当前语音片段。实际上,在上述方式确定出的起始位置和截止位置的基础上,可扩大语音片段的截取范围,从而,使当前语音片段中包含闭口音、气音等,避免语音片段的截取出现遗漏。
202中,判断当前语音片段是否符合音频切分条件以及交互响应条件。该音频切分条件是基于ASR识别过程设置的,该交互响应条件是基于NLP处理过程以及NLP处理结果与反馈消息的匹配度设置的。
可以理解的是,音频切分条件用于判断当前语音片段是否能成功完成ASR识别,即当前语音片段是否发音完整。对于能够成功完成ASR识别的当前语音片段,则认为当前语音片段达到音频切分条件,即当前语音片段发音完整。实际应用中,音频切分条件可以是根据音节特征设置。例如,音节特征包括但不限于发声能量、音频高低。此情况下,还需要通过交互响应条件进一步判断当前语音片段是否已包含完整交互信息足以成功实现NLP处理,并且判断NLP处理结果与反馈消息的匹配度是否达到预设值。可以理解的是,完整交互信息是指能够表达明确交互意图的语义信息,如能够表达意图查询内容的语义信息、能够意图提问内容的语义信息等。根据NLP处理结果可确定当前语音片段的可识别性,其中,可识别性比如是当前语音片段是否可通过自然语言处理(Natural Language Processing,NLP)识别。NLP处理结果与反馈消息的匹配度,则进一步反映出是否存在与当前语音片段匹配的反馈消息,即是否能实现与当前语音片段的交互响应。音频切分条件以及交互响应条件的具体实现参见下文实施例此处暂不展开描述。
本公开中,若当前语音片段符合音频切分条件以及交互响应条件,则输出当前语音片段匹配的反馈消息。可选地,待处理音频为用户发出的语音问题,当前语音片段匹配的反馈消息为针对语音问题的答复消息。在一可选实施例中,输出当前语音片段匹配的反馈消息的步骤,可以采用从文本到语音(Text To Speech,TTS)技术实现,具体地,通过神经网络将文本文件实时转换为自然语言语音流,从而通过播放器播放转换得到的语音流。
203中,若当前语音片段不符合音频切分条件以及交互响应条件中的任一条件,则说明当前语音片段并未发音完整或者并未满足实现交互响应需达到的条件(如未包含完整交互信息或不存在与其匹配的反馈消息),此情况下,可以将下一顺位的音节合并到当前语音片段中,并转至判断当前语音片段是否符合音频切分条件以及交互响应条件的步骤,直到确定出符合音频切分条件以及交互响应条件的目标语音片段。
本公开中,可选地,若将下一顺位音节合并后得到的当前语音片段符合音频切分条件,则说明当前语音片段发音完整,且满足实现交互响应需达到的条件,此情况下,可以直接输出当前语音片段匹配的反馈消息。此处反馈消息与前文实施例中的反馈消息类似,不再展开赘述。
若当前语音片段不符合音频切分条件,则说明当前语音片段并未发音完整或者并未满足实现交互响应需达到的条件,此情况下,转至203中将下一顺位的音节合并到当前语音片段中,并判断当前语音片段是否符合音频切分条件以及交互响应条件的步骤,循环执行上述步骤,直到确定出符合音频切分条件以及交互响应条件的目标语音片段。
值得说明的是,实际应用中,步骤203中待处理音频中各个音节的获取流程与判断流程可以同步执行,从而,避免录制之后等待预设时长导致的音频切分耗时过长的问题,减少语音片段切分所需耗费的时长,提升音频切分效率。
204中,输出与符合音频切分条件的当前语音片段匹配的反馈消息。此处反馈消息与前文实施例中的反馈消息类似,不再展开赘述。
通过图2示出的语音处理方法中,通过音频切分条件以及交互响应条件判断出从待处理音频中提取的当前语音片段(即音节或音节组合)是否能成功完成ASR识别并实现NLP处理,从而为已包含完整交互信息(如用户所提出的问题)的语音片段发出匹配的反馈消息,避免相关技术中因等待至少一个预设时长导致的用户语音的切分效率以及交互效率下降的问题,大大提高音频切分效率,提升人机交流中机器人或者智能设备的反应速度,改善人机交互体验。
上述或下述实施例中,可选地,音频切分条件包括但不限于:当前语音片段的发声能量收敛趋势符合设定趋势。交互响应条件包括但不限于:当前语音片段包含完整交互信息,文本数据与反馈消息的匹配度达到预设值。
基于上述音频切分条件,本公开可选地还提供了一种判断方式,用于判断当前语音片段是否符合音频切分条件以及交互响应条件。图3为本公开一示例性实施例提供的判断方式的流程示意图,该方法包括以下步骤:
301中,判断当前语音片段的发声能量收敛趋势是否符合设定趋势。
可选地,设定趋势是逐渐减小至预先设置的发声能量阈值。具体而言,判断当前语音片段的发声能量是否呈减小趋势,且减小至预先设置的发声能量阈值。若当前语音片段的发声能量呈减小趋势,并且减小至该发声能量阈值,则确定当前语音片段的发声能量收敛趋势符合设定趋势。若当前语音片段的发声能量并未呈减小趋势,或者并未减小到该发声能量阈值,则确定当前语音片段的发声能量收敛趋势不符合设定趋势。实际应用中,减小趋势可以是在预设时长内的整体变化趋势,期间允许存在一定波动,此处并不限定。
若当前语音片段的发声能量收敛趋势符合设定趋势,此情况下,说明当前语音片段发音完整,在此基础上,可以进一步检测当前语音片段是否包含完整的交互信息。
若当前语音片段的发声能量收敛趋势不符合设定趋势,则确定当前语音片段不符合音频切分条件。此情况下,说明当前语音片段发音不完整,故而需要继续录制后续语音片段。可选地,若发声能量收敛趋势不符合设定趋势,则转至将下一音节合并到当前语音片段中。注意,区别于合成前的当前语音片段,此处新合成的当前语音片段包含有下一音节。
从而,通过当前语音片段的发声能量可以快速检测当前语音片段是否发音完整,若当前语音片段并未发音完整,则继续录制后续语音片段,提高音频切分效率。
302中,若发声能量收敛趋势符合设定趋势,则采用音频识别处理将当前语音片段转换为文本数据。具体地,可以采用指自动语音识别技术(Automatic SpeechRecognition,ASR)将当前语音片段转换为文本,为后续音频切分操作提供基础。
若当前语音片段转换失败,则说明当前语音片段并未包含完整发音或录制存在错误,此情况下,确定当前语音片段不符合音频切分条件,需要继续录制后续片段。实际应用中,可选地,若当前语音片段转换失败,此情况下可确定当前语音片段不符合交互响应条件,转至将下一音节合并到当前语音片段中的步骤。
303中,判断当前语音片段是否转换成功。具体来说,判断当前语音片段是否转换成功,实际上是判断当前语音片段是否具有可识别性。
若当前语音片段转换成功,则说明当前语音片段已包含完整语义信息。此情况下,304中,通过自然语言处理(Natural Language Processing,NLP)获取与文本数据匹配的反馈消息。
进而,305中,判断文本数据与反馈消息的匹配度是否达到预设值。此处匹配度也可称为置信度、信心值。具体来说,判断文本数据是否可以匹配到对应的反馈消息,即判断转换得到的文本数据是否具有可交互性,简单来说就是判断是否存在与当前NLP处理结果匹配的反馈消息。
若文本数据与反馈消息的匹配度未达到预设值,则确定当前语音片段不符合交互响应条件。此情况下,说明当前语音片段所包含的语音信息并非完整交互信息,故而需要继续录制后续片段。举例来说,假设用户发出的提问是“北京天气如何?”,而当前的当前语音片段所包含的语义信息为“北京”,此情况下,由于“北京”这一词并未包含交互意图,因而难以为“北京”匹配到符合逻辑的反馈消息,也即匹配到的反馈消息与“北京”的匹配度无法达到预设值,故而可以认定当前情况为匹配失败。故而,若文本数据与反馈消息的匹配度未达到预设值,转至将下一音节合并到当前语音片段中的步骤。
当然,实际应用中,除了上述原因外,导致文本数据与反馈消息的匹配度未达到预设值的原因,还可能是存储反馈消息的数据库中未收录相关问题,反馈消息搜索超时等。
306中,若文本数据与反馈消息的匹配度达到预设值,则说明当前语音片段已包含完整交互信息并且满足实现交互响应的条件,此情况下,即可确定当前语音片段符合音频切分条件以及交互响应条件。
图3示出的判断方式中,通过音频切分条件以及交互响应条件的结合,多维度评估当前语音片段是否发音完整、包含完整交互信息、并且达到实现交互响应的条件,为音频切分操作以及反馈消息的生成过程提供基础,有助于进一步提高音频切分效率,提升人机交流中机器人或者智能设备的反应速度,改善人机交互体验。
图4为本公开实施例提供的一种语音处理装置。如图4所示,其中该语音处理装置包括:
处理模块401,被配置为获取待处理音频中的一个音节作为当前语音片段;判断当前语音片段是否符合音频切分条件以及交互响应条件,音频切分条件基于ASR识别过程设置,交互响应条件基于NLP处理过程以及NLP处理结果与反馈消息的匹配度设置;若当前语音片段不符合音频切分条件以及交互响应条件,则将待处理音频中下一顺位的音节合并到当前语音片段中,并转至判断当前语音片段是否符合音频切分条件以及交互响应条件的步骤,直到确定出符合音频切分条件以及交互响应条件的目标语音片段;
输出模块402,被配置为输出与目标语音片段匹配的反馈消息。
可选地,输出模块402还被配置为:若当前语音片段符合音频切分条件以及所述交互响应条件,则输出当前语音片段匹配的反馈消息。
可选地,处理模块401获取待处理音频中的一个音节作为当前语音片段的过程中,被配置为:
根据待处理音频中发声能量的收敛趋势,确定一个音节在待处理音频中的起始位置和截止位置;
根据起始位置和截止位置从待处理音频中截取出对应的音频片段作为当前语音片段。
可选地,处理模块401判断当前语音片段是否符合音频切分条件以及交互响应条件的过程中,被配置为:
判断当前语音片段的发声能量收敛趋势是否符合设定趋势;
若发声能量收敛趋势符合设定趋势,则采用音频识别处理将当前语音片段转换为文本数据;
若当前语音片段转换成功,则通过自然语言处理NLP获取与文本数据匹配的反馈消息;
判断文本数据与反馈消息的匹配度是否达到预设值;
若文本数据与反馈消息的匹配度达到预设值,则确定当前语音片段符合音频切分条件。
可选地,处理模块401还被配置为:
若发声能量收敛趋势不符合设定趋势,则确定当前语音片段不符合音频切分条件;或者
若当前语音片段转换失败,则确定当前语音片段不符合交互响应条件;或者
若文本数据与反馈消息的匹配度未达到预设值,则确定当前语音片段不符合交互响应条件。
可选地,待处理音频为用户发出的语音问题,反馈消息为针对语音问题的答复消息。
上述语音处理装置可以执行前述各实施例中提供的***或方法,本实施例未详细描述的部分,可参考前述实施例的相关说明,在此不再赘述。
在一个可能的设计中,上述语音处理装置的结构可实现为一电子设备。如图5所示,该电子设备可以包括:处理器21、存储器22。其中,存储器22上存储有可执行代码,当可执行代码被处理器21执行时,至少使处理器21可以实现如前述实施例中提供的语音处理方法。
其中,该电子设备的结构中还可以包括通信接口23,用于与其他设备或通信网络通信。
另外,本公开还提供了一种包括指令的计算机可读存储介质,介质上存储有可执行代码,当可执行代码被无线路由器的处理器执行时,使处理器执行前述各实施例中提供基于神经网络的特征数据处理方法。可选地,计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供一种计算机程序产品,包括计算机程序/指令,计算机程序/指令被处理器执行时实现前述各实施例中提供基于神经网络的特征数据处理方法。该计算机程序/指令是由运行在终端或服务器上的程序实现的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种语音处理方法,其特征在于,包括:
获取待处理音频中的一个音节作为当前语音片段;
判断所述当前语音片段是否符合音频切分条件以及交互响应条件,所述音频切分条件基于ASR识别过程设置,所述交互响应条件基于NLP处理过程以及所述NLP处理结果与反馈消息的匹配度设置;
若所述当前语音片段不符合所述音频切分条件以及交互响应条件,则将所述待处理音频中下一顺位的音节合并到所述当前语音片段中,并转至判断所述当前语音片段是否符合音频切分条件以及交互响应条件的步骤,直到确定出符合所述音频切分条件以及所述交互响应条件的目标语音片段;
输出与所述目标语音片段匹配的反馈消息。
2.根据权利要求1所述的方法,其特征在于,还包括:
若所述当前语音片段符合所述音频切分条件以及所述交互响应条件,则输出所述当前语音片段匹配的反馈消息。
3.根据权利要求1所述的方法,其特征在于,获取待处理音频中的一个音节作为当前语音片段,包括:
根据所述待处理音频中发声能量的收敛趋势,确定一个音节在所述待处理音频中的起始位置和截止位置;
根据所述起始位置和所述截止位置从所述待处理音频中截取出对应的音频片段作为所述当前语音片段。
4.根据权利要求1所述的方法,其特征在于,判断所述当前语音片段是否符合音频切分条件以及交互响应条件的步骤,包括:
判断所述当前语音片段的发声能量收敛趋势是否符合设定趋势;
若发声能量收敛趋势符合所述设定趋势,则采用音频识别处理将所述当前语音片段转换为文本数据;
若所述当前语音片段转换成功,则通过自然语言处理NLP获取与所述文本数据匹配的反馈消息;
判断所述文本数据与所述反馈消息的匹配度是否达到预设值;
若所述匹配度达到所述预设值,则确定所述当前语音片段符合所述音频切分条件以及所述交互响应条件。
5.根据权利要求4所述的方法,其特征在于,还包括:
若发声能量收敛趋势不符合所述设定趋势,则确定所述当前语音片段不符合所述音频切分条件;或者
若所述当前语音片段转换失败,则确定所述当前语音片段不符合所述交互响应条件;或者
若所述匹配度未达到所述预设值,则确定所述当前语音片段不符合所述交互响应条件。
6.根据权利要求1至5任一所述的方法,其特征在于,所述待处理音频为用户发出的语音问题,所述反馈消息为针对所述语音问题的答复消息。
7.一种语音处理装置,其特征在于,包括:
处理模块,被配置为获取待处理音频中的一个音节作为当前语音片段;判断所述当前语音片段是否符合音频切分条件以及交互响应条件,所述音频切分条件基于ASR识别过程设置,所述交互响应条件基于NLP处理过程以及所述NLP处理结果与反馈消息的匹配度设置;若所述当前语音片段不符合所述音频切分条件以及交互响应条件,则将所述待处理音频中下一顺位的音节合并到所述当前语音片段中,并转至判断所述当前语音片段是否符合音频切分条件以及交互响应条件的步骤,直到确定出符合所述音频切分条件以及所述交互响应条件的目标语音片段;
输出模块,被配置为输出与所述目标语音片段匹配的反馈消息。
8.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至6任一项所述的语音处理方法。
9.一种计算机可读存储介质,当所述计算机可读存储介质中的指令由电子设备执行时,使得电子设备能够执行如权利要求1至6任一项所述的语音处理方法。
10.一种计算机程序产品,包括计算机程序/指令,其特征在于,所述计算机程序/指令被处理器执行时实现权利要求1至6任一项所述的语音处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210122867.9A CN114678017A (zh) | 2022-02-09 | 2022-02-09 | 语音处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210122867.9A CN114678017A (zh) | 2022-02-09 | 2022-02-09 | 语音处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114678017A true CN114678017A (zh) | 2022-06-28 |
Family
ID=82072196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210122867.9A Pending CN114678017A (zh) | 2022-02-09 | 2022-02-09 | 语音处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114678017A (zh) |
-
2022
- 2022-02-09 CN CN202210122867.9A patent/CN114678017A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11087739B1 (en) | On-device learning in a hybrid speech processing system | |
WO2021159688A1 (zh) | 声纹识别方法、装置、存储介质、电子装置 | |
CN109643549B (zh) | 基于说话者识别的语音识别方法和装置 | |
US10506088B1 (en) | Phone number verification | |
CN113327609B (zh) | 用于语音识别的方法和装置 | |
CN110689877A (zh) | 一种语音结束端点检测方法及装置 | |
CN111261151B (zh) | 一种语音处理方法、装置、电子设备及存储介质 | |
CN111429899A (zh) | 基于人工智能的语音响应处理方法、装置、设备及介质 | |
CN111797632A (zh) | 信息处理方法、装置及电子设备 | |
CN109036406A (zh) | 一种语音信息的处理方法、装置、设备和存储介质 | |
CN111210829A (zh) | 语音识别方法、装置、***、设备和计算机可读存储介质 | |
CN103177721A (zh) | 语音识别方法和*** | |
CN110995943B (zh) | 多用户流式语音识别方法、***、设备及介质 | |
CN109994106B (zh) | 一种语音处理方法及设备 | |
WO2021098318A1 (zh) | 应答方法、终端及存储介质 | |
CN113779208A (zh) | 用于人机对话的方法和装置 | |
CN116417003A (zh) | 语音交互***、方法、电子设备和存储介质 | |
CN113345473A (zh) | 语音端点检测方法、装置、电子设备和存储介质 | |
CN107886940B (zh) | 语音翻译处理方法及装置 | |
CN109065026B (zh) | 一种录音控制方法及装置 | |
CN114120979A (zh) | 语音识别模型的优化方法、训练方法、设备及介质 | |
CN113611316A (zh) | 人机交互方法、装置、设备以及存储介质 | |
CN112309396A (zh) | 一种ai虚拟机器人状态动态设置*** | |
CN111292749A (zh) | 智能语音平台的会话控制方法及装置 | |
CN114678017A (zh) | 语音处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |