CN114822505A - 一种基于语音芯片的人物搜寻语音识别***及方法 - Google Patents

一种基于语音芯片的人物搜寻语音识别***及方法 Download PDF

Info

Publication number
CN114822505A
CN114822505A CN202210394139.3A CN202210394139A CN114822505A CN 114822505 A CN114822505 A CN 114822505A CN 202210394139 A CN202210394139 A CN 202210394139A CN 114822505 A CN114822505 A CN 114822505A
Authority
CN
China
Prior art keywords
audio
voice
dynamic
signal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210394139.3A
Other languages
English (en)
Inventor
李国军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Waytronic Electronics Co ltd
Original Assignee
Shenzhen Waytronic Electronics Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Waytronic Electronics Co ltd filed Critical Shenzhen Waytronic Electronics Co ltd
Priority to CN202210394139.3A priority Critical patent/CN114822505A/zh
Publication of CN114822505A publication Critical patent/CN114822505A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/043Time compression or expansion by changing speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于语音芯片的人物搜寻语音识别***及方法,属于语音识别技术领域。本发明的一种基于语音芯片的人物搜寻语音识别***及方法,包括静态特征提取和动态特征提取,所述静态特征提取和动态特征提取的输入端与声音预处理的输出端连接,且声音预处理的输入端与语音信号采集的输出端连接。为解决现有的语音识别***仍存在较大的缺陷,其无法忽略来着周围环境以及用户自身因素的一些特征影响,从而会出现无法识别的问题,***会针对该动态音频进行一次识别搜寻,如搜寻未果,则***会在合理范围内对动态音频进行调整,并进行二次识别搜寻,如出现匹配音频后,则会进行详细比对后作出判断,这样可以提升语音的识别能力。

Description

一种基于语音芯片的人物搜寻语音识别***及方法
技术领域
本发明涉及语音识别技术领域,具体为一种基于语音芯片的人物搜寻语音识别***及方法。
背景技术
语音识别***的应用可以分为两个发展方向:一个方向是大词汇量连续语音识别***,主要应用于计算机的听写机,以及与电话网或者互联网相结合的语音信息查询服务***,这些***都是在计算机平台上实现的,另外一个重要的发展方向是小型化、便携式语音产品的应用,如无线手机上的拨号、汽车设备的语音控制、智能玩具、家电遥控等方面的应用,这些应用***大都使用专门的第三方软件来实现,特别是近几年来迅速发展的语音信号处理专用芯片和语音识别片上***的出现。
但是,现有的语音识别***仍存在较大的缺陷,其无法忽略来着周围环境以及用户自身因素的一些特征影响,从而会出现无法识别的情况;因此,不满足现有的需求,对此我们提出了一种基于语音芯片的人物搜寻语音识别***及方法。
发明内容
本发明的目的在于提供一种基于语音芯片的人物搜寻语音识别***及方法,***会在合理范围内对动态音频进行调整,并进行二次识别搜寻,如出现匹配音频后,则会进行详细比对后作出判断,可以解决现有技术中的问题。
为实现上述目的,本发明提供如下技术方案:一种基于语音芯片的人物搜寻语音识别***,包括静态特征提取和动态特征提取,所述静态特征提取和动态特征提取的输入端与声音预处理的输出端连接,且声音预处理的输入端与语音信号采集的输出端连接;
所述语音信号采集有麦克风结构组成,用于接收语音信号,初始状态下需要先进行语音特征的录入,录入语音信息后才可以进行识别操作,所述声音预处理主要用于针对不同模式下的语音信号进行处理,其中学习模式下语音信号需要以WAV格式进行传输,而识别模式下的语音信号则是以FLAV格式进行传输。
优选的,所述静态特征提取的输出端与样本特征库的输入端连接,且样本特征库包括静态数据特征和动态模拟特征;
所述静态特征提取是需要用户进行一些常用语言的录入,方便***获取到初级的用户音频信息,该类用户音频信息也被归纳于静态数据特征中,所述样本特征库用于储存不同用户的音频信息;
所述动态模拟特征是针对识别模式下的动态音频特征进行多项数据调整,调整不会改变用户本身的音色。
优选的,所述动态模拟特征包括环境因素剪除、音频倍速调整和音频音量调整,且环境因素剪除、音频倍速调整和音频音量调整的输出端与测录音源声谱的输入端连接,所述环境因素剪除的输入端与高精度定位的输出端连接;
环境因素剪除:依据定位***来获取到当前用户所处的区域属于室内还是室外,根据不同的环境来启动对应的模式剪除当前环境中的噪音;
音频倍速调整:可以对用户录入的动态语音的语速进行调整;
音频音量调整:可以对用户录入的动态语音的音量进行调整。
优选的,所述静态特征提取包括采样频率和语音分段截取,所述采样频率用于分析用户事先录入的音频信息,所述语音分段截取用户将同一组音频信息进行截点分段,将其分割成多组音频信息。
优选的,所述静态特征提取的输入端与音频转换器的输出端连接,且音频转换器的输入端与试录音源的输出端连接,试录音源以数字信号的形式输入到音频转换器中,之后将其转化为WAV格式进行输出。
优选的,所述静态特征提取的输出端与资源整合的输入端连接,且资源整合的输入端与个人ID信息库的输出端连接,所述资源整合的输出端与数据储存芯片的输入端连接,所述资源整合用于将提取到特征信息进行归类整理,所述个人ID信息库内部包含了用户的姓名、性别以及年龄段信息,所述数据储存芯片用于储存所有用户的音频和个人信息数据;
所述动态特征提取的输出端与特征匹配的输入端连接,且特征匹配的输出端与搜寻结果的输入端连接,所述特征匹配与样本特征库双向连接;
所述特征匹配是在识别模式下用户的动态语音信息录入后会同样本特征库内部的特征数据进行比对搜寻。
优选的,所述动态特征提取包括声谱读取模块,且声谱读取模块包括频谱分帧和滤波消噪,所述频谱分帧和滤波消噪的输出端与波峰断点提取的输入端连接,所述声谱读取模块可以将用户录入的动态语音信息转化为声谱进行显示,所述频谱分帧用于对声谱中的波频进行逐帧分析,所述滤波消噪用于消除传输过程中造成的噪点,所述波峰断点提取可以将声谱中的峰值点进行读取;
所述动态特征提取的输入端与解压转换器的输出端连接,且解压转换器的输入端与音频压缩器的输出端连接,所述音频压缩器的输入端与测录音源的输出端连接,所述测录音源经音频压缩器压缩成FLAC格式进行传输,随后由解压转换器重新解压恢复成WAV格式输入到声谱读取模块中。
优选的,还包括:
定位模块,用于对所述动态音频信号的信号源进行定位,确定所述用户当前所处位置;
视频采集模块,用于对所述动态音频信号进行二次动态搜寻之前,获取所述当前所处位置的周围视频;
属性确定模块,用于对所述周围视频进行环境特征分析,确定所述当前所处位置的周围环境的环境布局,并确定所述环境布局中每个环境部件的部件属性;
集合确定模块,用于基于所述部件属性,确定对应环境部件在不同噪声条件下的噪声辅助集合;
音频采集模块,用于与所述视频采集模块对所述当前所处位置的环境声音信号进行同步采集,并基于同步采集结果,分析不同目标方位在不同时间点下的噪声信号;
调取模块,用于确定所述噪声信号在不同时间点下的噪声属性,基于所述噪声属性匹配对应的允许噪声条件,并基于所述允许噪声条件与环境部件在不同噪声条件下的一致性,从所述噪声辅助集合中,调取基于同个方位的噪声信号的辅助子集合;
信号构建模块,用于基于所述辅助子集合,确定对应同目标方位下的辅助连续特征,对所述辅助连续特征进行预分析,确定所述辅助连续特征存在的辅助规律,并按照所述辅助规律,构建辅助信号;
按照所述语音信号采集的采集构造对所述动态音频信号进行方位信号拆分,并按照拆分结果,获取不同目标方位的方位子信号,并将所述方位子信号与对应标准子信号进行比较,确定差异子信号;
将所述差异子信号与对应同目标方位的辅助信号进行消除分析,确定是否满足预设条件;
若满足,获取常规语速调整方式和常规音量调整方式,并基于辅助信号对对应方位子信号进行消除之后,基于所述常规语速调整方式和常规音量调整方式进行消除后的信号进行再次调整;
若不满足,获取所述差异子信号与对应同目标方位的辅助信号的差别因子,并基于所述差别因子,从所述分析数据库中,调取特殊语速调整方式和特殊音量调整方式,并基于辅助信号对对应方位子信号进行消除之后,基于所述特殊语速调整方式和特殊音量调整方式进行消除后的信号进行再次调整。
优选的,还包括:
截点确定模块,用于对所述音频信息进行文本转换,获取文本信息,对所述文本信息进行初步语义分析,得到目标关键词和模糊关键词,并将所述目标关键词所在位置作为初截点;
拆分模块,用于基于所述初截点,对所述音频信息进行拆分,获取若干第一音频;
切除模块,用于对每个第一音频的中有效信息的初始点以及末尾点进行确定,基于所述初始点,确定对应第一音频的初始区域,同时,基于所述末尾点,确定对应第一音频的末尾区域;
通过初始区域以及末尾区域,对对应第一音频进行切除,获取第二音频;
标签赋予模块,用于对所述第二音频进行音频提取,确定可提取音频种类条数,并向每种音频条赋予对应的音频标签;
模糊确定模块,用于确定每个模糊关键词对应的模糊程度Y1;
Figure BDA0003596667820000051
Figure BDA0003596667820000052
其中,s1表示对应模糊关键词的模糊字符个数;s表示对应模糊关键词的总字数个数;sim(w0,w1)表示模糊关键词w0与左侧相邻关键词w1的相似度;sim(w0,w2)表示模糊关键词w0与右侧相邻关键词w2的相似度;sim(w0,w1,w2)表示模糊关键词w0、右侧相邻关键词w2、左侧相邻关键词w1三者的相似度;n1表示模糊关键词w0所处音频位置对应的音频标签个数;y0表示模糊关键词w0对应的音频值;yi表示第i个音频标签对应的音频条的音频值;G表示模糊关键词w0对应的词相似因子;
当所述模糊程度Y1大于预设模糊程度时,对对应模糊关键词的位置进行第一标定,并将第一标定结果对应的标定点视为添加截点;
基于所有添加截点和初截点,对音频信息进行拆分。
一种基于语音芯片的人物搜寻语音识别***的识别方法,包括如下步骤:
步骤一:初始状态下需要先进行语音特征的录入,用户先开启学习模式,然后按照***的指示录入相应的音频信息,录入过程中尽量选择室内或者室外安静的区域进行录入,学习模式下语音录入完成后,需要填写用户的个人信息,填写完成后电机上传即可;
步骤二:在进行人物语音的识别时,会先采集到当前模式下的人物语音信息,此音频属于动态音频信号,随后***会将该动态音频信号与特征库内的静态数据信号进行搜寻比对,如未有匹配的数据,***会启动二次动态搜寻;
步骤三:动态搜寻时,***会分析当前的用户所处的区域环境情况,之后根据当前的环境来进行噪音补偿,从而给消除掉来自外界环境因素影响,完成环境噪音剪除后,***会对用户的动态音频进行音量和语速的协调;
步骤四:同比例放大分频音量以及调整语速后再次对库内的静态数据进行搜寻比对,如出现匹配率在90-95%的数据信号后,***会进行分段和分帧比对,在同音量和同音调的情况下进行对音色分析,确认复合后进行反馈。
与现有技术相比,本发明的有益效果是:
1、本发明,静态特征提取是指用户在学习模式的***的提示下进行一系列音频的录入,方便***获取到用户的语音特征,此过程中音频信息会以WAV格式进行传输,避免音频信息出现损坏缺失的情况,而动态特征提取是指用户在使用时进行声音的识别搜寻操作,在这个语音录入过程中用户的音频信息会存在一定的变数,所以其语音信号属于动态信息,最后***会针对该动态音频进行一次识别搜寻,如搜寻未果,则***会在合理范围内对动态音频进行调整,并进行二次识别搜寻,如出现匹配音频后,则会进行详细比对后作出判断,这样可以提升语音的识别能力;
2、本发明,动态模拟特征包括环境因素剪除、音频倍速调整和音频音量调整,环境因素剪除是依据定位***来获取到当前用户所处的区域属于室内还是室外,根据不同的环境来启动对应的模式剪除当前环境中的噪音,音频倍速调整可以对用户录入的动态语音的语速进行调整,音频音量调整可以对用户录入的动态语音的音量进行调整;
3、本发明,静态特征提取的输出端与资源整合的输入端连接,且资源整合的输入端与个人ID信息库的输出端连接,资源整合的输出端与数据储存芯片的输入端连接,资源整合用于将提取到特征信息进行归类整理,个人ID信息库内部包含了用户的姓名、性别以及年龄段信息,个人ID信息库是为了同语音信息进绑定,且方便***获知该段录音用户的性别以及身体发育情况,这样在处理的过程中***可以根据用户这些情况来进行一些动态数据的模拟。
4、本发明,通过视频采集以及音频采集,来从两方面确定对噪声信号的辅助集合,保证对噪声消除的合理性,且通过对动态音频信号的方位拆分,以及与标准信号的比较,可以有效的,确定是否可以消除,以此,来调取对应的调整方式进行调整,保证对动态音频信号的调整有效性,便于提高后续语音的识别能力。
5、本发明,通过进行文本转换,确定目标关键词,确定初截点,对音频拆分,且通过对第一音频切除,可以节省对音频的分析效率,且通过对模糊关键词进行模糊程度的计算,可以有效确定是否补充新的截点,保证对音频信息拆分的最佳合理性,间接提高识别效率。
附图说明
图1为本发明的整体识别流程图;
图2为本发明的动态模拟特征组成结构示意图;
图3为本发明的静态特征提取流程示意图;
图4为本发明的动态特征提取流程示意图;
图5为本发明的识别算法流程示意图;
图6为本发明的波频结构示意图;
图7为本发明的波频端点结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-2,本发明提供的一种实施例:一种基于语音芯片的人物搜寻语音识别***,包括静态特征提取和动态特征提取,静态特征提取和动态特征提取的输入端与声音预处理的输出端连接,且声音预处理的输入端与语音信号采集的输出端连接,语音信号采集有麦克风结构组成,用于接收语音信号,初始状态下需要先进行语音特征的录入,录入语音信息后才可以进行识别操作,声音预处理主要用于针对不同模式下的语音信号进行处理,其中学习模式下语音信号需要以WAV格式进行传输,而识别模式下的语音信号则是以FLAV格式进行传输,静态特征提取是指用户在学习模式的***的提示下进行一系列音频的录入,方便***获取到用户的语音特征,此过程中音频信息会以WAV格式进行传输,避免音频信息出现损坏缺失的情况,而动态特征提取是指用户在使用时进行声音的识别搜寻操作,在这个语音录入过程中用户的音频信息会存在一定的变数,所以其语音信号属于动态信息,最后***会针对该动态音频进行一次识别搜寻,如搜寻未果,则***会在合理范围内对动态音频进行调整,并进行二次识别搜寻,如出现匹配音频后,则会进行详细比对后作出判断;
静态特征提取的输出端与样本特征库的输入端连接,且样本特征库包括静态数据特征和动态模拟特征;
静态特征提取是需要用户进行一些常用语言的录入,方便***获取到初级的用户音频信息,该类用户音频信息也被归纳于静态数据特征中,样本特征库用于储存不同用户的音频信息;
动态模拟特征是针对识别模式下的动态音频特征进行多项数据调整,调整不会改变用户本身的音色;
动态模拟特征包括环境因素剪除、音频倍速调整和音频音量调整,且环境因素剪除、音频倍速调整和音频音量调整的输出端与测录音源声谱的输入端连接,环境因素剪除的输入端与高精度定位的输出端连接;
环境因素剪除:依据定位***来获取到当前用户所处的区域属于室内还是室外,根据不同的环境来启动对应的模式剪除当前环境中的噪音;
音频倍速调整:可以对用户录入的动态语音的语速进行调整;
音频音量调整:可以对用户录入的动态语音的音量进行调整。
请参阅图3-4,静态特征提取包括采样频率和语音分段截取,采样频率用于分析用户事先录入的音频信息,语音分段截取用户将同一组音频信息进行截点分段,将其分割成多组音频信息;
静态特征提取的输入端与音频转换器的输出端连接,且音频转换器的输入端与试录音源的输出端连接,试录音源以数字信号的形式输入到音频转换器中,之后将其转化为WAV格式进行输出;
静态特征提取的输出端与资源整合的输入端连接,且资源整合的输入端与个人ID信息库的输出端连接,资源整合的输出端与数据储存芯片的输入端连接,资源整合用于将提取到特征信息进行归类整理,个人ID信息库内部包含了用户的姓名、性别以及年龄段信息,数据储存芯片用于储存所有用户的音频和个人信息数据,个人ID信息库是为了同语音信息进绑定,且方便***获知该段录音用户的性别以及身体发育情况,这样在处理的过程中***可以根据用户这些情况来进行一些动态数据的模拟;
动态特征提取的输出端与特征匹配的输入端连接,且特征匹配的输出端与搜寻结果的输入端连接,特征匹配与样本特征库双向连接;
特征匹配是在识别模式下用户的动态语音信息录入后会同样本特征库内部的特征数据进行比对搜寻;
动态特征提取包括声谱读取模块,且声谱读取模块包括频谱分帧和滤波消噪,频谱分帧和滤波消噪的输出端与波峰断点提取的输入端连接,声谱读取模块可以将用户录入的动态语音信息转化为声谱进行显示,频谱分帧用于对声谱中的波频进行逐帧分析,滤波消噪用于消除传输过程中造成的噪点,波峰断点提取可以将声谱中的峰值点进行读取;
动态特征提取的输入端与解压转换器的输出端连接,且解压转换器的输入端与音频压缩器的输出端连接,音频压缩器的输入端与测录音源的输出端连接,测录音源经音频压缩器压缩成FLAC格式进行传输,随后由解压转换器重新解压恢复成WAV格式输入到声谱读取模块中。
在一个实施例中,还包括:
定位模块,用于对所述动态音频信号的信号源进行定位,确定所述用户当前所处位置;
视频采集模块,用于对所述动态音频信号进行二次动态搜寻之前,获取所述当前所处位置的周围视频;
属性确定模块,用于对所述周围视频进行环境特征分析,确定所述当前所处位置的周围环境的环境布局,并确定所述环境布局中每个环境部件的部件属性;
集合确定模块,用于基于所述部件属性,确定对应环境部件在不同噪声条件下的噪声辅助集合;
音频采集模块,用于与所述视频采集模块对所述当前所处位置的环境声音信号进行同步采集,并基于同步采集结果,分析不同目标方位在不同时间点下的噪声信号;
调取模块,用于确定所述噪声信号在不同时间点下的噪声属性,基于所述噪声属性匹配对应的允许噪声条件,并基于所述允许噪声条件与环境部件在不同噪声条件下的一致性,从所述噪声辅助集合中,调取基于同个方位的噪声信号的辅助子集合;
信号构建模块,用于基于所述辅助子集合,确定对应同目标方位下的辅助连续特征,对所述辅助连续特征进行预分析,确定所述辅助连续特征存在的辅助规律,并按照所述辅助规律,构建辅助信号;
按照所述语音信号采集的采集构造对所述动态音频信号进行方位信号拆分,并按照拆分结果,获取不同目标方位的方位子信号,并将所述方位子信号与对应标准子信号进行比较,确定差异子信号;
将所述差异子信号与对应同目标方位的辅助信号进行消除分析,确定是否满足预设条件;
若满足,获取常规语速调整方式和常规音量调整方式,并基于辅助信号对对应方位子信号进行消除之后,基于所述常规语速调整方式和常规音量调整方式进行消除后的信号进行再次调整;
若不满足,获取所述差异子信号与对应同目标方位的辅助信号的差别因子,并基于所述差别因子,从所述分析数据库中,调取特殊语速调整方式和特殊音量调整方式,并基于辅助信号对对应方位子信号进行消除之后,基于所述特殊语速调整方式和特殊音量调整方式进行消除后的信号进行再次调整。
该实施例中,信号源也就是用户发出声音的位置,且获取的周围视频,是指的所处位置的环境视频,一般情况下,不同的建筑构造,建筑材料,建筑设备都会影响声音本身情况,因此,对视频进行环境特征分析,来初步确定布局,也就是建筑构造,进而可以确定该构造中不同环境部件的部件属性,比如,海绵相关的材料,对噪声存在一定的吸收情况,大理石相关的材料,可能会使得声音产生比较空旷的回声等情况。
该实施例中,比如,海绵,噪声越高对应的吸收情况越好,也就是不同噪声等级,可以对应吸收等级,由噪声大小与吸收等级构成噪声辅助集合。
该实施例中,通过对音频的同步采集,是为了对音频进行单独分析,也就是单独的从视频和音频两个方面,来综合分析对应的辅助条件。
该实施例中,噪声属性,比如是碰撞声等,允许噪声条件可以是噪声大小,以及噪声类型,且通过视频与音频的噪声条件的一致性,可以确定同个目标方位下的辅助子集合。
该实施例中,辅助连续特征指的是按照时间顺序,对辅助子集合中的每个辅助相关条件进行分析,来得到连续特征,进而分析存在的规律,比如:敲击声、咳嗽声,以此规律循环,最后对应的可以是对敲击声、咳嗽声构成信号的一个消除,也就是辅助信号。
该实施例中,由于是采用麦克风进行的语音采集,但是麦克风一般是包括阵列式结构在内的,因此,来对不同方位的信号进行采集,来与标准信号进行比较,确定差异子信号。
该实施例中,通过将差异子信号与辅助信号进行消除,也就是累加消除,来确定消除后信号是否会成为0,若是,判定满足预设条件。
该实施例中,常规语速调整方式以及常规音量调整方式,都可以是预先设置好的,进行消除。
该实施例中,差别因子,比如存在一段信号的是波动的,剩余都为0,此时,获取该波动信号的产生原因,作为差别因子,来获取对应的调整方式进行调整。
上述技术方案的有益效果是:通过视频采集以及音频采集,来从两方面确定对噪声信号的辅助集合,保证对噪声消除的合理性,且通过对动态音频信号的方位拆分,以及与标准信号的比较,可以有效的,确定是否可以消除,以此,来调取对应的调整方式进行调整,保证对动态音频信号的调整有效性,便于提高后续语音的识别能力。
在一个实施例中,还包括:
截点确定模块,用于对所述音频信息进行文本转换,获取文本信息,对所述文本信息进行初步语义分析,得到目标关键词和模糊关键词,并将所述目标关键词所在位置作为初截点;
拆分模块,用于基于所述初截点,对所述音频信息进行拆分,获取若干第一音频;
切除模块,用于对每个第一音频的中有效信息的初始点以及末尾点进行确定,基于所述初始点,确定对应第一音频的初始区域,同时,基于所述末尾点,确定对应第一音频的末尾区域;
通过初始区域以及末尾区域,对对应第一音频进行切除,获取第二音频;
标签赋予模块,用于对所述第二音频进行音频提取,确定可提取音频种类条数,并向每种音频条赋予对应的音频标签;
模糊确定模块,用于确定每个模糊关键词对应的模糊程度Y1;
Figure BDA0003596667820000131
Figure BDA0003596667820000132
其中,s1表示对应模糊关键词的模糊字符个数;s表示对应模糊关键词的总字数个数;sim(w0,w1)表示模糊关键词w0与左侧相邻关键词w1的相似度;sim(w0,w2)表示模糊关键词w0与右侧相邻关键词w2的相似度;
sim(w0,w1,w2)表示模糊关键词w0、右侧相邻关键词w2、左侧相邻关键词w1三者的相似度;n1表示模糊关键词w0所处音频位置对应的音频标签个数;y0表示模糊关键词w0对应的音频值;yi表示第i个音频标签对应的音频条的音频值;G表示模糊关键词w0对应的词相似因子;
当所述模糊程度Y1大于预设模糊程度时,对对应模糊关键词的位置进行第一标定,并将第一标定结果对应的标定点视为添加截点;
基于所有添加截点和初截点,对音频信息进行拆分。
该实施例中,比如,第二音频中包括用户语音、敲击声语音、电磁干扰语音,因此,可以将第二音频提取为三种类型的音频条数。
该实施例中,对模糊程度Y1大于预设模糊程度的模糊关键词的位置标定,可以有效的对该模糊信息进行多次识别,且识别次数可以优于对目标关键词的识别次数,保证识别的能力。
上述技术方案的有益效果是:通过进行文本转换,确定目标关键词,确定初截点,对音频拆分,且通过对第一音频切除,可以节省对音频的分析效率,且通过对模糊关键词进行模糊程度的计算,可以有效确定是否补充新的截点,保证对音频信息拆分的最佳合理性,间接提高识别效率。
请参阅图5-7,一种基于语音芯片的人物搜寻语音识别***的识别方法,包括如下步骤:
步骤一:初始状态下需要先进行语音特征的录入,用户先开启学习模式,然后按照***的指示录入相应的音频信息,录入过程中尽量选择室内或者室外安静的区域进行录入,学习模式下语音录入完成后,需要填写用户的个人信息,填写完成后电机上传即可;
步骤二:在进行人物语音的识别时,会先采集到当前模式下的人物语音信息,此音频属于动态音频信号,随后***会将该动态音频信号与特征库内的静态数据信号进行搜寻比对,如未有匹配的数据,***会启动二次动态搜寻;
步骤三:动态搜寻时,***会分析当前的用户所处的区域环境情况,之后根据当前的环境来进行噪音补偿,从而给消除掉来自外界环境因素影响,完成环境噪音剪除后,***会对用户的动态音频进行音量和语速的协调;
步骤四:同比例放大分频音量以及调整语速后再次对库内的静态数据进行搜寻比对,如出现匹配率在90-95%的数据信号后,***会进行分段和分帧比对,在同音量和同音调的情况下进行对音色分析,确认复合后进行反馈。
综上,初始状态下需要先进行语音特征的录入,用户先开启学习模式,然后按照***的指示录入相应的音频信息,录入过程中尽量选择室内或者室外安静的区域进行录入,学习模式下语音录入完成后,需要填写用户的个人信息,填写完成后电机上传即可,在进行人物语音的识别时,会先采集到当前模式下的人物语音信息,此音频属于动态音频信号,随后***会将该动态音频信号与特征库内的静态数据信号进行搜寻比对,如未有匹配的数据,***会启动二次动态搜寻,动态搜寻时,***会分析当前的用户所处的区域环境情况,之后根据当前的环境来进行噪音补偿,从而给消除掉来自外界环境因素影响,完成环境噪音剪除后,***会对用户的动态音频进行音量和语速的协调,同比例放大分频音量以及调整语速后再次对库内的静态数据进行搜寻比对,如出现匹配率在90-95%的数据信号后,***会进行分段和分帧比对,在同音量和同音调的情况下进行对音色分析,确认复合后进行反馈。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (10)

1.一种基于语音芯片的人物搜寻语音识别***,包括静态特征提取和动态特征提取,其特征在于:所述静态特征提取和动态特征提取的输入端与声音预处理的输出端连接,且声音预处理的输入端与语音信号采集的输出端连接;
所述语音信号采集有麦克风结构组成,用于接收语音信号,初始状态下需要先进行语音特征的录入,录入语音信息后才可以进行识别操作,所述声音预处理主要用于针对不同模式下的语音信号进行处理,其中学习模式下语音信号需要以WAV格式进行传输,而识别模式下的语音信号则是以FLAV格式进行传输。
2.根据权利要求1所述的一种基于语音芯片的人物搜寻语音识别***,其特征在于:所述静态特征提取的输出端与样本特征库的输入端连接,且样本特征库包括静态数据特征和动态模拟特征;
所述静态特征提取是需要用户进行一些常用语言的录入,方便***获取到初级的用户音频信息,该类用户音频信息也被归纳于静态数据特征中,所述样本特征库用于储存不同用户的音频信息;
所述动态模拟特征是针对识别模式下的动态音频特征进行多项数据调整,调整不会改变用户本身的音色。
3.根据权利要求2所述的一种基于语音芯片的人物搜寻语音识别***,其特征在于:所述动态模拟特征包括环境因素剪除、音频倍速调整和音频音量调整,且环境因素剪除、音频倍速调整和音频音量调整的输出端与测录音源声谱的输入端连接,所述环境因素剪除的输入端与高精度定位的输出端连接;
环境因素剪除:依据定位***来获取到当前用户所处的区域属于室内还是室外,根据不同的环境来启动对应的模式剪除当前环境中的噪音;
音频倍速调整:可以对用户录入的动态语音的语速进行调整;
音频音量调整:可以对用户录入的动态语音的音量进行调整。
4.根据权利要求2所述的一种基于语音芯片的人物搜寻语音识别***,其特征在于:所述静态特征提取包括采样频率和语音分段截取,所述采样频率用于分析用户事先录入的音频信息,所述语音分段截取用户将同一组音频信息进行截点分段,将其分割成多组音频信息。
5.根据权利要求4所述的一种基于语音芯片的人物搜寻语音识别***,其特征在于:所述静态特征提取的输入端与音频转换器的输出端连接,且音频转换器的输入端与试录音源的输出端连接,试录音源以数字信号的形式输入到音频转换器中,之后将其转化为WAV格式进行输出。
6.根据权利要求5所述的一种基于语音芯片的人物搜寻语音识别***,其特征在于:所述静态特征提取的输出端与资源整合的输入端连接,且资源整合的输入端与个人ID信息库的输出端连接,所述资源整合的输出端与数据储存芯片的输入端连接,所述资源整合用于将提取到特征信息进行归类整理,所述个人ID信息库内部包含了用户的姓名、性别以及年龄段信息,所述数据储存芯片用于储存所有用户的音频和个人信息数据;
所述动态特征提取的输出端与特征匹配的输入端连接,且特征匹配的输出端与搜寻结果的输入端连接,所述特征匹配与样本特征库双向连接;
所述特征匹配是在识别模式下用户的动态语音信息录入后会同样本特征库内部的特征数据进行比对搜寻。
7.根据权利要求6所述的一种基于语音芯片的人物搜寻语音识别***,其特征在于:所述动态特征提取包括声谱读取模块,且声谱读取模块包括频谱分帧和滤波消噪,所述频谱分帧和滤波消噪的输出端与波峰断点提取的输入端连接,所述声谱读取模块可以将用户录入的动态语音信息转化为声谱进行显示,所述频谱分帧用于对声谱中的波频进行逐帧分析,所述滤波消噪用于消除传输过程中造成的噪点,所述波峰断点提取可以将声谱中的峰值点进行读取;
所述动态特征提取的输入端与解压转换器的输出端连接,且解压转换器的输入端与音频压缩器的输出端连接,所述音频压缩器的输入端与测录音源的输出端连接,所述测录音源经音频压缩器压缩成FLAC格式进行传输,随后由解压转换器重新解压恢复成WAV格式输入到声谱读取模块中。
8.根据权利3所述的一种基于语音芯片的人物搜寻语音识别***,其特征在于,还包括:
定位模块,用于对所述动态音频信号的信号源进行定位,确定所述用户当前所处位置;
视频采集模块,用于对所述动态音频信号进行二次动态搜寻之前,获取所述当前所处位置的周围视频;
属性确定模块,用于对所述周围视频进行环境特征分析,确定所述当前所处位置的周围环境的环境布局,并确定所述环境布局中每个环境部件的部件属性;
集合确定模块,用于基于所述部件属性,确定对应环境部件在不同噪声条件下的噪声辅助集合;
音频采集模块,用于与所述视频采集模块对所述当前所处位置的环境声音信号进行同步采集,并基于同步采集结果,分析不同目标方位在不同时间点下的噪声信号;
调取模块,用于确定所述噪声信号在不同时间点下的噪声属性,基于所述噪声属性匹配对应的允许噪声条件,并基于所述允许噪声条件与环境部件在不同噪声条件下的一致性,从所述噪声辅助集合中,调取基于同个方位的噪声信号的辅助子集合;
信号构建模块,用于基于所述辅助子集合,确定对应同目标方位下的辅助连续特征,对所述辅助连续特征进行预分析,确定所述辅助连续特征存在的辅助规律,并按照所述辅助规律,构建辅助信号;
按照所述语音信号采集的采集构造对所述动态音频信号进行方位信号拆分,并按照拆分结果,获取不同目标方位的方位子信号,并将所述方位子信号与对应标准子信号进行比较,确定差异子信号;
将所述差异子信号与对应同目标方位的辅助信号进行消除分析,确定是否满足预设条件;
若满足,获取常规语速调整方式和常规音量调整方式,并基于辅助信号对对应方位子信号进行消除之后,基于所述常规语速调整方式和常规音量调整方式进行消除后的信号进行再次调整;
若不满足,获取所述差异子信号与对应同目标方位的辅助信号的差别因子,并基于所述差别因子,从所述分析数据库中,调取特殊语速调整方式和特殊音量调整方式,并基于辅助信号对对应方位子信号进行消除之后,基于所述特殊语速调整方式和特殊音量调整方式进行消除后的信号进行再次调整。
9.根据权利要求1所述的一种基于语音芯片的人物搜寻语音识别***,其特征在于,还包括:
截点确定模块,用于对所述音频信息进行文本转换,获取文本信息,对所述文本信息进行初步语义分析,得到目标关键词和模糊关键词,并将所述目标关键词所在位置作为初截点;
拆分模块,用于基于所述初截点,对所述音频信息进行拆分,获取若干第一音频;
切除模块,用于对每个第一音频的中有效信息的初始点以及末尾点进行确定,基于所述初始点,确定对应第一音频的初始区域,同时,基于所述末尾点,确定对应第一音频的末尾区域;
通过初始区域以及末尾区域,对对应第一音频进行切除,获取第二音频;
标签赋予模块,用于对所述第二音频进行音频提取,确定可提取音频种类条数,并向每种音频条赋予对应的音频标签;
模糊确定模块,用于确定每个模糊关键词对应的模糊程度Y1;
Figure FDA0003596667810000051
Figure FDA0003596667810000052
其中,s1表示对应模糊关键词的模糊字符个数;s表示对应模糊关键词的总字数个数;sim(w0,w1)表示模糊关键词w0与左侧相邻关键词w1的相似度;sim(w0,w2)表示模糊关键词w0与右侧相邻关键词w2的相似度;sim(w0,w1,w2)表示模糊关键词w0、右侧相邻关键词w2、左侧相邻关键词w1三者的相似度;n1表示模糊关键词w0所处音频位置对应的音频标签个数;y0表示模糊关键词w0对应的音频值;yi表示第i个音频标签对应的音频条的音频值;G表示模糊关键词w0对应的词相似因子;
当所述模糊程度Y1大于预设模糊程度时,对对应模糊关键词的位置进行第一标定,并将第一标定结果对应的标定点视为添加截点;
基于所有添加截点和初截点,对音频信息进行拆分。
10.一种基于语音芯片的人物搜寻语音识别***的识别方法,基于权利要求1-9任意一项基于语音芯片的人物搜寻语音识别***实现,其中,包括如下步骤:
步骤一:初始状态下需要先进行语音特征的录入,用户先开启学习模式,然后按照***的指示录入相应的音频信息,录入过程中尽量选择室内或者室外安静的区域进行录入,学习模式下语音录入完成后,需要填写用户的个人信息,填写完成后电机上传即可;
步骤二:在进行人物语音的识别时,会先采集到当前模式下的人物语音信息,此音频属于动态音频信号,随后***会将该动态音频信号与特征库内的静态数据信号进行搜寻比对,未有匹配的数据,***会启动二次动态搜寻;
步骤三:动态搜寻时,***会分析当前的用户所处的区域环境情况,之后根据当前的环境来进行噪音补偿,从而给消除掉来自外界环境因素影响,完成环境噪音剪除后,***会对用户的动态音频进行音量和语速的协调;
步骤四:同比例放大分频音量以及调整语速后再次对库内的静态数据进行搜寻比对,出现匹配率在90-95%的数据信号后,***会进行分段和分帧比对,在同音量和同音调的情况下进行对音色分析,确认复合后进行反馈。
CN202210394139.3A 2022-04-14 2022-04-14 一种基于语音芯片的人物搜寻语音识别***及方法 Pending CN114822505A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210394139.3A CN114822505A (zh) 2022-04-14 2022-04-14 一种基于语音芯片的人物搜寻语音识别***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210394139.3A CN114822505A (zh) 2022-04-14 2022-04-14 一种基于语音芯片的人物搜寻语音识别***及方法

Publications (1)

Publication Number Publication Date
CN114822505A true CN114822505A (zh) 2022-07-29

Family

ID=82537350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210394139.3A Pending CN114822505A (zh) 2022-04-14 2022-04-14 一种基于语音芯片的人物搜寻语音识别***及方法

Country Status (1)

Country Link
CN (1) CN114822505A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116886992A (zh) * 2023-09-06 2023-10-13 北京中关村科金技术有限公司 一种视频数据的处理方法、装置、电子设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116886992A (zh) * 2023-09-06 2023-10-13 北京中关村科金技术有限公司 一种视频数据的处理方法、装置、电子设备及存储介质
CN116886992B (zh) * 2023-09-06 2023-12-01 北京中关村科金技术有限公司 一种视频数据的处理方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
WO2021232725A1 (zh) 基于语音交互的信息核实方法、装置、设备和计算机存储介质
US8793127B2 (en) Method and apparatus for automatically determining speaker characteristics for speech-directed advertising or other enhancement of speech-controlled devices or services
US7853582B2 (en) Method and system for providing information services related to multimodal inputs
CN108170859A (zh) 语音查询的方法、装置、存储介质及终端设备
CN109801648B (zh) 消息弹窗语音编辑方法、装置、计算机设备及存储介质
US20090234854A1 (en) Search system and search method for speech database
CN110019741B (zh) 问答***答案匹配方法、装置、设备及可读存储介质
CN112581964B (zh) 一种面向多领域的智能语音交互方法
US11501546B2 (en) Media management system for video data processing and adaptation data generation
CN111402928A (zh) 基于注意力的语音情绪状态评估方法、装置、介质及设备
CN111159987A (zh) 数据图表绘制方法、装置、设备和计算机可读存储介质
CN111062221A (zh) 数据处理方法、装置、电子设备以及存储介质
US6741962B2 (en) Speech recognition system and standard pattern preparation system as well as speech recognition method and standard pattern preparation method
CN104157294B (zh) 一种农产品市场要素信息采集的鲁棒性语音识别方法
CN114822505A (zh) 一种基于语音芯片的人物搜寻语音识别***及方法
CN116186258A (zh) 基于多模态知识图谱的文本分类方法、设备及存储介质
CN114722199A (zh) 基于通话录音的风险识别方法、装置、计算机设备及介质
CN106095799A (zh) 一种语音的存储、检索方法及装置
CN109119073A (zh) 基于多源识别的语音识别方法、***、音箱及存储介质
CN115798459B (zh) 音频处理方法、装置、存储介质及电子设备
CN116386601A (zh) 一种智能语音客服问答方法及***
CN115168563B (zh) 一种基于意图识别的机场服务引导方法、***及装置
CN115985320A (zh) 智能设备控制方法、装置、电子设备及存储介质
CN113782005B (zh) 语音识别方法及装置、存储介质及电子设备
CN109920408B (zh) 基于语音识别的字典项设置方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination