CN109003613A - 结合空间信息的声纹识别支付信息防伪方法 - Google Patents

结合空间信息的声纹识别支付信息防伪方法 Download PDF

Info

Publication number
CN109003613A
CN109003613A CN201811017603.7A CN201811017603A CN109003613A CN 109003613 A CN109003613 A CN 109003613A CN 201811017603 A CN201811017603 A CN 201811017603A CN 109003613 A CN109003613 A CN 109003613A
Authority
CN
China
Prior art keywords
counterfeit
application
voiceprint recognition
payment information
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811017603.7A
Other languages
English (en)
Inventor
苏永锋
沈文临
曾鸣
曾一鸣
杨敬锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Hengqin Xianlian Finance Technology Co Ltd
Zhuhai Hengqin Xianliansheng Technology Development Co Ltd
Original Assignee
Zhuhai Hengqin Xianlian Finance Technology Co Ltd
Zhuhai Hengqin Xianliansheng Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Hengqin Xianlian Finance Technology Co Ltd, Zhuhai Hengqin Xianliansheng Technology Development Co Ltd filed Critical Zhuhai Hengqin Xianlian Finance Technology Co Ltd
Priority to CN201811017603.7A priority Critical patent/CN109003613A/zh
Publication of CN109003613A publication Critical patent/CN109003613A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • G06Q20/40145Biometric identity checks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/16Hidden Markov models [HMM]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种结合空间信息的声纹识别支付信息防伪方法,包括以下步骤:S1:建立代表说话人身份的语音特征模型,通过编程从语音数据中提取说话人特征,采用文本相关数据,在matlab环境中建立MFCC模型,首先使用wavread函数读入,然后以帧长256,帧移80进行分帧,接着由语句x=filter([1‑0.9375],1,x)实现对高频的加重处理,滤除低频干扰,特别是50Hz到60Hz的工频干扰,对语音识别更为有用的高频部分进行频谱提升,接着,为了保持语音信号的短时平稳性。本发明能够进行多重验证,提高支付安全性,而且采用随机动态验证文字,通过人工语音读,然后语音验证获取声纹与***保存的声纹对比,从而避免单一声纹容易被盗用复制的问题,提高安全性。

Description

结合空间信息的声纹识别支付信息防伪方法
技术领域
本发明涉及声纹识别技术领域,尤其涉及一种结合空间信息的声纹识别支付信息防伪方法。
背景技术
所谓声纹是用电声学仪器显示的携带言语信息的声波频谱。人类语言的产生是人体语言中枢与发音器官之间一个复杂的生理物理过程,人在讲话时使用的发声器官--舌、牙齿、喉头、肺、鼻腔在尺寸和形态方面每个人的差异很大,所以任何两个人的声纹图谱都有差异。每个人的语音声学特征既有相对稳定性,又有变异性,不是绝对的、一成不变的。这种变异可来自生理、病理、心理、模拟、伪装,也与环境干扰有关。尽管如此,由于每个人的发音器官都不尽相同,因此在一般情况下,人们仍能区别不同的人的声音或判断是否是同一人的声音。
声纹也是人体独特的个性生物特征,很难找到两个声纹完全一样的人,现有的支付方式多为静态密码验证支付,由于密码不变性,使得安全性低,密码容易泄露的问题,现有采用人脸识别技术,但是当光线不好时验证效果不理想,而且对设备的要求较高,从而成本高,并且现有的支付方式单一,单一验证较多,从而安全性也低,因此需要一种方便可以多重验证,而且对设备要求不高的验证方法来解决上述问题。
发明内容
本发明的目的是为了解决现有支付方式多为静态密码验证支付安全性低,并且人脸验证对设备要求高的缺点,而提出的一种结合空间信息的声纹识别支付信息防伪方法。
为了实现上述目的,本发明采用了如下技术方案:
结合空间信息的声纹识别支付信息防伪方法,包括以下步骤:
S1:建立代表说话人身份的语音特征模型,通过编程从语音数据中提取说话人特征,采用文本相关数据,在matlab环境中建立MFCC模型,首先使用wavread函数读入,然后以帧长256,帧移80进行分帧,接着由语句x=filter([1-0.9375],1,x)实现对高频的加重处理,滤除低频干扰,特别是50Hz到60Hz的工频干扰,对语音识别更为有用的高频部分进行频谱提升,接着,为了保持语音信号的短时平稳性,利用汉明窗函数来减少由截断处理导致的Gibbs效应,最后提取出声音信号中的采样值,频率和采样位数;
S2:利用说话人特征建立说话人模型或声纹识别模型;
S3:进行端点检测vad;
S4:进行MFCC参数算法mfcc;
S5:进行HMM参数初始化inithmm;
S6:进行viterbit识别算法;
S7:进行训练过程train;
S8:进行识别主程序。
优选的,所述S1中,语音读入为在matlab环境中建立MFCC模型,首先使用wavread函数读入,分帧能减少计算量但相邻帧间变化不大,容易丢失信号特征,取帧长20ms,帧移为帧长的1/3~1/2,高频加重处理用于滤除低频干扰,加窗对语音的短时能量进行分析,描述语音的这种特征变化情况,定义短时能量为:其中N为窗长,最后提取出声音信号中的采样值,频率和采样位数。
优选的,所述S3中,采用双门限的算法,输入为采样语音数据x,输出X1,X2是起始端点和结束端点的帧数,并将xi到x2帧的语音数据存sample.wave结构数组中。
优选的,所述S4中,输入为采样语音数据x,输出为mfcc参数,取x1—2至x2—2帧的mfcc参数到sample.data结构数组中。
优选的,所述S5中,输入为samples和NX*1的数组M,N为状态数,M是每个状态包含的高斯混合个数。
优选的,所述S6中,输入删模型和mfcc参数,回溯最佳状态路径,返回输出概率和状态路径。
优选的,所述S7中,对一次迭代函数baum.m实施n次迭代,输出为训练后的HMM模型参数和总输出概率,将模型参数存入hmm{i}。
优选的,所述S8中,对输入待识别的语音用函数vad进行端点检测,计算出MFCC参数之后,交由识别函数viterbi.m计算得到其对数形式的输出概率,最后显示出识别结果。
优选的,对获取的语音片段上传***,并分析记录声波特性,用于在验证时调取声波进行比对。
本发明的有益效果是:
1、通过提出的方法,能够进行多重验证,提高支付安全性,而且采用随机动态验证文字,通过人工语音读,然后语音验证获取声纹与***保存的声纹对比,从而避免单一声纹容易被盗用复制的问题,提高安全性;
2、通过提出的方法,能够在提取验证时提高精确度,保证获取的验证声音更为精确,从而提高验证速度,保证验证信息的准确度和时效度。
具体实施方式
下面对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
结合空间信息的声纹识别支付信息防伪方法,包括以下步骤:
S1:建立代表说话人身份的语音特征模型,通过编程从语音数据中提取说话人特征,采用文本相关数据,在matlab环境中建立MFCC模型,首先使用wavread函数读入,然后以帧长256,帧移80进行分帧,接着由语句x=filter([1-0.9375],1,x)实现对高频的加重处理,滤除低频干扰,特别是50Hz到60Hz的工频干扰,对语音识别更为有用的高频部分进行频谱提升,接着,为了保持语音信号的短时平稳性,利用汉明窗函数来减少由截断处理导致的Gibbs效应,最后提取出声音信号中的采样值,频率和采样位数;
S2:利用说话人特征建立说话人模型或声纹识别模型;
S3:进行端点检测vad;
S4:进行MFCC参数算法mfcc;
S5:进行HMM参数初始化inithmm;
S6:进行viterbit识别算法;
S7:进行训练过程train;
S8:进行识别主程序。
本实施例中,首先,用户对录音设备读取一段随机语句,设备进行语音录入,语音读入为在matlab环境中建立MFCC模型,首先使用wavread函数读入,分帧能减少计算量但相邻帧间变化不大,容易丢失信号特征,取帧长20ms,帧移为帧长的1/3~1/2,高频加重处理用于滤除低频干扰,加窗对语音的短时能量进行分析,描述语音的这种特征变化情况,定义短时能量为:其中N为窗长,最后提取出声音信号中的采样值,频率和采样位数,采用双门限的算法,输入为采样语音数据x,输出X1,X2是起始端点和结束端点的帧数,并将xi到x2帧的语音数据存sample.wave结构数组中,输入为采样语音数据x,输出为mfcc参数,取x1—2至x2—2帧的mfcc参数到sample.data结构数组中,输入为samples和NX*1的数组M,N为状态数,M是每个状态包含的高斯混合个数,输入删模型和mfcc参数,回溯最佳状态路径,返回输出概率和状态路径,对一次迭代函数baum.m实施n次迭代,输出为训练后的HMM模型参数和总输出概率,将模型参数存入hmm{i},所述S8中,对输入待识别的语音用函数vad进行端点检测,计算出MFCC参数之后,交由识别函数viterbi.m计算得到其对数形式的输出概率,最后显示出识别结果,对获取的语音片段上传***,并分析记录声波特性,用于在验证时调取声波进行比对;
当进行验证时,***内随机弹出一句30字的验证语句,使用者对着麦读出验证语句,***接受到语音后进行语音信号处理、声纹特征提取、声纹建模、声纹比对、判别决策,最后将整合好的语音片段声纹与库中的声纹基因段进行比对,从而验证是否为本人声纹,验证符合则通过,验证不符合则记录非法语音信息,用于保存在***,给与本人调取查证,从而了解非法使用者。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (9)

1.结合空间信息的声纹识别支付信息防伪方法,其特征在于,包括以下步骤:
S1:建立代表说话人身份的语音特征模型,通过编程从语音数据中提取说话人特征,采用文本相关数据,在matlab环境中建立MFCC模型,首先使用wavread函数读入,然后以帧长256,帧移80进行分帧,接着由语句x=filter([1-0.9375],1,x)实现对高频的加重处理,滤除低频干扰,特别是50Hz到60Hz的工频干扰,对语音识别更为有用的高频部分进行频谱提升,接着,为了保持语音信号的短时平稳性,利用汉明窗函数来减少由截断处理导致的Gibbs效应,最后提取出声音信号中的采样值,频率和采样位数;
S2:利用说话人特征建立说话人模型或声纹识别模型;
S3:进行端点检测vad;
S4:进行MFCC参数算法mfcc;
S5:进行HMM参数初始化inithmm;
S6:进行viterbit识别算法;
S7:进行训练过程train;
S8:进行识别主程序。
2.根据权利要求1所述的结合空间信息的声纹识别支付信息防伪方法,其特征在于,所述S1中,语音读入为在matlab环境中建立MFCC模型,首先使用wavread函数读入,分帧能减少计算量但相邻帧间变化不大,容易丢失信号特征,取帧长20ms,帧移为帧长的1/3~1/2,高频加重处理用于滤除低频干扰,加窗对语音的短时能量进行分析,描述语音的这种特征变化情况,定义短时能量为:其中N为窗长,最后提取出声音信号中的采样值,频率和采样位数。
3.根据权利要求1所述的结合空间信息的声纹识别支付信息防伪方法,其特征在于,所述S3中,采用双门限的算法,输入为采样语音数据x,输出X1,X2是起始端点和结束端点的帧数,并将xi到x2帧的语音数据存sample.wave结构数组中。
4.根据权利要求1所述的结合空间信息的声纹识别支付信息防伪方法,其特征在于,所述S4中,输入为采样语音数据x,输出为mfcc参数,取x1—2至x2—2帧的mfcc参数到sample.data结构数组中。
5.根据权利要求1所述的结合空间信息的声纹识别支付信息防伪方法,其特征在于,所述S5中,输入为samples和NX*1的数组M,N为状态数,M是每个状态包含的高斯混合个数。
6.根据权利要求1所述的结合空间信息的声纹识别支付信息防伪方法,其特征在于,所述S6中,输入删模型和mfcc参数,回溯最佳状态路径,返回输出概率和状态路径。
7.根据权利要求1所述的结合空间信息的声纹识别支付信息防伪方法,其特征在于,所述S7中,对一次迭代函数baum.m实施n次迭代,输出为训练后的HMM模型参数和总输出概率,将模型参数存入hmm{i}。
8.根据权利要求1所述的结合空间信息的声纹识别支付信息防伪方法,其特征在于,所述S8中,对输入待识别的语音用函数vad进行端点检测,计算出MFCC参数之后,交由识别函数viterbi.m计算得到其对数形式的输出概率,最后显示出识别结果。
9.根据权利要求1~8任意一项所述的结合空间信息的声纹识别支付信息防伪方法,其特征在于,对获取的语音片段上传***,并分析记录声波特性,用于在验证时调取声波进行比对。
CN201811017603.7A 2018-09-02 2018-09-02 结合空间信息的声纹识别支付信息防伪方法 Pending CN109003613A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811017603.7A CN109003613A (zh) 2018-09-02 2018-09-02 结合空间信息的声纹识别支付信息防伪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811017603.7A CN109003613A (zh) 2018-09-02 2018-09-02 结合空间信息的声纹识别支付信息防伪方法

Publications (1)

Publication Number Publication Date
CN109003613A true CN109003613A (zh) 2018-12-14

Family

ID=64590222

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811017603.7A Pending CN109003613A (zh) 2018-09-02 2018-09-02 结合空间信息的声纹识别支付信息防伪方法

Country Status (1)

Country Link
CN (1) CN109003613A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110364168A (zh) * 2019-07-22 2019-10-22 南京拓灵智能科技有限公司 一种基于环境感知的声纹识别方法及***
CN110390948A (zh) * 2019-07-24 2019-10-29 厦门快商通科技股份有限公司 一种快速语音识别的方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020010646A1 (en) * 2000-06-30 2002-01-24 Nec Corporation Voice signature transaction system and method
CN104392353A (zh) * 2014-10-08 2015-03-04 无锡指网生物识别科技有限公司 语音识别终端的支付方法及***
CN105894283A (zh) * 2015-01-26 2016-08-24 中兴通讯股份有限公司 一种基于语音控制的移动支付方法和装置
CN106340298A (zh) * 2015-07-06 2017-01-18 南京理工大学 融合内容识别和话者识别的声纹解锁方法
CN107919961A (zh) * 2017-12-07 2018-04-17 广州势必可赢网络科技有限公司 一种基于动态码和动态声纹更新的身份认证协议及服务器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020010646A1 (en) * 2000-06-30 2002-01-24 Nec Corporation Voice signature transaction system and method
CN104392353A (zh) * 2014-10-08 2015-03-04 无锡指网生物识别科技有限公司 语音识别终端的支付方法及***
CN105894283A (zh) * 2015-01-26 2016-08-24 中兴通讯股份有限公司 一种基于语音控制的移动支付方法和装置
CN106340298A (zh) * 2015-07-06 2017-01-18 南京理工大学 融合内容识别和话者识别的声纹解锁方法
CN107919961A (zh) * 2017-12-07 2018-04-17 广州势必可赢网络科技有限公司 一种基于动态码和动态声纹更新的身份认证协议及服务器

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
靳双燕: "基于隐马尔可夫模型的语音识别技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
马静: "基于HMM模型的汉语数字语音识别算法的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110364168A (zh) * 2019-07-22 2019-10-22 南京拓灵智能科技有限公司 一种基于环境感知的声纹识别方法及***
CN110364168B (zh) * 2019-07-22 2021-09-14 北京拓灵新声科技有限公司 一种基于环境感知的声纹识别方法及***
CN110390948A (zh) * 2019-07-24 2019-10-29 厦门快商通科技股份有限公司 一种快速语音识别的方法及***

Similar Documents

Publication Publication Date Title
CN102509547B (zh) 基于矢量量化的声纹识别方法及***
CN108922541B (zh) 基于dtw和gmm模型的多维特征参数声纹识别方法
CN103928023B (zh) 一种语音评分方法及***
CN107731233A (zh) 一种基于rnn的声纹识别方法
CN109215665A (zh) 一种基于3d卷积神经网络的声纹识别方法
CN1170239C (zh) 掌上声纹验证方法
Vyas A Gaussian mixture model based speech recognition system using Matlab
CN110767239A (zh) 一种基于深度学习的声纹识别方法、装置及设备
CN113823293B (zh) 一种基于语音增强的说话人识别方法及***
Zheng et al. When automatic voice disguise meets automatic speaker verification
Zhang et al. Voice biometric identity authentication system based on android smart phone
Sun et al. A novel convolutional neural network voiceprint recognition method based on improved pooling method and dropout idea
CN111489763A (zh) 一种基于gmm模型的复杂环境下说话人识别自适应方法
CN109003613A (zh) 结合空间信息的声纹识别支付信息防伪方法
Li et al. A study of voice print recognition technology
CN113470655A (zh) 一种基于音素对数似然比的时延神经网络的声纹识别方法
Sukor et al. Speaker identification system using MFCC procedure and noise reduction method
Zailan et al. Comparative analysis of LPC and MFCC for male speaker recognition in text-independent context
Islam et al. Improvement of text dependent speaker identification system using neuro-genetic hybrid algorithm in office environmental conditions
Balpande et al. Speaker recognition based on mel-frequency cepstral coefficients and vector quantization
Islam et al. A Novel Approach for Text-Independent Speaker Identification Using Artificial Neural Network
Islam et al. Noise robust speaker identification using PCA based genetic algorithm
Singh et al. Features and techniques for speaker recognition
Dennis et al. Generalized Hough transform for speech pattern classification
Chaudhary Short-term spectral feature extraction and their fusion in text independent speaker recognition: A review

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181214