CN106683680A - 说话人识别方法及装置、计算机设备及计算机可读介质 - Google Patents

说话人识别方法及装置、计算机设备及计算机可读介质 Download PDF

Info

Publication number
CN106683680A
CN106683680A CN201710142901.8A CN201710142901A CN106683680A CN 106683680 A CN106683680 A CN 106683680A CN 201710142901 A CN201710142901 A CN 201710142901A CN 106683680 A CN106683680 A CN 106683680A
Authority
CN
China
Prior art keywords
speech data
training
identification model
speaker identification
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710142901.8A
Other languages
English (en)
Other versions
CN106683680B (zh
Inventor
曹莹
刘霄
胡鹏
周杰
文石磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201710142901.8A priority Critical patent/CN106683680B/zh
Publication of CN106683680A publication Critical patent/CN106683680A/zh
Priority to US15/912,348 priority patent/US10957339B2/en
Application granted granted Critical
Publication of CN106683680B publication Critical patent/CN106683680B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明提供一种说话人识别方法及装置、计算机设备及计算机可读介质。其所述方法包括:接收目标群体中的待识别用户的目标语音数据;根据目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征;说话人识别模型采用卷积神经网络模型;根据目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征,识别目标语音数据对应的用户。本发明通过采用基于卷积神经网络模型的说话人识别模型,能够更加准确地获取各语音数据的语音输出特征,从而更加准确地对目标语音数据对应的用户进行识别,进而能够大大地提高对说话人的识别效率。

Description

说话人识别方法及装置、计算机设备及计算机可读介质
【技术领域】
本发明涉及计算机应用技术领域,尤其涉及一种说话人识别方法及装置、计算机设备及计算机可读介质。
【背景技术】
说话人识别(Speaker Recognition;SR),还可以称为声纹识别(VoiceprintRecognition;VPR),是生物识别技术的一种,具体地,是通过语音判断一句话是谁说的。
现有技术中的声纹识别包括文本相关(Text-Dependent)和文本无关(Text-Independent)两种。与文本有关的声纹识别***要求用户按照规定的内容发音,每个人的声纹模型逐个被精确地建立,而识别时也必须按规定的内容发音,因此可以达到较好的识别效果,但***需要用户配合,如果用户的发音与规定的内容不符合,则无法正确识别该用户。与文本无关的识别***则不规定说话人的发音内容,模型建立相对困难,但用户使用方便,可应用范围较宽。例如,现有技术的、与文本无关的说话人识别方案中,主要利用混合高斯模型从大量说话以及背景音数据中学出高斯聚类中心,作为说话人的语音数据对应的i-vecotr。对于每一条待识别的语音数据,获取该待识别的语音数据的i-vecotr。然后将待识别的语音数据的i-vecotr与各个已知说话人的语音数据的i-vecotr进行相似度计算,将该待识别的说话人识别为相似度最高的语音数据对应的说话人。
但是,现有技术中利用混合高斯模型从大量说话以及背景音数据中学出高斯聚类中心,作为说话人的语音数据对应的i-vecotr,是一种线性处理方案,学出的i-vecotr不能非常准确地表征说话人的语音数据的特征,导致对说话人识别的效率较低。
【发明内容】
本发明提供了一种说话人识别方法及装置、计算机设备及计算机可读介质,用于提高对说话识别的效率。
本发明提供一种说话人识别方法,所述方法包括:
接收目标群体中的待识别用户的目标语音数据;
根据所述目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征;所述说话人识别模型采用卷积神经网络模型;
根据所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征,识别所述目标语音数据对应的用户。
进一步可选地,如上所述的方法中,根据所述目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征之前,所述方法还包括:
采集数条已知用户标识的训练语音数据,生成训练语音数据库;
根据所述训练语音数据库中各条所述训练语音数据,获取各条所述训练语音数据的梅尔频域倒谱系数和/或感知线性预测特征,作为对应的所述训练语音数据的语音输入特征;
根据各条所述训练语音数据的语音输入特征、以及各所述训练语音数据的用户标识,训练所述说话人识别模型。
进一步可选地,如上所述的方法中,根据各条所述训练语音数据的语音输入特征、以及各所述训练语音数据的用户标识,训练所述说话人识别模型,具体包括:
将所述训练语音数据库中的各条所述训练语音数据的语音输入特征依次输入至所述说话人识别模型中,得到对应的所述训练语音数据的语音输出特征;
根据所述训练语音数据的语音输出特征和所述训练语音数据的用户标识,生成所述训练语音数据的损失函数;
计算所述训练语音数据的损失函数对所述说话人识别模型中各参数的导数;
根据所述说话人识别模型中的各所述参数以及所述训练语音数据的损失函数对各所述参数的导数,更新所述说话人识别模型中的各所述参数,从而确定本次训练后的所述说话人识别模型;
重复执行上述步骤,直至所述训练语音数据库中的数个所述训练语音数据都对所述说话人识别模型进行训练,确定本轮训练后的所述说话人识别模型。
进一步可选地,如上所述的方法中,根据各条所述训练语音数据的语音输入特征、以及各所述训练语音数据的用户标识,训练所述说话人识别模型,还包括:
按照上述每一轮训练中所述训练语音数据库中的数个所述训练语音数据对所述说话人识别模型的训练,使用所述训练语音数据库中的数个所述训练语音数据重复对所述说话人识别模型训练N轮,得到最终的所述说话人识别模型。
进一步可选地,如上所述的方法中,根据所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征,识别所述目标语音数据对应的用户,具体包括:
分别计算所述目标语音数据对应的语音输出特征与所述语音数据库中各所述语音数据对应的语音输出特征的相似度;
获取与所述目标语音数据对应的语音输出特征的相似度大于或者等于预设相似度阈值的所述语音数据对应的用户标识,作为所述目标语音数据对应的用户的标识;或者获取与所述目标语音数据对应的语音输出特征的相似度最大的所述语音数据对应的用户标识,作为所述目标语音数据对应的用户的标识。
本发明还提供一种说话人识别装置,所述装置包括:
接收模块,用于接收目标群体中的待识别用户的目标语音数据;
特征获取模块,用于根据所述目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征;所述说话人识别模型采用卷积神经网络模型;
识别模块,用于根据所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征,识别所述目标语音数据对应的用户。
进一步可选地,如上所述的装置中,还包括:采集模块和训练模块;
所述采集模块,用于采集数条已知用户标识的训练语音数据,生成训练语音数据库;
所述特征获取模块,还用于根据所述训练语音数据库中各条所述训练语音数据,获取各条所述训练语音数据的梅尔频域倒谱系数和/或感知线性预测特征,作为对应的所述训练语音数据的语音输入特征;
所述训练模块,用于根据各条所述训练语音数据的语音输入特征、以及各所述训练语音数据的用户标识,训练所述说话人识别模型。
进一步可选地,如上所述的装置中,所述训练模块,具体用于:
将所述训练语音数据库中的各条所述训练语音数据的语音输入特征依次输入至所述说话人识别模型中,得到对应的所述训练语音数据的语音输出特征;
根据所述训练语音数据的语音输出特征和所述训练语音数据的用户标识,生成所述训练语音数据的损失函数;
计算所述训练语音数据的损失函数对所述说话人识别模型中各参数的导数;
根据所述说话人识别模型中的各所述参数以及所述训练语音数据的损失函数对各所述参数的导数,更新所述说话人识别模型中的各所述参数,从而确定本次训练后的所述说话人识别模型;
重复执行上述步骤,直至所述训练语音数据库中的数个所述训练语音数据都对所述说话人识别模型进行训练,确定本轮训练后的所述说话人识别模型。
进一步可选地,如上所述的装置中,所述训练模块,具体还用于按照上述每一轮训练中所述训练语音数据库中的数个所述训练语音数据对所述说话人识别模型的训练,使用所述训练语音数据库中的数个所述训练语音数据重复对所述说话人识别模型训练N轮,得到最终的所述说话人识别模型。
进一步可选地,如上所述的装置中,所述识别模块,具体用于:
分别计算所述目标语音数据对应的语音输出特征与所述语音数据库中各所述语音数据对应的语音输出特征的相似度;
获取与所述目标语音数据对应的语音输出特征的相似度大于或者等于预设相似度阈值的所述语音数据对应的用户标识,作为所述目标语音数据对应的用户的标识;或者获取与所述目标语音数据对应的语音输出特征的相似度最大的所述语音数据对应的用户标识,作为所述目标语音数据对应的用户的标识。
本发明还提供一种计算机设备,所述设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上所述的说话人识别方法。
本发明还提供一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述的说话人识别方法。
本发明的说话人识别方法及装置、计算机设备及计算机可读介质,通过接收目标群体中的待识别用户的目标语音数据;根据目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征;其中说话人识别模型采用卷积神经网络模型;根据目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征,识别目标语音数据对应的用户。本发明的技术方案,由于采用基于卷积神经网络模型的说话人识别模型,能够更加准确地获取各语音数据的语音输出特征,从而更加准确地对目标语音数据对应的用户进行识别,进而能够大大地提高对说话人的识别效率。
【附图说明】
图1为本发明的说话人识别方法实施例一的流程图。
图2本发明的说话人识别方法中提供的二维卷积的示意图。
图3为本发明的说话人识别方法中提供的一维卷积的示意图。
图4为本发明的说话人识别方法实施例二的流程图。
图5为本发明的说话人识别方法实施例三的流程图。
图6为本发明的说话人识别装置实施例一的结构图。
图7为本发明的说话人识别装置实施例二的结构图。
图8为本发明的计算机设备实施例的结构图。
图9为本发明提供的一种计算机设备的示例图。
【具体实施方式】
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
图1为本发明的说话人识别方法实施例一的流程图。如图1所示,本实施例的说话人识别方法,具体可以包括如下步骤:
100、接收目标群体中的待识别用户的目标语音数据;
101、根据目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征;
102、根据目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征,识别目标语音数据对应的用户。
本实施例的说话人识别方法的执行主体为说话人识别装置,该说话人识别装置可以为一个实体的电子装置,也可以为采用软件集成的装置。
本实施例的说话人识别方法是一种基于卷积神经网络模型的说话人识别方法,即本实施例的说话人识别模型具体采用卷积神经网络模型。本实施例的说话人识别方法通过对属于某目标群体中的某个用户的语音数据进行分析,从而识别该用户是目标群体中的哪个用户。也就是说,在本实施例的步骤100之前,可选地,还需要采集目标群体内每个用户的语音数据,生成语音数据库,语音数据库中的语音数据可以按照用户标识与该用户标识对应的用户的语音数据的对应关系存储,这样,可以知道每一条语音数据对应属于哪个用户。且本实施例的说话人识别模型在对用户识别之前预先进行训练得到,且本实施例的说话人识别模型训练时所使用的训练语音数据库与使用时采集的语音数据库可以没有关系,也就是说,该说话人识别模型在训练时和使用时是两个独立的过程,该说话人识别模型虽然采用训练语音数据库进行训练,但是不仅可以对该训练数据库中的各条训练语音数据的说话人进行识别,还可以对该训练数据库中之外的其他任意语音数据库中的说话人进行识别,即本实施例的说话人识别模型使用非常广泛,使用之前,仅需要采集该目标群体中的各个用户的语音数据,生成语音数据库,便可以根据语音数据对该目标群体中的任一用户进行识别。
首先,当获取到一条目标语音数据时,仅知道该目标语音数据属于哪个目标群体,但不确定该目标语音数据属于该目标群体中的哪个人时,可以将该目标语音数据输入至说话人识别装置中,以获取目标语音数据对应的语音输出特征,并根据目标语音数据的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征,以对该目标语音数据的说话人进行识别。对应地,本实施例的说话人识别装置首先可以接收目标群体中的待识别用户的目标语音数据;然后可以根据目标语音数据和预先训练的说话人识别模型获取目标语音数据对应的语音输出特征,并根据预先采集的语音数据库和预先训练的说话人识别模型,获取语音数据库中每个语音数据对应的语音输出特征。即本实施例中,该说话人识别模型可以对语音数据的特征进行抽取,获取最能够表征该语音数据的特征即语音输出特征,并输出。本实施例的说话人识别模型采用卷积神经网络模型,而现有的普通卷积神经网络应用于图像数据,将一个矩形的空间区域做卷积,而声音的语音数据并没有空间维度,只有时间维,且声音的语音数据的特征不随时间变化而变化,因此可以采用一维卷积神经网络模型来作为本实施例的说话人识别模型。图2本发明的说话人识别方法中提供的二维卷积的示意图。图3为本发明的说话人识别方法中提供的一维卷积的示意图。可以参考上述图2和图3,可以将二维卷积转化为一维卷积,从而可以应用在本实施例的说话人识别模型中。
进一步可选地,本实施例的步骤101“根据目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征”,具体可以包括如下步骤:
(a1)分别提取目标语音数据和语音数据库中每个用户的语音数据的梅尔频域倒谱系数(Mel-Frequency Cepstral Coefficients;MFCC)和/或感知线性预测(PerceptualLinear Predictive;PLP)特征,作为目标语音数据的语音输入特征和每个用户的语音数据的语音输入特征;
(a2)根据目标语音数据的语音输入特征和预先训练的说话人识别模型,获取目标语音数据对应的语音输出特征;
(a3)根据每个用户的语音数据的语音输入特征和说话人识别模型,获取对应的用户的语音数据的语音输出特征。
从语音数据中提取MFCC和PLP特征的方式可以参考相关语音技术领域的提取。本实施例中对说话人识别时,所选择的语音输入特征可以仅包括MFCC或者PLP特征,也可以两者都包括。且从待识别的目标语音数据中提取的语音输入特征所包括的信息量应该与语音数据库中每个用户的语音数据的语音输入特征所包括的信息量的多少相同。即如果待识别的目标语音数据中提取的语音输入特征仅包括MFCC和PLP特征中的某一个,对应的语音数据库中每个用户的语音数据的语音输入特征也包括对应的MFCC或者PLP特征。如果待识别的目标语音数据中提取的语音输入特征包括MFCC和PLP特征两个特征,对应地语音数据库中每个用户的语音数据的语音输入特征也包括MFCC或者PLP特征两个特征。实际应用中,语音数据的语音输入特征为矩阵的形式,该矩阵的其中一个维度固定为60维,另一个维度与语音数据的长度有关,语音数据的长度越长,对应的维度越大。例如以每10ms为一个参考单位,语音数据的长度每增加10ms,对应的维度增加60,即语音数据的长度每增加1s,对应的维度增加60*100=6000。由上述可以,对于不同时间长度的语音数据,对应的语音输入特征的维度也不相同。而现有技术中采用卷积神经网络模型做图像分类时,输入的图像大小都是一致的。因此,普通的卷积神经网络模型无法处理此类数据。本发明的作为说话人识别模型的卷积神经网络模型中,具体可以采用序列平均池化技术实现对变长的数据即变长的语音输入特征进行处理。所谓序列平均池化技术,就是将任意长度的一个序列看作一个向量,取该向量所有元素的平均值作为输出值。这样,可以保证本实施例的说话人识别模型对任意长度的语音数据的语音输入特征,均能够输出固定大小的语音输出特征。具体地,将该目标语音数据的语音输入特征输入至预先训练的说话人识别模型,该说话人识别模型可以输出目标语音数据对应的语音输出特征。分别将每个用户的语音数据的语音输入特征输入至与预先训练的说话人识别模型,该说话人识别模型可以输出该用户的语音数据的语音输出特征。且该说话人识别模型输出的目标语音数据对应的语音输出特征的向量的维度,与该说话人识别模型输出的各用户的语音数据的语音输出特征的向量的维度相同。
本实施例的说话人识别模型,由于采用卷积神经网络模型,根据语音数据的语音输入特征抽取语音数据的语音输出特征的过程,远远比现有技术的混合高斯模型采用线性方式获取i-vecotr的过程,所获取的表征语音数据的特征的内容更加丰富,也能够更加准确地表示该语音数据。
本实施例的说话人识别方法中,当采集的语音数据库和说话人识别模型确定时,也可以预先根据步骤(a3),获取预先采集的语音数据库中每个用户的语音数据的语音输出特征,并可以将该语音输出特征也存储在语音数据库中,具体存储时,可以根据用户的索引号来存储对应的用户的语音数据的语音输出特征;或者也可以再建立一个语音输出特征数据库,专门用来存储该语音数据库中各语音数据对应的语音输出特征。当进行说话人识别时,可以仅获取目标语音数据的语音输出特征,然后直接从语音数据库或者语音输出特征数据库中获取预先存储的每个用户的语音数据的语音输出特征,然后直接进行说话人识别的后续处理即可;这样,可以节省每次说话人识别的流程,节省说话人识别的时间,提高说话人识别的效率。
进一步可选地,本实施例的步骤102“根据目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征,识别目标语音数据对应的用户”,具体可以包括如下步骤:
(b1)分别计算目标语音数据对应的语音输出特征与语音数据库中各语音数据对应的语音输出特征的相似度;
(b2)获取与目标语音数据对应的语音输出特征的相似度大于或者等于预设相似度阈值的语音数据对应的用户标识,作为目标语音数据对应的用户的标识;或者获取与目标语音数据对应的语音输出特征的相似度最大的语音数据对应的用户标识,作为目标语音数据对应的用户的标识。
由于本实施例的目标语音数据对应的语音输出特征与语音数据库中各语音数据对应的语音输出特征均采用向量表示,可以计算目标语音数据对应的语音输出特征与语音数据库中各语音数据对应的语音输出特征的相似度值。然后可以从语音数据库中获取与目标语音数据对应的相似度值大于或者等于预设相似度阈值的语音输出特征对应的语音数据,并取该语音数据对应的用户标识作为目标语音数据对应的用户标识,即将该语音数据对应的用户识别为目标语音数据对应的用户。本实施例的预设相似度阈值可以根据实际需求设置为95%,90%或者0-1之间的其它百分数,优选地,预设相似度阈值至少需要大于60%。或者也可以直接根据得到的多个相似度值,从中获取最大的相似度值,并从语音数据库中获取该最大的相似度值对应的语音数据对应的用户标识,并取该语音数据对应的用户标识作为目标语音数据对应的用户标识,即将该语音数据对应的用户识别为目标语音数据对应的用户。或者上述两种方案也可以结合使用,先根据得到的多个相似度值,判断是否存在大于或者等于预设相似度阈值的相似度值,若存在,直接取大于或者等于预设相似度阈值的相似度值对应的语音数据对应的用户标识,作为目标语音数据对应的用户标识;否则若不存在,从中获取最大的相似度值,并从语音数据库中获取该最大的相似度值对应的语音数据对应的用户标识,作为目标语音数据对应的用户标识。
本实施例的说话人识别方法,通过接收目标群体中的待识别用户的目标语音数据;根据目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征;其中说话人识别模型采用卷积神经网络模型;根据目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征,识别目标语音数据对应的用户。本实施例中,由于采用基于卷积神经网络模型的说话人识别模型,能够更加准确地获取各语音数据的语音输出特征,从而更加准确地对目标语音数据对应的用户进行识别,进而能够大大地提高对说话人的识别效率。
图4为本发明的说话人识别方法实施例二的流程图。本实施例的说话人识别方法,在上述图1所示实施例的技术方案的基础上,对图1所示实施例的说话人识别场景进行扩展,以对目标语音数据的说话人进行验证。如图4所示,本实施例的说话人识别方法,具体可以包括如下步骤:
200、采集目标群体内每个用户的语音数据,生成语音数据库;
具体地,语音数据库中的各个用户的语音数据按照该用户标识(如可以为用户的索引号)和该用户的语音数据的对应关系存储。详细可以参考上述实施例的相关记载,在此不再赘述。
201、接收携带待识别用户的目标语音数据和可疑用户标识的验证请求;
其中待识别用户为目标群体中的用户,可疑用户标识也为目标群体中的一个用户的标识。本实施例中的说话人识别方法,具体是用于验证该目标语音数据对应的用户是否为可疑用户。
202、从语音数据库中获取该可疑用户标识对应的语音数据;
203、分别提取目标语音数据和该可疑用户标识对应的语音数据的MFCC和PLP特征,作为目标语音数据的语音输入特征和可疑用户标识的语音数据的语音输入特征;
本实施例中以输入特征同时包括MFCC和PLP特征为例,实际应用中,也可以仅包括其中一个。
204、分别将目标语音数据的语音输入特征和可疑用户标识的语音数据的语音输入特征,输入至预先训练的说话人识别模型,获取目标语音数据对应的语音输出特征和可疑用户标识的语音数据对应的语音输出特征;
205、计算目标语音数据对应的语音输出特征和可疑用户标识的语音数据的对应的语音输出特征的相似度;
206、判断该相似度是否大于或者等于预设相似度阈值;若是,则确定目标语音数据对应的待识别用户为该可疑用户;否则确定目标语音数据对应的待识别用户不是该可疑用户。
本实施例的说话人识别方法是对上述图1所示实施例的说话人识别方法的扩展。与上述图1所示实施例的说话人识别方法的区别在于:上述图1所示实施例的说话人识别方法是用于对待识别用户是属于目标群体中的哪个用户进行识别;而图2所示实施例是对待识别用户是否为目标群体的某可疑用户进行验证,其具体识别过程是相似的,详细实现过程可疑参考上述图1所示实施例的相关记载,在此不再赘述。
本实施例的说话人识别方法,通过采用上述技术方案,由于采用基于卷积神经网络模型的说话人识别模型,能够更加准确地获取各语音数据的语音输出特征,从而更加准确地对目标语音数据对应的用户进行识别,进而大大地提高对说话人的识别效率。
图5为本发明的说话人识别方法实施例三的流程图。本实施例的说话人识别方法,在上述图1所示实施例的技术方案的基础上,在步骤101“根据目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征”之前,还可以包括如下步骤:
300、采集数条已知用户标识的训练语音数据,生成训练语音数据库;
301、根据训练语音数据库中各条训练语音数据,获取各条训练语音数据的MFCC和/或PLP特征,作为对应的训练语音数据的语音输入特征;
302、根据各条训练语音数据的语音输入特征、以及各训练语音数据的用户标识,训练说话人识别模型。
本实施例的步骤300-303是用于对说话人识别模型进行训练。本实施例在训练说话人识别模型时,首先采集数条已知用户标识的训练语音数据,生成训练语音数据库来对说话人识别模型进行训练。本实施例的训练语音数据库中包括的训练语音数据的条数越多,训练的说话人识别模型的参数越准确,后续根据该说话人识别模型得出的语音数据的语音输出特征越准确,从而对说话人的识别越准确,识别效率越高。例如本实施例的训练语音数据库中可以包括20万-30万甚至更多的训练语音数据。
本实施例中根据各训练语音数据,获取训练语音数据的语音输入特征时,与在使用该说话人识别模型识别说话人时,所获取的目标语音数据的语音输入特征所包括的信息量相同,两者必须一致。即如果训练时,采用的语音输入特征为MFCC或者PLP特征,识别时采用的语音输入特征也必须为对应的MFCC或者PLP特征。如果训练时,采用的语音输入特征为MFCC和PLP特征,识别时采用的语音输入特征也必须为对应的MFCC和PLP特征。最后根据各条训练语音数据的语音输入特征、以及各训练语音数据的用户标识,训练说话人识别模型。本实施例的各训练语音数据的用户标识具体采用的是该用户在该训练语音数据库中的一个类别标识。例如该训练语音数据库中包括10000个训练用户的30万条语音数据,每个训练用户至少包括一条训练语音数据,各个训练用户的标识可以采用采用1-10000来表示,此时对应的用户标识可以为该用户在训练语音数据库中属于该用户的类别标识。例如10000个用户中的的5个用户的标识可以表示为A10000,5
例如该步骤302“根据各条训练语音数据的语音输入特征、以及各训练语音数据的用户标识,训练说话人识别模型”,具体可以包括如下步骤:
(c1)将训练语音数据库中的各条训练语音数据的语音输入特征依次输入至说话人识别模型中,得到对应的训练语音数据的语音输出特征;
本实施例中,在训练说话人识别模型的过程中,说话人识别模型中的参数是不断地变化的,即说话人识别模型是在不断地变化。在每一次训练时,所采用的说话人识别模型均为上一次训练更新后的说话人识别模型。而本实施例的说话人识别模型被初次使用时各参数采用的是预设的初始值。
(c2)根据训练语音数据的语音输出特征和训练语音数据的用户标识,生成训练语音数据的损失函数;
具体地,可以先将训练语音数据的语音输出特征进行维度转化,得到与训练语音数据库中的用户类别对应的矩阵,然后对该矩阵中的所有元素进行归一化处理,归一化处理后的矩阵中的每一个元素表示当前的训练语音数据为该元素所对应的用户类别的预测概率。例如某个元素在该归一化处理后的矩阵中的位置为A10000,57,其中10000为该训练语音数据库中的所有用户的数量,A1000057表示10000个用户中的第57个用户在该矩阵中的位置,也可以采用A10000,57表示该用户在该训练语音数据库的类别的标识,也可以称为用户标识。该位置的元素的数值为0.78,表示当前的训练语音数据属于10000个用户中的第57个用户的概率为0.78。因此归一化处理后的矩阵也可以称为预测概率矩阵。由于预测的概率矩阵中每一个元素表示的是当前的训练语音数据属于该位置的用户的预测概率,所以该预测概率矩阵中每一个元素的数值均为大于等于0,小于等于1的数值。然后在根据该训练数据的用户标识,生成该训练数据对应的用户类别的真实概率矩阵,由于真实概率矩阵是根据该训练语音数据的真实的用户标识生成的,所以该真实概率矩阵中仅在该训练语音数据对应的用户标识的位置的元素为1,而其余位置的元素为0。例如若某条训练语音数据的用户标识正好为A10000,57,那么则该训练语音数据对应的真实概率矩阵中,仅A10000,57的位置处概率值为1,其余位置处的概率均为0。由于预测的概率矩阵与真实的概率矩阵存在差距,本实施例中可以根据预测概率矩阵和真实概率矩阵的差生成该训练语音数据的损失函数。损失函数的值越大,表示预测概率矩阵与真实概率矩阵差距较大,此时需要优化参数,减小损失函数,直到损失函数无限趋于零,使得说话人识别模型输出的语音输出特征能够更加真实地反应输入的语音数据。
(c3)计算训练语音数据的损失函数对说话人识别模型中各参数的导数;
(c4)根据说话人识别模型中的各参数以及训练语音数据的损失函数对各参数的导数,更新说话人识别模型中的各参数,从而确定本次训练后的说话人识别模型;
(c5)重复执行上述步骤(c1)-(c4),直至训练语音数据库中的数条训练语音数据都对说话人识别模型进行训练,确定本轮训练后的说话人识别模型。
具体地,由于说话人识别模型中是包括多个参数,当输入的语音数据为确定时,也可以将损失函数看作是关于参数的函数,此时可以计算语音数据的损失函数对说话人识别模型中各参数的导数;对于说话人识别模型中的每一个参数,在更新时,可以将说话人识别模型中该参数更新为该参数减去损失函数对该参数的导数,每一次训练都对说话人识别模型进行更新。更新完说话人识别模型之后,然后返回到步骤(c1)开始使用下一条训练语音数据的语音输入特征对说话人识别模型进行训练,直到步骤(c4),完成下一条训练语音数据的语音输入特征对说话人识别模型的训练,并再次更新说话人识别模型中的各参数,从而更新说话人识别模型;依次类推,直至数条训练语音数据都对说话人识别模型进行训练,确定本轮训练后的说话人识别模型。此时得到的说话人识别模型也可以应用于说话人识别中。
因为损失函数表征的是一个向梯度方向下降的值,损失函数值越大,表示说话人识别模型的对输入的语音数据的语音输入特征进行处理后输出的结果越不准确,本实施例中通过不断地调整损失函数,使得损失函数的最终点的梯度为0。损失函数的值越小,表示说话人识别模型的处理结果越准确。上述实施例的技术方案,在更新说话人识别模型的时候,具体是在朝着损失函数逐渐降低的方向更新。因此,通过不断的训练,不断地优化损失函数,不断地更新说话人识别模型的参数,从而不断的更新说话人识别模型,使得最终得到的说话人识别模型能够非常准确地对语音数据进行处理,提取出更加准确地语音输出特征。
进一步可选地,还可以按照上述步骤(c1)-(c5)所示的每一轮训练中训练语音数据库中的数条训练语音数据对说话人识别模型的训练,使用训练语音数据库中的数条训练语音数据重复对说话人识别模型训练N轮,得到最终的说话人识别模型。
例如当训练语音数据库中包括20万条训练语音数据时,按照顺序依次使用训练语音数据库中的20万条训练语音数据对说话人识别模型进行训练后,可以认为完成一轮对说话人识别模型的训练;然后按照每一轮对说话人识别模型的训练,再使用训练语音数据库中的20万条训练语音数据对说话人识别模型进行N-1轮训练,可以得到最终的说话人识别模型。本实施例中,经过多轮训练,可以将损失函数的数值趋于零,从而可以进一步提高训练得到的说话人识别模型提取的语音数据的语音输出特征的准确性,进而进一步提高基于说话人识别模型进行说话人识别的效率。本实施例中的N可以根据实际经验选取一个正整数,例如该N可以为5、6或者8、10之类的正整数。
本实施例的说话人识别方法,通过采用上述的基于卷积神经网络模型的说话人识别模型,能够更加准确地获取各语音数据的语音输出特征,从而更加准确地对目标语音数据对应的用户进行识别,进而大大地提高对说话人的识别效率。
图6为本发明的说话人识别装置实施例一的结构图。如图6所示,本实施例的说话人识别装置,具体可以包括:接收模块10、特征获取模块11和识别模块12。
其中接收模块10用于接收目标群体中的待识别用户的目标语音数据;
特征获取模块11用于根据接收模块10接收的目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征;本实施例的说话人识别模型采用卷积神经网络模型;
识别模块12用于根据特征获取模块11获取的目标语音数据对应的语音输出特征以及特征获取模块11获取的语音数据库中每个语音数据对应的语音输出特征,识别目标语音数据对应的用户。
本实施例的说话人识别装置,通过采用上述模块实现说话人识别的实现原理以及技术效果与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
图7为本发明的说话人识别装置实施例二的结构图。如图7所示,本实施例的说话人识别装置,在上述图6所示实施例的技术方案的基础上,进一步更加详细地介绍本发明的技术方案。
如图7所示,本实施例的说话人识别装置,还包括:采集模块13和训练模块14。
其中采集模块13用于采集数条已知用户标识的训练语音数据,生成训练语音数据库;
特征获取模块11还用于根据采集模块13采集的训练语音数据库中各条训练语音数据,获取各条训练语音数据的梅尔频域倒谱系数和/或感知线性预测特征,作为对应的训练语音数据的语音输入特征;
训练模块14用于根据特征获取模块11获取的各条训练语音数据的语音输入特征、以及各训练语音数据的用户标识,训练说话人识别模型。
对应地,特征获取模块11用于根据接收模块10接收的目标语音数据、预先采集的语音数据库和训练模块14预先训练的说话人识别模型,获取目标语音数据对应的语音输出特征以及语音数据库中每个语音数据对应的语音输出特征。
进一步可选地,本实施例的说话人识别装置中,训练模块14具体用于:
将特征获取模块11获取的训练语音数据库中的各条训练语音数据的语音输入特征依次输入至说话人识别模型中,得到对应的训练语音数据的语音输出特征;本实施例的说话人识别模型被初次使用时各参数采用预设的初始值;
根据训练语音数据的语音输出特征和训练语音数据的用户标识,生成训练语音数据的损失函数;
计算训练语音数据的损失函数对说话人识别模型中各参数的导数;
根据说话人识别模型中的各参数以及训练语音数据的损失函数对各参数的导数,更新说话人识别模型中的各参数,从而确定本次训练后的说话人识别模型;重复执行上述步骤,直至训练语音数据库中的数条训练语音数据都对说话人识别模型进行训练,确定本轮训练后的说话人识别模型。
进一步可选地,本实施例的说话人识别装置中,训练模块14具体还用于按照上述每一轮训练中训练语音数据库中的数条训练语音数据对说话人识别模型的训练,使用训练语音数据库中的数条训练语音数据重复对说话人识别模型训练N轮,得到最终的说话人识别模型。
进一步可选地,本实施例的说话人识别装置中,识别模块12用于:
分别计算目标语音数据对应的语音输出特征与语音数据库中各语音数据对应的语音输出特征的相似度;
获取与目标语音数据对应的语音输出特征的相似度大于或者等于预设相似度阈值的语音数据对应的用户标识,作为目标语音数据对应的用户的标识;或者获取与目标语音数据对应的语音输出特征的相似度最大的语音数据对应的用户标识,作为目标语音数据对应的用户的标识。
本实施例的说话人识别装置,通过采用上述模块实现说话人识别的实现原理以及技术效果与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
图8为本发明的计算机设备实施例的结构图。如图8所示,本实施例的计算机设备,包括:一个或多个处理器30,以及存储器40,存储器40用于存储一个或多个程序,当存储器40中存储的一个或多个程序被一个或多个处理器30执行,使得一个或多个处理器30实现如上图1-图7所示实施例的说话人识别方法。图8所示实施例中以包括多个处理器30为例。
例如,图9为本发明提供的一种计算机设备的示例图。图9示出了适于用来实现本发明实施方式的示例性计算机设备12a的框图。图9显示的计算机设备12a仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,计算机设备12a以通用计算设备的形式表现。计算机设备12a的组件可以包括但不限于:一个或者多个处理器16a,***存储器28a,连接不同***组件(包括***存储器28a和处理器16a)的总线18a。
总线18a表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机设备12a典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机设备12a访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器28a可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)30a和/或高速缓存存储器32a。计算机设备12a可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34a可以用于读写不可移动的、非易失性磁介质(图9未显示,通常称为“硬盘驱动器”)。尽管图9中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18a相连。***存储器28a可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明上述图1-图7各实施例的功能。
具有一组(至少一个)程序模块42a的程序/实用工具40a,可以存储在例如***存储器28a中,这样的程序模块42a包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42a通常执行本发明所描述的上述图1-图7各实施例中的功能和/或方法。
计算机设备12a也可以与一个或多个外部设备14a(例如键盘、指向设备、显示器24a等)通信,还可与一个或者多个使得用户能与该计算机设备12a交互的设备通信,和/或与使得该计算机设备12a能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22a进行。并且,计算机设备12a还可以通过网络适配器20a与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20a通过总线18a与计算机设备12a的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12a使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理器16a通过运行存储在***存储器28a中的程序,从而执行各种功能应用以及数据处理,例如实现上述实施例所示的说话人识别方法。
本发明还提供一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述实施例所示的说话人识别方法。
本实施例的计算机可读介质可以包括上述图9所示实施例中的***存储器28a中的RAM30a、和/或高速缓存存储器32a、和/或存储***34a。
随着科技的发展,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载,或者采用其他方式获取。因此,本实施例中的计算机可读介质不仅可以包括有形的介质,还可以包括无形的介质。
本实施例的计算机可读介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (12)

1.一种说话人识别方法,其特征在于,所述方法包括:
接收目标群体中的待识别用户的目标语音数据;
根据所述目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征;所述说话人识别模型采用卷积神经网络模型;
根据所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征,识别所述目标语音数据对应的用户。
2.根据权利要求1所述的方法,其特征在于,根据所述目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征之前,所述方法还包括:
采集数条已知用户标识的训练语音数据,生成训练语音数据库;
根据所述训练语音数据库中各条所述训练语音数据,获取各条所述训练语音数据的梅尔频域倒谱系数和/或感知线性预测特征,作为对应的所述训练语音数据的语音输入特征;
根据各条所述训练语音数据的语音输入特征、以及各所述训练语音数据的用户标识,训练所述说话人识别模型。
3.根据权利要求2所述的方法,其特征在于,根据各条所述训练语音数据的语音输入特征、以及各所述训练语音数据的用户标识,训练所述说话人识别模型,具体包括:
将所述训练语音数据库中的各条所述训练语音数据的语音输入特征依次输入至所述说话人识别模型中,得到对应的所述训练语音数据的语音输出特征;
根据所述训练语音数据的语音输出特征和所述训练语音数据的用户标识,生成所述训练语音数据的损失函数;
计算所述训练语音数据的损失函数对所述说话人识别模型中各参数的导数;
根据所述说话人识别模型中的各所述参数以及所述训练语音数据的损失函数对各所述参数的导数,更新所述说话人识别模型中的各所述参数,从而确定本次训练后的所述说话人识别模型;
重复执行上述步骤,直至所述训练语音数据库中的数个所述训练语音数据都对所述说话人识别模型进行训练,确定本轮训练后的所述说话人识别模型。
4.根据权利要求3所述的方法,其特征在于,根据各条所述训练语音数据的语音输入特征、以及各所述训练语音数据的用户标识,训练所述说话人识别模型,还包括:
按照上述每一轮训练中所述训练语音数据库中的数个所述训练语音数据对所述说话人识别模型的训练,使用所述训练语音数据库中的数个所述训练语音数据重复对所述说话人识别模型训练N轮,得到最终的所述说话人识别模型。
5.根据权利要求1-4任一所述的方法,其特征在于,根据所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征,识别所述目标语音数据对应的用户,具体包括:
分别计算所述目标语音数据对应的语音输出特征与所述语音数据库中各所述语音数据对应的语音输出特征的相似度;
获取与所述目标语音数据对应的语音输出特征的相似度大于或者等于预设相似度阈值的所述语音数据对应的用户标识,作为所述目标语音数据对应的用户的标识;或者获取与所述目标语音数据对应的语音输出特征的相似度最大的所述语音数据对应的用户标识,作为所述目标语音数据对应的用户的标识。
6.一种说话人识别装置,其特征在于,所述装置包括:
接收模块,用于接收目标群体中的待识别用户的目标语音数据;
特征获取模块,用于根据所述目标语音数据、预先采集的语音数据库和预先训练的说话人识别模型,获取所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征;所述说话人识别模型采用卷积神经网络模型;
识别模块,用于根据所述目标语音数据对应的语音输出特征以及所述语音数据库中每个所述语音数据对应的语音输出特征,识别所述目标语音数据对应的用户。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:采集模块和训练模块;
所述采集模块,用于采集数条已知用户标识的训练语音数据,生成训练语音数据库;
所述特征获取模块,还用于根据所述训练语音数据库中各条所述训练语音数据,获取各条所述训练语音数据的梅尔频域倒谱系数和/或感知线性预测特征,作为对应的所述训练语音数据的语音输入特征;
所述训练模块,用于根据各条所述训练语音数据的语音输入特征、以及各所述训练语音数据的用户标识,训练所述说话人识别模型。
8.根据权利要求7所述的装置,其特征在于,所述训练模块,具体用于:
将所述训练语音数据库中的各条所述训练语音数据的语音输入特征依次输入至所述说话人识别模型中,得到对应的所述训练语音数据的语音输出特征;
根据所述训练语音数据的语音输出特征和所述训练语音数据的用户标识,生成所述训练语音数据的损失函数;
计算所述训练语音数据的损失函数对所述说话人识别模型中各参数的导数;
根据所述说话人识别模型中的各所述参数以及所述训练语音数据的损失函数对各所述参数的导数,更新所述说话人识别模型中的各所述参数,从而确定本次训练后的所述说话人识别模型;
重复执行上述步骤,直至所述训练语音数据库中的数个所述训练语音数据都对所述说话人识别模型进行训练,确定本轮训练后的所述说话人识别模型。
9.根据权利要求8所述的装置,其特征在于,所述训练模块,具体还用于按照上述每一轮训练中所述训练语音数据库中的数个所述训练语音数据对所述说话人识别模型的训练,使用所述训练语音数据库中的数个所述训练语音数据重复对所述说话人识别模型训练N轮,得到最终的所述说话人识别模型。
10.根据权利要求6-9任一所述的装置,其特征在于,所述识别模块,具体用于:
分别计算所述目标语音数据对应的语音输出特征与所述语音数据库中各所述语音数据对应的语音输出特征的相似度;
获取与所述目标语音数据对应的语音输出特征的相似度大于或者等于预设相似度阈值的所述语音数据对应的用户标识,作为所述目标语音数据对应的用户的标识;或者获取与所述目标语音数据对应的语音输出特征的相似度最大的所述语音数据对应的用户标识,作为所述目标语音数据对应的用户的标识。
11.一种计算机设备,其特征在于,所述设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
CN201710142901.8A 2017-03-10 2017-03-10 说话人识别方法及装置、计算机设备及计算机可读介质 Active CN106683680B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710142901.8A CN106683680B (zh) 2017-03-10 2017-03-10 说话人识别方法及装置、计算机设备及计算机可读介质
US15/912,348 US10957339B2 (en) 2017-03-10 2018-03-05 Speaker recognition method and apparatus, computer device and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710142901.8A CN106683680B (zh) 2017-03-10 2017-03-10 说话人识别方法及装置、计算机设备及计算机可读介质

Publications (2)

Publication Number Publication Date
CN106683680A true CN106683680A (zh) 2017-05-17
CN106683680B CN106683680B (zh) 2022-03-25

Family

ID=58828945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710142901.8A Active CN106683680B (zh) 2017-03-10 2017-03-10 说话人识别方法及装置、计算机设备及计算机可读介质

Country Status (2)

Country Link
US (1) US10957339B2 (zh)
CN (1) CN106683680B (zh)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107180628A (zh) * 2017-05-19 2017-09-19 百度在线网络技术(北京)有限公司 建立声学特征提取模型的方法、提取声学特征的方法、装置
CN107221320A (zh) * 2017-05-19 2017-09-29 百度在线网络技术(北京)有限公司 训练声学特征提取模型的方法、装置、设备和计算机存储介质
CN107240396A (zh) * 2017-06-16 2017-10-10 百度在线网络技术(北京)有限公司 说话人自适应方法、装置、设备及存储介质
CN107274906A (zh) * 2017-06-28 2017-10-20 百度在线网络技术(北京)有限公司 语音信息处理方法、装置、终端及存储介质
CN107464568A (zh) * 2017-09-25 2017-12-12 四川长虹电器股份有限公司 基于三维卷积神经网络文本无关的说话人识别方法及***
CN107766876A (zh) * 2017-09-19 2018-03-06 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN108172219A (zh) * 2017-11-14 2018-06-15 珠海格力电器股份有限公司 识别语音的方法和装置
CN108417217A (zh) * 2018-01-11 2018-08-17 苏州思必驰信息科技有限公司 说话人识别网络模型训练方法、说话人识别方法及***
CN108694950A (zh) * 2018-05-16 2018-10-23 清华大学 一种基于深度混合模型的说话人确认方法
CN108847245A (zh) * 2018-08-06 2018-11-20 北京海天瑞声科技股份有限公司 语音检测方法和装置
CN108877812A (zh) * 2018-08-16 2018-11-23 桂林电子科技大学 一种声纹识别方法、装置及存储介质
CN108899037A (zh) * 2018-07-05 2018-11-27 平安科技(深圳)有限公司 动物声纹特征提取方法、装置及电子设备
CN109166586A (zh) * 2018-08-02 2019-01-08 平安科技(深圳)有限公司 一种识别说话人的方法及终端
CN109285559A (zh) * 2018-09-14 2019-01-29 北京京东金融科技控股有限公司 角色转换点检测方法及装置、存储介质、电子设备
CN109308901A (zh) * 2018-09-29 2019-02-05 百度在线网络技术(北京)有限公司 歌唱者识别方法和装置
CN110223699A (zh) * 2019-05-15 2019-09-10 桂林电子科技大学 一种说话人身份确认方法、装置及存储介质
CN110232932A (zh) * 2019-05-09 2019-09-13 平安科技(深圳)有限公司 基于残差时延网络的说话人确认方法、装置、设备及介质
CN110289002A (zh) * 2019-06-28 2019-09-27 四川长虹电器股份有限公司 一种端到端的说话人聚类方法及***
CN110379419A (zh) * 2019-07-16 2019-10-25 湖南检信智能科技有限公司 基于卷积神经网络的语音特征匹配方法
WO2020007129A1 (zh) * 2018-07-02 2020-01-09 北京百度网讯科技有限公司 基于语音交互的上下文获取方法及设备
CN110942777A (zh) * 2019-12-05 2020-03-31 出门问问信息科技有限公司 一种声纹神经网络模型的训练方法、装置及存储介质
CN111402870A (zh) * 2019-01-02 2020-07-10 ***通信有限公司研究院 一种语音识别方法、装置及设备
CN111462759A (zh) * 2020-04-01 2020-07-28 科大讯飞股份有限公司 一种说话人标注方法、装置、设备及存储介质
CN111696520A (zh) * 2020-05-26 2020-09-22 深圳壹账通智能科技有限公司 智能配音方法、装置、介质及电子设备
CN113053398A (zh) * 2021-03-11 2021-06-29 东风汽车集团股份有限公司 基于mfcc和bp神经网络的说话人识别***及方法
CN113360869A (zh) * 2020-03-04 2021-09-07 北京嘉诚至盛科技有限公司 启动应用的方法、电子设备和计算机可读介质
CN115456114A (zh) * 2022-11-04 2022-12-09 之江实验室 一种模型训练和业务执行的方法、装置、介质及设备
CN116597827A (zh) * 2023-05-23 2023-08-15 苏州科帕特信息科技有限公司 一种目标语言模型确定方法及装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683680B (zh) * 2017-03-10 2022-03-25 百度在线网络技术(北京)有限公司 说话人识别方法及装置、计算机设备及计算机可读介质
CN109147770B (zh) * 2017-06-16 2023-07-28 阿里巴巴集团控股有限公司 声音识别特征的优化、动态注册方法、客户端和服务器
US10770063B2 (en) * 2018-04-13 2020-09-08 Adobe Inc. Real-time speaker-dependent neural vocoder
JP6457682B1 (ja) * 2018-04-16 2019-01-23 パスロジ株式会社 認証システム、認証方法、ならびに、プログラム
CN109377984B (zh) * 2018-11-22 2022-05-03 北京中科智加科技有限公司 一种基于ArcFace的语音识别方法及装置
CN111310516B (zh) * 2018-12-11 2023-08-29 杭州海康威视数字技术股份有限公司 一种行为识别方法和装置
KR102570070B1 (ko) * 2018-12-27 2023-08-23 삼성전자주식회사 일반화된 사용자 모델을 이용한 사용자 인증 방법 및 장치
US12039982B2 (en) 2019-04-05 2024-07-16 Google Llc Joint automatic speech recognition and speaker diarization
KR20190106946A (ko) * 2019-08-30 2019-09-18 엘지전자 주식회사 지능형 디바이스 및 그 제어 방법
CN110853654B (zh) * 2019-11-17 2021-12-21 西北工业大学 一种模型生成方法、声纹识别方法及对应装置
CN111243601B (zh) * 2019-12-31 2023-04-07 北京捷通华声科技股份有限公司 声纹聚类方法、装置、电子设备和计算机可读存储介质
CN112712790B (zh) * 2020-12-23 2023-08-15 平安银行股份有限公司 针对目标说话人的语音提取方法、装置、设备及介质
CN113178197B (zh) * 2021-04-27 2024-01-09 平安科技(深圳)有限公司 语音验证模型的训练方法、装置以及计算机设备
CN113299295B (zh) * 2021-05-11 2022-12-30 支付宝(杭州)信息技术有限公司 声纹编码网络的训练方法及装置

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102439542A (zh) * 2009-03-30 2012-05-02 触摸式有限公司 电子设备的文本输入***及文本输入方法
CN102737633A (zh) * 2012-06-21 2012-10-17 北京华信恒达软件技术有限公司 一种基于张量子空间分析的说话人识别方法及其装置
CN104268568A (zh) * 2014-09-17 2015-01-07 电子科技大学 基于独立子空间网络的行为识别方法
CN104361316A (zh) * 2014-10-30 2015-02-18 中国科学院自动化研究所 一种基于多尺度时序建模的维度情感识别方法
CN104732978A (zh) * 2015-03-12 2015-06-24 上海交通大学 基于联合深度学习的文本相关的说话人识别方法
CN105096941A (zh) * 2015-09-02 2015-11-25 百度在线网络技术(北京)有限公司 语音识别方法以及装置
CN105321525A (zh) * 2015-09-30 2016-02-10 北京邮电大学 一种降低voip通信资源开销的***和方法
CN105469065A (zh) * 2015-12-07 2016-04-06 中国科学院自动化研究所 一种基于递归神经网络的离散情感识别方法
CN105574510A (zh) * 2015-12-18 2016-05-11 北京邮电大学 一种步态识别方法及装置
CN105740833A (zh) * 2016-02-03 2016-07-06 北京工业大学 一种基于深度序列的人体行为识别方法
CN105895082A (zh) * 2016-05-30 2016-08-24 乐视控股(北京)有限公司 声学模型训练方法、语音识别方法及装置
CN106056444A (zh) * 2016-05-25 2016-10-26 腾讯科技(深圳)有限公司 数据处理方法和装置
CN106128465A (zh) * 2016-06-23 2016-11-16 成都启英泰伦科技有限公司 一种声纹识别***及方法
CN106328150A (zh) * 2016-08-18 2017-01-11 北京易迈医疗科技有限公司 嘈杂环境下的肠鸣音检测方法、装置及***

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0559349B1 (en) * 1992-03-02 1999-01-07 AT&T Corp. Training method and apparatus for speech recognition
US9378733B1 (en) * 2012-12-19 2016-06-28 Google Inc. Keyword detection without decoding
US10068171B2 (en) * 2015-11-12 2018-09-04 Conduent Business Services, Llc Multi-layer fusion in a convolutional neural network for image classification
US10296846B2 (en) * 2015-11-24 2019-05-21 Xerox Corporation Adapted domain specific class means classifier
US10726326B2 (en) * 2016-02-24 2020-07-28 International Business Machines Corporation Learning of neural network
US9972322B2 (en) * 2016-03-29 2018-05-15 Intel Corporation Speaker recognition using adaptive thresholding
US10303977B2 (en) * 2016-06-28 2019-05-28 Conduent Business Services, Llc System and method for expanding and training convolutional neural networks for large size input images
US10657437B2 (en) * 2016-08-18 2020-05-19 International Business Machines Corporation Training of front-end and back-end neural networks
US10360494B2 (en) * 2016-11-30 2019-07-23 Altumview Systems Inc. Convolutional neural network (CNN) system based on resolution-limited small-scale CNN modules
US10140980B2 (en) * 2016-12-21 2018-11-27 Google LCC Complex linear projection for acoustic modeling
US10817774B2 (en) * 2016-12-30 2020-10-27 Facebook, Inc. Systems and methods for providing content
CN106683680B (zh) * 2017-03-10 2022-03-25 百度在线网络技术(北京)有限公司 说话人识别方法及装置、计算机设备及计算机可读介质
WO2019126625A1 (en) * 2017-12-22 2019-06-27 Butterfly Network, Inc. Methods and apparatuses for identifying gestures based on ultrasound data
US11733780B2 (en) * 2018-03-16 2023-08-22 Veridium Ip Limited System and method for user recognition using motion sensor data
US11315570B2 (en) * 2018-05-02 2022-04-26 Facebook Technologies, Llc Machine learning-based speech-to-text transcription cloud intermediary
US10853246B2 (en) * 2018-10-30 2020-12-01 EMC IP Holding Company LLC Increasing performance of write throughput using machine learning

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105759983A (zh) * 2009-03-30 2016-07-13 触摸式有限公司 电子设备的文本输入***及文本输入方法
CN102439542A (zh) * 2009-03-30 2012-05-02 触摸式有限公司 电子设备的文本输入***及文本输入方法
CN102737633A (zh) * 2012-06-21 2012-10-17 北京华信恒达软件技术有限公司 一种基于张量子空间分析的说话人识别方法及其装置
CN104268568A (zh) * 2014-09-17 2015-01-07 电子科技大学 基于独立子空间网络的行为识别方法
CN104361316A (zh) * 2014-10-30 2015-02-18 中国科学院自动化研究所 一种基于多尺度时序建模的维度情感识别方法
CN104732978A (zh) * 2015-03-12 2015-06-24 上海交通大学 基于联合深度学习的文本相关的说话人识别方法
CN105096941A (zh) * 2015-09-02 2015-11-25 百度在线网络技术(北京)有限公司 语音识别方法以及装置
CN105321525A (zh) * 2015-09-30 2016-02-10 北京邮电大学 一种降低voip通信资源开销的***和方法
CN105469065A (zh) * 2015-12-07 2016-04-06 中国科学院自动化研究所 一种基于递归神经网络的离散情感识别方法
CN105574510A (zh) * 2015-12-18 2016-05-11 北京邮电大学 一种步态识别方法及装置
CN105740833A (zh) * 2016-02-03 2016-07-06 北京工业大学 一种基于深度序列的人体行为识别方法
CN106056444A (zh) * 2016-05-25 2016-10-26 腾讯科技(深圳)有限公司 数据处理方法和装置
CN105895082A (zh) * 2016-05-30 2016-08-24 乐视控股(北京)有限公司 声学模型训练方法、语音识别方法及装置
CN106128465A (zh) * 2016-06-23 2016-11-16 成都启英泰伦科技有限公司 一种声纹识别***及方法
CN106328150A (zh) * 2016-08-18 2017-01-11 北京易迈医疗科技有限公司 嘈杂环境下的肠鸣音检测方法、装置及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈雯柏: "《人工神经网络原理与实践》", 31 January 2016, 西安电子科技大学出版社 *

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107180628A (zh) * 2017-05-19 2017-09-19 百度在线网络技术(北京)有限公司 建立声学特征提取模型的方法、提取声学特征的方法、装置
CN107221320A (zh) * 2017-05-19 2017-09-29 百度在线网络技术(北京)有限公司 训练声学特征提取模型的方法、装置、设备和计算机存储介质
US10943582B2 (en) 2017-05-19 2021-03-09 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus of training acoustic feature extracting model, device and computer storage medium
CN107240396A (zh) * 2017-06-16 2017-10-10 百度在线网络技术(北京)有限公司 说话人自适应方法、装置、设备及存储介质
US10665225B2 (en) 2017-06-16 2020-05-26 Baidu Online Network Technology (Beijing) Co., Ltd. Speaker adaption method and apparatus, and storage medium
CN107274906A (zh) * 2017-06-28 2017-10-20 百度在线网络技术(北京)有限公司 语音信息处理方法、装置、终端及存储介质
CN107766876A (zh) * 2017-09-19 2018-03-06 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN107464568A (zh) * 2017-09-25 2017-12-12 四川长虹电器股份有限公司 基于三维卷积神经网络文本无关的说话人识别方法及***
CN107464568B (zh) * 2017-09-25 2020-06-30 四川长虹电器股份有限公司 基于三维卷积神经网络文本无关的说话人识别方法及***
CN108172219A (zh) * 2017-11-14 2018-06-15 珠海格力电器股份有限公司 识别语音的方法和装置
CN108172219B (zh) * 2017-11-14 2021-02-26 珠海格力电器股份有限公司 识别语音的方法和装置
CN108417217B (zh) * 2018-01-11 2021-07-13 思必驰科技股份有限公司 说话人识别网络模型训练方法、说话人识别方法及***
CN108417217A (zh) * 2018-01-11 2018-08-17 苏州思必驰信息科技有限公司 说话人识别网络模型训练方法、说话人识别方法及***
CN108694950A (zh) * 2018-05-16 2018-10-23 清华大学 一种基于深度混合模型的说话人确认方法
CN108694950B (zh) * 2018-05-16 2021-10-01 清华大学 一种基于深度混合模型的说话人确认方法
WO2020007129A1 (zh) * 2018-07-02 2020-01-09 北京百度网讯科技有限公司 基于语音交互的上下文获取方法及设备
CN108899037A (zh) * 2018-07-05 2018-11-27 平安科技(深圳)有限公司 动物声纹特征提取方法、装置及电子设备
CN108899037B (zh) * 2018-07-05 2024-01-26 平安科技(深圳)有限公司 动物声纹特征提取方法、装置及电子设备
CN109166586B (zh) * 2018-08-02 2023-07-07 平安科技(深圳)有限公司 一种识别说话人的方法及终端
CN109166586A (zh) * 2018-08-02 2019-01-08 平安科技(深圳)有限公司 一种识别说话人的方法及终端
CN108847245A (zh) * 2018-08-06 2018-11-20 北京海天瑞声科技股份有限公司 语音检测方法和装置
CN108877812A (zh) * 2018-08-16 2018-11-23 桂林电子科技大学 一种声纹识别方法、装置及存储介质
CN109285559A (zh) * 2018-09-14 2019-01-29 北京京东金融科技控股有限公司 角色转换点检测方法及装置、存储介质、电子设备
CN109308901A (zh) * 2018-09-29 2019-02-05 百度在线网络技术(北京)有限公司 歌唱者识别方法和装置
CN111402870B (zh) * 2019-01-02 2023-08-15 ***通信有限公司研究院 一种语音识别方法、装置及设备
CN111402870A (zh) * 2019-01-02 2020-07-10 ***通信有限公司研究院 一种语音识别方法、装置及设备
CN110232932A (zh) * 2019-05-09 2019-09-13 平安科技(深圳)有限公司 基于残差时延网络的说话人确认方法、装置、设备及介质
CN110232932B (zh) * 2019-05-09 2023-11-03 平安科技(深圳)有限公司 基于残差时延网络的说话人确认方法、装置、设备及介质
WO2020224114A1 (zh) * 2019-05-09 2020-11-12 平安科技(深圳)有限公司 基于残差时延网络的说话人确认方法、装置、设备及介质
CN110223699B (zh) * 2019-05-15 2021-04-13 桂林电子科技大学 一种说话人身份确认方法、装置及存储介质
CN110223699A (zh) * 2019-05-15 2019-09-10 桂林电子科技大学 一种说话人身份确认方法、装置及存储介质
CN110289002A (zh) * 2019-06-28 2019-09-27 四川长虹电器股份有限公司 一种端到端的说话人聚类方法及***
CN110289002B (zh) * 2019-06-28 2021-04-27 四川长虹电器股份有限公司 一种端到端的说话人聚类方法及***
CN110379419A (zh) * 2019-07-16 2019-10-25 湖南检信智能科技有限公司 基于卷积神经网络的语音特征匹配方法
CN110942777A (zh) * 2019-12-05 2020-03-31 出门问问信息科技有限公司 一种声纹神经网络模型的训练方法、装置及存储介质
CN110942777B (zh) * 2019-12-05 2022-03-08 出门问问信息科技有限公司 一种声纹神经网络模型的训练方法、装置及存储介质
CN113360869A (zh) * 2020-03-04 2021-09-07 北京嘉诚至盛科技有限公司 启动应用的方法、电子设备和计算机可读介质
CN111462759A (zh) * 2020-04-01 2020-07-28 科大讯飞股份有限公司 一种说话人标注方法、装置、设备及存储介质
CN111462759B (zh) * 2020-04-01 2024-02-13 科大讯飞股份有限公司 一种说话人标注方法、装置、设备及存储介质
CN111696520A (zh) * 2020-05-26 2020-09-22 深圳壹账通智能科技有限公司 智能配音方法、装置、介质及电子设备
CN113053398B (zh) * 2021-03-11 2022-09-27 东风汽车集团股份有限公司 基于mfcc和bp神经网络的说话人识别***及方法
CN113053398A (zh) * 2021-03-11 2021-06-29 东风汽车集团股份有限公司 基于mfcc和bp神经网络的说话人识别***及方法
CN115456114A (zh) * 2022-11-04 2022-12-09 之江实验室 一种模型训练和业务执行的方法、装置、介质及设备
CN116597827A (zh) * 2023-05-23 2023-08-15 苏州科帕特信息科技有限公司 一种目标语言模型确定方法及装置

Also Published As

Publication number Publication date
CN106683680B (zh) 2022-03-25
US20180261236A1 (en) 2018-09-13
US10957339B2 (en) 2021-03-23

Similar Documents

Publication Publication Date Title
CN106683680A (zh) 说话人识别方法及装置、计算机设备及计算机可读介质
CN107610709B (zh) 一种训练声纹识别模型的方法及***
CN107492382B (zh) 基于神经网络的声纹信息提取方法及装置
CN107221320A (zh) 训练声学特征提取模型的方法、装置、设备和计算机存储介质
US9940935B2 (en) Method and device for voiceprint recognition
CN107103903A (zh) 基于人工智能的声学模型训练方法、装置及存储介质
TWI527023B (zh) A voiceprint recognition method and apparatus
CN111243602B (zh) 基于性别、国籍和情感信息的声纹识别方法
CN110473566A (zh) 音频分离方法、装置、电子设备及计算机可读存储介质
CN107180628A (zh) 建立声学特征提取模型的方法、提取声学特征的方法、装置
CN109637545B (zh) 基于一维卷积非对称双向长短时记忆网络的声纹识别方法
CN108429619A (zh) 身份认证方法和***
CN107610707A (zh) 一种声纹识别方法及装置
CN107886957A (zh) 一种结合声纹识别的语音唤醒方法及装置
CN107481717A (zh) 一种声学模型训练方法及***
CN105096955B (zh) 一种基于模型生长聚类的说话人快速识别方法及***
CN109346086A (zh) 声纹识别方法、装置、计算机设备和计算机可读存储介质
CN107170453A (zh) 基于人工智能的跨语种语音转录方法、设备及可读介质
CN108986798B (zh) 语音数据的处理方法、装置及设备
CN113223536B (zh) 声纹识别方法、装置及终端设备
CN111862945A (zh) 一种语音识别方法、装置、电子设备及存储介质
CN109036470A (zh) 语音区分方法、装置、计算机设备及存储介质
Chandankhede et al. Voice recognition based security system using convolutional neural network
CN110232928B (zh) 文本无关说话人验证方法和装置
CN108806725A (zh) 语音区分方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant