CN113272894A - 完全监督的说话者日志化 - Google Patents

完全监督的说话者日志化 Download PDF

Info

Publication number
CN113272894A
CN113272894A CN201980088275.6A CN201980088275A CN113272894A CN 113272894 A CN113272894 A CN 113272894A CN 201980088275 A CN201980088275 A CN 201980088275A CN 113272894 A CN113272894 A CN 113272894A
Authority
CN
China
Prior art keywords
speaker
segment
probability
tag
speech utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980088275.6A
Other languages
English (en)
Inventor
王崇
张奥南
王泉
朱祯耀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of CN113272894A publication Critical patent/CN113272894A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • G10L15/075Adaptation to the speaker supervised, i.e. under machine guidance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stereophonic System (AREA)

Abstract

一种方法(500)包括接收语音话语(120)并且将所述语音话语分段成多个分段(220)。对于所述语音话语的每个分段,该方法还包括从所述分段提取说话者判别嵌入(240)并且使用被配置成接收所提取的说话者判别嵌入作为特征输入的概率生成模型(300)来预测关于所述分段的可能说话者(262)的概率分布。所述概率生成模型在训练语音话语的语料库上被训练,每个训练语音话语被分段成多个训练分段(220T)。每个训练分段包括对应的说话者判别嵌入和对应的说话者标签(250)。该方法还包括基于对应的分段的可能说话者的所述概率分布来将说话者标签指配给所述语音话语的每个分段。

Description

完全监督的说话者日志化
技术领域
本公开涉及完全监督的说话者日志化(speaker diarization)。
背景技术
说话者日志化是根据说话者身份将输入音频流分成同质分段(segment)的过程。在具有多个说话者的环境中,说话者日志化回答了“谁在何时说话”的问题,并且具有各种应用,包括多媒体信息检索、说话者轮次分析和音频处理,以上仅举几个例子。特别地,说话者日志化***能够产生说话者边界,其具有显著改善声学语音识别准确性的潜力。
发明内容
本公开的一个方面提供了一种说话者日志化的方法,所述方法包括:在数据处理硬件处接收语音话语以及由所述数据处理硬件将所述语音话语分段成多个分段。对于所述语音话语的每个分段,该方法还包括:由所述数据处理硬件从所述分段提取说话者判别嵌入;以及由所述数据处理硬件使用被配置成接收所提取的说话者判别嵌入作为特征输入的概率生成模型来预测关于所述分段的可能说话者的概率分布。所述概率生成模型在训练语音话语的语料库上被训练,其中每个训练语音话语被分段成多个训练分段。每个训练分段包括对应的说话者判别嵌入和对应的说话者标签。
本公开的实现方式可以包括以下可选特征中的一个或多个。在一些实现方式中,概率生成模型通过应用与距离相关的中国餐馆过程来预测关于每个分段的可能说话者的概率分布。所述概率生成模型还可以被配置成,针对在所述多个分段中的初始分段之后出现的每个分段,接收从先前相邻分段提取的所述说话者判别嵌入以及指配给所述先前相邻分段的所述说话者标签作为以下特征输入,所述特征输入用于预测说话者将不会针对该对应的分段而改变的概率。在一些示例中,将所述说话者标签指配给所述语音话语的每个分段包括通过对关于对应的分段的可能说话者的概率分布执行贪婪搜索来将所述说话者标签指配给所述语音话语的每个分段。
在一些示例中,预测关于所述分段的可能说话者的概率分布包括当所述分段出现在所述多个分段中的初始分段之后时:(1)预测与指配给先前相邻分段的所述说话者标签相关联的当前说话者对于所述分段将不改变的概率;(2)针对与先前指配给一个或多个先前分段的对应说话者标签相关联的每个现有说话者,预测与指配给所述先前相邻分段的所述说话者标签相关联的所述当前说话者将改变为所述现有说话者的概率;以及(3)预测与指配给所述先前相邻分段的所述说话者标签相关联的所述当前说话者将改变为新说话者的概率。在一些情况下,与指配给所述先前相邻分段的所述说话者标签相关联的所述当前说话者将改变为所述现有说话者的所述概率与先前指配了与所述现有说话者相关联的所述对应说话者标签的实例的数量成比例。附加地或可替代地,与指配给所述先前相邻分段的所述说话者标签相关联的所述当前说话者将改变为所述新说话者的所述概率与说话者指配概率参数α成比例。
在一些实现方式中,从所述分段提取所述说话者判别嵌入包括从所述分段提取d向量。在其它实现方式中,从所述分段提取所述说话者判别嵌入包括从所述分段提取i向量。在一些配置中,所述概率生成模型包括递归神经网络(RNN)。在这些配置中,所述RNN可以包括具有N个门控递归单元(GRU)单体的隐藏层;以及两个完全连接层,每个完全连接层具有N个节点并且被配置成应用所述隐藏层的整流线性单元(ReLU)激活。每个GRU单体被配置成应用双曲正切(tanh)激活。附加地或可替代地,所述方法还可以包括:由所述数据处理硬件将所述语音话语转录成对应的文本(152);以及由所述数据处理硬件基于指配给所述语音话语的每个分段的所述说话者标签来注释所述文本。将所述语音话语分段成多个分段包括:将所述语音话语分段成多个固定长度分段或者将所述语音话语分段成多个可变长度分段。
本公开的另一方面提供了一种用于说话者日志化的***,所述***包括数据处理硬件和与所述数据处理硬件通信的存储器硬件。存储器硬件存储指令,所述指令在由所述数据处理硬件执行时使所述数据处理硬件执行包括接收语音话语以及将语音话语分段成多个分段的操作。对于所述语音话语的每个分段,所述操作还包括:从所述分段提取说话者判别嵌入以及使用被配置成接收所提取的说话者判别嵌入作为特征输入的概率生成模型来预测关于所述分段的可能说话者的概率分布。所述概率生成模型在训练语音话语的语料库上被训练,其中每个训练语音话语被分段成多个训练分段。每个训练分段包括对应的说话者判别嵌入和对应的说话者标签。
这个方面可以包括以下可选特征中的一个或多个。在一些实现方式中,概率生成模型通过应用与距离相关的中国餐馆过程来预测关于每个分段的可能说话者的概率分布。所述概率生成模型还可以被配置成,针对在所述多个分段中的初始分段之后出现的每个分段,接收从先前相邻分段提取的所述说话者判别嵌入以及指配给所述先前相邻分段的所述说话者标签作为以下特征输入,所述特征输入用于预测说话者将不会针对该对应的分段而改变的概率。在一些示例中,将所述说话者标签指配给所述语音话语的每个分段包括通过对关于对应的分段的可能说话者的概率分布执行贪婪搜索来将所述说话者标签指配给所述语音话语的每个分段。
在一些示例中,预测关于所述分段的可能说话者的概率分布包括当所述分段出现在所述多个分段中的初始分段之后时:(1)预测与指配给先前相邻分段的所述说话者标签相关联的当前说话者对于所述分段将不改变的概率;(2)针对与先前指配给一个或多个先前分段的对应说话者标签相关联的每个现有说话者,预测与指配给所述先前相邻分段的所述说话者标签相关联的所述当前说话者将改变为所述现有说话者的概率;以及(3)预测与指配给所述先前相邻分段的所述说话者标签相关联的所述当前说话者将改变为新说话者的概率。在一些情况下,与指配给所述先前相邻分段的所述说话者标签相关联的所述当前说话者将改变为所述现有说话者的所述概率与先前指配了与所述现有说话者相关联的所述对应说话者标签的实例的数量成比例。附加地或可替代地,与指配给所述先前相邻分段的所述说话者标签相关联的所述当前说话者将改变为所述新说话者的所述概率与说话者指配概率参数α成比例。
在一些实现方式中,从所述分段提取所述说话者判别嵌入包括从所述分段提取d向量。在其它实现方式中,从所述分段提取所述说话者判别嵌入包括从所述分段提取i向量。在一些配置中,所述概率生成模型包括递归神经网络(RNN)。在这些配置中,所述RNN可以包括具有N个门控递归单元(GRU)单体的隐藏层;以及两个完全连接层,每个完全连接层具有N个节点并且被配置成应用所述隐藏层的整流线性单元(ReLU)激活。每个GRU单体被配置成应用双曲正切(tanh)激活。附加地或可替代地,所述操作还可以包括:将所述语音话语转录成对应的文本以及基于指配给所述语音话语的每个分段的所述说话者标签来注释所述文本。将所述语音话语分段成多个分段包括:将所述语音话语分段成多个固定长度分段或者将所述语音话语分段成多个可变长度分段。
在附图和以下描述中阐述了本公开的一个或多个实现方式的细节。从说明书和附图以及从权利要求书中,其它方面、特征和优点将是显而易见的。
附图说明
图1A示意性地示出了用于将说话者标签指配给语音话语的示例***。
图1B示意性地示出了使用监督训练来训练图1A的***的概率生成模型的示例。
图2示意性地示出了使用概率生成模型的说话者日志化的示例过程。
图3A至图3D示意性地示出了被配置成预测关于语音话语的固定长度分段的可能说话者的概率分布的示例递归神经网络模型。
图4是示出在各种说话者识别模型的无监督数据集和监督数据集上训练的日志化***的日志化误差率(DER)的表。
图5是用于将说话者标签指配给语音话语的方法的操作的示例布置的流程图。
图6是可用于实现本文所述的***和方法的示例计算设备的示意图。
在各个附图中相同附图标记表示相同元件。
具体实施方式
自动语音识别(ASR)***通常依赖于假定在给定输入音频信号中仅存在一个说话者的语音处理算法。包括多个说话者的存在的输入音频信号可以潜在地破坏这些语音处理算法,从而导致由ASR***输出的语音识别结果不准确。这样,说话者日志化是这样一种过程,其在更大会话中对来自相同说话者的语音进行分段以便不特别地确定谁正在讲话(说话者识别/标识)而是确定某人何时正在说话。换句话说,说话者日志化包括一系列具有短话语的说话者识别任务,并且确定给定会话的两个分段是否是由同一个人说出,并且对于会话的所有部分重复。
现有说话者日志化***通常包括多个相对独立组件,诸如但不限于语音分段模块、嵌入提取模块以及聚类模块。语音分段模块通常被配置成从输入话语中移除非语音部分并且将输入话语划分成小的固定长度分段,而嵌入提取模块被配置成从每个固定长度分段中提取对应的说话者判别嵌入。说话者判别嵌入可以包括i向量或d向量。现有说话者日志化***所采用的聚类模块负责确定输入话语中存在的说话者的数目,并且将说话者标识(例如,标签)指配给每个固定长度分段。这些聚类模块可以使用流行聚类算法,该流行聚类算法包括高斯混合模型、均值偏移聚类、凝聚分层聚类、k均值聚类、链接聚类以及谱聚类。说话者日志化***还可以使用附加重新分段模块,以用于通过强制附加约束来进一步细化从聚类模块输出的日志化结果。
聚类模块以无监督的方式运行,使得所有说话者都被假定为未知的,并且聚类算法需要产生新“集群”,以便为每个新输入话语容纳新的/未知的说话者。这些无监督框架的缺点是它们不能通过从包括带时间戳的说话者标签和地面实况的大组的带标签训练数据中学习来改进。由于在许多特定领域的应用中,这种带标签训练数据是容易获得的,因此说话者日志化***可以通过在产生日志化结果时变得更稳健且更准确而从带标签训练数据中受益。此外,现有的现有技术的聚类算法绝大部分都是离线执行,从而使得难以通过在实时情况下聚类来产生日志化结果。
本文的实现方式针对以下说话者日志化***,该说话者日志化***实现用于在线(例如,实时)产生日志化结果的完全监督的概率生成模型。该日志化结果包括为从输入音频信号所分段的多个分段中的每一个分段预测的说话者标签。通过用完全监督的概率生成模型来代替依赖于无监督聚类算法(例如,k均值、谱聚类、分层聚类等)的常用聚类模块,说话者日志化***能够通过从容易获得的带时间戳的说话者标签和地面实况中学习来提高说话者标签预测准确性。这些分段可以是固定长度或可变长度。
具体地,概率生成模型包括无界交织状态递归神经网络(UIS-RNN),其自然地合并有带时间戳的说话者标签以用于训练,使得模型通过与其它实例共享相同参数的对应实例来对每个说话者进行建模,生成无界数量的RNN实例,并且在时域中交织不同RNN实例(即,不同说话者)的状态。这种完全监督的框架使得模型能够经由贝叶斯非参数过程自动学习每个话语内的许多说话者并且经由RNN随时间携带信息。
参考图1A和图1B,在一些实现方式中,***100包括用户设备110,该用户设备从一组说话者(例如,用户)10、10a-n捕获语音话语120并且经由网络130与远程***140通信。远程***140可以是具有可扩展/弹性资源142的分布式***(例如,云计算环境)。资源142包括计算资源144(例如,数据处理硬件)和/或存储资源146(例如,存储器硬件)。在一些实现方式中,用户设备110和/或远程***140执行日志化***200,该日志化***被配置成从用户设备110接收与所捕获的话语120相对应的音频数据122,将音频数据122分段成多个分段220、220a-n,每个分段与从其提取的对应的说话者判别嵌入240相关联,并且使用概率生成模型300来生成日志化结果280,该日志化结果包括被指配给每个分段220的对应的说话者标签250。因此,由于每个分段220指示针对输入音频数据122的对应时间窗口的对应的说话者判别嵌入240,因此日志化结果280为接收到的音频数据122提供带时间戳的说话者标签250,该带时间戳的说话者标签不仅标识在给定分段220期间谁在说话,而且还标识在相邻分段220之间何时发生说话者改变。下面更详细地描述,在带标签训练数据202上训练概率生成模型,其中该带标签训练数据包括用于训练语音话语的语料库的带时间戳的说话者标签250T。分段220、220a-n可以包括固定长度分段或可变长度分段。虽然本公开可以将一个或多个分段称为“固定长度”,但是在不脱离本公开的范围的情况下,对应的一个或多个分段可以类似地是可变长度的。此外,在不脱离本公开的范围的情况下,日志化***200可以在用户设备110或远程***140中的任一个上执行。
在一些示例中,远程***140还执行自动语音识别(ASR)模块150,该自动语音识别模块被配置成接收音频数据122并且将其转录成对应的ASR结果152。用户设备110可以类似地在设备上而不是在远程***140上执行ASR模块150,这在网络连接不可用或者在快速(虽然保真度较低)转录是优选的时可能是有用的。附加地或可替代地,用户设备110和远程***140两者可以都执行对应的ASR模块150,使得可以将音频数据122在设备上、经由远程***或者它们的某种组合转录。在一些实现方式中,ASR模块150和日志化***200两者都完全在用户设备110上执行并且不需要到远程***140的任何网络连接。ASR结果152也可以被称为“转录”或简单地称为“文本”。ASR模块150可以与日志化***200通信以利用与音频数据122相关联的日志化结果280以用于改善对音频数据122的语音识别。例如,ASR模块150可以针对从日志化结果280标识出的不同说话者应用不同语音识别模型(例如,语言模型、韵律模型)。附加地或可替代地,ASR模块150和/或日志化***200(或一些其它组件)可以使用针对从日志化结果280获得的每个固定长度分段220所预测的带时间戳的说话者标签250来索引音频数据122的转录152。例如,在商务会议期间多个同事(例如,说话者10)之间的对话的转录可以由说话者索引,以将转录的部分与相应说话者相关联,以用于标识每个说话者说了什么。
用户设备110包括数据处理硬件112和存储器硬件114。用户设备110可以包括音频捕获设备(例如,麦克风),以用于捕获来自说话者10的语音话语120并且将其转换成音频数据122(例如,电信号)。在一些实现方式中,数据处理硬件112被配置成本地执行日志化***200的一部分,而日志化***200的剩余部分在远程***140上执行。可替代地,数据处理硬件112可以执行日志化***200,以代替在远程***140上执行日志化***200。用户设备110可以是能够通过网络130与远程***140通信的任何计算设备。用户设备110包括但不限于台式计算设备和移动计算设备,诸如膝上型计算机、平板计算机、智能电话和可穿戴计算设备(例如,头戴式耳机和/或手表)。用户设备110可以可选地执行ASR模块150以将音频数据122转录成对应文本152。例如,当网络通信中断或不可用时,用户设备110可以本地执行日志化***200和/或ASR模块150以产生音频数据122的日志化结果和/或生成音频数据122的转录152。
在所示的示例中,说话者10和用户设备110可以位于用户设备110被配置成捕获由说话者10说出的语音话语120并且将其转换成音频数据122(也称为音频信号122)的环境(例如,房间)内。例如,说话者10可以对应于在会议期间进行对话的同事,并且用户设备110可以记录语音话语120并且将其转换成音频数据122。进而,用户设备110可以将音频数据122提供给日志化***200,以用于将带时间戳的说话者标签250指配给音频数据122的各个固定长度分段220。因此,日志化***200负责处理音频数据122以确定何时有人正在说话,而没有经由说话者识别/标识来具体确定谁正在说话。在一些示例中,用户设备110可以远离说话者10的位置。例如,用户设备110可以包括远程设备(例如,网络服务器),该远程设备从作为电话呼叫或视频会议的参与者的说话者捕获语音话语120。在这种情况下,每个说话者10将对其自己的设备(例如,电话、无线电、计算机、智能手表等)说话,该设备捕获语音话语120并且将其提供给远程用户设备110以用于将语音话语120转换成音频数据122。当然,在这种情况下,话语120可以在用户设备中的每一个处经历处理并且被转换成传送到远程用户设备110的对应音频信号,其中该远程用户设备可以另外处理被提供给日志化***200的音频数据122。
在所示的示例中,日志化***200包括分段模块210、嵌入模块230以及说话者标签预测器260。分段模块210被配置成接收与语音话语120(也称为“语音的话语”)相对应的音频数据122,并且将音频数据122分段成多个固定长度分段220。分段模块210还可以例如通过应用话音活动检测器来从音频数据122中去除非语音部分。
嵌入模块230被配置成从每个固定长度分段220中提取说话者判别嵌入240。此后,嵌入模块230向说话者标签预测器260提供嵌入的观察序列X=(x1,x2,...,xT),其中序列中的条目xT表示与原始话语120的音频数据122中的对应固定长度分段220相关联的带实值的说话者判别嵌入240。说话者判别嵌入240可以包括说话者因子,例如d向量或i向量。有利地,由于神经网络生成d向量并且可以利用大数据集来训练的事实,d向量可以改善日志化性能,其中该大数据集在不同使用情况下对于变化的说话者口音和声学条件足够稳健。
在一些实现方式中,说话者标签预测器260接收嵌入的观察序列X,并且使用概率生成模型300来生成/预测关于序列中的每个条目xT的可能说话者262的概率分布。换句话说,对于每个固定长度分段220,说话者标签预测器260可以接收从嵌入模块230提取的相关联的说话者判别嵌入240,作为概率生成模型300的特征输入,以用于生成关于固定长度分段220的可能说话者262的概率分布。说话者标签预测器260可以基于关于固定长度分段220的可能说话者262的概率分布,将说话者标签250指配给音频数据122的每个固定长度分段220。在一些示例中,将说话者标签250指配给每个固定长度分段220包括关于固定长度分段220的可能说话者262的概率分布执行贪婪搜索。
在所示的示例中,说话者标签预测器260输出指示指配给音频数据122的对应固定长度分段220的说话者标签250的日志化结果280。这里,说话者标签250可以被表示为说话者标签序列Y=(y1,y2,...,yT),其中序列中的条目yT表示在时间t被指配给嵌入条目xt的说话者标签250。例如,在时间t=4,说话者标签条目y4=3对应于将第三说话者“3”指配给第四嵌入条目x4。另外,日志化结果280可以预测每个固定长度分段220的说话者改变值255。在所示的示例中,说话者改变值255可以被表示为改变点指示符的序列Z=(z1,z2,...,zT),其中条目zT指示在时间t时在对应的嵌入条目xt处是否发生说话者改变。在一些实现方式中,每个改变点指示符zT是二进制指示符,其中zT=1指示在时间t的改变点,而zt=0指示说话者在时间t时没有从指配给紧挨的前一相邻嵌入条目xt-1的说话者标签250改变。在图1A所示的示例日志化结果280中,当Y=(1,1,2,3,2,2,...,yT)时,则Z=(0,1,1,1,0)。因此,改变点指示符的序列Z由说话者标签序列Y唯一地确定,但是说话者标签的序列Y不能由改变点指示符的序列Z唯一地确定。
参考图1B,在一些实现方式中,在包括训练语音话语的语料库的完全带标签训练数据202上训练概率生成模型300,其中每个训练语音话语被分段成多个训练固定长度分段220T,其中,每个训练固定长度分段220T包括对应的说话者判别嵌入240T(例如,d向量或i向量)以及对应的说话者标签250T。训练语音话语的语料库中的每个训练语音话语可以被表示为嵌入的训练序列X*=(x*1,x*2,...,x*T),其中序列中的条目x*T表示与对应的训练固定长度分段220T相关联的带实值的说话者判别嵌入240T和对应的说话者标签250T。另外,完全带标签训练数据202可以包括在初始训练固定长度分段220T之后的每个训练固定长度分段220T的说话者改变值255T。说话者改变值255T和说话者标签250T可以被手动指配给每个训练固定长度分段220T。如上所述,说话者标签250T可以表示为训练说话者标签的序列Y*=(y*1,y*2,...,y*T),其中序列中的条目yt表示在时间t指配给嵌入条目xt的说话者标签250T,并且说话者改变值255T可以表示为训练改变点指示符的序列Z*=(z*1,z*2,...,z*T),条目zt是指示在时间t在对应的训练固定长度分段条目x*t处是否发生说话者改变的二进制指示符。
在所示的示例中,所述多个训练固定长度分段220T(每个包括对应的说话者判别嵌入240T(例如,d向量或i向量)和对应的说话者标签250T传递到日志化训练器204,以用于训练概率生成模型300。基于完全带标签训练数据202,日志化训练器204能够对日志化参数206进行建模以训练概率生成模型300。一旦被训练,如上文参考图1A所讨论的,概率生成模型(例如,经训练的模型)300就被说话者标签预测器260用于在推断期间生成对应的原始音频数据122的日志化结果280。因此,在训练数据202包括指配给从每个训练话语中分段的对应的训练固定长度分段220T的已知说话者标签250T的情况下,经训练的概率生成模型300负责仅基于从音频数据122中分段的对应的固定长度分段220中提取的对应的说话者判别嵌入240来预测指配给该对应的固定长度分段220的说话者标签250。
概率生成模型300可以包括神经网络。日志化训练器204将训练数据202映射到输出数据以生成神经网络模型300。通常,日志化训练器204生成隐藏节点、隐藏节点和对应于训练数据202的输入节点之间的连接权重、隐藏节点和输出节点之间的连接权重以及隐藏节点本身的层之间的连接权重。此后,可以针对输入数据(例如,原始音频数据122)采用完全训练的神经网络模型300,以生成未知输出数据(例如,说话者标签250)。
图2示出了用于从接收到的音频数据122生成日志化结果280的图1A和图1B的日志化***200的示例过程。在所示的示例中,时间从左到右增加,并且日志化***200处理音频数据122以提供具有固定大小和固定重叠的滑动窗口215。例如,每个窗口215的大小可以是240毫秒(ms),并且每个滑动窗口215之间的固定重叠可以是百分之50(50%)。嵌入模块230(图1A)可以包括与文本无关的说话者识别网络,该说话者识别网络被配置成从重叠的滑动窗口215中提取窗口级别嵌入,并且对窗口级别嵌入求平均以生成分段级别d向量,例如说话者判别嵌入240。在所示的示例中,与文本无关的说话者识别网络包括三个长短期记忆(LSTM)层和一个线性层,并且被训练为广义端到端丢失。在其它示例中,嵌入模块230生成分段级别i向量。在一些实现方式中,分段模块210(图1A)使用具有两个全协方差高斯函数的话音活动检测器(VAD)来从音频数据122中移除非语音部分,并且将音频数据122分割/分段成不重叠的固定长度分段220。在一些示例中,每个固定长度分段220是400ms。然后,说话者标签预测器260(图1A)接收每个固定长度分段220和对应的说话者判别嵌入240,并且使用概率生成模型300来生成日志化结果280。这里,日志化结果280包括说话者标签250,如表示为说话者标签序列Y=(y1,y2,...,yT),这些说话者标签250被指配给每个固定长度分段220,如表示为嵌入的观察序列X=(x1,x2,...,xT)。
图3A至图3D示出了概率生成模型300的示例。在所示的示例中,该模型300包括递归神经网络(RNN)。虽然一般神经网络在处理输入数据以生成输出数据时不存储任何中间数据,但是RNN确实持久存储数据/状态,这可以允许RNN相对于不持久存储数据/状态的一般神经网络来说改进分类能力。更具体地说,概率生成模型300包括由日志化训练器204在训练数据202上训练的无界交织状态递归神经网络(UIS-RNN),以通过以下对应实例来对测试话语120的音频数据122中的每个说话者10进行建模,其中该对应实例与为其它说话者10建模的其它实例共享相同记日志化参数206。关于图3A至图3D,时间从左到右增加。UIS-RNN300能够生成无界数量的RNN实例并且在时域中交织不同RNN实例(即,不同说话者)的状态ht。因此,UIS-RNN 300维持多个实例,其中每个实例建模对应的说话者,并且与其它实例共享日志化参数206的相同集合。日志化参数206可以包括RNN参数θ、说话者指配概率参数α、高斯模型参数σ2以及说话者改变参数λ。
在一些示例中,UIS-RNN 300包括具有N个门控递归单元(GRU)单体的隐藏层和两个完全连接层,其中所述GRU单体具有双曲正切(tanh)激活,所述两个完全连接层各自具有N个节点并且被配置成应用隐藏层的整流线性单元(ReLU)激活。每个GRU单体可以由对应的隐藏标准RNN状态ht表示,而该两个完全连接层可以由图3A至图3D所示的RNN输出层表示,每个输出节点mt对应于隐藏标准RNN状态ht和RNN参数θ的函数。这里,每个输出节点mt提供RNN状态ht到更适于生成说话者改变的实际观察的状态的非线性变换。在所示的示例中,mt等于ht,但是更复杂的函数是可能的。
对于(由音频数据122表示的)给定测试话语120,话语120(例如,使用分段模块210)被分段成多个固定长度分段220,并且说话者判别嵌入240(例如,使用嵌入模块230)从每个固定长度分段220提取,以提供嵌入的对应观察序列X=(x1,x2,x3,x4,x5,x6,x7)。这里,序列中的每个嵌入条目x1-7表示与给定固定长度分段220相关联的说话者判别嵌入240。在一般意义上,序列中的每个条目x1-7对应于给定话语的带时间戳的说话者判别嵌入240。例如,条目x3表示与从测试话语120的音频数据122中提取的第三固定长度分段220相关联的说话者判别嵌入240。下面更详细地描述,UIS-RNN模型300对无界数量的说话者的说话者指配和说话者改变进行建模,以预测要指配给每个对应的固定长度分段220的说话者标签250,由此说话者标签250被表示为说话者标签序列Y=(y1,y2,y3,y4,y5,y6,y7)。
第一嵌入条目x1(即,从第一固定长度分段220提取的说话者判别嵌入240)将总是被指配与第一说话者相关联的第一说话者标签250(y1=1)。对于在嵌入的观察序列的数据序列中的第一条目x1之后的每个嵌入条目x2-x7,UIS-RNN 300被配置成预测关于条目xt(即,相应的固定长度分段220和相关联的说话者判别嵌入240)的可能说话者262的概率分布,并且基于关于可能说话者262的概率分布将说话者标签250指配给对应的条目xt。在一些示例中,通过对关于可能说话者262的概率分布执行贪婪搜索来指配说话者标签250。贪婪搜索可以在实现波束搜索的解码过程期间执行。为了对说话者指配和说话者改变进行建模,或者更具体地,对说话者转向行为进行建模,UIS-RNN 300可以使用与距离相关的中国餐馆过程,该中国餐馆过程包括被配置成对无界数量的说话者进行建模的贝叶斯非参数模型。例如,当对序列中的下一个条目xt的说话者指配进行建模时,UIS-RNN 300预测直到紧挨的前一个条目xt-1为止的每个现有说话者指配的概率以及预测下一个条目xt的新说话者标签的概率。
在时间t=1,与第一说话者y1=1相关联的第一说话者标签被指配给第一嵌入条目x1,并且对应的第一RNN状态h1实例化与具有初始隐藏状态h0的第一说话者相对应的新RNN。这里,第一RNN状态h1没有对于第一说话者的先验知识。
在时间t=2,与第一说话者相关联的第一说话者标签y2=1被指配给第二嵌入条目x2,并且对应的第二RNN状态h2利用与第一说话者相对应的先前第一RNN状态h1和先前第一嵌入条目x1来更新与第一说话者相对应的RNN的实例。因此,基于从先前RNN状态h1和先前嵌入条目x1获得的先验知识,能够改善与第一说话者对应的更新的RNN。先前嵌入条目x1帮助预测说话者标签y2
在时间t=3,与第二说话者相关联的第二说话者标签y3=2被指配给第三嵌入条目x3,并且对应的第三RNN状态h3实例化具有相同初始隐藏状态h0的与第二说话者相对应的新RNN。由于第二说话者是新的(例如,先前未出现),因此第三RNN状态h3没有对于第二说话者的先验知识。此外,来自第一和第二RNN状态h1、h2的信息不传递到与第二说话者相对应的RNN或为除第一说话者之外的说话者实例化的任何其它RNN中。
在时间t=4,与第三说话者相关联的第三说话者标签y4=3被指配给第四嵌入条目x4,并且对应的第四RNN状态h4实例化具有相同初始隐藏状态h0的与第三说话者相对应的新RNN。由于第三说话者是新的(例如,先前未出现),因此第四RNN状态h4没有对于第三说话者的先验知识。此外,来自与对应于第一说话者的RNN相关联的第一和第二RNN状态h1、h2和与对应于第二说话者的RNN相关联的第三RNN状态h3的信息不传递到对应于第三说话者的RNN中。虽然RNN的实例建模单独的说话者,但是RNN共享日志化参数206的相同集合,并且都用相同的初始隐藏状态h0来初始化。
在时间t=5,与第二说话者相关联的第二说话者标签y5=2被指配给第五嵌入条目x5,并且对应的第五RNN状态h5利用先前第三RNN状态h3和对应于第二说话者的先前第三嵌入条目x3来更新对应于第二说话者的RNN的实例。因此,基于从先前RNN状态h3和先前嵌入条目x3获得的先验知识,能够改善与第二说话者相对应的更新的RNN。对应于第二说话者的先前嵌入条目x3帮助预测说话者标签y5
在时间t=6,与第二说话者相关联的第二说话者标签y6=2被指配给第六嵌入条目x6,并且对应的第六RNN状态h6利用与第二说话者相对应的先前第五RNN状态h5和先前第五嵌入条目x5来更新与第二说话者相对应的RNN的实例。因此,基于从先前RNN状态h5和先前嵌入条目x5获得的先验知识,能够改善与第二说话者相对应的更新的RNN。先前嵌入条目x5帮助预测说话者标签y6
因此,在直到时间t=6的当前阶段,图3A至图3D示出了具有预测的说话者标签250的UIS-RNN 300,如表示为y[6]=(1,1,2,3,2,2)的说话者标签序列,该说话者标签序列被指配给嵌入的观察序列X=(x1,x2,x3,x4,x5,x6)中的对应的那些。在所示的示例中,表示条目x1、x2的框包括指示与第一说话者相关联的第一说话者标签的指配的水平线,表示条目x3、x5、x6的框包括指示与第二说话者相关联的第二说话者标签250的指配的竖直线,并且表示第四条目x4的框包括指示与第三说话者相关联的第三说话者标签250的指配的对角线。
在所示的示例中,UIS-RNN负责预测将被指配给序列中的下一个嵌入条目x7的下一个说话者标签y7。为此,UIS-RNN应用与距离相关的中国餐馆过程。在这种情况下,y7有四种选择:(1)第一说话者;(2)第二说话者,(3)第三说话者,或(4)第四说话者。选项1-3都包括现有说话者,其中每个现有说话者的概率与关联于该现有说话者的连续固定长度分段的数量成比例。另一方面,选项4包括与说话者指配概率参数α成比例的概率。因此,UIS-RNN300基于先前说话者标签序列y[6]和嵌入的先前观察序列x[6]两者来预测关于可能说话者的概率分布,即,第一说话者y7=1,第二说话者y7=2,第三说话者y7=3以及第四说话者y7=4。
参考图3A,预测y7等于第一说话者的概率是基于与第一说话者相对应的最后嵌入条目x2和先前状态h2。在这种情况下,根据与第一说话者的先前RNN状态和先前嵌入条目相对应的第二RNN状态h2和第二嵌入条目x2为第一说话者建模当前RNN状态h7。当前RNN状态h7的输出可以与RNN输出的对应节点m7互连,由此m7将标准RNN状态h7的非线性变换层应用于用来生成实际观察的状态(例如,更好地变换h7中的特征)。y7=1的概率与关联于第一说话者的连续固定长度分段220的数目成比例。
参考图3B,预测y7等于第二说话者的概率是基于与第二说话者相对应的最后嵌入条目x6和先前状态h6。在这种情况下,将不会发生说话者改变,并且根据与第二说话者的先前RNN状态和先前嵌入条目相对应的第六RNN状态h6和第六嵌入条目x2为第二说话者建模当前RNN状态h7。当前RNN状态h7的输出可以与RNN输出的对应节点m7互连,由此m7将标准RNN状态h7的非线性变换层应用于用来生成实际观察的状态(例如,更好地变换h7中的特征)。y7=2的概率与关联于第二说话者的连续固定长度分段220的数目成比例。
参考图3C,预测y7等于第三说话者的概率基于与第三说话者相对应的最后嵌入条目x3和先前状态h3。在这种情况下,根据与第三说话者的先前RNN状态和先前嵌入条目相对应的第三RNN状态h3和第三嵌入条目x3为第三说话者建模当前RNN状态h7。当前RNN状态h7的输出可以与RNN输出的对应节点m7互连,由此m7将标准RNN状态h7的非线性变换层应用于用来生成实际观察的状态(例如,更好地变换h7中的特征)。y7=3的概率与关联于第三说话者的连续固定长度分段220的数目成比例。
参考图3D,y7等于第四新说话者的概率与说话者指配概率参数α成比例。在这种情况下,UIS-RNN 300为第四说话者实例化新RNN,其中当前RNN状态h7根据相同初始隐藏状态h0为第四说话者建模。这里,第四说话者的新RNN实例与第一、第二和第三说话者中每一个说话者的RNN实例共享日志化参数的相同集合。
在一些实现方式中,日志化***200采用在线解码方法,该方法针对对应的固定长度分段x7的可能说话者262的概率分布(y7:1,2,3,4)顺序地执行贪婪搜索,以将计算复杂度从O(T!)降低到O(T2)。基于大多数场景下每个话语的说话者的最大数目由常数C界定的观察,计算复杂度可以进一步降低到O(T)。在一些示例中,日志化***对解码算法执行波束搜索,并且调整多个前瞻条目以实现更好解码结果。
图4是示出对于k均值聚类、谱聚类、UIS-RNNpure 5-fold、UIS-RNN Dick-6和UIS-RNNpure 5-fold加上用于各种说话者识别模型V1、V2、V3的额外训练数据的日志化误差率(DER)的表格400。第一说话者识别模型V1可以包含来自18,000个美国英语说话者的三千六百万个话语,第二说话者识别模型V2可以包含来自138,000个非美国英语说话者的三千四百万个话语,并且第三说话者识别模型V3通过使用可变长度窗口来更新第二说话者识别模型V2。结果表明DER的最大改进来自于将说话者识别模型从V2升级到V3。当使用相同的说话者识别模型时,UIS-RNN执行明显好于谱离线聚类。同样重要的是注意到UIS-RNN在推断期间以在线方式预测说话者标签。当在线执行无监督聚类算法时,它们通常比诸如谱聚类之类的离线聚类算法执行的明显更差。另外,当在额外训练数据上训练时,DER对于UIS-RNN改善,从而指示UIS-RNN模型受益于从更多的示例学习。
图5是对接收到的语音话语120执行说话者日志化的方法500的操作的示例布置的流程图。数据处理硬件112、144可以通过执行存储在存储器硬件114、146上的指令来执行方法500的操作。在操作502处,方法500包括将语音话语120分段成多个分段220。分段220可以包括固定长度分段或可变长度分段。对于语音话语的每个分段,方法500包括,在操作504处,从分段220提取说话者判别嵌入240,并且在操作506处,使用被配置成接收说话者判别嵌入240作为特征输入的概率生成模型300来预测关于分段220的可能说话者262的概率分布。在一些示例中,说话者判别嵌入240可以包括d向量。在其它示例中,说话者判别嵌入240包括i向量。在操作508处,方法500包括基于对应分段220的可能说话者262的概率分布,将说话者标签250指配给语音话语120的每个分段220。
概率生成模型300是在训练语音话语的语料库上训练的,其中,每个话语被分段成多个训练分段220T。每个训练固定长度分段220T包括对应的说话者判别嵌入240T和对应的说话者标签250T。概率生成模型300可以通过应用与距离相关的中国餐馆过程来预测针对每个分段220的可能说话者262的概率分布。概率生成模型300可以包括递归神经网络(RNN),其中每个说话者由不与其它说话者的RNN实例共享信息的对应RNN实例来建模。
软件应用(即,软件资源)可以指使计算设备执行任务的计算机软件。在一些示例中,软件应用可以被称为“应用”、“app”或“程序”。示例应用包括但不限于***诊断应用、***管理应用、***维护应用、文字处理应用、电子表格应用、消息收发应用、媒体流应用、社交网络应用和游戏应用。
非暂时性存储器可以是用于临时或永久地存储程序(例如,指令序列)或数据(例如,程序状态信息)以供计算设备使用的物理设备。非暂时性存储器可以是易失性和/或非易失性可寻址半导体存储器。非易失性存储器的示例包括但不限于闪存存储器和只读存储器(ROM)/可编程只读存储器(PROM)/可擦除可编程只读存储器(EPROM)/电可擦除可编程只读存储器(EEPROM)(例如,通常用于固件,诸如引导程序)。易失性存储器的示例包括但不限于随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、相变存储器(PCM)以及盘或带。
图6是可以用于实现本文档中描述的***和方法的示例计算设备600的示意图。计算设备600旨在表示各种形式的数字计算机,诸如膝上型计算机、台式计算机、工作站、个人数字助理、服务器、刀片服务器、大型机和其它适当的计算机。这里所示的组件、它们的连接和关系以及它们的功能仅是示例性的,而不是要限制在本文档中描述和/或要求保护的本发明的实现。
计算设备600包括处理器610、存储器620、存储设备630、连接到存储器620和高速扩展端口650的高速接口/控制器640、以及连接到低速总线670和存储设备630的低速接口/控制器660。组件610、620、630、640、650和660中的每一个使用各种总线互连,并且可以安装在公共主板上或以其它适当的方式安装。处理器610可以处理用于在计算设备600内执行的指令,包括存储在存储器620中或存储设备630上的指令,以在外部输入/输出设备(诸如耦合到高速接口640的显示器680)上显示图形用户界面(GUI)的图形信息。在其它实现方式中,可以适当地使用多个处理器和/或多个总线以及多个存储器和存储器类型。而且,可以连接多个计算设备600,其中每个设备提供必要操作的部分(例如,作为服务器库、刀片服务器组或多处理器***)。
存储器620在计算设备600内非暂时地存储信息。存储器620可以是计算机可读介质、(一个或多个)易失性存储器单元、或(一个或多个)非易失性存储器单元。非暂时性存储器620可以是用于临时或永久地存储程序(例如,指令序列)或数据(例如,程序状态信息)以供计算设备600使用的物理设备。非易失性存储器的示例包括但不限于闪存存储器和只读存储器(ROM)/可编程只读存储器(PROM)/可擦除可编程只读存储器(EPROM)/电可擦除可编程只读存储器(EEPROM)(例如,通常用于固件,诸如引导程序)。易失性存储器的示例包括但不限于随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、相变存储器(PCM)以及盘或带。
存储设备630能够为计算设备600提供大容量存储。在一些实现方式中,存储设备630是计算机可读介质。在各种不同的实现方式中,存储设备630可以是软盘设备、硬盘设备、光盘设备、或磁带设备、闪存或其它类似的固态存储器设备、或设备阵列,包括存储区域网络或其它配置中的设备。在另外实现方式中,计算机程序产品有形地体现在信息载体中。计算机程序产品包含指令,当执行所述指令时,执行一个或多个方法,例如上面描述的那些方法。信息载体是计算机或机器可读介质,例如存储器620、存储设备630或处理器610上的存储器。
高速控制器640管理用于计算设备600的带宽密集型操作,而低速控制器660管理较低带宽密集型操作。这种职责的分配仅是示例性的。在一些实现方式中,高速控制器640耦合到存储器620、显示器680(例如,通过图形处理器或加速器),并且耦合到可以接受各种扩展卡(未示出)的高速扩展端口650。在一些实现方式中,低速控制器660耦合到存储设备630和低速扩展端口690。可以包括各种通信端口(例如,USB、蓝牙、以太网、无线以太网)的低速扩展端口690可以例如通过网络适配器耦合到一个或多个输入/输出设备,诸如键盘、指点设备、扫描仪或诸如交换机或路由器的联网设备。
如图所示,计算设备600可以以多种不同的形式来实现。例如,它可以被实现为标准服务器600a或在一组这样的服务器600a中被实现多次,被实现为膝上型计算机600b,或被实现为机架服务器***600c的一部分。
本文描述的***和技术的各种实现方式可以在数字电子和/或光学电路、集成电路、专门设计的ASIC(专用集成电路)、计算机硬件、固件、软件和/或它们的组合中实现。这些各种实现方式可以包括在可编程***上可执行和/或可解释的一个或多个计算机程序中的实现方式,所述可编程***包括至少一个可编程处理器、至少一个输入设备以及至少一个输出设备,其中所述可编程处理器可以是专用或通用的,被耦合以从存储***接收数据和指令以及向存储***传送数据和指令。
这些计算机程序(也称为程序、软件、软件应用或代码)包括用于可编程处理器的机器指令,并且可以以高级过程和/或面向对象的编程语言和/或汇编/机器语言来实现。如本文所使用的,术语“机器可读介质”和“计算机可读介质”是指用于向可编程处理器提供机器指令和/或数据的任何计算机程序产品、非暂时性计算机可读介质、装置和/或设备(例如,磁盘、光盘、存储器、可编程逻辑器件(PLD)),包括接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”是指用于向可编程处理器提供机器指令和/或数据的任何信号。
本说明书中描述的过程和逻辑流程可以由一个或多个可编程处理器执行,所述可编程处理器也称为数据处理硬件,其执行一个或多个计算机程序以通过对输入数据进行操作并且生成输出来执行功能。这些过程和逻辑流程也可以由专用逻辑电路执行,例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)。适于执行计算机程序的处理器包括例如通用和专用微处理器,以及任何类型的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行指令的处理器,以及用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括或可操作地耦合到用于存储数据的一个或多个大容量存储设备,例如磁盘、磁光盘或光盘,以从该一个或多个大容量存储设备接收数据或向其传送数据,或者两者。然而,计算机不需要具有这样的设备。适于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括例如半导体存储器设备,例如EPROM、EEPROM和闪存存储器设备;磁盘,例如内部硬盘或可移动磁盘;磁光盘;以及CD ROM和DVD-ROM盘。处理器和存储器可以由专用逻辑电路补充或并入专用逻辑电路中。
为了提供与用户的交互,本公开的一个或多个方面可以在具有用于向用户显示信息的显示设备(例如,CRT(阴极射线管)、LCD(液晶显示器)监视器或触摸屏)以及可选地键盘和指示设备(例如,鼠标或跟踪球)的计算机上实现,用户可以通过该键盘和指示设备向计算机提供输入。其它种类的设备也可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的感觉反馈,例如视觉反馈、听觉反馈或触觉反馈;并且可以以任何形式接收来自用户的输入,包括声音、语音或触觉输入。另外,计算机可以通过向用户使用的设备发送文档和从用户使用的设备接收文档来与用户交互;例如通过响应于从用户的客户端设备上的web浏览器接收到的请求而向该web浏览器发送网页。
已经描述了许多实现。然而,将理解的是,在不脱离本公开的精神和范围的情况下,可以进行各种修改。因此,其它实现方式在所附权利要求的范围内。

Claims (28)

1.一种方法(500),包括:
在数据处理硬件(200)处接收语音话语(120);
由所述数据处理硬件(200)将所述语音话语(120)分段成多个分段(220);
对于所述语音话语(120)的每个分段(220):
由所述数据处理硬件(200)从所述分段(220)提取说话者判别嵌入(240);以及
由所述数据处理硬件(200)使用概率生成模型(300)来预测所述分段(220)的可能说话者(262)的概率分布,所述概率生成模型(300)被配置成接收所提取的说话者判别嵌入(240)作为特征输入,所述概率生成模型(300)在训练语音话语(120)的语料库上被训练,每个训练语音话语(120)被分段成多个训练分段(220T),每个训练分段(220T)包括对应的说话者判别嵌入(240)和对应的说话者标签(250);以及
由所述数据处理硬件(200)基于对应分段的可能说话者(262)的所述概率分布,将说话者标签(250)指配给(220)所述语音话语(120)的每个分段(220)。
2.根据权利要求1所述的方法(500),其中,所述概率生成模型(300)通过应用与距离相关的中国餐馆过程来预测每个分段(220)的可能说话者(262)的概率分布。
3.根据权利要求1或2所述的方法(500),其中,预测所述分段(220)的可能说话者(262)的概率分布包括,当所述分段(220)出现在所述多个分段(220)中的初始分段(220)之后时:
预测与指配给先前相邻分段(220)的所述说话者标签(250)相关联的当前说话者(10)对于所述分段(220)不会改变的概率;
针对与先前指配给一个或多个先前分段(220)的对应说话者标签(250)相关联的每个现有说话者(10),预测与指配给所述先前相邻分段(220)的所述说话者标签(250)相关联的所述当前说话者(10)将改变为所述现有说话者(10)的概率;以及
预测与指配给所述先前相邻分段(220)的所述说话者标签(250)相关联的所述当前说话者(10)将改变为新说话者(10)的概率。
4.根据权利要求3所述的方法(500),其中,与指配给所述先前相邻分段(220)的所述说话者标签(250)相关联的所述当前说话者(10)将改变为所述现有说话者(10)的所述概率与先前被指配了与所述现有说话者(10)相关联的所述对应说话者标签(250)的实例的数量成比例。
5.根据权利要求3或4所述的方法(500),其中,与指配给所述先前相邻分段(220)的所述说话者标签(250)相关联的所述当前说话者(10)将改变为所述新说话者(10)的所述概率与说话者(10)指配概率参数α成比例。
6.根据权利要求1至5中的任一项所述的方法(500),其中,所述概率生成模型(300)还被配置成,针对出现在所述多个分段(220)中的初始分段(220)之后的每个分段(220),接收从先前相邻分段(220)提取的所述说话者判别嵌入(240)以及指配给所述先前相邻分段(220)的所述说话者标签(250)作为特征输入,所述特征输入用于预测说话者(10)不会针对所述对应分段(220)而改变的概率。
7.根据权利要求1至6中的任一项所述的方法(500),其中,将所述说话者标签(250)指配给所述语音话语(120)的每个分段(220)包括:通过针对对应分段(220)的可能说话者(10)的概率分布执行贪婪搜索,来将所述说话者标签(250)指配给所述语音话语(120)的每个分段(220)。
8.根据权利要求1至7中的任一项所述的方法(500),其中,从所述分段(220)提取所述说话者判别嵌入(240)包括:从所述分段(220)提取d向量。
9.根据权利要求1至8中的任一项所述的方法(500),其中,从所述分段(220)提取所述说话者判别嵌入(240)包括:从所述分段(220)提取i向量。
10.根据权利要求1-9中的任一项所述的方法(500),其中,所述概率生成模型(300)包括递归神经网络RNN。
11.根据权利要求10所述的方法(500),其中,所述RNN包括:
具有N个门控递归单元GRU单体的隐藏层,每个GRU单体被配置成应用双曲正切(tanh)激活;以及
两个完全连接层,每个完全连接层具有N个节点并且被配置成应用所述隐藏层的整流线性单元(ReLU)激活。
12.根据权利要求1至11中的任一项所述的方法(500),还包括:
由所述数据处理硬件(200)将所述语音话语(120)转录成对应的文本(152);以及
由所述数据处理硬件(200)基于指配给所述语音话语(120)的每个分段(220)的所述说话者标签(250)来注释所述文本。
13.根据权利要求1-12中的任一项所述的方法(500),其中,将所述语音话语(120)分段成多个分段(220)包括:将所述语音话语(120)分段成多个固定长度分段(220)。
14.根据权利要求1-13中的任一项所述的方法(500),其中,将所述语音话语(120)分段成多个分段(220)包括:将所述语音话语(120)分段成多个可变长度分段(220)。
15.一种***(100),包括:
数据处理硬件(200);以及
存储器硬件(114、146),所述存储器硬件(114、146)与所述数据处理硬件(200)通信并且存储指令,所述指令在由所述数据处理硬件(200)执行时使所述数据处理硬件(200)执行操作,所述操作包括:
接收语音话语(120);
将语音话语(120)分段成多个分段(220);
对于所述语音话语(120)的每个分段(220):
从所述分段(220)提取说话者判别嵌入(240);以及
使用概率生成模型(300)来预测所述分段(220)的可能说话者(262)的概率分布,所述概率生成模型(300)被配置成接收所提取的说话者判别嵌入(240)作为特征输入,所述概率生成模型(300)在训练语音话语(120)的语料库上被训练,每个训练语音话语(120)被分段成多个训练分段(220T),每个训练分段(220T)包括对应的说话者判别嵌入(240)和对应的说话者标签(250);以及
基于对应分段的可能说话者(262)的所述概率分布,将说话者标签(250)指配给所述语音话语(120)的每个分段(220)。
16.根据权利要求15所述的***(100),其中,所述概率生成模型(300)通过应用与距离相关的中国餐馆过程来预测每个分段(220)的可能说话者(262)的概率分布。
17.根据权利要求15或16所述的***(100),其中,预测所述分段(220)的可能说话者(262)的概率分布包括,当所述分段(220)出现在所述多个分段(220)中的初始分段(220)之后时:
预测与指配给先前相邻分段(220)的所述说话者标签(250)相关联的当前说话者(10)对于所述分段(220)不会改变的概率;
针对与先前指配给一个或多个先前分段(220)的对应说话者标签(250)相关联的每个现有说话者(10),预测与指配给所述先前相邻分段(220)的所述说话者标签(250)相关联的所述当前说话者(10)将改变为所述现有说话者(10)的概率;以及
预测与指配给所述先前相邻分段(220)的所述说话者标签(250)相关联的所述当前说话者(10)将改变为新说话者(10)的概率。
18.根据权利要求17所述的***(100),其中,与指配给所述先前相邻分段(220)的所述说话者标签(250)相关联的所述当前说话者(10)将改变为所述现有说话者(10)的所述概率与先前指配了与所述现有说话者(10)相关联的所述对应说话者标签(250)的实例的数量成比例。
19.根据权利要求17或18所述的***(100),其中,与指配给所述先前相邻分段(220)的所述说话者标签(250)相关联的所述当前说话者(10)将改变为所述新说话者(10)的所述概率与说话者(10)指配概率参数α成比例。
20.根据权利要求15-19中的任一项所述的***(100),其中,所述概率生成模型(300)还被配置成,针对出现在所述多个分段(220)中的初始分段(220)之后的每个分段(220),接收从先前相邻分段(220)提取的所述说话者判别嵌入(240)以及指配给所述先前相邻分段(220)的所述说话者标签(250)作为特征输入,所述特征输入用于预测说话者(10)不会针对所述对应分段(220)而改变的概率。
21.根据权利要求15至20中的任一项所述的***(100),其中,将所述说话者标签(250)指配给所述语音话语(120)的每个分段(220)包括:通过针对对应分段(220)的可能说话者(10)的概率分布执行贪婪搜索,将所述说话者标签(250)指配给所述语音话语(120)的每个分段(220)。
22.根据权利要求15-21中的任一项所述的***(100),其中,从所述分段(220)提取所述说话者判别嵌入(240)包括:从所述分段(220)提取d向量。
23.根据权利要求15-22中的任一项所述的***(100),其中,从所述分段(220)提取所述说话者判别嵌入(240)包括:从所述分段(220)提取i向量。
24.根据权利要求15-23中的任一项所述的***(100),其中,所述概率生成模型(300)包括递归神经网络RNN。
25.根据权利要求24所述的***(100),其中,所述RNN包括:
具有N个门控递归单元GRU单体的隐藏层,每个GRU单体被配置成应用双曲正切(tanh)激活;以及
两个完全连接层,每个完全连接层具有N个节点并且被配置成应用所述隐藏层的整流线性单元(ReLU)激活。
26.根据权利要求15至25中的任一项所述的***(100),其中,所述操作还包括:
将所述语音话语(120)转录成对应的文本(152);以及
基于指配给所述语音话语(120)的每个分段(220)的所述说话者标签(250)来注释所述文本。
27.根据权利要求15-26中的任一项所述的***(100),其中,将所述语音话语(120)分段成多个分段(220)包括:将所述语音话语(120)分段成多个固定长度分段(220)。
28.根据权利要求15-27中的任一项所述的***(100),其中,将所述语音话语(120)分段成多个分段(220)包括:将所述语音话语(120)分段成多个可变长度分段(220)。
CN201980088275.6A 2019-01-08 2019-11-12 完全监督的说话者日志化 Pending CN113272894A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/242,541 US11031017B2 (en) 2019-01-08 2019-01-08 Fully supervised speaker diarization
US16/242,541 2019-01-08
PCT/US2019/061030 WO2020146042A1 (en) 2019-01-08 2019-11-12 Fully supervised speaker diarization

Publications (1)

Publication Number Publication Date
CN113272894A true CN113272894A (zh) 2021-08-17

Family

ID=68841182

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980088275.6A Pending CN113272894A (zh) 2019-01-08 2019-11-12 完全监督的说话者日志化

Country Status (5)

Country Link
US (2) US11031017B2 (zh)
EP (1) EP3891733A1 (zh)
KR (2) KR102594080B1 (zh)
CN (1) CN113272894A (zh)
WO (1) WO2020146042A1 (zh)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US20210361227A1 (en) * 2018-04-05 2021-11-25 Google Llc System and Method for Generating Diagnostic Health Information Using Deep Learning and Sound Understanding
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10957320B2 (en) * 2019-01-25 2021-03-23 International Business Machines Corporation End-of-turn detection in spoken dialogues
GB201906367D0 (en) * 2019-02-28 2019-06-19 Cirrus Logic Int Semiconductor Ltd Speaker verification
US11017783B2 (en) * 2019-03-08 2021-05-25 Qualcomm Incorporated Speaker template update with embedding vectors based on distance metric
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11289073B2 (en) * 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US20220270614A1 (en) * 2019-07-10 2022-08-25 Nec Corporation Speaker embedding apparatus and method
US20220343914A1 (en) * 2019-08-15 2022-10-27 KWB Global Limited Method and system of generating and transmitting a transcript of verbal communication
JP7340630B2 (ja) * 2019-09-05 2023-09-07 ザ・ジョンズ・ホプキンス・ユニバーシティ ニューラルネットワークを使用した音声入力の複数話者ダイアライゼーション
KR102231909B1 (ko) * 2019-09-20 2021-03-25 엘지전자 주식회사 인공지능 장치
US11392639B2 (en) * 2020-03-31 2022-07-19 Uniphore Software Systems, Inc. Method and apparatus for automatic speaker diarization
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11205418B2 (en) * 2020-05-13 2021-12-21 Microsoft Technology Licensing, Llc Monotone speech detection
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11646037B2 (en) 2020-08-04 2023-05-09 OTO Systems Inc. Sample-efficient representation learning for real-time latent speaker state characterization
US11790921B2 (en) * 2020-08-04 2023-10-17 OTO Systems Inc. Speaker separation based on real-time latent speaker state characterization
US11495216B2 (en) * 2020-09-09 2022-11-08 International Business Machines Corporation Speech recognition using data analysis and dilation of interlaced audio input
US11538464B2 (en) 2020-09-09 2022-12-27 International Business Machines Corporation . Speech recognition using data analysis and dilation of speech content from separated audio input
US11609738B1 (en) 2020-11-24 2023-03-21 Spotify Ab Audio segment recommendation
KR102560019B1 (ko) * 2021-01-15 2023-07-27 네이버 주식회사 화자 식별과 결합된 화자 분리 방법, 시스템, 및 컴퓨터 프로그램
KR102577346B1 (ko) * 2021-02-08 2023-09-12 네이버 주식회사 텍스트 기반의 화자변경검출을 활용한 화자분할 보정 방법 및 시스템
WO2022240449A1 (en) * 2021-05-11 2022-11-17 Google Llc End-to-end speech diarization via iterative speaker embedding
KR20240053639A (ko) * 2021-09-23 2024-04-24 구글 엘엘씨 제한된 스펙트럼 클러스터링을 사용한 화자-턴 기반 온라인 화자 구분
EP4405945A1 (en) * 2021-10-13 2024-07-31 Google Llc Digital signal processor-based continued conversation
US20230169981A1 (en) * 2021-11-30 2023-06-01 Samsung Electronics Co., Ltd. Method and apparatus for performing speaker diarization on mixed-bandwidth speech signals
US11978457B2 (en) * 2022-02-15 2024-05-07 Gong.Io Ltd Method for uniquely identifying participants in a recorded streaming teleconference
US20230352026A1 (en) * 2022-04-29 2023-11-02 Zoom Video Communications, Inc. Delta models for providing privatized speech-to-text during virtual meetings
US20230377560A1 (en) * 2022-05-18 2023-11-23 Lemon Inc. Speech tendency classification
WO2023234942A1 (en) * 2022-06-02 2023-12-07 Google Llc Spoken language understanding using machine learning
US11956286B1 (en) * 2022-11-25 2024-04-09 Microsoft Technology Licensing, Llc Dynamically controlled participation allocations for communication sessions

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102655002A (zh) * 2011-03-01 2012-09-05 株式会社理光 音频处理方法和音频处理设备
CN106448681A (zh) * 2016-09-12 2017-02-22 南京邮电大学 一种超矢量的说话人辨认方法
WO2018176894A1 (zh) * 2017-04-01 2018-10-04 清华大学 一种说话人确认方法及装置
US20180293990A1 (en) * 2015-12-30 2018-10-11 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for processing voiceprint authentication

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090319269A1 (en) 2008-06-24 2009-12-24 Hagai Aronowitz Method of Trainable Speaker Diarization
US8554562B2 (en) 2009-11-15 2013-10-08 Nuance Communications, Inc. Method and system for speaker diarization
US10134400B2 (en) 2012-11-21 2018-11-20 Verint Systems Ltd. Diarization using acoustic labeling
US9460722B2 (en) 2013-07-17 2016-10-04 Verint Systems Ltd. Blind diarization of recorded calls with arbitrary number of speakers
US9324320B1 (en) 2014-10-02 2016-04-26 Microsoft Technology Licensing, Llc Neural network-based speech processing
US9875743B2 (en) 2015-01-26 2018-01-23 Verint Systems Ltd. Acoustic signature building for a speaker from multiple sessions
US10133538B2 (en) 2015-03-27 2018-11-20 Sri International Semi-supervised speaker diarization
US9672814B2 (en) * 2015-05-08 2017-06-06 International Business Machines Corporation Semi-supervised learning of word embeddings
US9978374B2 (en) * 2015-09-04 2018-05-22 Google Llc Neural networks for speaker verification
US10373612B2 (en) * 2016-03-21 2019-08-06 Amazon Technologies, Inc. Anchored speech detection and speech recognition
US10026405B2 (en) 2016-05-03 2018-07-17 SESTEK Ses velletisim Bilgisayar Tekn. San. Ve Tic A.S. Method for speaker diarization
US10249305B2 (en) * 2016-05-19 2019-04-02 Microsoft Technology Licensing, Llc Permutation invariant training for talker-independent multi-talker speech separation
US10141009B2 (en) 2016-06-28 2018-11-27 Pindrop Security, Inc. System and method for cluster-based audio event detection
US20180018973A1 (en) * 2016-07-15 2018-01-18 Google Inc. Speaker verification
US10325601B2 (en) 2016-09-19 2019-06-18 Pindrop Security, Inc. Speaker recognition in the call center
US10249292B2 (en) 2016-12-14 2019-04-02 International Business Machines Corporation Using long short-term memory recurrent neural network for speaker diarization segmentation
US10546575B2 (en) 2016-12-14 2020-01-28 International Business Machines Corporation Using recurrent neural network for partitioning of audio data into segments that each correspond to a speech feature cluster identifier
CN106782507B (zh) 2016-12-19 2018-03-06 平安科技(深圳)有限公司 语音分割的方法及装置
US20180197548A1 (en) 2017-01-09 2018-07-12 Onu Technology Inc. System and method for diarization of speech, automated generation of transcripts, and automatic information extraction
US10460727B2 (en) 2017-03-03 2019-10-29 Microsoft Technology Licensing, Llc Multi-talker speech recognizer
US10559311B2 (en) * 2017-03-31 2020-02-11 International Business Machines Corporation Speaker diarization with cluster transfer
US10896669B2 (en) * 2017-05-19 2021-01-19 Baidu Usa Llc Systems and methods for multi-speaker neural text-to-speech
CN112805780A (zh) * 2018-04-23 2021-05-14 谷歌有限责任公司 使用端到端模型的讲话者分割
US10699700B2 (en) * 2018-07-31 2020-06-30 Tencent Technology (Shenzhen) Company Limited Monaural multi-talker speech recognition with attention mechanism and gated convolutional networks
US11152013B2 (en) * 2018-08-02 2021-10-19 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for a triplet network with attention for speaker diartzation
US11024291B2 (en) * 2018-11-21 2021-06-01 Sri International Real-time class recognition for an audio stream

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102655002A (zh) * 2011-03-01 2012-09-05 株式会社理光 音频处理方法和音频处理设备
US20180293990A1 (en) * 2015-12-30 2018-10-11 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for processing voiceprint authentication
CN106448681A (zh) * 2016-09-12 2017-02-22 南京邮电大学 一种超矢量的说话人辨认方法
WO2018176894A1 (zh) * 2017-04-01 2018-10-04 清华大学 一种说话人确认方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
AONAN ZHANG 等: "Fully Supervised Speaker Diarzation", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 10 October 2018 (2018-10-10), pages 1 - 4 *

Also Published As

Publication number Publication date
US20210280197A1 (en) 2021-09-09
US11031017B2 (en) 2021-06-08
US20200219517A1 (en) 2020-07-09
KR102594080B1 (ko) 2023-10-25
US11688404B2 (en) 2023-06-27
EP3891733A1 (en) 2021-10-13
KR20210099096A (ko) 2021-08-11
KR102633499B1 (ko) 2024-02-06
WO2020146042A1 (en) 2020-07-16
KR20230152161A (ko) 2023-11-02

Similar Documents

Publication Publication Date Title
US11688404B2 (en) Fully supervised speaker diarization
US10937416B2 (en) Cross-domain multi-task learning for text classification
CN107112006B (zh) 基于神经网络的语音处理
US11887623B2 (en) End-to-end speech diarization via iterative speaker embedding
CN112368769B (zh) 端到端流关键词检出
US20230089308A1 (en) Speaker-Turn-Based Online Speaker Diarization with Constrained Spectral Clustering
WO2017052817A1 (en) Dynamic adaptation of language models and semantic tracking for automatic speech recognition
CN113053367A (zh) 语音识别方法、语音识别的模型训练方法以及装置
JP7178394B2 (ja) 音声信号を処理するための方法、装置、機器、および媒体
JP7329393B2 (ja) 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、学習装置、学習方法及び学習プログラム
CN111951790A (zh) 一种语音处理方法、装置、终端及存储介质
WO2020151017A1 (zh) 一种可扩展的领域人机对话***状态跟踪方法及设备
CN113111855B (zh) 一种多模态情感识别方法、装置、电子设备及存储介质
CN115240696A (zh) 一种语音识别方法及可读存储介质
CN112652300B (zh) 多方言语音识别方法、装置、设备和存储介质
US20220222435A1 (en) Task-Specific Text Generation Based On Multimodal Inputs
CN115273862A (zh) 语音处理的方法、装置、电子设备和介质
CN103474063A (zh) 语音辨识***以及方法
CN112037772A (zh) 基于多模态的响应义务检测方法、***及装置
Anidjar et al. A thousand words are worth more than one recording: Nlp based speaker change point detection
WO2024076365A1 (en) Accelerating speaker diarization with multi-stage clustering
CN118132687A (zh) 语句处理和类目模型的训练方法、装置、设备及介质
CN117711408A (zh) 一种用户身份识别方法
CN116994612A (zh) 音频情感的确定方法、装置及计算机设备
CN114706968A (zh) 话术生成方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination