CN113204667A - 音频标注模型的训练与音频标注的方法、装置 - Google Patents

音频标注模型的训练与音频标注的方法、装置 Download PDF

Info

Publication number
CN113204667A
CN113204667A CN202110396239.5A CN202110396239A CN113204667A CN 113204667 A CN113204667 A CN 113204667A CN 202110396239 A CN202110396239 A CN 202110396239A CN 113204667 A CN113204667 A CN 113204667A
Authority
CN
China
Prior art keywords
query
audio
query word
word
term
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110396239.5A
Other languages
English (en)
Other versions
CN113204667B (zh
Inventor
辛洪生
蒋正翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110396239.5A priority Critical patent/CN113204667B/zh
Publication of CN113204667A publication Critical patent/CN113204667A/zh
Application granted granted Critical
Publication of CN113204667B publication Critical patent/CN113204667B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开公开了一种音频标注模型的训练与音频标注的方法,涉及深度学习与语音处理技术领域。音频标注模型的训练方法包括:根据第一查询日志,获取多个目标音频与多个目标音频的查询词对;根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征;确定多个目标音频的标签,使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,得到音频标注模型。音频标注的方法包括:根据第二查询日志,获取待标注音频与待标注音频的查询词对;根据查询词对中的识别查询词与修改查询词,得到待标注音频的特征;将待标注音频的特征输入音频标注模型,将音频标注模型的输出结果作为待标注音频的标注结果。

Description

音频标注模型的训练与音频标注的方法、装置
技术领域
本公开涉及数据处理技术领域,尤其涉及深度学习与语音处理技术领域。提供了一种音频标注模型的训练与音频标注的方法、装置、电子设备和可读存储介质。
背景技术
随着语音识别技术的快速发展,越来越多的用户采用语音输入的方式来进行查询。但目前的语音识别模型在对用户输入的查询音频进行识别时,可能会产生识别效果较差的识别结果,即产生语音识别的badcase。而这些语音识别的badcase对于优化语音识别模型来说具有很重要的意义。但现有技术在挖掘语音识别badcase时,存在准确率不够、较为局限的问题。
发明内容
根据本公开的第一方面,提供了一种音频标注模型的训练方法,包括:根据第一查询日志,获取多个目标音频与多个目标音频的查询词对,所述查询词对中包含识别查询词与修改查询词;根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征;确定多个目标音频的标签,使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,直至所述神经网络模型收敛,得到音频标注模型。
根据本公开的第二方面,提供了一种音频标注的方法,包括:根据第二查询日志,获取待标注音频与待标注音频的查询词对,所述查询词对中包含识别查询词与修改查询词;根据所述查询词对中的识别查询词与修改查询词,得到所述待标注音频的特征;将所述待标注音频的特征输入音频标注模型,将所述音频标注模型的输出结果作为所述待标注音频的标注结果。
根据本公开的第三方面,提供了一种音频标注模型的训练装置,包括:第一获取单元,用于根据第一查询日志,获取多个目标音频与多个目标音频的查询词对,所述查询词对中包含识别查询词与修改查询词;第一处理单元,用于根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征;训练单元,用于确定多个目标音频的标签,使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,直至所述神经网络模型收敛,得到音频标注模型。
根据本公开的第四方面,提供了一种音频标注的装置,包括:第二获取单元,用于根据第二查询日志,获取待标注音频与待标注音频的查询词对,所述查询词对中包含识别查询词与修改查询词;第二处理单元,用于根据所述查询词对中的识别查询词与修改查询词,得到所述待标注音频的特征;标注单元,用于将所述待标注音频的特征输入音频标注模型,将所述音频标注模型的输出结果作为所述待标注音频的标注结果。
根据本公开的第五方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如上所述的方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方法。
由以上技术方案可以看出,在根据从第一查询日志中挖掘得到的目标音频与目标音频的查询词对构建训练数据之后,使用所构建的训练数据对神经网络模型进行训练得到音频标注模型,实现了基于用户的查询行为来训练得到音频标注模型的目的,从而简化了音频标注模型的训练步骤,提升了音频标注模型的训练效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第三实施例的示意图;
图4是根据本公开第四实施例的示意图;
图5是根据本公开第五实施例的示意图;
图6是用来实现本公开实施例的音频标注模型的训练与音频标注的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和机构的描述。
传统的语音识别模型主要包括解码器、声学模型、语言模型三个部分。对于用户输入的音频,解码器结合声学模型特征和语言模型特征,在解码空间上对可能的识别路径进行扩展,最终选取特征打分结果最高的路径作为最终识别结果。
用户在通过语音发起查询请求之后,语音识别模型会对用户输入的查询音频进行语音识别,进而使用语音识别结果来进行查询。但语音识别模型可能会出现识别效果较差的问题,即存在语音识别的badcase,若能够挖掘得到识别效果较差的音频,使用挖掘得到的音频来优化语音识别模型,能够提升语音识别模型在识别时的准确性。
本公开提供了一种音频标注模型的训练与音频标注的方法,通过训练得到能够标注语音识别badcase的音频标注模型来对音频进行标注,根据标注结果来识别音频是否为badcase,从而使用识别为badcase的音频来对语音识别模型进行训练。
图1是根据本公开第一实施例的示意图。如图1所示,本实施例的音频标注模型的训练方法,具体可以包括如下步骤:
S101、根据第一查询日志,获取多个目标音频与多个目标音频的查询词对,所述查询词对中包含识别查询词与修改查询词;
S102、根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征;
S103、确定多个目标音频的标签,使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,直至所述神经网络模型收敛,得到音频标注模型。
本实施例的音频标注模型的训练方法,在根据从第一查询日志中挖掘得到的目标音频与目标音频的查询词对构建训练数据之后,使用所构建的训练数据对神经网络模型进行训练得到音频标注模型,实现了基于用户的查询行为来训练得到音频标注模型的目的,从而简化了音频标注模型的训练步骤,提升了音频标注模型的训练效率。
本实施例执行S101所使用的第一查询日志,为用户使用搜索引擎进行查询时的行为操作所对应的行为日志;第一查询日志中通常会记录以下信息:用户通过哪种输入设备,以哪种输入方式,输入了哪些查询词(query),以及对所返回的搜索结果中的哪个搜索结果进行了点击等信息。
通常情况下,用户通过语音发起查询请求之后,若对语音识别模型识别得到的查询词不满意,用户会修改该查询词,进而使用修改之后的查询词进行查询。因此,本实施例执行S101所获取的目标音频,即为语音识别模型识别效果较差的查询音频,而所获取的修改查询词在通常情况下即为该查询音频的准确识别结果。
举例来说,若第一查询日志中所记录的第n条查询词是用户通过语音发起的查询请求,当确定第n+1条查询词也是用户通过语音发起的查询请求时,表明用户没有对第n条查询词进行修改;当确定第n+2条查询词不是用户通过语音发起的查询请求时,表明用户修改了第n+1条查询词,则第n+2条查询词即为第n+1条查询词的修改结果。
因此,本实施例在执行S101根据第一查询日志,获取多个目标音频与多个目标音频的查询词对时,可以采用的可选实现方式为:将第一查询日志中的多个查询词进行排序,例如按照时间的先后顺序进行排序;分别将多个查询词中通过识别查询音频所得到的查询词,作为第一查询词;在确定位于第一查询词之后的第二查询词是通过识别查询音频所得到的情况下,将识别得到第一查询词的查询音频作为目标音频,将第一查询词作为查询词对中的识别查询词,将第二查询词作为查询词对中的修改查询词。
也就是说,本实施例所获取的目标音频即为语音识别的badcase,第一查询词为对用户所输入的查询音频进行语音识别得到的识别结果,第二查询词则为查询音频的识别结果所对应的修改结果。因此,本实施例通过第一查询日志,即可自动地对识别效果较差的查询音频以及该查询音频的原始识别结果与准确识别结果进行挖掘。
但是在实际的查询场景下,由于用户可能会在查询过程中使用不同的输入方式来查询不同的内容,因此仅根据位于当前查询词之后的查询词是否是通过语音识别所得到的方式进行判断,会导致所确定的识别查询词与修改查询词对应不同的查询内容的问题,从而降低所获取的目标音频与该目标音频的查询词对的准确性。
为了提升所获取的目标音频与目标音频的查询词对的准确性,本实施例在执行S101在确定位于第一查询词之后的第二查询词是通过识别查询音频所得到的情况下,将识别得到第一查询词的查询音频作为目标音频,将第一查询词作为查询词对中的识别查询词,将第二查询词作为查询词对中的修改查询词时,可以采用的可选实现方式为:在确定位于第一查询词之后的第二查询词是通过识别查询音频所得到的之后,计算第一查询词与第二查询词之间的相似度,例如计算两个查询词之间的编辑距离;在确定计算得到的相似度满足预设条件的情况下,例如计算的编辑距离小于预设阈值,将识别得到第一查询词的查询音频作为目标音频,将第一查询词作为查询词对中的识别查询词,将第二查询词作为查询词对中的修改查询词。
另外,本实施例在执行S101计算第一查询词与第二查询词之间的相似度时,可以采用的可选实现方式为:在确定第二查询词存在对应的点击行为的情况下,计算第一查询词与第二查询词之间的相似度,即本实施例在确定了用户在根据第二查询词所返回的搜索结果中进行了点击之后,再计算两者之间的相似度,避免计算资源的浪费,提升训练数据的获取效率。
本实施例在执行S101获取多个目标音频与多个目标音频的查询词对之后,执行S102根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征。
本实施例在执行S102根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征时,可以获取各查询词对中的识别查询词的声学模型得分、识别查询词的语言模型得分与修改查询词的语言模型得分,作为各目标音频的特征,即本实施例所得到的目标音频的特征包含3种信息。
其中,本实施例中识别查询词的声学模型得分与语言模型得分在对查询音频进行语音识别时产生;由于修改查询词仅包含文本内容,因此将修改查询词输入语言模型,即可得到修改查询词的语言模型得分。
本实施在执行S102根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征时,也可以采用以下方式:针对每个目标音频,获取用户在根据修改查询词所返回的搜索结果中点击的标题,例如获取用户在搜索结果中点击的第一个标题;将识别查询词与标题之间的语义相似度,以及修改查询词与标题之间的语义相似度,作为该目标音频的特征,即本实施例所得到的目标音频的特征包含2种信息。
另外,本实施例在执行S102根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征时,还可以采用以下方式:针对每个目标音频,获取用户在根据修改查询词所返回的搜索结果中点击的标题;将识别查询词的声学模型得分、识别查询词的语言模型得分、修改查询词的语言模型得分、识别查询词与标题之间的语义相似度、以及修改查询词与标题之间的语义相似度,作为该目标音频的特征,即本实施例所得到的目标音频的特征包含5种信息,能够提升所得到的特征的丰富程度。
举例来说,若目标音频1对应的识别查询词为“南北朝的西凉”,修改查询词为“南北朝的西梁”,若用户在根据“南北朝的西梁”所返回的搜索结果中点击的标题为“南北朝西梁国的历史”,则本实施例执行S102所得到的目标音频1的特征可以包含:“南北朝的西凉”的声学模型得分28.18、“南北朝的西凉”的语言模型得分-25.30、“南北朝的西梁”的语言模型得分-20.35、“南北朝的西凉”与“南北朝西梁国的历史”之间的语义相似度0.56以及“南北朝的西梁”与“南北朝西梁国的历史”之间的语义相似度0.87。
本实施例在执行S102得到了多个目标音频的特征之后,执行S103确定多个目标音频的标签,使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,直至神经网络模型收敛,得到音频标注模型。本实施例训练得到的音频标注模型,根据输入的音频的特征,能够输出该音频是否为识别效果较差的音频的标注结果。
可以理解的是,本实施例中多个目标音频的标签分别为1或者0,标签为1的目标音频为识别效果较差的音频,标签为0的目标音频为识别结果较好的音频。其中,本实施例可以根据目标音频的语音标注结果,来确定目标音频的标签,而目标音频的语音标注结果可以通过专业语音标注人员对目标音频进行转写的方式来获得。
因此,本实施例在执行S103确定多个目标音频的标签时,可以采用的可选实现方式为:针对每个目标音频,获取该目标音频的语音标注结果;在确定该目标音频的修改查询词与该目标音频的语音标注结果一致的情况下,将该目标音频的标签标注为1,否则将该目标音频的标签标注为0。
举例来说,若目标音频1的识别查询词为“南北朝的西凉”,修改查询词为“南北朝的西梁”,语音标注结果为“南北朝的西梁”,则将目标音频1的标签标注为1;若目标音频2的识别查询词为“玉桂怎么写”,修改查询词为“玉鬼怎么写”,语音标注结果为“玉桂怎么写”,则将目标音频2的标签标注为0。
本实施例在执行S103使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,直至神经网络模型收敛,得到音频标注模型时,可以采用的可选实现方式为:将多个目标音频的特征分别输入神经网络模型,得到神经网络模型针对每个目标音频的输出结果;根据多个目标音频的输出结果与多个目标音频的标签计算损失函数,根据计算得到的损失函数调整神经网络模型中的参数,直至神经网络模型收敛。
举例来说,对于目标音频1来说,所构建的训练数据包含“南北朝的西凉”的声学模型得分28.18、“南北朝的西凉”的语言模型得分-25.30、“南北朝的西梁”的语言模型得分-20.35、“南北朝的西凉”与“南北朝西梁国的历史”之间的语义相似度0.56、“南北朝的西梁”与“南北朝西梁国的历史”之间的语义相似度0.87以及标签1。
其中,本实施例中的神经网络模型为分类模型,例如GBDT(Gradient BoostingDecision Tree,梯度提升迭代决策树)模型。
可以理解的是,本实施例在执行S103对神经网络模型进行训练时所使用的损失函数为交叉熵损失函数,交叉熵损失函数的计算公式如下:
Figure BDA0003018687750000081
在公式中:L(xi)表示第i个目标音频的损失函数;xi表示第i个目标音频;yi表示第i个目标音频的标签;
Figure BDA0003018687750000082
表示神经网络模型针对第i个目标音频的输出结果。
本实施例还可以将得到
Figure BDA0003018687750000083
时的神经网络模型F(x)代入以上计算公式,即使用得到
Figure BDA0003018687750000084
时的神经网络模型F(x)来代替
Figure BDA0003018687750000085
从而将损失函数的计算公式调整为:
Figure BDA0003018687750000086
在公式中:F(xi)表示输入第i个目标音频时的神经网络模型;xi表示第i个目标音频;yi表示第i个目标音频的标签。
另外,本实施例在执行S103对神经网络模型进行训练时,还可以将所构建的训练数据划分为训练样本与测试样本,从而在使用训练样本对神经网络模型进行训练之后,再使用测试样本对神经网络模型进行测试,进一步提升训练得到的音频标注模型在标注时的准确性。
本实施例通过上述方法,在根据从第一查询日志中挖掘得到的目标音频与目标音频的查询词对构建训练数据之后,使用所构建的训练数据对神经网络模型进行训练得到音频标注模型,无需通过人工来构建训练数据,实现了基于用户的查询行为来训练得到音频标注模型的目的,从而简化了音频标注模型的训练步骤,提升了音频标注模型的训练效率。
图2是根据本公开第二实施例的示意图。如图2所示,本实施例的音频标注的方法,具体可以包括如下步骤:
S201、根据第二查询日志,获取待标注音频与待标注音频的查询词对,所述查询词对中包含识别查询词与修改查询词;
S202、根据所述查询词对中的识别查询词与修改查询词,得到所述待标注音频的特征;
S203、将所述待标注音频的特征输入音频标注模型,将所述音频标注模型的输出结果作为所述待标注音频的标注结果。
本实施例的音频标注的方法,根据第二查询日志得到待标注音频与待标注音频的查询词对,进而根据所得到的查询词对来得到待标注音频的特征,最后将所得到的特征输入预先训练得到的音频标注模型中完成标注,标注结果用于反映待标注音频为识别结果差的音频或者识别结果好的音频,从而实现了基于用户的查询行为来自动标注音频的目的,能够降低标注成本,且能够提升标注音频的数量。
本实施例中的第二查询日志与第一查询日志可以是相同的查询日志,也可以是不同的查询日志,例如第一查询日志与第二查询日志可以为对应相同时间段的查询日志,也可以为对应不同时间段的查询日志。
本实施例在执行S201根据第二查询日志,获取待标注音频与待标注音频的查询词对时,可以采用的可选实现方式为:将第二查询日志中的多个查询词进行排序;将多个查询词中通过识别查询音频所得到的查询词,作为第三查询词;在确定位于第三查询词之后的第四查询词是通过识别查询音频所得到的情况下,将识别得到第四查询词的查询音频作为待识别音频,将第三查询词作为查询词对中的识别查询词,将第四查询词作为查询词对中的修改查询词。
可以理解的是,本实施例执行S201所获取的待识别音频的数量可以为一个,也可以为多个,即本实施例能够实现对一个待识别音频进行标注或者对多个待识别音频进行标注。
为了提升所获取的待识别音频与待识别音频的查询词对的准确性,本实施例在执行S201在确定位于第三查询词之后的第四查询词是通过识别查询音频所得到的情况下,将识别得到第三查询词的查询音频作为待识别音频,将第三查询词作为查询词对中的识别查询词,将第四查询词作为查询词对中的修改查询词时,可以采用的可选实现方式为:在确定位于第三查询词之后的第四查询词是通过识别查询音频所得到的之后,计算第三查询词与第四查询词之间的相似度;在确定计算得到的相似度满足预设条件的情况下,将识别得到第三查询词的查询音频作为待识别音频,将第三查询词作为查询词对中的识别查询词,将第四查询词作为查询词对中的修改查询词。
另外,本实施例在执行S201计算第三查询词与第四查询词之间的相似度时,可以采用的可选实现方式为:在确定第四查询词存在对应的点击行为的情况下,计算第三查询词与第四查询词之间的相似度,从而避免了计算资源的浪费,提升了训练数据的获取效率。
本实施例在执行S201获取了待识别音频与待识别音频的查询词对之后,执行S202根据查询词对中的识别查询词与修改查询词,得到待标注音频的特征。
本实施例在执行S202根据查询词对中的识别查询词与修改查询词,得到待识别音频的特征时,可以获取查询词对中的识别查询词的声学模型得分、识别查询词的语言模型得分与修改查询词的语言模型得分,作为待识别音频的特征。
其中,本实施例中识别查询词的声学模型得分与语言模型得分在对查询音频进行语音识别时产生;由于修改查询词仅包含文本内容,因此将修改查询词输入语言模型,即可得到修改查询词的语言模型得分。
本实施在执行S202根据查询词对中的识别查询词与修改查询词,得到待识别音频的特征时,也可以采用以下方式:获取用户在根据修改查询词所返回的搜索结果中点击的标题;将识别查询词与标题之间的语义相似度,以及修改查询词与标题之间的语义相似度,作为待识别音频的特征。
另外,本实施例在执行S202根据查询词对中的识别查询词与修改查询词,得到待识别音频的特征时,还可以采用以下方式:获取用户在根据修改查询词所返回的搜索结果中点击的标题;将识别查询词的声学模型得分、识别查询词的语言模型得分、修改查询词的语言模型得分、识别查询词与标题之间的语义相似度、以及修改查询词与标题之间的语义相似度,作为待识别音频的特征。
本实施例在执行S202得到待标注音频的特征之后,执行S203将待标注音频的特征输入音频标注模型,将音频标注模型的输出结果作为待标注音频的标注结果。本实施例执行S203所得到的待标注音频的标注结果为1或者0,标注结果为1的待识别音频表明该音频的识别效果较差,标注结果为0的待识别音频表明该音频的识别效果较好。
本实施例在执行S203将待标注音频的特征输入音频标注模型,将音频标注模型的输出结果作为待标注音频的标注结果之后,还可以包含以下内容:选取标注结果为1的待识别音频;根据所选取的待识别音频与该待识别音频的查询词对中的修改查询词构建训练数据,所构建的训练数据用于训练语音识别模型,具体是对语音识别模型中的声学模型进行训练。
也就是说,本实施例除了能够根据查询日志自动挖掘音频进行标注之外,还能够根据音频的标注结果来构建用于训练语音识别模型的训练数据。由于用于训练语音识别模型的训练数据中包含的音频是语音识别模型识别效果较差的音频,因此使用识别效果较差的音频及其对应的准确的识别结果,能够优化语音识别模型,提升语音识别模型的识别准确性,且修改查询词相当于对音频进行了自动标注,无需人工进行标注,简化了训练数据的获取步骤。
图3是根据本公开第三实施例的示意图。如图3所示,示出了本实施例的标注音频的流程图:根据查询日志获取识别查询词与修改查询词;通过计算查询词之间的编辑距离,将修改查询词作为用户修改语音识别结果的修改结果;将识别查询词的声学模型的得分、识别查询词的语言模型的得分、修改查询词的语言模型的得分、识别查询词与标题之间的语义相似度以及修改查询词与标题之间的语义相似度作为挖掘得到的特征;将所得到的特征输入预先训练得到的音频标注模型,得到音频的标注结果;若标注结果为1,则将修改查询词作为音频的最优识别结果;将音频与修改查询词进行保存,以用于对语音识别模型进行训练。
图4是根据本公开第四实施例的示意图。如图4所示,本实施例的音频标注模型的训练装置400,包括:
第一获取单元401、用于根据第一查询日志,获取多个目标音频与多个目标音频的查询词对,所述查询词对中包含识别查询词与修改查询词;
第一处理单元402、用于根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征;
训练单元403、用于确定多个目标音频的标签,使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,直至所述神经网络模型收敛,得到音频标注模型。
第一获取单元401在根据第一查询日志,获取多个目标音频与多个目标音频的查询词对时,可以采用的可选实现方式为:将第一查询日志中的多个查询词进行排序;分别将多个查询词中通过识别查询音频所得到的查询词,作为第一查询词;在确定位于第一查询词之后的第二查询词是通过识别查询音频所得到的情况下,将识别得到第一查询词的查询音频作为目标音频,将第一查询词作为查询词对中的识别查询词,将第二查询词作为查询词对中的修改查询词。
为了提升所获取的目标音频与目标音频的查询词对的准确性,第一获取单元401在确定位于第一查询词之后的第二查询词是通过识别查询音频所得到的情况下,将识别得到第一查询词的查询音频作为目标音频,将第一查询词作为查询词对中的识别查询词,将第二查询词作为查询词对中的修改查询词时,可以采用的可选实现方式为:在确定位于第一查询词之后的第二查询词是通过识别查询音频所得到的之后,计算第一查询词与第二查询词之间的相似度;在确定计算得到的相似度满足预设条件的情况下,将识别得到第一查询词的查询音频作为目标音频,将第一查询词作为查询词对中的识别查询词,将第二查询词作为查询词对中的修改查询词。
另外,第一获取单元401在计算第一查询词与第二查询词之间的相似度时,可以采用的可选实现方式为:在确定第二查询词存在对应的点击行为的情况下,计算第一查询词与第二查询词之间的相似度。
本实施例在由第一获取单元401获取多个目标音频与多个目标音频的查询词对之后,由第一处理单元402根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征。
第一处理单元402根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征时,可以获取各查询词对中的识别查询词的声学模型得分、识别查询词的语言模型得分与修改查询词的语言模型得分,作为多个目标音频的特征。
第一处理单元402在根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征时,也可以采用以下方式:针对每个目标音频,获取用户在根据修改查询词所返回的搜索结果中点击的标题;将识别查询词与标题之间的语义相似度,以及修改查询词与标题之间的语义相似度,作为该目标音频的特征。
另外,第一处理单元402在根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征时,还可以采用以下方式:针对每个目标音频,获取用户在根据修改查询词所返回的搜索结果中点击的标题;将识别查询词的声学模型得分、识别查询词的语言模型得分、修改查询词的语言模型得分、识别查询词与标题之间的语义相似度、以及修改查询词与标题之间的语义相似度,作为该目标音频的特征。
本实施例在由第一处理单元402得到了多个目标音频的特征之后,由训练单元403确定多个目标音频的标签,使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,直至神经网络模型收敛,得到音频标注模型。
可以理解的是,训练单元403所确定的多个目标音频的标签分别为1或者0,标签为1的目标音频为识别效果较差的音频,标签为0的目标音频为识别结果较好的音频。
训练单元403在确定多个目标音频的标签时,可以采用的可选实现方式为:针对每个目标音频,获取该目标音频的语音标注结果;在确定该目标音频的修改查询词与该目标音频的语音标注结果一致的情况下,将该目标音频的标签标注为1,否则将该目标音频的标签标注为0。
训练单元403使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,直至神经网络模型收敛,得到音频标注模型时,可以采用的可选实现方式为:将多个目标音频的特征分别输入神经网络模型,得到神经网络模型针对每个目标音频的输出结果;根据多个目标音频的输出结果与多个目标音频的标签计算损失函数,根据计算得到的损失函数调整神经网络模型中的参数,直至神经网络模型收敛。
图5是根据本公开第五实施例的示意图。如图5所示,本实施例的音频标注的装置500,包括:
第二获取单元501、用于根据第二查询日志,获取待标注音频与待标注音频的查询词对,所述查询词对中包含识别查询词与修改查询词;
第二处理单元502、用于根据所述查询词对中的识别查询词与修改查询词,得到所述待标注音频的特征;
标注单元503、用于将所述待标注音频的特征输入音频标注模型,将所述音频标注模型的输出结果作为所述待标注音频的标注结果。
第二获取单元501在根据第二查询日志,获取待标注音频与待标注音频的查询词对时,可以采用的可选实现方式为:将第二查询日志中的多个查询词进行排序;将多个查询词中通过识别查询音频所得到的查询词,作为第三查询词;在确定位于第三查询词之后的第四查询词是通过识别查询音频所得到的情况下,将识别得到第四查询词的查询音频作为待识别音频,将第三查询词作为查询词对中的识别查询词,将第四查询词作为查询词对中的修改查询词。
可以理解的是,第二获取单元501所获取的待识别音频的数量可以为一个,也可以为多个,即本实施例能够实现对一个待识别音频进行标注或者对多个待识别音频进行标注。
为了提升所获取的待识别音频与待识别音频的查询词对的准确性,第二获取单元501在确定位于第三查询词之后的第四查询词是通过识别查询音频所得到的情况下,将识别得到第三查询词的查询音频作为待识别音频,将第三查询词作为查询词对中的识别查询词,将第四查询词作为查询词对中的修改查询词时,可以采用的可选实现方式为:在确定位于第三查询词之后的第四查询词是通过识别查询音频所得到的之后,计算第三查询词与第四查询词之间的相似度;在确定计算得到的相似度满足预设条件的情况下,将识别得到第三查询词的查询音频作为待识别音频,将第三查询词作为查询词对中的识别查询词,将第四查询词作为查询词对中的修改查询词。
另外,第二获取单元501在计算第三查询词与第四查询词之间的相似度时,可以采用的可选实现方式为:在确定第四查询词存在对应的点击行为的情况下,计算第三查询词与第四查询词之间的相似度。
本实施例在由第二获取单元501获取了待识别音频与待识别音频的查询词对之后,由第二处理单元502根据查询词对中的识别查询词与修改查询词,得到待标注音频的特征。
第二处理单元502在根据查询词对中的识别查询词与修改查询词,得到待识别音频的特征时,可以获取查询词对中的识别查询词的声学模型得分、识别查询词的语言模型得分与修改查询词的语言模型得分,作为待识别音频的特征。
第二处理单元502在根据查询词对中的识别查询词与修改查询词,得到待识别音频的特征时,也可以采用以下方式:获取用户在根据修改查询词所返回的搜索结果中点击的标题;将识别查询词与标题之间的语义相似度,以及修改查询词与标题之间的语义相似度,作为待识别音频的特征。
另外,第二处理单元502在根据查询词对中的识别查询词与修改查询词,得到待识别音频的特征时,还可以采用以下方式:获取用户在根据修改查询词所返回的搜索结果中点击的标题;将识别查询词的声学模型得分、识别查询词的语言模型得分、修改查询词的语言模型得分、识别查询词与标题之间的语义相似度、以及修改查询词与标题之间的语义相似度,作为待识别音频的特征。
本实施例在由第二处理单元502得到待标注音频的特征之后,由标注单元503将待标注音频的特征输入音频标注模型,将音频标注模型的输出结果作为待标注音频的标注结果。标注单元503所得到的待标注音频的标注结果为1或者0,标注结果为1的待识别音频表明该音频的识别效果较差,标注结果为0的待识别音频表明该音频的识别效果较好。
本实施例中的音频标注的装置500中还可以包含构建单元504,用于执行:在标注单元503将音频标注模型的输出结果作为待标注音频的标注结果之后,选取标注结果为1的待识别音频;根据所选取的待识别音频与该待识别音频的查询词对中的修改查询词构建训练数据,所构建的训练数据用于训练语音识别模型,具体是对语音识别模型中的声学模型进行训练。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图6所示,是根据本公开实施例的音频标注模型的训练与音频标注的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如音频标注模型的训练与音频标注的方法。例如,在一些实施例中,音频标注模型的训练与音频标注的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。
在一些实施例中,计算机程序的部分或者全部可以经由ROM602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的音频标注模型的训练与音频标注的方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行音频标注模型的训练与音频标注的方法。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(“Virtual Private Server”,或简称“VPS”)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (24)

1.一种音频标注模型的训练方法,包括:
根据第一查询日志,获取多个目标音频与多个目标音频的查询词对,所述查询词对中包含识别查询词与修改查询词;
根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征;
确定多个目标音频的标签,使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,直至所述神经网络模型收敛,得到音频标注模型。
2.根据权利要求1所述的方法,其中,所述根据第一查询日志,获取多个目标音频与多个目标音频的查询词对包括:
将所述第一查询日志中的多个查询词进行排序;
分别将多个查询词中通过识别查询音频所得到的查询词,作为第一查询词;
在确定位于所述第一查询词之后的第二查询词是通过识别查询音频所得到的情况下,将识别得到所述第一查询词的查询音频作为所述目标音频,将所述第一查询词作为所述查询词对中的识别查询词,将所述第二查询词作为所述查询词对中的修改查询词。
3.根据权利要求2所述的方法,其中,所述在确定位于所述第一查询词之后的第二查询词是通过识别查询音频所得到的情况下,将识别得到所述第一查询词的查询音频作为所述目标音频,将所述第一查询词作为所述查询词对中的识别查询词,将所述第二查询词作为所述查询词对中的修改查询词包括:
在确定位于所述第一查询词之后的第二查询词是通过识别查询音频所得到的之后,计算所述第一查询词与所述第二查询词之间的相似度;
在确定计算得到的相似度满足预设条件的情况下,将识别得到所述第一查询词的查询音频作为所述目标音频,将所述第一查询词作为所述查询词对中的识别查询词,将所述第二查询词作为所述查询词对中的修改查询词。
4.根据权利要求3所述的方法,其中,所述计算所述第一查询词与所述第二查询词之间的相似度包括:
在确定所述第二查询词存在对应的点击行为的情况下,计算所述第一查询词与所述第二查询词之间的相似度。
5.根据权利要求1所述的方法,其中,所述根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征包括:
针对每个目标音频,获取用户在根据所述修改查询词所返回的搜索结果中点击的标题;
将所述识别查询词的声学模型得分、所述识别查询词的语言模型得分、所述修改查询词的语言模型得分、所述识别查询词与所述标题之间的语义相似度、以及所述修改查询词与所述标题之间的语义相似度,作为该目标音频的特征。
6.根据权利要求1所述的方法,其中,所述确定多个目标音频的标签包括:
针对每个目标音频,获取该目标音频的语音标注结果;
在确定该目标音频的修改查询词与该目标音频的语音标注结果一致的情况下,将该目标音频的标签标注为1,否则将该目标音频的标签标注为0。
7.一种音频标注的方法,包括:
根据第二查询日志,获取待标注音频与待标注音频的查询词对,所述查询词对中包含识别查询词与修改查询词;
根据所述查询词对中的识别查询词与修改查询词,得到所述待标注音频的特征;
将所述待标注音频的特征输入音频标注模型,将所述音频标注模型的输出结果作为所述待标注音频的标注结果;
所述音频标注模型是根据权利要求1至6中任一项所述的方法预先训练得到的。
8.根据权利要求7所述的方法,其中,所述根据第二查询日志,获取待标注音频与待标注音频的查询词对包括:
将所述第二查询日志中的多个查询词进行排序;
将多个查询词中通过识别查询音频所得到的查询词,作为第三查询词;
在确定位于所述第三查询词之后的第四查询词是通过识别查询音频所得到的情况下,将识别得到所述第四查询词的查询音频作为所述待识别音频,将所述第三查询词作为所述查询词对中的识别查询词,将所述第四查询词作为所述查询词对中的修改查询词。
9.根据权利要求8所述的方法,其中,所述在确定位于所述第三查询词之后的第四查询词是通过识别查询音频所得到的情况下,将识别得到所述第四查询词的查询音频作为所述待识别音频,将所述第三查询词作为所述查询词对中的识别查询词,将所述第四查询词作为所述查询词对中的修改查询词包括:
在确定位于所述第三查询词之后的第四查询词是通过识别查询音频所得到的之后,计算所述第三查询词与所述第四查询词之间的相似度;
在确定计算得到的相似度满足预设条件的情况下,将识别得到所述第三查询词的查询音频作为所述待识别音频,将所述第三查询词作为所述查询词对中的识别查询词,将所述第四查询词作为所述查询词对中的修改查询词。
10.根据权利要求9所述的方法,其中,所述计算所述第三查询词与所述第四查询词之间的相似度包括:
在确定所述第四查询词存在对应的点击行为的情况下,计算所述第三查询词与所述第四查询词之间的相似度。
11.根据权利要求7所述的方法,其中,所述根据所述查询词对中的识别查询词与修改查询词,得到所述待标注音频的特征包括:
获取用户在根据所述修改查询词所返回的搜索结果中点击的标题;
将所述识别查询词的声学模型得分、所述识别查询词的语言模型得分、所述修改查询词的语言模型得分、所述识别查询词与所述标题之间的语义相似度、以及所述修改查询词与所述标题之间的语义相似度,作为所述待识别音频的特征。
12.根据权利要求7所述的方法,还包括:
在将所述音频标注模型的输出结果作为所述待标注音频的标注结果之后,选取标注结果为1的待识别音频;
根据所选取的待识别音频与该待识别音频的查询词对中的修改查询词构建训练数据,所述训练数据用于训练语音识别模型。
13.一种音频标注模型的训练装置,包括:
第一获取单元,用于根据第一查询日志,获取多个目标音频与多个目标音频的查询词对,所述查询词对中包含识别查询词与修改查询词;
第一处理单元,用于根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征;
训练单元,用于确定多个目标音频的标签,使用多个目标音频的特征与多个目标音频的标签对神经网络模型进行训练,直至所述神经网络模型收敛,得到音频标注模型。
14.根据权利要求13所述的装置,其中,所述第一获取单元在根据第一查询日志,获取多个目标音频与多个目标音频的查询词对时,具体执行:
将所述第一查询日志中的多个查询词进行排序;
分别将多个查询词中通过识别查询音频所得到的查询词,作为第一查询词;
在确定位于所述第一查询词之后的第二查询词是通过识别查询音频所得到的情况下,将识别得到所述第一查询词的查询音频作为所述目标音频,将所述第一查询词作为所述查询词对中的识别查询词,将所述第二查询词作为所述查询词对中的修改查询词。
15.根据权利要求14所述的装置,其中,所述第一获取单元在确定位于所述第一查询词之后的第二查询词是通过识别查询音频所得到的情况下,将识别得到所述第一查询词的查询音频作为所述目标音频,将所述第一查询词作为所述查询词对中的识别查询词,将所述第二查询词作为所述查询词对中的修改查询词时,具体执行:
在确定位于所述第一查询词之后的第二查询词是通过识别查询音频所得到的之后,计算所述第一查询词与所述第二查询词之间的相似度;
在确定计算得到的相似度满足预设条件的情况下,将识别得到所述第一查询词的查询音频作为所述目标音频,将所述第一查询词作为所述查询词对中的识别查询词,将所述第二查询词作为所述查询词对中的修改查询词。
16.根据权利要求13所述的装置,其中,所述第一处理单元在根据多个目标音频的查询词对中的识别查询词与修改查询词,得到多个目标音频的特征时,具体执行:
针对每个目标音频,获取用户在根据所述修改查询词所返回的搜索结果中点击的标题;
将所述识别查询词的声学模型得分、所述识别查询词的语言模型得分、所述修改查询词的语言模型得分、所述识别查询词与所述标题之间的语义相似度、以及所述修改查询词与所述标题之间的语义相似度,作为该目标音频的特征。
17.一种音频标注的装置,包括:
第二获取单元,用于根据第二查询日志,获取待标注音频与待标注音频的查询词对,所述查询词对中包含识别查询词与修改查询词;
第二处理单元,用于根据所述查询词对中的识别查询词与修改查询词,得到所述待标注音频的特征;
标注单元,用于将所述待标注音频的特征输入音频标注模型,将所述音频标注模型的输出结果作为所述待标注音频的标注结果;
所述音频标注模型是根据权利要求13至16中任一项所述的装置预先训练得到的。
18.根据权利要求17所述的装置,其中,所述第二获取单元在根据第二查询日志,获取待标注音频与待标注音频的查询词对时,具体执行:
将所述第二查询日志中的多个查询词进行排序;
将多个查询词中通过识别查询音频所得到的查询词,作为第三查询词;
在确定位于所述第三查询词之后的第四查询词是通过识别查询音频所得到的情况下,将识别得到所述第四查询词的查询音频作为所述待识别音频,将所述第三查询词作为所述查询词对中的识别查询词,将所述第四查询词作为所述查询词对中的修改查询词。
19.根据权利要求18所述的装置,其中,所述第二获取单元在确定位于所述第三查询词之后的第四查询词是通过识别查询音频所得到的情况下,将识别得到所述第四查询词的查询音频作为所述待识别音频,将所述第三查询词作为所述查询词对中的识别查询词,将所述第四查询词作为所述查询词对中的修改查询词时,具体执行:
在确定位于所述第三查询词之后的第四查询词是通过识别查询音频所得到的之后,计算所述第三查询词与所述第四查询词之间的相似度;
在确定计算得到的相似度满足预设条件的情况下,将识别得到所述第三查询词的查询音频作为所述待识别音频,将所述第三查询词作为所述查询词对中的识别查询词,将所述第四查询词作为所述查询词对中的修改查询词。
20.根据权利要求17所述的装置,其中,所述第二处理单元在根据所述查询词对中的识别查询词与修改查询词,得到所述待标注音频的特征时,具体执行:
获取用户在根据所述修改查询词所返回的搜索结果中点击的标题;
将所述识别查询词的声学模型得分、所述识别查询词的语言模型得分、所述修改查询词的语言模型得分、所述识别查询词与所述标题之间的语义相似度、以及所述修改查询词与所述标题之间的语义相似度,作为所述待识别音频的特征。
21.根据权利要求17所述的装置,还包括构建单元,具体执行:
在所述标注单元将所述音频标注模型的输出结果作为所述待标注音频的标注结果之后,选取标注结果为1的待识别音频;
根据所选取的待识别音频与该待识别音频的查询词对中的修改查询词构建训练数据,所述训练数据用于训练语音识别模型。
22.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至12中任一项所述的方法。
23.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1至12中任一项所述的方法。
24.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至12中任一项所述的方法。
CN202110396239.5A 2021-04-13 2021-04-13 音频标注模型的训练与音频标注的方法、装置 Active CN113204667B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110396239.5A CN113204667B (zh) 2021-04-13 2021-04-13 音频标注模型的训练与音频标注的方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110396239.5A CN113204667B (zh) 2021-04-13 2021-04-13 音频标注模型的训练与音频标注的方法、装置

Publications (2)

Publication Number Publication Date
CN113204667A true CN113204667A (zh) 2021-08-03
CN113204667B CN113204667B (zh) 2024-03-22

Family

ID=77026771

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110396239.5A Active CN113204667B (zh) 2021-04-13 2021-04-13 音频标注模型的训练与音频标注的方法、装置

Country Status (1)

Country Link
CN (1) CN113204667B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104994424A (zh) * 2015-06-30 2015-10-21 北京奇艺世纪科技有限公司 一种构建音视频标准数据集的方法和装置
WO2015166606A1 (ja) * 2014-04-29 2015-11-05 楽天株式会社 自然言語処理システム、自然言語処理方法、および自然言語処理プログラム
CN106339756A (zh) * 2016-08-25 2017-01-18 北京百度网讯科技有限公司 训练数据的生成方法、搜索方法以及装置
KR20180065620A (ko) * 2016-12-08 2018-06-18 아크위드 주식회사 기계학습과 온톨로지 기반 사업모델 작성 방법 및 이를 위한 관리 서비스 시스템
CN109460458A (zh) * 2018-10-29 2019-03-12 清华大学 查询改写意图的预测方法及装置
CN111177521A (zh) * 2018-10-24 2020-05-19 北京搜狗科技发展有限公司 一种查询词分类模型的确定方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015166606A1 (ja) * 2014-04-29 2015-11-05 楽天株式会社 自然言語処理システム、自然言語処理方法、および自然言語処理プログラム
CN104994424A (zh) * 2015-06-30 2015-10-21 北京奇艺世纪科技有限公司 一种构建音视频标准数据集的方法和装置
CN106339756A (zh) * 2016-08-25 2017-01-18 北京百度网讯科技有限公司 训练数据的生成方法、搜索方法以及装置
KR20180065620A (ko) * 2016-12-08 2018-06-18 아크위드 주식회사 기계학습과 온톨로지 기반 사업모델 작성 방법 및 이를 위한 관리 서비스 시스템
CN111177521A (zh) * 2018-10-24 2020-05-19 北京搜狗科技发展有限公司 一种查询词分类模型的确定方法和装置
CN109460458A (zh) * 2018-10-29 2019-03-12 清华大学 查询改写意图的预测方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KUN-YI HUANG等: "Speech Emotion Recognition using Convolutional Neural Network with Audio Word-based Embedding", 2018 11TH INTERNATIONAL SYMPOSIUM ON CHINESE SPOKEN LANGUAGE PROCESSING (ISCSLP) *
吴炜晨: "基于用户点击数据的大规模文本合并", 中国优秀硕士学位论文全文数据库, no. 1 *
孙玫;张森;聂培尧;聂秀山;: "基于朴素贝叶斯的网络查询日志session划分方法研究", 南京大学学报(自然科学), no. 06 *
陈红涛;杨放春;陈磊;: "基于大规模中文搜索引擎的搜索日志挖掘", 计算机应用研究, no. 06 *

Also Published As

Publication number Publication date
CN113204667B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
CN113807098B (zh) 模型训练方法和装置、电子设备以及存储介质
JP5901001B1 (ja) 音響言語モデルトレーニングのための方法およびデバイス
WO2020108063A1 (zh) 特征词的确定方法、装置和服务器
CN113836925B (zh) 预训练语言模型的训练方法、装置、电子设备及存储介质
CN112925883B (zh) 搜索请求处理方法、装置、电子设备及可读存储介质
CN114399772B (zh) 样本生成、模型训练和轨迹识别方法、装置、设备和介质
CN113408273B (zh) 文本实体识别模型的训练与文本实体识别方法、装置
CN112699237B (zh) 标签确定方法、设备和存储介质
CN113408280A (zh) 负例构造方法、装置、设备和存储介质
CN113157877A (zh) 多语义识别方法、装置、设备和介质
CN115658903B (zh) 文本分类方法、模型训练方法、相关装置及电子设备
CN114090885B (zh) 产品标题核心词提取方法、相关装置及计算机程序产品
CN113807091B (zh) 词语挖掘方法、装置、电子设备和可读存储介质
CN114417862A (zh) 文本匹配方法、文本匹配模型的训练方法和装置
CN113204667B (zh) 音频标注模型的训练与音频标注的方法、装置
CN114861608A (zh) 一种数据处理方法、装置、设备和存储介质
CN113743127A (zh) 任务型对话的方法、装置、电子设备及存储介质
CN116069914B (zh) 训练数据的生成方法、模型训练方法以及装置
CN113032540B (zh) 人机交互方法、装置、设备和存储介质
CN112507712B (zh) 建立槽位识别模型与槽位识别的方法、装置
CN115965018B (zh) 信息生成模型的训练方法、信息生成方法和装置
CN113705206B (zh) 情感预测模型的训练方法、装置、设备及存储介质
CN112784033B (zh) 一种时效等级识别模型训练及应用的方法、及电子设备
CN113807099B (zh) 实体信息识别方法、装置、电子设备以及存储介质
CN116361556A (zh) 一种调查问卷推送方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant