CN116863935A - 语音识别方法、装置、电子设备与计算机可读介质 - Google Patents

语音识别方法、装置、电子设备与计算机可读介质 Download PDF

Info

Publication number
CN116863935A
CN116863935A CN202311127447.0A CN202311127447A CN116863935A CN 116863935 A CN116863935 A CN 116863935A CN 202311127447 A CN202311127447 A CN 202311127447A CN 116863935 A CN116863935 A CN 116863935A
Authority
CN
China
Prior art keywords
information
question
user
target
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311127447.0A
Other languages
English (en)
Other versions
CN116863935B (zh
Inventor
刘子正
蒋斌
廖福燕
王瑜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Kilakila Technology Co ltd
Original Assignee
Shenzhen Kilakila Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Kilakila Technology Co ltd filed Critical Shenzhen Kilakila Technology Co ltd
Priority to CN202311127447.0A priority Critical patent/CN116863935B/zh
Publication of CN116863935A publication Critical patent/CN116863935A/zh
Application granted granted Critical
Publication of CN116863935B publication Critical patent/CN116863935B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本公开的实施例公开了语音识别方法、装置、电子设备与计算机可读介质。该方法的一具体实施方式包括:从预设的问答题信息集中随机选择出预设数目个问答题信息,执行如下处理步骤:响应于确定用户信息包括的地址信息与目标用户对应的地址不一致,从语音识别模型组中选择出对应设置用户的目标语音识别模型;将预设数目个问答题信息中每个问答题信息包括的语音输入至目标语音识别模型中,以生成语音识别文本;将语音识别文本组中的每个语音识别文本转换为目标格式的语音音频;将预设数目个问答题信息中每个问答题信息与问答题信息对应的语音音频组合为目标问答题信息。该实施方式提升了用户的听感,增加了用户粘性。

Description

语音识别方法、装置、电子设备与计算机可读介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及语音识别方法、电子设备与计算机可读介质。
背景技术
问答匹配交友玩法是一种独特的应用社交玩法,用户可以从题库中选择感兴趣的问题,设置答案;其他用户通过回答问题进行匹配,答对一定数量个问题就能和对方匹配成功解锁聊天。目前,用户在设置问题以及答案时,通常采用的方式为:随机从题库中选择问题与答案,再通过***配置语音或者用户自己配置语音。
然而,采用上述方式通常会存在如下技术问题:
第一,***配置的语音,语音较为僵硬,造成其他用户的听感较差;
第二,设置问题时,未考虑用户设置的历史问题的类型,导致新设置的各个问题之间关联性较低,容易浪费用户的答题时间;
第三,未对用户配置的语音进行敏感词检测,当用户配置的语音具有敏感信息时,不利于应用的迭代,容易被封禁。
该背景技术部分中所公开的以上信息仅用于增强对本发明构思的背景的理解,并因此,其可包含并不形成本国的本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了语音识别方法、装置、电子设备与计算机可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种语音识别方法,该方法包括:响应于确定目标用户初始认证通过,从预设的问答题信息集中随机选择出预设数目个问答题信息,执行如下处理步骤:确定预设的问答题库对应的设置用户的用户信息;确定上述用户信息包括的地址信息与上述目标用户对应的地址是否一致;响应于确定上述用户信息包括的地址信息与上述目标用户对应的地址不一致,从预先训练的语音识别模型组中选择出对应上述设置用户的语音识别模型作为目标语音识别模型;将上述预设数目个问答题信息中每个问答题信息包括的语音输入至上述目标语音识别模型中,以生成语音识别文本,得到语音识别文本组;将上述语音识别文本组中的每个语音识别文本转换为目标格式的语音音频,得到语音音频组;将上述预设数目个问答题信息中每个问答题信息与上述问答题信息对应的语音音频组合为目标问答题信息,得到目标问答题信息组;将上述目标问答题信息组发送至上述目标用户的用户终端。
第二方面,本公开的一些实施例提供了一种语音识别装置,该装置包括:语音识别单元,被配置成响应于确定目标用户初始认证通过,从预设的问答题信息集中随机选择出预设数目个问答题信息,执行如下处理步骤:确定预设的问答题库对应的设置用户的用户信息;确定上述用户信息包括的地址信息与上述目标用户对应的地址是否一致;响应于确定上述用户信息包括的地址信息与上述目标用户对应的地址不一致,从预先训练的语音识别模型组中选择出对应上述设置用户的语音识别模型作为目标语音识别模型;将上述预设数目个问答题信息中每个问答题信息包括的语音输入至上述目标语音识别模型中,以生成语音识别文本,得到语音识别文本组;将上述语音识别文本组中的每个语音识别文本转换为目标格式的语音音频,得到语音音频组;将上述预设数目个问答题信息中每个问答题信息与上述问答题信息对应的语音音频组合为目标问答题信息,得到目标问答题信息组;发送单元,被配置成将上述目标问答题信息组发送至上述目标用户的用户终端。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的语音识别方法,提升了用户的听感,增加了用户粘性。具体来说,造成其他用户的听感较差的原因在于:***配置的语音,语音较为僵硬。基于此,本公开的一些实施例的语音识别方法,响应于确定目标用户初始认证通过,从预设的问答题信息集中随机选择出预设数目个问答题信息,执行如下处理步骤:首先,确定预设的问答题库对应的设置用户的用户信息;确定上述用户信息包括的地址信息与上述目标用户对应的地址是否一致。由此,便于确定设置用户与目标用户是否属于同一区域的用户。从而,便于确定目标用户是否可以听懂设置用户录制的音频。其次,响应于确定上述用户信息包括的地址信息与上述目标用户对应的地址不一致,从预先训练的语音识别模型组中选择出对应上述设置用户的语音识别模型作为目标语音识别模型。由此,当目标用户与设置用户不属于同一区域时,便于根据目标语音识别模型识别设置用户录制的音频的信息。接着,将上述预设数目个问答题信息中每个问答题信息包括的语音输入至上述目标语音识别模型中,以生成语音识别文本,得到语音识别文本组。由此,可以识别出每个问答题信息包括的语音对应的文本。之后,将上述语音识别文本组中的每个语音识别文本转换为目标格式的语音音频,得到语音音频组。由此,可以将目标用户听不懂的音频转换为标准音频,便于用户理解音频的含义。然后,将上述预设数目个问答题信息中每个问答题信息与上述问答题信息对应的语音音频组合为目标问答题信息,得到目标问答题信息组。由此,可以在问答题信息中设置标准音频与设置用户自身的声音,既方便了目标用户了解音频含义,又便于目标用户了解设置用户的声音信息。最后,将上述目标问答题信息组发送至上述目标用户的用户终端。由此,通过标准音频与设置用户自身的语音的双播放模式,提升了用户的听感,增加了用户粘性。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开的语音识别方法的一些实施例的流程图;
图2是根据本公开的语音识别装置的一些实施例的流程图;
图3是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是根据本公开的语音识别方法的一些实施例的流程图。示出了根据本公开的语音识别方法的一些实施例的流程100。该语音识别方法,包括以下步骤:
步骤101,响应于确定目标用户初始认证通过,从预设的问答题信息集中随机选择出预设数目个问答题信息,执行如下处理步骤:
在一些实施例中,上述语音识别方法的执行主体(例如计算设备)可以响应于确定目标用户初始认证通过,从预设的问答题信息集中随机选择出预设数目个问答题信息。这里,目标用户初始认证通过可以是指目标用户的账号通过了认证。即,通过本地的设置用户所设置的问题。问答题信息集可以是本地设置用户预先设定的各个问答题信息。问答题信息可以包括问题、答案以及设置用户的语音。例如,问答题信息的问题可以是“恋人在朋友圈发和异性的单独合照,你会怎么做?”。问答题信息的答案可以是“A,不爽,让Ta删掉;B,当没看见,划过去”。设置用户的语音可以是表示问题的语音,也可以是答案的语音,也可以是别的语音。
可选地,在从预设的问答题信息集中随机选择出预设数目个问答题信息之前,上述方法还包括:
第一步,获取针对设置用户的历史问题答复信息序列集。即,可以通过有线连接或无线连接的方式从本地数据库中获取针对设置用户的历史问题答复信息序列集。这里,历史问题答复信息序列集中的历史问题答复信息序列可以是设置用户与其他用户之间曾进行问题交流的答复记录信息序列。历史问题答复信息包括:针对历史对话问题的实际问题属性信息集。实际答复问题属性信息可以是历史对话问题(即,设置用户所提出的待其他用户答复的问题)中的问题属性信息。问题属性可以包括:问题类型,问题题目,问题答案。问题类型可以表示情感类问题、生活类问题等。
第二步,对于上述历史问题答复信息序列集中的每个历史问题答复信息序列,执行如下处理步骤:
第一子步骤,对上述历史问题答复信息序列中的每个历史问题答复信息进行向量转换,以生成对话向量,得到对话向量序列。对话向量可以表征历史问题答复信息的对话特征信息。可以将上述历史问题答复信息序列中的每个历史问题答复信息输入至BERT(Bidirectional Encoder Representation from Transformers,来自变换器的双向编码器表征量)模型中,以生成对话向量,得到对话向量序列。
第二子步骤,确定针对目标对话问题的问题属性组。其中,问题属性组可以是预先设置的。实践中,问题属性组可以包括:表征用户是否感兴趣的问题属性。
第三子步骤,将上述对话向量序列输入至预先训练的问题属性注意力机制模型,以生成针对上述历史问题答复信息序列的、且与上述问题属性组对应的候选问答题信息。候选问答题信息可以是针对用户是否感兴趣的问题属性而生成的答复问题信息。
可选地,在第三子步骤之前,还包括以下子步骤:
子步骤1,获取上述设置用户对应的第一历史问题答复信息序列。其中,第一历史问题答复信息包括:针对历史对话问题的实际问题属性信息集。其中,第一历史问题答复信息包括:针对历史对话问题的实际问题属性信息集。上述第一历史问题答复信息序列可以是设置用户与其它用户之间曾进行问题交流的交流记录信息序列。实践中,实际答复问题属性信息可以是历史对话问题(即,设置用户所提出的待用户答复问题)中的问题属性信息。实践中,上述问题属性信息可以是问题属性的属性值。
子步骤2,对上述第一历史问题答复信息序列中的每个第一历史问题答复信息进行向量转换,以生成第一对话向量,得到第一对话向量序列。可以将第一历史问题答复信息序列中的每个第一历史问题答复信息输入至BERT(Bidirectional EncoderRepresentation from Transformers,来自变换器的双向编码器表征量)模型中,以生成第一对话向量,得到第一对话向量序列。
子步骤3,从上述第一历史问题答复信息序列中选取历史问题答复信息,作为目标训练样本,以及执行以下训练步骤:
第一,将上述目标训练样本对应的第一对话向量输入至初始属性注意力机制模型,以生成对应问题属性集的属性问题信息集。初始属性注意力机制模型可以是还未训练结束的属性注意力机制模型。属性注意力机制模型可以是学习对话上下文特征信息的模型。上述属性注意力机制模型可以是Transformer模型。上述问题属性集可以是针对初始属性注意力机制模型训练而预先设置的与问题相关的问题属性。属性问题信息集中的属性问题信息与问题属性集中的问题属性存在一一对应关系。属性问题信息可以是针对对应问题属性的问题信息。诸如,首先,可以将上述第一对话向量输入至上述初始属性注意力机制模型包括的初始子注意力层,以输出对话上下文向量。其中,初始子注意力层可以是还未训练结束的子注意力层。子注意力层可以是包括多头注意力机制的网络层。对话上下文向量可以表征历史问题答复信息中的对话上下文关联特征的特征信息。然后,可以将上述对话上下文向量输入至上述初始属性注意力机制模型包括的初始问题预测模型,以输出属性问题信息集。其中,每个属性问题信息包括:至少一个属性问题类别对应的子问题信息。初始问题预测模型可以是还未训练结束的问题预测模型。实践中,问题预测模型可以是输出属性问题信息的模型。上述问题预测模型可以是多层串行连接的全连接层。属性问题类别可以是属性问题对应的问题类别。属性问题类别可以是:用户情感类的问题类别和生活类的问题类别。对应子问题信息可以是:情感类的问题信息和生活类的问题信息。
第二,根据上述属性问题信息集和对应的实际问题属性信息集,生成属性损失信息。
首先,对于上述属性问题信息集中的每个属性问题信息,执行以下处理步骤:确定上述属性问题信息中的、预定属性问题类别的子问题信息,作为目标子问题信息;根据上述属性问题信息对应的实际问题属性信息和上述目标子问题信息,生成针对对应实际问题属性信息的问题损失信息。
然后,根据所生成的各个问题损失信息,生成属性损失信息。可以将各个问题损失信息对应的损失值得平均值确定为属性损失信息。
第三,响应于确定上述属性损失信息满足预设条件,将上述初始属性注意力机制模型确定为问题属性注意力机制模型。这里,预设条件可以是指属性损失信息表征的损失值小于等于预设属性损失值。
第三步,根据所生成的各个候选问答题信息,构建问答题信息集。
上述相关内容作为本公开的一个发明点,解决了背景技术提及的技术问题二“容易浪费用户的答题时间。”。容易浪费用户的答题时间的因素往往如下:设置问题时,未考虑用户设置的历史问题的类型,导致新设置的各个问题之间关联性较低。如果解决了上述因素,就能达到减少用户的答题时间的浪费的效果。为了达到这一效果,首先,获取针对设置用户的历史问题答复信息序列集。由此,便于根据设置用户的历史问题答复信息,设置新的问答题信息。接着,对于上述历史问题答复信息序列集中的每个历史问题答复信息序列,执行如下处理步骤:首先,对上述历史问题答复信息序列中的每个历史问题答复信息进行向量转换,以生成对话向量,得到对话向量序列。在这里,通过向量转换,以提取每个历史问题答复信息的对话特征信息,且便于后续输入至初始属性注意力机制模型。接着,确定针对目标对话问题的问题属性组。然后,将上述对话向量序列输入至预先训练的问题属性注意力机制模型,以生成针对上述历史问题答复信息序列的、且与上述问题属性组对应的候选问答题信息。最后,根据所生成的各个候选问答题信息,构建问答题信息集。由此,可以根据设置用户的历史问题答复信息序列,设置新的问答题,保证了各个问题之间关联性。从而,减少了用户的答题时间的浪费。
实践中,上述第三步可以包括以下子步骤:
第一子步骤,对于上述各个候选问答题信息中的每个候选问答题信息,执行如下处理步骤:
首先,接收上述设置用户发出的对应上述候选问答题信息的语音。即,可以通过耳机或扬声器接收上述设置用户发出的对应上述候选问答题信息的语音。
其次,将上述语音输入至上述目标语音识别模型中,以生成语音识别文本。
接着,将上述语音识别文本输入至预先训练的敏感信息识别模型中,得到敏感信息识别结果。敏感信息识别结果可以表示语音识别文本中是否具有敏感词。
然后,响应于确定上述敏感信息识别结果表征无敏感信息,将上述候选问答题信息与上述语音组合为问答题信息。组合,可以表示合并。
第二子步骤,将所得到的各个问答题信息确定为问答题信息集。
可选地,在上述将上述语音识别文本输入至预先训练的敏感信息识别模型中,得到敏感信息识别结果之前,上述方法还包括:
第一,获取语音文本训练样本集。可以通过有线连接或无线连接的方式从终端设备中获取语音文本训练样本集。语音文本训练样本可以包括语音文本与对应的样本标签。样本标签可以表示语音文本中是否存在敏感词。
第二,从上述语音文本训练样本集中随机选择出语音文本训练样本。可以随机从上述语音文本训练样本集中随机选择出一个语音文本训练样本。
第三,对上述语音文本训练样本包括的语音文本进行分词处理,得到分词语音文本。例如,可以通过分词工具(如stanford、Hanlp),将语音文本包含的文字分成若干个词,得到分词语音文本。
第四,将上述分词语音文本转换成与预设长度相匹配的至少一个词序列。当语音文本的长度大于预设长度,则可以对分词语音文本进行截取处理,以得到与预设长度等长的词序列。当语音文本的长度小于预设长度,则可以对分词语音文本进行填充处理,以得到与预设长度等长的词序列。
第五,基于上述至少一个词序列,生成候选语音样本数据。可以从至少一个词序列中选取一些词序列,作为候选语音样本数据。
第六,将上述候选语音样本数据输入至初始敏感信息识别模型中,得到候选语音样本数据识别结果。这里,初始敏感信息识别模型可以是指未经训练的卷积神经网络模型,也可以是未经训练的双向LSTM(Long ShortTerm Memory,长短期记忆网络)模型。
第七,确定上述候选语音样本数据识别结果与上述语音文本训练样本包括的样本标签之间的识别损失值。可以通过预设的损失函数,确定上述候选语音样本数据识别结果与上述语音文本训练样本包括的样本标签之间的识别损失值。损失函数可以包括但不限于:均方误差损失函数(MSE)、合页损失函数(SVM)、交叉熵损失函数(CrossEntropy)等等。
第八,响应于确定上述识别损失值小于等于预设损失值,将上述初始敏感信息识别模型确定为训练完成的敏感信息识别模型。这里,对于预设损失值的设定,不做限制。
上述相关内容作为本公开的一个发明点,解决了背景技术提及的技术问题三“不利于应用的迭代,容易被封禁。”。不利于应用的迭代,容易被封禁的因素往往如下:未对用户配置的语音进行敏感词检测,当用户配置的语音具有敏感信息时,不利于应用的迭代。如果解决了上述因素,就能达到便于应用的迭代,减少被封禁的可能性的效果。为了达到这一效果,首先,获取语音文本训练样本集。其次,从上述语音文本训练样本集中随机选择出语音文本训练样本。由此,便于对敏感信息识别模型进行训练。接着,对上述语音文本训练样本包括的语音文本进行分词处理,得到分词语音文本;将上述分词语音文本转换成与预设长度相匹配的至少一个词序列。由此,便于模型对文本中的词逐一进行识别。然后,基于上述至少一个词序列,生成候选语音样本数据;将上述候选语音样本数据输入至初始敏感信息识别模型中,得到候选语音样本数据识别结果。由此,便于确定样本中是否存在敏感词。最后,确定上述候选语音样本数据识别结果与上述语音文本训练样本包括的样本标签之间的识别损失值;响应于确定上述识别损失值小于等于预设损失值,将上述初始敏感信息识别模型确定为训练完成的敏感信息识别模型。由此,可以通过训练的敏感信息识别模型,对语音对应的文本进行敏感词识别。从而,可以避免带有敏感词的语音流出。便于应用的迭代,减少被封禁的可能性。
可选地,获取对应上述设置用户的用户音频数据样本集。
在一些实施例中,上述执行主体可以获取对应上述设置用户的用户音频数据样本集。这里,用户音频数据样本集中的用户音频数据样本包括用户音频数据与样本标签。这里,样本标签可以表示用户音频数据对应的文本。用户音频数据可以是指音频。
可选地,从上述用户音频数据样本集中选择出用户音频数据样本。
在一些实施例中,上述执行主体可以随机从上述用户音频数据样本集中选择出一个用户音频数据样本。
可选地,将上述用户音频数据样本包括的用户音频数据输入至初始语音识别模型中,得到用户音频数据样本识别结果。
在一些实施例中,上述执行主体可以将上述用户音频数据样本包括的用户音频数据输入至初始语音识别模型中,得到用户音频数据样本识别结果。初始语音识别模型可以是未经训练的深度神经网络-隐马尔科夫模型(DNN-HMM)。用户音频数据样本识别结果可以表示识别的出音频文本。
可选地,确定上述用户音频数据样本识别结果与上述用户音频数据样本对应的样本标签之间的损失值。
在一些实施例中,上述执行主体可以通过预设的损失函数确定上述用户音频数据样本识别结果与上述用户音频数据样本对应的样本标签之间的损失值。损失函数可以包括但不限于:均方误差损失函数(MSE)、合页损失函数(SVM)、交叉熵损失函数(CrossEntropy)等等。
可选地,响应于确定上述损失值小于等于预设阈值,将上述初始语音识别模型确定为目标语音识别模型。
在一些实施例中,上述执行主体可以响应于确定上述损失值小于等于预设阈值,将上述初始语音识别模型确定为目标语音识别模型。
步骤1011,确定预设的问答题库对应的设置用户的用户信息。
在一些实施例中,上述执行主体可以确定预设的问答题库对应的设置用户的用户信息。即,可以确定设置问答题库的设置用户的用户信息。用户信息可以包括设置用户的常住地址信息。
步骤1012,确定上述用户信息包括的地址信息与上述目标用户对应的地址是否一致。
在一些实施例中,上述执行主体可以确定上述用户信息包括的地址信息与上述目标用户对应的地址是否一致。目标用户对应的地址可以是指目标用户的常住地址信息。即,可以确定上述用户信息包括的地址信息与上述目标用户对应的地址是否相同。
步骤1013,响应于确定上述用户信息包括的地址信息与上述目标用户对应的地址不一致,从预先训练的语音识别模型组中选择出对应上述设置用户的语音识别模型作为目标语音识别模型。
在一些实施例中,上述执行主体可以响应于确定上述用户信息包括的地址信息与上述目标用户对应的地址不一致,从预先训练的语音识别模型组中选择出对应上述设置用户的语音识别模型作为目标语音识别模型。其中,语音识别模型组可以是预先训练的识别不同口音的语音识别模型。例如,语音识别模型组可以包括识别A区域口音的语音识别模型,可以包括识别B区域口音的语音识别模型。例如,语音识别模型组中的语音识别模型可以是预先训练的以语音为输入,以语音识别文本为输出的卷积神经网络模型。即,可以从预先训练的语音识别模型组中选择出对应上述设置用户的地址区域的语音识别模型作为目标语音识别模型。
步骤1014,将上述预设数目个问答题信息中每个问答题信息包括的语音输入至上述目标语音识别模型中,以生成语音识别文本,得到语音识别文本组。
在一些实施例中,上述执行主体可以将上述预设数目个问答题信息中每个问答题信息包括的语音输入至上述目标语音识别模型中,以生成语音识别文本,得到语音识别文本组。语音识别文本可以是指识别出的问答题信息包括的语音对应的文本。
步骤1015,将上述语音识别文本组中的每个语音识别文本转换为目标格式的语音音频,得到语音音频组。
在一些实施例中,上述执行主体可以将上述语音识别文本组中的每个语音识别文本转换为目标格式的语音音频,得到语音音频组。目标格式可以是指普通话格式。即,可以将语音识别文本转换为普通话格式的语音音频。这里可以通过文本音频转换器进行转换。
步骤1016,将上述预设数目个问答题信息中每个问答题信息与上述问答题信息对应的语音音频组合为目标问答题信息,得到目标问答题信息组。
在一些实施例中,上述执行主体可以将上述预设数目个问答题信息中每个问答题信息与上述问答题信息对应的语音音频组合为目标问答题信息,得到目标问答题信息组。组合可以是指合并。
步骤102,将上述目标问答题信息组发送至上述目标用户的用户终端。
在一些实施例中,上述执行主体可以将上述目标问答题信息组发送至上述目标用户的用户终端,以便于目标用户进行解答。
进一步参考图2,作为对上述各图所示方法的实现,本公开提供了一种语音识别装置的一些实施例,这些语音识别装置实施例与图2所示的那些方法实施例相对应,该语音识别装置具体可以应用于各种电子设备中。
如图2所示,一些实施例的语音识别装置200包括:语音识别单元201和发送单元202。其中,语音识别单元201,被配置成响应于确定目标用户初始认证通过,从预设的问答题信息集中随机选择出预设数目个问答题信息,执行如下处理步骤:确定预设的问答题库对应的设置用户的用户信息;确定上述用户信息包括的地址信息与上述目标用户对应的地址是否一致;响应于确定上述用户信息包括的地址信息与上述目标用户对应的地址不一致,从预先训练的语音识别模型组中选择出对应上述设置用户的语音识别模型作为目标语音识别模型;将上述预设数目个问答题信息中每个问答题信息包括的语音输入至上述目标语音识别模型中,以生成语音识别文本,得到语音识别文本组;将上述语音识别文本组中的每个语音识别文本转换为目标格式的语音音频,得到语音音频组;将上述预设数目个问答题信息中每个问答题信息与上述问答题信息对应的语音音频组合为目标问答题信息,得到目标问答题信息组;发送单元202,被配置成将上述目标问答题信息组发送至上述目标用户的用户终端。
可以理解的是,该语音识别装置200中记载的诸单元与参考图1描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于语音识别装置200及其中包含的单元,在此不再赘述。
下面参考图3,其示出了适于用来实现本公开的一些实施例的电子设备(例如计算设备)300的结构示意图。本公开的一些实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图3示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图3所示,电子设备300可以包括处理装置(例如中央处理器、图形处理器等)301,其可以根据存储在只读存储器(ROM)302中的程序或者从存储装置308加载到随机访问存储器(RAM)303中的程序而执行各种适当的动作和处理。在RAM303中,还存储有电子设备300操作所需的各种程序和数据。处理装置301、ROM302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
通常,以下装置可以连接至I/O接口305:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置306;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置307;包括例如磁带、硬盘等的存储装置308;以及通信装置309。通信装置309可以允许电子设备300与其他设备进行无线或有线通信以交换数据。虽然图3示出了具有各种装置的电子设备300,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图3中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置309从网络上被下载和安装,或者从存储装置308被安装,或者从ROM302被安装。在该计算机程序被处理装置301执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例中记载的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:响应于确定目标用户初始认证通过,从预设的问答题信息集中随机选择出预设数目个问答题信息,执行如下处理步骤:确定上述问答题库对应的设置用户的用户信息;确定上述用户信息包括的地址信息与上述目标用户对应的地址是否一致;响应于确定上述用户信息包括的地址信息与上述目标用户对应的地址不一致,从预先训练的语音识别模型组中选择出对应上述设置用户的语音识别模型作为目标语音识别模型;将上述预设数目个问答题信息中每个问答题信息包括的语音输入至上述目标语音识别模型中,以生成语音识别文本,得到语音识别文本组;将上述语音识别文本组中的每个语音识别文本转换为目标格式的语音音频,得到语音音频组;将上述预设数目个问答题信息中每个问答题信息与上述问答题信息对应的语音音频组合为目标问答题信息,得到目标问答题信息组;将上述目标问答题信息组发送至上述目标用户的用户终端。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括:语音识别单元和发送单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,发送单元还可以被描述为“将上述目标问答题信息组发送至上述目标用户的用户终端的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (7)

1.一种语音识别方法,包括:
响应于确定目标用户初始认证通过,从预设的问答题信息集中随机选择出预设数目个问答题信息,执行如下处理步骤:
确定预设的问答题库对应的设置用户的用户信息;
确定所述用户信息包括的地址信息与所述目标用户对应的地址是否一致;
响应于确定所述用户信息包括的地址信息与所述目标用户对应的地址不一致,从预先训练的语音识别模型组中选择出对应所述设置用户的语音识别模型作为目标语音识别模型;
将所述预设数目个问答题信息中每个问答题信息包括的语音输入至所述目标语音识别模型中,以生成语音识别文本,得到语音识别文本组;
将所述语音识别文本组中的每个语音识别文本转换为目标格式的语音音频,得到语音音频组;
将所述预设数目个问答题信息中每个问答题信息与所述问答题信息对应的语音音频组合为目标问答题信息,得到目标问答题信息组;
将所述目标问答题信息组发送至所述目标用户的用户终端。
2.根据权利要求1所述的方法,其中,在所述从预设的问答题信息集中随机选择出预设数目个问答题信息之前,所述方法还包括:
获取针对设置用户的历史问题答复信息序列集;
对于所述历史问题答复信息序列集中的每个历史问题答复信息序列,执行如下处理步骤:
对所述历史问题答复信息序列中的每个历史问题答复信息进行向量转换,以生成对话向量,得到对话向量序列;
确定针对目标对话问题的问题属性组;
将所述对话向量序列输入至预先训练的问题属性注意力机制模型,以生成针对所述历史问题答复信息序列的、且与所述问题属性组对应的候选问答题信息;
根据所生成的各个候选问答题信息,构建问答题信息集。
3.根据权利要求1所述的方法,其中,在所述从预先训练的语音识别模型组中选择出对应所述设置用户的语音识别模型作为目标语音识别模型之前,所述方法还包括:
获取对应所述设置用户的用户音频数据样本集;
从所述用户音频数据样本集中选择出用户音频数据样本;
将所述用户音频数据样本包括的用户音频数据输入至初始语音识别模型中,得到用户音频数据样本识别结果;
确定所述用户音频数据样本识别结果与所述用户音频数据样本对应的样本标签之间的损失值;
响应于确定所述损失值小于等于预设阈值,将所述初始语音识别模型确定为目标语音识别模型。
4.根据权利要求2所述的方法,其中,所述根据所生成的各个候选问答题信息,构建问答题信息集,包括:
对于所述各个候选问答题信息中的每个候选问答题信息,执行如下处理步骤:
接收所述设置用户发出的对应所述候选问答题信息的语音;
将所述语音输入至所述目标语音识别模型中,以生成语音识别文本;
将所述语音识别文本输入至预先训练的敏感信息识别模型中,得到敏感信息识别结果;
响应于确定所述敏感信息识别结果表征无敏感信息,将所述候选问答题信息与所述语音组合为问答题信息;
将所得到的各个问答题信息确定为问答题信息集。
5.一种语音识别装置,包括:
语音识别单元,被配置成响应于确定目标用户初始认证通过,从预设的问答题信息集中随机选择出预设数目个问答题信息,执行如下处理步骤:确定预设的问答题库对应的设置用户的用户信息;确定所述用户信息包括的地址信息与所述目标用户对应的地址是否一致;响应于确定所述用户信息包括的地址信息与所述目标用户对应的地址不一致,从预先训练的语音识别模型组中选择出对应所述设置用户的语音识别模型作为目标语音识别模型;将所述预设数目个问答题信息中每个问答题信息包括的语音输入至所述目标语音识别模型中,以生成语音识别文本,得到语音识别文本组;将所述语音识别文本组中的每个语音识别文本转换为目标格式的语音音频,得到语音音频组;将所述预设数目个问答题信息中每个问答题信息与所述问答题信息对应的语音音频组合为目标问答题信息,得到目标问答题信息组;
发送单元,被配置成将所述目标问答题信息组发送至所述目标用户的用户终端。
6.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
7.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-4中任一所述的方法。
CN202311127447.0A 2023-09-04 2023-09-04 语音识别方法、装置、电子设备与计算机可读介质 Active CN116863935B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311127447.0A CN116863935B (zh) 2023-09-04 2023-09-04 语音识别方法、装置、电子设备与计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311127447.0A CN116863935B (zh) 2023-09-04 2023-09-04 语音识别方法、装置、电子设备与计算机可读介质

Publications (2)

Publication Number Publication Date
CN116863935A true CN116863935A (zh) 2023-10-10
CN116863935B CN116863935B (zh) 2023-11-24

Family

ID=88221942

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311127447.0A Active CN116863935B (zh) 2023-09-04 2023-09-04 语音识别方法、装置、电子设备与计算机可读介质

Country Status (1)

Country Link
CN (1) CN116863935B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116932919A (zh) * 2023-09-15 2023-10-24 中关村科学城城市大脑股份有限公司 信息推送方法、装置、电子设备和计算机可读介质
CN117609462A (zh) * 2023-11-29 2024-02-27 广州方舟信息科技有限公司 药品问答方法、药品问答机器人、电子设备和存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103516915A (zh) * 2012-06-27 2014-01-15 百度在线网络技术(北京)有限公司 在移动终端通话过程中敏感词汇的替换方法、***及装置
KR20140122100A (ko) * 2013-04-09 2014-10-17 얄리주식회사 유무선 통신 네트워크를 이용한 음성대화방법 및 휴대용 단말장치
CN105260160A (zh) * 2015-09-25 2016-01-20 百度在线网络技术(北京)有限公司 一种用于输出语音信息的方法和装置
CN110162613A (zh) * 2019-05-27 2019-08-23 腾讯科技(深圳)有限公司 一种问题生成方法、装置、设备及存储介质
CN110263131A (zh) * 2019-03-05 2019-09-20 腾讯科技(深圳)有限公司 回复信息生成方法、装置及存储介质
CN110442675A (zh) * 2019-06-27 2019-11-12 平安科技(深圳)有限公司 问答匹配处理、模型训练方法、装置、设备及存储介质
CN111737499A (zh) * 2020-07-27 2020-10-02 平安国际智慧城市科技股份有限公司 基于自然语言处理的数据搜索方法及相关设备
CN111949761A (zh) * 2020-07-06 2020-11-17 合肥工业大学 考虑情感和主题的对话问题生成方法和***、存储介质
CN112579757A (zh) * 2020-12-25 2021-03-30 泰康保险集团股份有限公司 智能问答方法、装置、计算机可读存储介质及电子设备
CN113971243A (zh) * 2021-10-12 2022-01-25 上海众言网络科技有限公司 应用于问卷调查的数据处理方法、***、设备及存储介质
CN114416949A (zh) * 2022-01-19 2022-04-29 北京京东尚科信息技术有限公司 对话生成模型训练、对话回复生成方法和装置以及介质
CN115129829A (zh) * 2021-03-26 2022-09-30 阿里巴巴新加坡控股有限公司 问答计算方法、服务器及存储介质
CN115905458A (zh) * 2021-09-30 2023-04-04 四川大学 一种基于机器阅读理解模型的事件抽取方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103516915A (zh) * 2012-06-27 2014-01-15 百度在线网络技术(北京)有限公司 在移动终端通话过程中敏感词汇的替换方法、***及装置
KR20140122100A (ko) * 2013-04-09 2014-10-17 얄리주식회사 유무선 통신 네트워크를 이용한 음성대화방법 및 휴대용 단말장치
CN105260160A (zh) * 2015-09-25 2016-01-20 百度在线网络技术(北京)有限公司 一种用于输出语音信息的方法和装置
CN110263131A (zh) * 2019-03-05 2019-09-20 腾讯科技(深圳)有限公司 回复信息生成方法、装置及存储介质
CN110162613A (zh) * 2019-05-27 2019-08-23 腾讯科技(深圳)有限公司 一种问题生成方法、装置、设备及存储介质
CN110442675A (zh) * 2019-06-27 2019-11-12 平安科技(深圳)有限公司 问答匹配处理、模型训练方法、装置、设备及存储介质
CN111949761A (zh) * 2020-07-06 2020-11-17 合肥工业大学 考虑情感和主题的对话问题生成方法和***、存储介质
CN111737499A (zh) * 2020-07-27 2020-10-02 平安国际智慧城市科技股份有限公司 基于自然语言处理的数据搜索方法及相关设备
CN112579757A (zh) * 2020-12-25 2021-03-30 泰康保险集团股份有限公司 智能问答方法、装置、计算机可读存储介质及电子设备
CN115129829A (zh) * 2021-03-26 2022-09-30 阿里巴巴新加坡控股有限公司 问答计算方法、服务器及存储介质
CN115905458A (zh) * 2021-09-30 2023-04-04 四川大学 一种基于机器阅读理解模型的事件抽取方法
CN113971243A (zh) * 2021-10-12 2022-01-25 上海众言网络科技有限公司 应用于问卷调查的数据处理方法、***、设备及存储介质
CN114416949A (zh) * 2022-01-19 2022-04-29 北京京东尚科信息技术有限公司 对话生成模型训练、对话回复生成方法和装置以及介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116932919A (zh) * 2023-09-15 2023-10-24 中关村科学城城市大脑股份有限公司 信息推送方法、装置、电子设备和计算机可读介质
CN116932919B (zh) * 2023-09-15 2023-11-24 中关村科学城城市大脑股份有限公司 信息推送方法、装置、电子设备和计算机可读介质
CN117609462A (zh) * 2023-11-29 2024-02-27 广州方舟信息科技有限公司 药品问答方法、药品问答机器人、电子设备和存储介质

Also Published As

Publication number Publication date
CN116863935B (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
CN110516059B (zh) 基于机器学习的问题答复方法、问答模型训练方法及装置
CN116863935B (zh) 语音识别方法、装置、电子设备与计算机可读介质
CN111368559A (zh) 语音翻译方法、装置、电子设备及存储介质
CN112509562B (zh) 用于文本后处理的方法、装置、电子设备和介质
US20240029709A1 (en) Voice generation method and apparatus, device, and computer readable medium
JP7488871B2 (ja) 対話推薦方法、装置、電子機器、記憶媒体ならびにコンピュータプログラム
CN113094481A (zh) 意图识别方法、装置、电子设备及计算机可读存储介质
CN111681661B (zh) 语音识别的方法、装置、电子设备和计算机可读介质
US20230091272A1 (en) Audio content recognition method and apparatus, and device and computer-readable medium
JP7520246B2 (ja) テキストを生成するための方法および装置
CN111602133A (zh) 针对自然语言处理***的词嵌入的压缩
WO2021068493A1 (zh) 用于处理信息的方法和装置
CN112883967A (zh) 图像字符识别方法、装置、介质及电子设备
CN115908640A (zh) 生成图像的方法、装置、可读介质及电子设备
CN114765025A (zh) 语音识别模型的生成方法、识别方法、装置、介质及设备
WO2022188534A1 (zh) 信息推送的方法和装置
CN115270717A (zh) 一种立场检测方法、装置、设备及介质
CN110379406A (zh) 语音评论转换方法、***、介质和电子设备
CN112242143B (zh) 一种语音交互方法、装置、终端设备及存储介质
CN117708266A (zh) 意图识别方法、装置、电子设备及存储介质
CN115129845A (zh) 文本信息处理方法、装置和电子设备
CN111754984B (zh) 文本选取的方法、装置、设备和计算机可读介质
CN112017685B (zh) 语音生成方法、装置、设备和计算机可读介质
CN110852043B (zh) 一种文本转写方法、装置、设备及存储介质
CN114429629A (zh) 图像处理方法、装置、可读存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant