CN111739517B - 语音识别方法、装置、计算机设备及介质 - Google Patents

语音识别方法、装置、计算机设备及介质 Download PDF

Info

Publication number
CN111739517B
CN111739517B CN202010622097.5A CN202010622097A CN111739517B CN 111739517 B CN111739517 B CN 111739517B CN 202010622097 A CN202010622097 A CN 202010622097A CN 111739517 B CN111739517 B CN 111739517B
Authority
CN
China
Prior art keywords
user
voice
sample
features
user identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010622097.5A
Other languages
English (en)
Other versions
CN111739517A (zh
Inventor
田植良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010622097.5A priority Critical patent/CN111739517B/zh
Publication of CN111739517A publication Critical patent/CN111739517A/zh
Application granted granted Critical
Publication of CN111739517B publication Critical patent/CN111739517B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本申请实施例公开了一种语音识别方法、装置、计算机设备及介质,属于计算机技术领域。该方法包括:对第一用户标识的语音数据进行特征提取,得到所述语音数据的语音特征;获取所述第一用户标识的用户特征;对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征;对所述融合特征进行识别处理,得到所述语音数据对应的文本数据。该方法综合考虑语音数据的内容与用户的说话方式,以使识别处理得到的文本数据更加符合用户的说话方式,与语音数据也更为匹配,提高了语音识别的准确率。

Description

语音识别方法、装置、计算机设备及介质
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种语音识别方法、装置、计算机设备及介质。
背景技术
随着计算机技术的发展,语音识别技术在社交应用、智能客服等领域越来越普遍,采用语音识别技术能够将语音数据转换为文本数据,供用户查看。但是由于目前的技术性能有限,可能无法准确识别出语音数据对应的文本数据,因此语音识别的准确率较低。
发明内容
本申请实施例提供了一种语音识别方法、装置、计算机设备及介质,提高了语音识别的准确率。所述技术方案如下:
一方面,提供了一种语音识别方法,所述方法包括:
对第一用户标识的语音数据进行特征提取,得到所述语音数据的语音特征;
获取所述第一用户标识的用户特征,所述用户特征是对所述第一用户标识的用户关系网络进行特征提取得到的,所述用户关系网络包括所述第一用户标识与至少一个第二用户标识之间的关联关系;
对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征;
对所述融合特征进行识别处理,得到所述语音数据对应的文本数据。
另一方面,提供了一种语音识别装置,所述装置包括:
语音特征获取模块,用于对第一用户标识的语音数据进行特征提取,得到所述语音数据的语音特征;
用户特征获取模块,用于获取所述第一用户标识的用户特征,所述用户特征是对所述第一用户标识的用户关系网络进行特征提取得到的,所述用户关系网络包括所述第一用户标识与至少一个第二用户标识之间的关联关系;
融合特征获取模块,用于对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征;
语音识别模块,用于对所述融合特征进行识别处理,得到所述语音数据对应的文本数据。
可选地,所述用户特征获取模块,用于调用第一语音识别模型的用户特征提取层,对所述用户关系网络进行特征提取,得到所述第一用户标识的用户特征。
可选地,所述对第一用户标识的语音数据进行特征提取,得到所述语音数据的语音特征的步骤,通过调用所述第一语音识别模型的语音特征提取层执行;
所述对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征的步骤,通过调用所述第一语音识别模型的特征融合层执行;
所述对所述融合特征进行识别处理,得到所述语音数据对应的文本数据的步骤,通过调用所述第一语音识别模型的语音识别层执行。
可选地,所述第一语音识别模型的训练过程包括以下步骤:
获取样本用户标识的样本用户关系网络、所述样本用户标识的样本语音数据以及所述样本语音数据对应的样本文本数据;
调用所述语音特征提取层,对所述样本语音数据进行特征提取,得到所述样本语音数据的预测语音特征;
调用所述样本用户特征获取层,对所述样本用户关系网络进行特征提取,得到所述样本用户标识的预测用户特征;
调用所述特征融合层,对所述预测语音特征及所述预测用户特征进行融合处理,得到所述样本语音数据对应的预测融合特征;
调用所述语音识别层,对所述预测融合特征进行识别处理,得到所述样本语音数据对应的预测文本数据;
根据所述样本文本数据及所述预测文本数据,调整所述第一语音识别模型中的参数。
可选地,所述装置还包括:
用户标识获取模块,用于获取所述第一用户标识关联的至少一个第二用户标识;
同构图创建模块,用于根据所述第一用户标识和所述至少一个第二用户标识,创建同构图,所述同构图中包括所述第一用户标识对应的第一用户节点和所述至少一个第二用户标识对应的第二用户节点,以及所述第一用户节点与至少一个第二用户节点之间的连接线。
可选地,所述装置还包括:
所述用户特征获取模块,还用于调用用户特征提取模型,对所述任一用户标识的用户关系网络进行特征提取,得到所述任一用户标识的用户特征;
关系建立模块,用于建立所述任一用户标识与所述用户特征的对应关系。
可选地,所述用户特征提取模型的训练过程包括以下步骤:
获取样本用户标识的样本用户关系网络,以及所述样本用户关系网络中所述样本用户标识的样本用户特征;
根据所述样本用户关系网络以及所述样本用户特征,训练所述用户特征提取模型。
可选地,所述对第一用户标识的语音数据进行特征提取,得到所述语音数据的语音特征的步骤,通过调用第二语音识别模型的语音特征提取层执行;
所述根据已建立的对应关系,查询所述第一用户标识的用户特征的步骤,通过调用所述第二语音识别模型的用户特征获取层执行;
所述对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征的步骤,通过调用所述第二语音识别模型的特征融合层执行;
所述对所述融合特征进行识别处理,得到所述语音数据对应的文本数据的步骤,通过调用所述第二语音识别模型的语音识别层执行。
可选地,所述第二语音识别模型的训练过程包括以下步骤:
获取样本用户标识、所述样本用户标识的样本语音数据以及所述样本语音数据对应的样本文本数据;
调用所述语音特征提取层,对所述样本语音数据进行特征提取,得到所述样本语音数据的预测语音特征;
调用所述用户特征获取层,根据所述已建立的对应关系,查询所述第一用户标识的用户特征;
调用所述特征融合层,对所述预测语音特征及所述用户特征进行融合处理,得到所述样本语音数据对应的预测融合特征;
调用所述语音识别层,对所述预测融合特征进行识别处理,得到所述样本语音数据对应的预测文本数据;
根据所述样本文本数据及所述预测文本数据,调整所述第二语音识别模型中的参数。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行,以实现如上述方面所述的语音识别方法中所执行的操作。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行,以实现如上述方面所述的语音识别方法中所执行的操作。
另一方面,提供了一种计算机程序产品或计算机程序,所述计算机程序产品或所述计算机程序包括计算机指令,所述计算机指令存储在计算机可读存储介质中,所述计算机设备的处理器从计算机可读存储介质读取所述计算机指令,处理器执行所述计算机指令,使得所述计算机设备实现如上述方面所述的语音识别方法中所执行的操作。
本申请实施例提供的技术方案带来的有益效果至少包括:
本申请实施例提供的方法、装置、计算机设备及介质,在识别语音数据的过程中,不仅是对语音数据的语音特征进行识别处理,还根据用户标识的用户关系网络进行特征提取得到了用户特征,该用户特征可以反映用户的说话方式,将语音特征与用户特征融合,对融合特征进行识别处理,能够综合考虑语音数据的内容与用户的说话方式,以使识别处理得到的文本数据更加符合用户的说话方式,与语音数据也更为匹配,因此提高了语音识别的准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种实施环境的示意图;
图2是本申请实施例提供的一种语音识别方法的流程图;
图3是本申请实施例提供的一种第一语音识别模型的结构示意图;
图4是本申请实施例提供的另一种语音识别方法的流程图;
图5是本申请实施例提供的一种模型训练及使用的流程图;
图6是本申请实施例提供的一种模型架构的示意图;
图7是本申请实施例提供的另一种模型架构的示意图;
图8是本申请实施例提供的另一种语音识别方法的流程图;
图9是本申请实施例提供的一种用户特征提取模型的示意图;
图10是本申请实施例提供的另一种语音识别方法的流程图;
图11是本申请实施例提供的一种语音识别装置的结构示意图;
图12是本申请实施例提供的另一种语音识别装置的结构示意图;
图13是本申请实施例提供的一种终端的结构示意图;
图14是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
需要说明的是,本申请所涉及的信息(包括但不限于用户设备信息、用户个人信息等)、数据(包括但不限于用于分析的数据、存储的数据、展示的数据等)以及信号(包括但不限于用户终端与其他设备之间传输的信号等),均为经用户或相关方面充分授权的,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种概念,但除非特别说明,这些概念不受这些术语限制。这些术语仅用于将一个概念与另一个概念区分。举例来说,在不脱离本申请的范围的情况下,可以将第一用户标识称为第二用户标识,将第二用户标识称为第一用户标识。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
语音技术(Speech Technology)的关键技术有自动语音识别技术(ASR)和语音合成技术(TTS)以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。
自然语言处理(Nature Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
本申请实施例提供的方案涉及人工智能的语音技术及自然语言处理等技术,通过如下实施例进行说明。
图1是本申请实施例提供的一种实施环境的示意图。参见图1,该实施环境包括:至少一个终端101和服务器102,至少一个终端101和服务器102通过网络连接。
其中,至少一个终端101可以为便携式、袖珍式、手持式等多种类型的终端,如智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等。服务器102可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
每个终端101基于用户标识登录服务器102,服务器102根据多个终端101登录的用户标识,获取多个用户标识之间的关联关系。
可选地,每个终端101可以安装社交应用,服务器102为社交应用提供服务,终端101与服务器102通过社交应用进行交互。其中,任一终端101可以接收其他终端101发送的数据,也可以向其他终端101发送数据,其中,数据可以为文本数据、语音数据、图像数据等任意形式的数据。并且,该社交应用具有语音识别功能,在社交应用中可以对任一用户标识对应的语音数据进行语音识别。
本申请实施例提供的方法可以应用于多种场景下。
例如,应用于识别社交应用中的语音数据的场景下。
在两个用户聊天过程中,一个用户通过社交应用向另一个用户发送了语音数据,另一个用户通过社交应用接收到该语音数据,如果该另一用户不方便播放语音数据或者想要查看对应的文本数据,可以触发语音识别指令,从而采用本申请实施例提供的语音识别方法对语音数据进行识别,得到语音数据对应的文本数据,通过社交应用显示该文本数据。
又例如,应用于社交应用中语音通话的场景下。
两个用户在语音通话过程中,如果一个用户由于外界环境噪声过大的原因,而无法听清楚另一用户的语音数据,则可以触发语音识别指令,采用本申请实施例提供的语音识别方法对语音数据进行识别,得到语音数据对应的文本数据,用户即可查看该文本数据。
图2是本申请实施例提供的一种语音识别方法的流程图。本申请实施例的执行主体为服务器。参见图2,该方法包括:
201、服务器对第一用户标识的语音数据进行特征提取,得到语音数据的语音特征。
其中,该第一用户标识用于表示发出该语音数据的用户的身份,该第一用户标识可以为用户的昵称、ID等标识。第一用户标识的语音数据是指第一用户标识对应的用户发出的语音数据,语音数据可以为任意内容,例如,语音数据可以为一个词语、一句话等;该语音数据也可以为任意语种,例如,可以为汉语、英语等。
服务器对第一用户标识的语音数据进行特征提取,提取出该语音数据的语音特征,该语音特征用于表示该语音数据的内容,以便于服务器根据该语音特征对语音数据进行识别,得到该语音数据对应的文本数据。
在一种可能实现方式中,终端安装有社交应用,第一用户标识可以为在该社交应用中注册的任一用户标识,则该服务器为社交应用服务器,该社交应用服务器可以获取到第一用户标识的语音数据,对该语音数据进行识别,得到该语音数据对应的文本数据。
可选地,社交应用中还可以注册第二用户标识,且该第二用户标识与第一用户标识之间是好友关系,则第二用户标识对应的终端可以接收第一用户标识的语音数据,由该第二用户标识对应的终端与服务器进行交互,实现对第一用户标识的语音数据的识别。
可选地,第一用户标识对应的终端发送第一用户标识的语音数据之后,也可以与服务器进行交互,实现对第一用户标识的语音数据的识别。
202、服务器获取第一用户标识的用户特征。
由于不同用户的口音、用词习惯等说话方式均存在一定的差异,如果仅对语音特征进行识别处理,得到语音数据对应的文本数据,而不考虑不同用户之间的差异,会对语音特征的识别产生影响。例如,两个用户表达的内容不同,但是由于方言上的差异,这两个用户发出的语音数据是相同的,当仅对语音特征进行识别处理时,会得到相同的文本数据,导致识别不准确。因此,本申请实施例通过获取用户标识的用户特征,根据语音特征和用户特征进行识别,识别过程考虑了用户自身的特点,识别出的文本数据更加准确。
本申请实施例中,用户特征是对第一用户标识的用户关系网络进行特征提取得到的,用户关系网络包括第一用户标识与至少一个第二用户标识之间的关联关系。其中,第二用户标识为社交应用中与第一用户标识关联的用户标识。例如,第二用户标识与第一用户标识之间可以是好友关系,或者第二用户标识可以为第一用户标识关注的用户标识,或者,第一用户标识与第二用户标识之间还可以是其他的关联关系。
可选地,服务器在接收到第一用户标识的语音数据之前,已经获取了多个用户标识的用户特征,则服务器通过查询多个用户标识的用户特征,得到第一用户标识的用户特征;或者服务器接收到第一用户标识的语音数据时,获取第一用户标识的用户关系网络,通过对第一用户标识的用户关系网络进行特征提取,得到第一用户标识的用户特征。
本申请实施例中,第一用户标识的用户关系网络可以通过社交应用快速获取,且该用户关系网络中第一用户标识与至少一个第二用户标识之间的关联关系可以反映,第一用户标识对应的用户与每个第二用户标识对应的用户在现实生活中的关联关系,通过第一用户标识的用户关系网络获取第一用户标识的用户特征,可以快速准确地获取该第一用户标识的用户特征。例如,两个用户标识之间存在关联关系,则这两个用户标识对应的用户在现实生活中可能是好友。
203、服务器对语音特征及用户特征进行融合处理,得到语音数据对应的融合特征。
服务器对语音特征及用户特征进行融合,使得到的融合特征中包括语音特征和用户特征,该融合特征既可以反映语音数据的内容,又可以反映第一用户标识对应的用户的特点。
204、服务器对融合特征进行识别处理,得到语音数据对应的文本数据。
其中,语音数据与文本数据对应是指语音数据的内容与文本数据的内容一致。例如,语音数据为“您好”,则语音数据对应的文本数据也应该为“您好”。
需要说明的是,本申请实施例仅是以先执行步骤201再执行步骤202为例进行说明,在另一实施例中,可以先执行步骤202再执行步骤201,或者同时执行步骤201和步骤202。
本申请实施例提供的方法,在识别语音数据的过程中,不仅是对语音数据的语音特征进行识别处理,还根据用户标识的用户关系网络进行特征提取得到了用户特征,该用户特征可以反映用户的说话方式,将语音特征与用户特征融合,对融合特征进行识别处理,能够综合考虑语音数据的内容与用户的说话方式,以使识别处理得到的文本数据更加符合用户的说话方式,与语音数据也更为匹配,因此提高了语音识别的准确率。
本申请实施例首先提供了第一种语音识别方式,第一种语音识别方式采用参见图3所示的第一语音识别模型300进行语音识别,该第一语音识别模型300包括语音特征提取层301、用户特征提取层302、特征融合层303和语音识别层304。将用户标识的语音数据和用户标识的用户关系网络输入至第一语音识别模型300,从而调用第一语音识别模型输出语音数据对应的文本数据。
其中,语音特征提取层301与特征融合层303连接,用户特征提取层302与特征融合层303连接,特征融合层303与语音识别层304连接。语音特征提取层301用于提取语音数据的语音特征,用户特征提取层302用于根据用户标识的用户关系网络提取该用户标识的用户特征,特征融合层303用于融合语音特征和用户特征,语音识别层304用于根据输入的特征识别语音数据对应的文本数据。
在该第一语音识别模型300的基础上,还提供了一种基于第一语音识别模型的语音识别方法,详见下述实施例。
图4是本申请实施例提供的一种语音识别方法的流程图。参见图4,该方法的执行主体为服务器,该方法包括:
401、服务器调用语音特征提取层,对第一用户标识的语音数据进行特征提取,得到语音数据的语音特征。
由于不同用户的口音、用词习惯等说话方式不同,不同用户即使发出的语音数据相同,表达的内容也很可能不同,而如果采用通用的语音识别模型对语音数据进行识别时,针对同样的语音数据会识别出相同的文本数据,导致语音识别准确率较低。如果对于不同的用户标识训练对应的语音识别模型,则训练出的语音识别模型是针对该用户标识的个性化模型,仅能对该用户标识的语音数据进行识别,且如果对每个用户均训练一个语音识别模型,实现成本较高,且如果该用户标识的样本数据较少,也无法准确训练语音识别模型。
因此,本申请实施例中提供了一种第一语音识别模型,该第一语音识别模型可以提取每个用户标识的用户特征,在识别语音数据时,考虑用户标识的用户特征,实现对每个用户标识的语音数据的个性化识别,且任一用户标识的语音数据均可以采用该第一语音识别模型进行识别,而不需要对每个用户均训练一个语音识别模型,实现成本较低。
服务器对第一用户标识的语音数据进行识别时,先将语音数据输入至语音特征提取层,对语音数据进行特征提取,得到该语音数据的语音特征。其中,语音特征可以为向量形式或其他形式。
在一种可能实现方式中,终端安装有社交应用,该社交应用中可以注册多个用户标识,该多个用户标识之间可以相互发送语音数据。该多个用户标识至少包括第一用户标识及与第一用户标识关联的至少一个第二用户标识。
可选地,终端显示第一用户标识的语音数据,响应于接收到的对语音数据的识别指令,向服务器发送该识别指令,服务器接收到识别指令后,调用语音特征提取层,对语音数据进行特征提取。其中,识别指令中携带第一用户标识和语音数据,以指示该语音数据是由第一用户标识对应的用户发出的。
其中,终端可以为第一用户标识对应的终端,即第一用户标识对应的终端将第一用户标识的语音数据发送之后,通过与服务器进行交互,对自己发送的语音数据进行语音识别;终端也可以为第二用户标识对应的终端,即第二用户标识对应的终端接收到第一用户标识的语音数据后,通过与服务器进行交互,对接收到的语音数据进行语音识别。
402、服务器调用用户特征提取层,对第一用户标识的用户关系网络进行特征提取,得到第一用户标识的用户特征。
用户特征提取层对输入的用户关系网络进行特征提取,得到第一用户标识的用户特征。其中,用户关系网络中包括第一用户标识与至少一个第二用户标识之间的关联关系,该用户关系网络可以为任一形式的,例如,可以为表格、图网络等形式。
在一种可能实现方式中,服务器对第一用户标识的用户关系网络进行特征提取之前,需要先获取第一用户标识的用户关系网络,获取过程包括:服务器获取第一用户标识关联的至少一个第二用户标识;根据第一用户标识和至少一个第二用户标识,创建同构图,该同构图即为第一用户标识的用户关系网络。其中,第二用户标识可以为第一用户标识的好友、也可以为用户关注的用户标。
其中,同构图中包括第一用户标识对应的第一用户节点和至少一个第二用户标识对应的第二用户节点,以及第一用户节点与至少一个第二用户节点之间的连接线。第一用户节点与第二用户节点采用连接线进行连接,即表示这两个用户标识之间存在关联关系。
可选地,如果与第一用户标识存在关联关系的两个第二用户标识之间也存在关联关系,则在第一用户标识的用户关系网络中,这两个第二用户标识之间可以连接,也可以不连接。
可选地,如果终端中安装有社交应用,第一用户标识与至少一个第二用户标识为同一社交应用中注册的用户标识,且第一用户标识与任一第二用户标识建立关联关系。
在一种可能实现方式中,用户特征提取层对用户关系网络进行特征提取,得到该用户关系网络中包括的多个用户标识的用户特征,从中选取出第一用户标识的用户特征。
在一种可能实现方式中,由于用户特征提取层的输入为用户关系网络,则该用户特征提取层可以为图卷积网络。
由于是对用户关系网络进行特征提取得到的用户特征,那么对于多个用户标识来说,如果该多个用户标识之间具有关联关系,那么该多个用户标识的用户特征相似,如果该多个用户标识之间不具备关联关系,那么该多个用户标识的用户特征不相似。
403、服务器调用特征融合层,对语音特征及用户特征进行融合处理,得到语音数据对应的融合特征。
将语音特征及用户特征输入至特征融合层,在特征融合层中对语音特征及用户特征进行融合处理,得到融合特征,该融合特征用于描述语音数据的内容及第一用户标识对应的用户的说话方式。
在一种可能实现方式中,如果语音特征和用户特征采用向量形式表示,那么对语音特征和用户特征进行融合处理,包括:将语音特征和用户特征进行拼接,或者将语音特征和用户特征进行相加、相减或其他运算,或者采用其他处理方式得到融合特征。
404、服务器调用语音识别层,对融合特征进行识别处理,得到语音数据对应的文本数据。
将融合特征输入至语音识别层,在语音识别层中对语音数据进行识别处理,将语音数据转换为文本数据,实现对第一用户标识的语音数据的识别。
例如,对于第一用户标识的语音数据“您好,请问您有什么问题”,将该语音数据转换为文本数据时,相关技术中,直接对该语音数据进行识别,可能会由于用户的口音问题,将“您”识别为“你”,而本申请中则会考虑第一用户标识对应的用户的说话方式,基于该用户的说话方式和语义数据的内容对语音数据进行识别。
根据用户关系网络进行识别时,该用户关系网络中的多个用户标识之间存在关联关系,则认为该多个用户标识对应的用户的口音、用词习惯等说话方式类似,在对该多个用户标识的语音数据进行识别的过程中,根据用户关系网络获取用户特征时,得到的多个用户标识的用户特征相似。
在一种可能实现方式中,第一语音识别模型采用Encoder-Decoder(编码器-解码器)的框架,语音特征提取层为编码器,语音特征识别层为解码器。其中,语音特征提取层和语音特征识别层可以为卷积神经网络、循环神经网络等。
服务器在调用第一语音识别模型之前,需要训练第一语音识别模型,第一语音识别模型的训练过程,包括:
1、服务器获取样本用户标识的样本用户关系网络、样本用户标识的样本语音数据以及样本语音数据对应的样本文本数据。
2、服务器调用语音特征提取层,对样本语音数据进行特征提取,得到样本语音数据的预测语音特征。
其中,第一语音识别模型为初始的第一语音识别模型,或者为经过一次或多次训练后的第一语音识别模型。
3、服务器调用样本用户特征获取层,对样本用户关系网络进行特征提取,得到样本用户标识的预测用户特征。
4、服务器调用特征融合层,对预测语音特征及预测用户特征进行融合处理,得到样本语音数据对应的预测融合特征。
5、服务器调用语音识别层,对预测融合特征进行识别处理,得到样本语音数据对应的预测文本数据。
6、服务器根据样本文本数据及预测文本数据,调整第一语音识别模型中的参数,即根据样本文本数据及预测文本数据之间的差异,调整第一语音识别模型中的参数,得到训练后的第一语音识别模型。
其中,样本用户标识的样本用户关系网络、样本语音数据及对应的样本文本数据与上述实施例中第一用户标识的用户关系网络、语音数据及文本数据类似,在此不再赘述。
例如,第一样本用户是客服人员,且关联的多个第二样本用户也是客服人员,这些用户在说话时很有可能经常带有敬词,在训练第一语音识别模型的过程中,这些样本用户的用户特征是相似的,采用样本用户关系网络和样本语音数据训练第一语音识别模型,使第一语音识别模型学习到这类相似用户特征对应的文本数据中常包含敬词的特点,从而在针对相似的用户发出的语音数据进行识别时,识别得到的文本数据中也包括敬词。
采用样本用户的样本用户关系网络进行训练,由于样本用户与样本用户关系网络中的其他样本用户之间具有关联关系,则样本用户关系网络中的多个样本用户对应的用户特征相似,则在训练过程中,在需要的样本语音数据的总条数固定的情况下,样本语音数据可以由样本用户关系网络中的一个样本用户进行样本语音数据的录制,也可以由多个样本用户进行样本语音数据的录制,每个样本用户仅需要录制较少的语音数据,分担了录制压力,节省了单个样本用户的工作量,避免了由一个样本用户来录制而导致样本语音数据不足的问题。
上述样本用户关系网络,可以是已提前在社交应用中创建好的用户关系网络,也可以是技术人员临时建立多个用户之间的关联关系而得到的用户关系网络,该样本用户关系网络可以反映现实生活中各个用户之间的关联关系。
另外,由于本申请实施例中,服务器根据用户关系网络获取用户特征,以对第一用户标识的语音数据进行识别,那么对于任一新用户标识来说,当需要识别该新用户标识的语音数据时,只需要获取该新用户标识的用户关系网络,即可采用第一语音识别模型得到该新用户标识的用户特征,实现对新用户标识的语音数据的识别,而在训练第一语音识别模型时不需要对全部用户标识的语音数据进行训练,即可使训练出的第一语音识别模型具备识别任一用户标识的语音数据的能力,提高了模型的通用性。
另外,第一语音识别模型的训练及使用过程参见图5所示的流程图,参见图5,操作流程包括如下步骤:
501、服务器根据社交应用中的多个用户标识,及多个用户标识之间的关联关系,获取每个用户标识的用户关系网络。
502、服务器对每个用户标识的语音数据及对应的文本数据进行标注,得到样本数据,该样本数据包括样本用户关系网络、样本对象数据及对应的样本文本数据。
503、服务器根据样本数据训练第一语音识别模型,得到训练完成的第一语音识别模型。
504、服务器采用训练完成的第一语音识别模型实现对任一用户标识的语音数据的识别。
上述第一语音识别模型的训练过程可以是由服务器执行,也可以是由其他设备执行的,本申请实施例对比不做限制。如果是由其他设备执行的,则其他设备在训练完第一语音识别模型后,将第一语音识别模型发送给服务器,由服务器调用第一语音识模型实现对语音数据的识别。
需要说明的一点是,上述训练过程仅是以一个样本用户标识为例进行说明,在训练第一语音识别模型时可以采用多个样本用户标识,每个样本用户标识的训练过程与上述样本用户标识的训练过程类似,在此不再赘述。
本申请实施例提供的方法,采用第一语音识别模型进行语音识别,不仅调用语音特征提取层对语音数据的语音特征进行提取,得到了语音特征,还调用了用户特征提取层对用户标识的用户关系网络进行特征提取,得到了用户特征,该用户特征可以反映用户的说话方式,调用特征融合层将语音特征与用户特征相融合,再调用语音识别层对融合特征进行识别处理,能够综合考虑语音数据的内容与用户的说话方式,以使识别处理得到的文本数据更加符合用户的说话方式,与语音数据也更为匹配,因此提高了语音识别的准确率。
并且,本申请实施例中,在训练第一语音识别模型的过程中,由于对语音数据进行特征提取,得到预测语音特征,对样本用户标识的样本用户关系网络进行特征提取,得到预测用户特征,该预测用户特征可以反映样本用户的说话方式,对预测语音特征与预测用户特征相融合,对预测融合特征进行识别处理,能够综合考虑样本语音数据的内容和样本用户的说话方式,则根据预测文本数据和样本文本数据训练第一语音识别模型,能够提高该第一语音识别模型的识别准确率。
并且,同一样本用户关系网络中的样本用户标识之间具有关联关系,样本用户标识的用户特征较为相似,且样本用户标识对应的样本用户的说话方式也可能较为相似,因此,在训练过程中,在需要的样本语音数据的条数固定的情况下,可以由多个样本用户进行样本语音数据的录制,每个样本用户仅需要录制较少的语音数据,分担了录制压力,节省了单个样本用户的工作量,避免了由一个样本用户来录制而导致样本语音数据不足的问题。
本申请实施例还提供了第二种语音识别方式,第二种语音识别方式采用参见图6所示的用户特征提取模型601和第二语音识别模型602进行语音识别,其中,参见图7,第二语音识别模型602包括语音特征提取层6021、用户特征获取层6022、特征融合层6023和语音识别层6024。将用户标识的用户关系网络输入至用户特征提取模型601,从而调用特征提取模型601输出用户标识的用户特征,将用户标识和用户标识的语音数据输入至第二语音识别模型602,从而调用第二语音识别模型输出语音数据对应的文本数据。
其中,用户特征提取模型601与用户特征获取层6022连接,语音特征提取层6021与特征融合层6023连接,用户特征获取层6022与特征融合层6023连接,特征融合层6023与语音识别层6024连接。用户特征提取模型601用于提取用户标识的用户特征并存储,语音特征提取层6021用于提取语音数据的语音特征,用户特征获取层6022用于查询用户标识的用户特征,特征融合层6023用于融合语音特征和用户特征,语音识别层6024用于识别语音数据对应的文本数据。
在该用户特征提取模型601和第二语音识别模型602的基础上,还提供了一种基于用户特征提取模型和第二语音识别模型的语音识别方法,详见下述实施例。
图8是本申请实施例提供的一种语音识别方法的流程图。参见图8,该方法的执行主体为服务器,该方法包括:
801、服务器调用用户特征提取模型,对任一用户标识的用户关系网络进行特征提取,得到该任一用户标识的用户特征。
其中,用户特征提取模型用于根据任一用户标识的用户关系网络提取用户特征。
如果用户关系网络为同构图,参见图9,该用户特征提取模型900为图卷积网络模型,其中,实心圆点表示第一用户标识,空心圆点表示第二用户标识,将这六个用户标识构成的同构图输入至特征提取模型900,特征提取模型900对输入的同构图进行特征提取,得到该同构图中六个用户标识的用户特征,实现对用户特征的提取。
在进行语音识别之前,服务器将任一用户标识的用户关系网络输入至用户特征提取模型,调用用户特征提取模型获取用户关系网络中的每一个用户标识的用户特征。当然,服务器也可以将多个不同的用户标识的用户关系网络输入至用户特征提取模型,从而得到更多用户标识的用户特征。
802、服务器建立任一用户标识与该任一用户标识的用户特征的对应关系。
服务器根据获取到的多个用户标识及对应的用户特征,建立用户标识与用户特征之间的对应关系,以便于后续在语音识别时,查询该对应关系来获取用户标识的用户特征。其中,对应关系可以是以列表形式或其他形式存储的。
另外,如果添加了新用户标识,则获取新用户标识的用户特征,将新用户标识及对应的用户特征添加至建立的对应关系中,从而更新该对应关系。
803、服务器调用语义特征提取层,对第一用户标识的语音数据进行特征提取,得到语音数据的语音特征。
步骤803的实施方式与上述图4所示的实施例中步骤401的实施方式类似,在此不再赘述。
804、服务器调用用户特征获取层,根据已建立的对应关系,查询第一用户标识的用户特征。
服务器将第一用户标识输入至用户特征获取层,在已建立的对应关系中,查询该第一用户标识的用户特征。采用查询获取用户特征的方式,不需要每次进行语音识别时再对用户标识的用户关系网络进行特征提取,减少了识别过程中的处理量,提高了识别速度。
805、服务器调用特征融合层,对语音特征及用户特征进行融合处理,得到语音数据对应的融合特征。
806、服务器调用语音识别层,对融合特征进行识别处理,得到语音数据对应的文本数据。
步骤805-步骤806的实施方式与上述图4所示的实施例中步骤403-步骤404的实施方式类似,在此不再赘述。
服务器调用用户特征提取模型之前,需要训练用户特征提取模型,用户特征提取模型的训练过程,包括:
服务器获取样本用户标识的样本用户关系网络,以及样本用户关系网络中样本用户标识的样本用户特征;根据样本用户关系网络以及样本用户特征,训练用户特征提取模型。其中,待训练的用户特征提取模型为初始的用户特征提取模型,或者为经过一次或多次训练后的用户特征提取模型。
可选地,在训练过程中,将属于同一样本用户关系网络中的多个样本用户标识的样本用户特征设置为相似的特征,以使用户特征提取模型可以学习到同一用户关系网络中多个用户标识的用户特征相似的特点,从而提取到多个用户标识的共性特征,便于后续根据多个用户标识的关联关系进行语音识别。
服务器在调用第二语音识别模型之前,需要训练第二语音识别模型,第二语音识别模型的训练过程,包括:
1、服务器获取样本用户标识、样本用户标识的样本语音数据以及样本语音数据对应的样本文本数据。
2、服务器调用语音特征提取层,对样本语音数据进行特征提取,得到样本语音数据的预测语音特征。
其中,第二语音识别模型为初始的第二语音识别模型,或者为经过一次或多次训练后的第二语音识别模型。
3、服务器调用用户特征获取层,根据已建立的对应关系,查询第一用户标识的用户特征。
4、服务器调用特征融合层,对预测语音特征及用户特征进行融合处理,得到样本语音数据对应的预测融合特征。
5、服务器调用语音识别层,对预测融合特征进行识别处理,得到样本语音数据对应的预测文本数据。
6、服务器根据样本文本数据及预测文本数据,调整第二语音识别模型中的参数。
其中,样本用户标识、样本语音数据及对应的样本文本数据与上述实施例中第一用户标识、语音数据及文本数据类似,在此不再赘述。
在一种可能实现方式中,可以采用相同的样本数据训练用户特征提取模型和第二语音识别模型,也可以采用不同的样本数据训练用户特征提取模型和第二语音识别模型。
另外,用户特征提取模型和第二语音识别模型的训练及使用过程的实施方式,与上述第一识别模型的训练及使用过程类似,在此不再赘述。
本申请实施例提供的方法,采用第二语音识别模型进行语音识别,不仅调用语音特征提取层对语音数据的语音特征进行提取,得到了语音特征,采用用户特征获取模型得到了任一用户标识与用户特征之间的对应关系,调用了用户特征获取层查询对应关系得到用户特征,该用户特征可以反映用户的说话方式,调用特征融合层将语音特征与用户特征相融合,再调用语音识别层对融合特征进行识别处理,综合考虑语音数据的内容与用户的说话方式,按照用户的说话方式对语音数据进行转换,使得到的文本数据更加符合用户的说话方式,保证识别出的文本数据与语音数据相匹配,提高了语音识别的准确率。
并且,采用用户特征提取模型,从任一用户标识的用户关系网络中提取出该任一用户标识的用户特征,建立任一用户标识与用户特征之间的对应关系,在采用第二语音识别模型进行语音识别时,可以直接从已建立的对应关系中查询用户标识的用户特征,不需要每次对用户关系网络进行特征提取,提高了操作效率,提高了识别速度。
图10是本申请实施例提供的一种语音识别方法的流程图。参见图10,该方法的交互主体为终端和服务器,该方法包括:
1001、用户A的终端显示聊天界面,聊天界面中包括用户B发送给用户A的语音数据。其中,用户A和用户B可以为好友关系。
1002、用户A当前不方便收听语音数据,则长按该语音数据后,在聊天界面中显示“语音转文字”的按钮,用户A点击该按钮,则终端向服务器发送语音识别指令,该语音识别指令携带用户B发送的语音数据及用户B的用户标识。
1003、服务器接收识别指令,查询用户B的用户特征,综合用户B的用户特征和该语音数据进行识别,得到语音数据对应的文本数据,向终端发送文本数据。
步骤1003的实施方式与上述图4或图7所示的实施方式类似,在此不再赘述。
1004、终端接收文本数据,通过社交应用显示文本数据,此时用户A即可查看该文本数据,了解用户B发送的内容。
图11是本申请实施例提供的一种语音识别装置的结构示意图。参见图11,该装置包括:
语音特征获取模块1101,用于对第一用户标识的语音数据进行特征提取,得到语音数据的语音特征;
用户特征获取模块1102,用于获取第一用户标识的用户特征,用户特征是对第一用户标识的用户关系网络进行特征提取得到的,用户关系网络包括第一用户标识与至少一个第二用户标识之间的关联关系;
融合特征获取模块1103,用于对语音特征及用户特征进行融合处理,得到语音数据对应的融合特征;
语音识别模块1104,用于对融合特征进行识别处理,得到语音数据对应的文本数据。
本申请实施例提供的装置,在识别语音数据的过程中,不仅是对语音数据的语音特征进行识别处理,还根据用户标识的用户关系网络进行特征提取得到了用户特征,该用户特征可以反映用户的说话方式,将语音特征与用户特征融合,对融合特征进行识别处理,能够综合考虑语音数据的内容与用户的说话方式,以使识别处理得到的文本数据更加符合用户的说话方式,与语音数据也更为匹配,因此提高了语音识别的准确率。
可选地,用户特征获取模块1102,用于调用第一语音识别模型的用户特征提取层,对用户关系网络进行特征提取,得到第一用户标识的用户特征。
可选地,对第一用户标识的语音数据进行特征提取,得到语音数据的语音特征的步骤,通过调用第一语音识别模型的语音特征提取层执行;
对语音特征及用户特征进行融合处理,得到语音数据对应的融合特征的步骤,通过调用第一语音识别模型的特征融合层执行;
对融合特征进行识别处理,得到语音数据对应的文本数据的步骤,通过调用第一语音识别模型的语音识别层执行。
可选地,第一语音识别模型的训练过程包括以下步骤:
获取样本用户标识的样本用户关系网络、样本用户标识的样本语音数据以及样本语音数据对应的样本文本数据;
调用语音特征提取层,对样本语音数据进行特征提取,得到样本语音数据的预测语音特征;
调用样本用户特征获取层,对样本用户关系网络进行特征提取,得到样本用户标识的预测用户特征;
调用特征融合层,对预测语音特征及预测用户特征进行融合处理,得到样本语音数据对应的预测融合特征;
调用语音识别层,对预测融合特征进行识别处理,得到样本语音数据对应的预测文本数据;
根据样本文本数据及预测文本数据,调整第一语音识别模型中的参数。
可选地,参见图12,该装置还包括:
用户标识获取模块1105,用于获取第一用户标识关联的至少一个第二用户标识;
同构图创建模块1106,用于根据第一用户标识和至少一个第二用户标识,创建同构图,同构图中包括第一用户标识对应的第一用户节点和至少一个第二用户标识对应的第二用户节点,以及第一用户节点与至少一个第二用户节点之间的连接线。
可选地,用户特征获取模块1102,用于根据已建立的对应关系,查询第一用户标识的用户特征,预设对应关系包括至少一个用户标识及对应的用户特征,预设对应关系中任一用户标识对应的用户特征是对任一用户标识的用户关系网络进行特征提取得到的。
可选地,参见图12,该装置还包括:
用户特征获取模块1101,还用于调用用户特征提取模型,对任一用户标识的用户关系网络进行特征提取,得到任一用户标识的用户特征;
关系建立模块1107,用于建立任一用户标识与用户特征的对应关系。
可选地,用户特征提取模型的训练过程包括以下步骤:
获取样本用户标识的样本用户关系网络,以及样本用户关系网络中样本用户标识的样本用户特征;
根据样本用户关系网络以及样本用户特征,训练用户特征提取模型。
可选地,对第一用户标识的语音数据进行特征提取,得到语音数据的语音特征的步骤,通过调用第二语音识别模型的语音特征提取层执行;
根据已建立的对应关系,查询第一用户标识的用户特征的步骤,通过调用第二语音识别模型的用户特征获取层执行;
对语音特征及用户特征进行融合处理,得到语音数据对应的融合特征的步骤,通过调用第二语音识别模型的特征融合层执行;
对融合特征进行识别处理,得到语音数据对应的文本数据的步骤,通过调用第二语音识别模型的语音识别层执行。
可选地,第二语音识别模型的训练过程包括以下步骤:
获取样本用户标识、样本用户标识的样本语音数据以及样本语音数据对应的样本文本数据;
调用语音特征提取层,对样本语音数据进行特征提取,得到样本语音数据的预测语音特征;
调用用户特征获取层,根据已建立的对应关系,查询第一用户标识的用户特征;
调用特征融合层,对预测语音特征及用户特征进行融合处理,得到样本语音数据对应的预测融合特征;
调用语音识别层,对预测融合特征进行识别处理,得到样本语音数据对应的预测文本数据;
根据样本文本数据及预测文本数据,调整第二语音识别模型中的参数。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
需要说明的是:上述实施例提供的语音识别装置在识别语音时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将服务器的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的语音识别装置与语音识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图13示出了本申请一个示例性实施例提供的终端1300的结构框图。该终端1300可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1300还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1300包括有:处理器1301和存储器1302。
处理器1301可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1301可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1301也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1301可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1301还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1302可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1302还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1302中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1301所执行以实现本申请中方法实施例提供的语音识别方法。
在一些实施例中,终端1300还可选包括有:***设备接口1303和至少一个***设备。处理器1301、存储器1302和***设备接口1303之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口1303相连。具体地,***设备包括:射频电路1304、显示屏1305、摄像头组件1306、音频电路1307、定位组件1308和电源1309中的至少一种。
***设备接口1303可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器1301和存储器1302。在一些实施例中,处理器1301、存储器1302和***设备接口1303被集成在同一芯片或电路板上;在一些其他实施例中,处理器1301、存储器1302和***设备接口1303中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1304用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1304通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1304将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1304包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1304可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1304还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1305用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1305是触摸显示屏时,显示屏1305还具有采集在显示屏1305的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1301进行处理。此时,显示屏1305还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1305可以为一个,设置在终端1300的前面板;在另一些实施例中,显示屏1305可以为至少两个,分别设置在终端1300的不同表面或呈折叠设计;在另一些实施例中,显示屏1305可以是柔性显示屏,设置在终端1300的弯曲表面上或折叠面上。甚至,显示屏1305还可以设置成非矩形的不规则图形,也即异形屏。显示屏1305可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-EmittingDiode,有机发光二极管)等材质制备。
摄像头组件1306用于采集图像或视频。可选地,摄像头组件1306包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1306还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1307可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1301进行处理,或者输入至射频电路1304以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1300的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1301或射频电路1304的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1307还可以包括耳机插孔。
定位组件1308用于定位终端1300的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。
电源1309用于为终端1300中的各个组件进行供电。电源1309可以是交流电、直流电、一次性电池或可充电电池。当电源1309包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1300还包括有一个或多个传感器1310。该一个或多个传感器1310包括但不限于:加速度传感器1311、陀螺仪传感器1312、压力传感器1313、指纹传感器1314、光学传感器1315以及接近传感器1316。
加速度传感器1311可以检测以终端1300建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1311可以用于检测重力加速度在三个坐标轴上的分量。处理器1301可以根据加速度传感器1311采集的重力加速度信号,控制显示屏1305以横向视图或纵向视图进行用户界面的显示。加速度传感器1311还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1312可以检测终端1300的机体方向及转动角度,陀螺仪传感器1312可以与加速度传感器1311协同采集用户对终端1300的3D动作。处理器1301根据陀螺仪传感器1312采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1313可以设置在终端1300的侧边框和/或显示屏1305的下层。当压力传感器1313设置在终端1300的侧边框时,可以检测用户对终端1300的握持信号,由处理器1301根据压力传感器1313采集的握持信号进行左右手识别或快捷操作。当压力传感器1313设置在显示屏1305的下层时,由处理器1301根据用户对显示屏1305的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1314用于采集用户的指纹,由处理器1301根据指纹传感器1314采集到的指纹识别用户的身份,或者,由指纹传感器1314根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1301授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1314可以被设置在终端1300的正面、背面或侧面。当终端1300上设置有物理按键或厂商Logo时,指纹传感器1314可以与物理按键或厂商Logo集成在一起。
光学传感器1315用于采集环境光强度。在一个实施例中,处理器1301可以根据光学传感器1315采集的环境光强度,控制显示屏1305的显示亮度。具体地,当环境光强度较高时,调高显示屏1305的显示亮度;当环境光强度较低时,调低显示屏1305的显示亮度。在另一个实施例中,处理器1301还可以根据光学传感器1315采集的环境光强度,动态调整摄像头组件1306的拍摄参数。
接近传感器1316,也称距离传感器,通常设置在终端1300的前面板。接近传感器1316用于采集用户与终端1300的正面之间的距离。在一个实施例中,当接近传感器1316检测到用户与终端1300的正面之间的距离逐渐变小时,由处理器1301控制显示屏1305从亮屏状态切换为息屏状态;当接近传感器1316检测到用户与终端1300的正面之间的距离逐渐变大时,由处理器1301控制显示屏1305从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图13中示出的结构并不构成对终端1300的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图14是本申请实施例提供的一种服务器的结构示意图,该服务器1400可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(Central ProcessingUnits,CPU)1401和一个或一个以上的存储器1402,其中,存储器1402中存储有至少一条指令,该至少一条指令由处理器1401加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
服务器1400可以用于执行上述语音识别方法中服务器所执行的步骤。
本申请实施例还提供了一种计算机设备,该计算机设备包括处理器和存储器,存储器中存储有至少一条指令,该至少一条指令由处理器加载并执行,以实现上述实施例的语音识别方法中所执行的操作。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条指令,该至少一条指令由处理器加载并执行,以实现上述实施例的语音识别方法中所执行的操作。
本申请实施例还提供了一种计算机程序产品,该计算机程序产品包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备实现上述实施例的语音识别方法中所执行的操作。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上仅为本申请实施例的可选实施例,并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (20)

1.一种语音识别方法,其特征在于,所述方法包括:
调用第一语音识别模型的语音特征提取层,对第一用户标识的语音数据进行特征提取,得到所述语音数据的语音特征;
调用所述第一语音识别模型的用户特征提取层,对所述第一用户标识的用户关系网络进行特征提取,获取所述第一用户标识的用户特征,所述用户关系网络包括所述第一用户标识与至少一个第二用户标识之间的关联关系,所述用户特征反映用户的说话方式,具有关联关系的用户标识对应的用户特征比不具有关联关系的用户标识对应的用户特征的相似程度高;
对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征;
对所述融合特征进行识别处理,得到所述语音数据对应的文本数据。
2.根据权利要求1所述的方法,其特征在于,所述对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征的步骤,通过调用所述第一语音识别模型的特征融合层执行;
所述对所述融合特征进行识别处理,得到所述语音数据对应的文本数据的步骤,通过调用所述第一语音识别模型的语音识别层执行。
3.根据权利要求2所述的方法,其特征在于,所述第一语音识别模型的训练过程包括以下步骤:
获取样本用户标识的样本用户关系网络、所述样本用户标识的样本语音数据以及所述样本语音数据对应的样本文本数据;
调用所述语音特征提取层,对所述样本语音数据进行特征提取,得到所述样本语音数据的预测语音特征;
调用所述样本用户特征获取层,对所述样本用户关系网络进行特征提取,得到所述样本用户标识的预测用户特征;
调用所述特征融合层,对所述预测语音特征及所述预测用户特征进行融合处理,得到所述样本语音数据对应的预测融合特征;
调用所述语音识别层,对所述预测融合特征进行识别处理,得到所述样本语音数据对应的预测文本数据;
根据所述样本文本数据及所述预测文本数据,调整所述第一语音识别模型中的参数。
4.根据权利要求1所述的方法,其特征在于,所述用户关系网络为同构图,所述获取所述第一用户标识的用户特征之前,所述方法还包括:
获取所述第一用户标识关联的至少一个第二用户标识;
根据所述第一用户标识和所述至少一个第二用户标识,创建同构图,所述同构图中包括所述第一用户标识对应的第一用户节点和所述至少一个第二用户标识对应的第二用户节点,以及所述第一用户节点与至少一个第二用户节点之间的连接线。
5.根据权利要求1所述的方法,其特征在于,所述获取所述第一用户标识的用户特征,包括:
根据已建立的对应关系,查询所述第一用户标识的用户特征,所述对应关系包括至少一个用户标识及对应的用户特征,所述对应关系中任一用户标识对应的用户特征是对所述任一用户标识的用户关系网络进行特征提取得到的。
6.根据权利要求5所述的方法,其特征在于,所述根据已建立的对应关系,查询所述第一用户标识的用户特征之前,所述方法还包括:
调用用户特征提取模型,对所述任一用户标识的用户关系网络进行特征提取,得到所述任一用户标识的用户特征;
建立所述任一用户标识与所述用户特征的对应关系。
7.根据权利要求6所述的方法,其特征在于,所述用户特征提取模型的训练过程包括以下步骤:
获取样本用户标识的样本用户关系网络,以及所述样本用户关系网络中所述样本用户标识的样本用户特征;
根据所述样本用户关系网络以及所述样本用户特征,训练所述用户特征提取模型。
8.根据权利要求5所述的方法,其特征在于,所述对第一用户标识的语音数据进行特征提取,得到所述语音数据的语音特征的步骤,通过调用第二语音识别模型的语音特征提取层执行;
所述根据已建立的对应关系,查询所述第一用户标识的用户特征的步骤,通过调用所述第二语音识别模型的用户特征获取层执行;
所述对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征的步骤,通过调用所述第二语音识别模型的特征融合层执行;
所述对所述融合特征进行识别处理,得到所述语音数据对应的文本数据的步骤,通过调用所述第二语音识别模型的语音识别层执行。
9.根据权利要求8所述的方法,其特征在于,所述第二语音识别模型的训练过程包括以下步骤:
获取样本用户标识、所述样本用户标识的样本语音数据以及所述样本语音数据对应的样本文本数据;
调用所述语音特征提取层,对所述样本语音数据进行特征提取,得到所述样本语音数据的预测语音特征;
调用所述用户特征获取层,根据所述已建立的对应关系,查询所述第一用户标识的用户特征;
调用所述特征融合层,对所述预测语音特征及所述用户特征进行融合处理,得到所述样本语音数据对应的预测融合特征;
调用所述语音识别层,对所述预测融合特征进行识别处理,得到所述样本语音数据对应的预测文本数据;
根据所述样本文本数据及所述预测文本数据,调整所述第二语音识别模型中的参数。
10.一种语音识别装置,其特征在于,所述装置包括:
语音特征获取模块,用于调用第一语音识别模型的语音特征提取层,对第一用户标识的语音数据进行特征提取,得到所述语音数据的语音特征;
用户特征获取模块,用于调用所述第一语音识别模型的用户特征提取层,对所述第一用户标识的用户关系网络进行特征提取,获取所述第一用户标识的用户特征,所述用户关系网络包括所述第一用户标识与至少一个第二用户标识之间的关联关系,所述用户特征反映用户的说话方式,具有关联关系的用户标识对应的用户特征比不具有关联关系的用户标识对应的用户特征的相似程度高;
融合特征获取模块,用于对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征;
语音识别模块,用于对所述融合特征进行识别处理,得到所述语音数据对应的文本数据。
11.根据权利要求10所述的装置,其特征在于,所述对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征的步骤,通过调用所述第一语音识别模型的特征融合层执行;
所述对所述融合特征进行识别处理,得到所述语音数据对应的文本数据的步骤,通过调用所述第一语音识别模型的语音识别层执行。
12.根据权利要求11所述的装置,其特征在于,所述第一语音识别模型的训练过程包括以下步骤:
获取样本用户标识的样本用户关系网络、所述样本用户标识的样本语音数据以及所述样本语音数据对应的样本文本数据;
调用所述语音特征提取层,对所述样本语音数据进行特征提取,得到所述样本语音数据的预测语音特征;
调用所述样本用户特征获取层,对所述样本用户关系网络进行特征提取,得到所述样本用户标识的预测用户特征;
调用所述特征融合层,对所述预测语音特征及所述预测用户特征进行融合处理,得到所述样本语音数据对应的预测融合特征;
调用所述语音识别层,对所述预测融合特征进行识别处理,得到所述样本语音数据对应的预测文本数据;
根据所述样本文本数据及所述预测文本数据,调整所述第一语音识别模型中的参数。
13.根据权利要求10所述的装置,其特征在于,所述装置还包括:
用户标识获取模块,用于获取所述第一用户标识关联的至少一个第二用户标识;
同构图创建模块,用于根据所述第一用户标识和所述至少一个第二用户标识,创建同构图,所述同构图中包括所述第一用户标识对应的第一用户节点和所述至少一个第二用户标识对应的第二用户节点,以及所述第一用户节点与至少一个第二用户节点之间的连接线。
14.根据权利要求10所述的装置,其特征在于,所述用户特征获取模块,用于根据已建立的对应关系,查询所述第一用户标识的用户特征,所述对应关系包括至少一个用户标识及对应的用户特征,所述对应关系中任一用户标识对应的用户特征是对所述任一用户标识的用户关系网络进行特征提取得到的。
15.根据权利要求14所述的装置,其特征在于,所述装置还包括:
所述用户特征获取模块,还用于调用用户特征提取模型,对所述任一用户标识的用户关系网络进行特征提取,得到所述任一用户标识的用户特征;
关系建立模块,用于建立所述任一用户标识与所述用户特征的对应关系。
16.根据权利要求15所述的装置,其特征在于,所述用户特征提取模型的训练过程包括以下步骤:
获取样本用户标识的样本用户关系网络,以及所述样本用户关系网络中所述样本用户标识的样本用户特征;
根据所述样本用户关系网络以及所述样本用户特征,训练所述用户特征提取模型。
17.根据权利要求14所述的装置,其特征在于,所述对第一用户标识的语音数据进行特征提取,得到所述语音数据的语音特征的步骤,通过调用第二语音识别模型的语音特征提取层执行;
所述根据已建立的对应关系,查询所述第一用户标识的用户特征的步骤,通过调用所述第二语音识别模型的用户特征获取层执行;
所述对所述语音特征及所述用户特征进行融合处理,得到所述语音数据对应的融合特征的步骤,通过调用所述第二语音识别模型的特征融合层执行;
所述对所述融合特征进行识别处理,得到所述语音数据对应的文本数据的步骤,通过调用所述第二语音识别模型的语音识别层执行。
18.根据权利要求17所述的装置,其特征在于,所述第二语音识别模型的训练过程包括以下步骤:
获取样本用户标识、所述样本用户标识的样本语音数据以及所述样本语音数据对应的样本文本数据;
调用所述语音特征提取层,对所述样本语音数据进行特征提取,得到所述样本语音数据的预测语音特征;
调用所述用户特征获取层,根据所述已建立的对应关系,查询所述第一用户标识的用户特征;
调用所述特征融合层,对所述预测语音特征及所述用户特征进行融合处理,得到所述样本语音数据对应的预测融合特征;
调用所述语音识别层,对所述预测融合特征进行识别处理,得到所述样本语音数据对应的预测文本数据;
根据所述样本文本数据及所述预测文本数据,调整所述第二语音识别模型中的参数。
19.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行,以实现如权利要求1至9任一权利要求所述的语音识别方法中所执行的操作。
20.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行,以实现如权利要求1至9任一权利要求所述的语音识别方法中所执行的操作。
CN202010622097.5A 2020-07-01 2020-07-01 语音识别方法、装置、计算机设备及介质 Active CN111739517B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010622097.5A CN111739517B (zh) 2020-07-01 2020-07-01 语音识别方法、装置、计算机设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010622097.5A CN111739517B (zh) 2020-07-01 2020-07-01 语音识别方法、装置、计算机设备及介质

Publications (2)

Publication Number Publication Date
CN111739517A CN111739517A (zh) 2020-10-02
CN111739517B true CN111739517B (zh) 2024-01-30

Family

ID=72652260

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010622097.5A Active CN111739517B (zh) 2020-07-01 2020-07-01 语音识别方法、装置、计算机设备及介质

Country Status (1)

Country Link
CN (1) CN111739517B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112948584B (zh) * 2021-03-03 2023-06-23 北京百度网讯科技有限公司 短文本分类方法、装置、设备以及存储介质
CN113327596B (zh) * 2021-06-17 2023-01-24 北京百度网讯科技有限公司 语音识别模型的训练方法、语音识别方法和装置
CN114817757B (zh) * 2022-04-02 2023-07-21 广州大学 基于图卷积网络的跨社交网络虚拟身份关联方法
CN114495904B (zh) * 2022-04-13 2022-09-23 阿里巴巴(中国)有限公司 语音识别方法以及装置
CN116543389B (zh) * 2023-03-13 2023-09-19 中国人民解放军海军工程大学 基于关系网络的字符识别方法、装置、设备及介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6442519B1 (en) * 1999-11-10 2002-08-27 International Business Machines Corp. Speaker model adaptation via network of similar users
CN105096935A (zh) * 2014-05-06 2015-11-25 阿里巴巴集团控股有限公司 一种语音输入方法、装置和***
CN105895080A (zh) * 2016-03-30 2016-08-24 乐视控股(北京)有限公司 语音识别模型训练方法、说话人类型识别方法及装置
CN107346517A (zh) * 2016-05-05 2017-11-14 腾讯科技(深圳)有限公司 用户关系网络中的用户交互参数获取方法及获取装置
CN107609461A (zh) * 2017-07-19 2018-01-19 阿里巴巴集团控股有限公司 模型的训练方法、数据相似度的确定方法、装置及设备
CN108877809A (zh) * 2018-06-29 2018-11-23 北京中科智加科技有限公司 一种说话人语音识别方法及装置
CN110047468A (zh) * 2019-05-20 2019-07-23 北京达佳互联信息技术有限公司 语音识别方法、装置及存储介质
CN110364146A (zh) * 2019-08-23 2019-10-22 腾讯科技(深圳)有限公司 语音识别方法、装置、语音识别设备及存储介质
CN110781280A (zh) * 2019-10-21 2020-02-11 深圳众赢维融科技有限公司 基于知识图谱的语音辅助方法及装置
CN111009237A (zh) * 2019-12-12 2020-04-14 北京达佳互联信息技术有限公司 语音识别方法、装置、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9305553B2 (en) * 2010-04-28 2016-04-05 William S. Meisel Speech recognition accuracy improvement through speaker categories
US10354656B2 (en) * 2017-06-23 2019-07-16 Microsoft Technology Licensing, Llc Speaker recognition

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6442519B1 (en) * 1999-11-10 2002-08-27 International Business Machines Corp. Speaker model adaptation via network of similar users
CN105096935A (zh) * 2014-05-06 2015-11-25 阿里巴巴集团控股有限公司 一种语音输入方法、装置和***
CN105895080A (zh) * 2016-03-30 2016-08-24 乐视控股(北京)有限公司 语音识别模型训练方法、说话人类型识别方法及装置
CN107346517A (zh) * 2016-05-05 2017-11-14 腾讯科技(深圳)有限公司 用户关系网络中的用户交互参数获取方法及获取装置
CN107609461A (zh) * 2017-07-19 2018-01-19 阿里巴巴集团控股有限公司 模型的训练方法、数据相似度的确定方法、装置及设备
CN108877809A (zh) * 2018-06-29 2018-11-23 北京中科智加科技有限公司 一种说话人语音识别方法及装置
CN110047468A (zh) * 2019-05-20 2019-07-23 北京达佳互联信息技术有限公司 语音识别方法、装置及存储介质
CN110364146A (zh) * 2019-08-23 2019-10-22 腾讯科技(深圳)有限公司 语音识别方法、装置、语音识别设备及存储介质
CN110781280A (zh) * 2019-10-21 2020-02-11 深圳众赢维融科技有限公司 基于知识图谱的语音辅助方法及装置
CN111009237A (zh) * 2019-12-12 2020-04-14 北京达佳互联信息技术有限公司 语音识别方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN111739517A (zh) 2020-10-02

Similar Documents

Publication Publication Date Title
CN111739517B (zh) 语音识别方法、装置、计算机设备及介质
CN110503959B (zh) 语音识别数据分发方法、装置、计算机设备及存储介质
CN111524501B (zh) 语音播放方法、装置、计算机设备及计算机可读存储介质
CN111564152B (zh) 语音转换方法、装置、电子设备及存储介质
CN110263131B (zh) 回复信息生成方法、装置及存储介质
CN110572716B (zh) 多媒体数据播放方法、装置及存储介质
WO2022057435A1 (zh) 基于搜索的问答方法及存储介质
CN111428079B (zh) 文本内容处理方法、装置、计算机设备及存储介质
CN114333774A (zh) 语音识别方法、装置、计算机设备及存储介质
CN111341317B (zh) 唤醒音频数据的评价方法、装置、电子设备及介质
CN111554314A (zh) 噪声检测方法、装置、终端及存储介质
CN113409770A (zh) 发音特征处理方法、装置、服务器及介质
CN112764600A (zh) 资源处理方法、装置、存储介质及计算机设备
CN115116437B (zh) 语音识别方法、装置、计算机设备、存储介质及产品
CN110837557A (zh) 摘要生成方法、装置、设备及介质
CN113744736B (zh) 命令词识别方法、装置、电子设备及存储介质
CN116956814A (zh) 标点预测方法、装置、设备及存储介质
CN111597823B (zh) 中心词提取方法、装置、设备及存储介质
CN115658857A (zh) 智能对话方法、装置、设备及存储介质
CN114328815A (zh) 文本映射模型的处理方法、装置、计算机设备及存储介质
CN111028846B (zh) 免唤醒词注册的方法和装置
CN114153953A (zh) 对话回复的生成方法、装置、设备及存储介质
CN113822084A (zh) 语句翻译方法、装置、计算机设备及存储介质
CN108958505B (zh) 一种显示候选信息的方法及终端
CN112487162A (zh) 确定文本语义信息的方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40030065

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant