CN107342079A - 一种基于互联网的真实人声的采集*** - Google Patents
一种基于互联网的真实人声的采集*** Download PDFInfo
- Publication number
- CN107342079A CN107342079A CN201710543472.5A CN201710543472A CN107342079A CN 107342079 A CN107342079 A CN 107342079A CN 201710543472 A CN201710543472 A CN 201710543472A CN 107342079 A CN107342079 A CN 107342079A
- Authority
- CN
- China
- Prior art keywords
- speech data
- server
- speech
- client
- statement text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000011156 evaluation Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 16
- 238000007689 inspection Methods 0.000 claims description 2
- 238000004321 preservation Methods 0.000 claims description 2
- 230000001915 proofreading effect Effects 0.000 abstract description 5
- 238000012805 post-processing Methods 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000000151 deposition Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000238558 Eucarida Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
一种基于互联网的真实人声的采集***,包括:服务器和客户端;服务器和客户端网络连接;服务器执行:将预存的文本材料分割为其长度适用于深度神经网络训练的语句文本;向获取客户端访问权限的非特定的用户发送待朗读的语句文本;接收与语句文本对应的语音数据;客户端执行:向服务器发起语句文本的朗读请求和接收待朗读的语句文本;采集用户朗读语句文本的语音数据,并将采集到的语音数据传送至服务器。本例的真实人声的采集方式与现有的语音采集方式相比:不需要对采集的音频文件进行大量的后期处理和校对工作,而且,采集的音频文件与朗读的文本材料相对应;另外,通过对采集的语音数据进行评价,进一步,实现了真实人声的高质量采集。
Description
技术领域
本发明涉及语音采集技术领域,具体涉及一种基于互联网的真实人声的采集***。
背景技术
基于深度神经网络的语音识别技术在近年得到了快速的发展并得到了大量应用。这种技术需要将事先标记好的语音数据(即具备文字-语音对照的数据)输入到一个神经网络当中,对神经网络进行训练。标记好的语音数据的数量和质量对于语音识别的效果至关重要,标记好的数据越多,训练的效果越好。标记好的语音数据质量越高,越接近真实的人类语音,训练出来的深度神经网络对真实人类语音的识别效果就越好。
目前,深度学习方面使用的标记语音数据集的主要获取来源包括以下几个方面:
a.专门招募人员朗读文本材料并进行录音,以采集人声样本;
b.利用公开领域的音频文件以获得人声样本;
c.开发语音输入法,采集用户的人声样本,如讯飞语音输入法;
d.提供操作***的语音助手,通过客户与其互动,采集人声样本,如微软公司Win10桌面版的Cortana和苹果公司的Siri;
e.利用语音合成技术按照文本材料直接合成。
上述的人声采集技术存在如下问题:
1.招募人朗读文本材料的方式,采集到的音频文件必须通过后期分割成10秒左右的小文件,并且需要分割文本材料与之对应,这些都需要大量的后期处理和校对工作。而且采集的范围小,每次能采集到的样本数量有限;
2.利用公开领域的音频文件的方式,通常这些音频文件都缺乏相对应的文本材料,文件大小通常也过大,需要大量的后期文字听写,分割处理和校对工作;
3.用语音输入法采集的方式,采集到的人声样本并不能保证带有准确的文字与之对应。同时,采集到的人声样本长短不齐,也有大量无用的样本混杂期间,样本质量无法保证,需要大量的后期处理和校对工作;
4.用语音助手的方式,缺点与用语音输入法采集的方式相同;
5.用语音合成技术的方式,合成的语音与真实人声有较大区别,不利于深度神经网络对真实语音的学习。
发明内容
本申请提供一种基于互联网的真实人声的采集***,包括服务器和客户端;
服务器和客户端网络连接;
服务器执行:
将预存的文本材料分割为其长度适用于深度神经网络训练的语句文本;
向获取客户端访问权限的非特定的用户发送待朗读的语句文本;
接收与语句文本对应的语音数据;
客户端执行:
向服务器发起语句文本的朗读请求和接收待朗读的语句文本;
采集用户朗读语句文本的语音数据,并将采集到的语音数据传送至服务器。
一种实施例中,还包括语音评价模块,语音评价模块执行对所述语音数据进行评价。
一种实施例中,语音评价模块执行语音数据进行评价,具体为:根据噪音水平及用户是否按照语句文本进行朗读计算所述语音数据的评分。
一种实施例中,语音评价模块集成于服务器,服务器还执行:对语音数据进行评价,将通过评价的语音数据进行有效标记并将其保存至与其相对应的语句文本的存储体中,否则,将未通过评价的语音数据进行无效标记。
一种实施例中,语音评价模块集成于客户端,客户端还执行:对语音数据进行评价,将通过评价的语音数据进行有效标记并将其传送至服务器,否则,将未通过评价的语音数据进行无效标记。
一种实施例中,还包括第三方检测平台,第三方检测平台分别与客户端和服务器网络连接;
客户端执行:
将采集到的语音数据传送至第三方检测平台;
第三方检测平台内置有语音评价模块,第三方检测平台执行:
对语音数据进行评价,将通过评价的语音数据进行有效标记并将其传输至服务器,否则,将未通过评价的语音数据进行无效标记。
一种实施例中,服务器集成有抽查模块,服务器还执行:对保存的有效的语音数据进行随机人工抽查。
一种实施例中,客户端执行的程序至少依附于其中之一:智能设备、个人电脑和浏览器网页。
依据上述实施例的采集***,由于将预存的文本材料分割为其长度适用于深度神经网络训练的语句文本,根据用户的朗读请求向其发送待朗读的语句文本,对用户朗读语句文本的语音进行采集,本例的真实人声的采集方式与现有的语音采集方式相比:本例不需要对采集的音频文件进行后期分割、不需要大量的后期处理和校对工作,而且,采集的音频文件与朗读的文本材料相对应;另外,通过对采集的语音数据进行评价,将评价通过的语音数据进行存储和有效的标记,进一步,实现了真实人声的高质量采集。
附图说明
图1为实施例一的采集***工作示意图;
图2为实施例二的采集***工作示意图;
图3为实施例三的采集***工作示意图。
具体实施方式
下面通过具体实施方式结合附图对本发明作进一步详细说明。
在本发明实施例中,为解决目前用于训练深度神经网络的带标记的真实人声语音数据样本较少,语音数据样本获取成本较高的问题,本例提供一种基于互联网的真实人声的采集***,其采集的语音数据可以在简单处理后用于深度学习神经网络的训练、验证和测试。
实施例一:
本例的基于互联网的真实人声的采集***包括服务器1和客户端2,其工作示意图如图1所示,服务器1和客户端2基于互联网建立网络连接,客户端2对非特定用户朗读的语句文本进行录音,并将录音发送至服务器1,以实现真实人声的采集,其中,非特定用户指的是任何一个用户,即,任何一个用户通过注册,均可以向服务器1请求朗读语句文本,由此,扩展了语音采样的范围。
具体的,为了避免对采集的音频文件进行分割处理,更为了方便采集的音频文件适用于深度神经网络语音识别的样本,服务器1将预存的大量的文本材料分割为其长度适用于深度神经网络训练的语句文本,如,语句文本的长度大约等于10秒左右的朗读时间。
当非特定用户通过客户端2注册一账号后,即可成为朗读语句文本的特定用户,如,当非特定用户根据客户端2的注册提示,逐步同意客户端2应用使用条款后,该非特定用户就能获取客户端2的访问权限,然后,用户就能通过客户端2向服务器1发起朗读语句文本的请求,客户端2接收待朗读的语句文本,用户朗读获取的语句文本,此时,客户端2附带的录音硬件设备被触发,对用户朗读的真实人声进行录音,待用户朗读完毕后,客户端2将采集到的语音数据传送至服务器1,服务器1接收并存储该语音数据,从而使服务器1能够采集到和文字对应的语音信息。
为了保证获取语音信息的有效性,避免获得无用的样本,针对每一个采集到的语音数据进行自动检测并给出评价分数,只有评价分数超过预设数值的语音数据才会被存储到服务器1。本例还包括语音评价模块3,语音评价模块3对语音数据进行评价,根据评价分数判断采集到的语音数据是否符合要求,其中,评价语音数据的要素包括噪音水平和用户是否按照语句文本进行朗读,因此,语音评价模块3根据噪音水平及用户是否按照语句文本进行朗读计算语音数据的评分。
其中,针对用户是否按照语句文本进行朗读,具体的评价方式是,语音评价模块3将采用该语句文本对应的参考语音,该参考语音可以是已有的采集的标记语音,也可以是合成人工语音,语音评价模块3比较参考语音和采集的语音的相似度,根据相似度进行评分。
比较参考语音和采集的语音的相似度的实现方式是:先使用动态时间规整算法找到采集的语间与参考语间的特征的最佳对齐,然后使用Levenshtein距离算法来计算这两个序列之间的距离,通过距离得到两个语间之间的相似度,根据该相似度进行评分。
本例中,语音评价模块3集成于服务器1,服务器1接收到语句文本对应的语音数据后,服务器1通过语音评价模块3对语音数据进行评价,服务器1将通过评价的语音数据进行有效标记并将其保存至与其相对应的语句文本的存储体4中,否则,将未通过评价的语音数据进行无效标记,服务器1可以将无效标记的语音数据保存到服务器1中的存储体4中,也可以将其丢弃。
进一步,为了保证上传的有效标记语音数据的质量,服务器1集成有抽查模块,服务器1通过抽查模块对已保存在存储体4中的有效标记的语音数据进行随机人工抽查,以获取相关信息用于调整语音数据的评价参数,并能够剔除自动检测所未能发现的无效样本,进一步提高真实人声样本集的质量。
需要说明的是,为了扩展真实人声样本集的采样范围,本例的客户端2执行的程序的存在形态可以是手机、平板电脑、个人电脑上的独立应用程序,也可以是集成在其他应用程序里面的专用功能模块程序,也可以是浏览器网页应用程序,也可以是定制的专用硬件的执行程序,即,客户端执行的程序至少依附于其中之一:智能设备、个人电脑和浏览器网页,其中,智能设备包括但不限于:智能手机、平板电脑、智能手表、游戏机、专用的录音器、智能家居控制器等。相应的,服务器1执行的程序可以部署在实体服务器上,也可以部署在云端,即服务器1可以是云端服务器,也可以是一般的服务器。
实施例二:
基于实施例一,本例与实施例一不同的是:本例将语音评价模块3集成于客户端2,其工作示意图如图2所示,客户端2采集用户朗读语句文本的语音数据后,还要通过语音评价模块3对语音数据进行评价,将通过评价的语音数据进行有效标记并将其传送至服务器1,服务器1将通过评价的语音数据进行有效标记并将其保存至与其相对应的语句文本的存储体4中,否则,将未通过评价的语音数据进行无效标记,客户端2可以将未通过评价的语音数据直接丢弃,也可以将其传输并保存到服务器1中的存储体4内。
实施例三:
基于实施例一,本例与实施例一不同的是,本例还包括第三方检测平台5,第三方检测平台5分别与客户端2和服务器1网络连接,其工作示意图如图3所示,客户端2将采集到的语音数据直接传送至第三方检测平台5;第三方检测平台5内置有语音评价模块3,由第三方检测平台5通过语音评价模块3对语音数据进行评价,将通过评价的语音数据进行有效标记并将其传输至服务器1,服务器1将通过评价的语音数据进行有效标记并将其保存至与其相对应的语句文本的存储体4中,否则,将未通过评价的语音数据进行无效标记,第三方检测平台5可以将未通过评价的语音数据直接丢弃,也可以将其传输并保存到服务器1中的存储体4中。
以上应用了具体个例对本发明进行阐述,只是用于帮助理解本发明,并不用以限制本发明。对于本发明所属技术领域的技术人员,依据本发明的思想,还可以做出若干简单推演、变形或替换。
Claims (8)
1.一种基于互联网的真实人声的采集***,其特征在于,包括:服务器和客户端;
所述服务器和客户端网络连接;
所述服务器执行:
将预存的文本材料分割为其长度适用于深度神经网络训练的语句文本;
向获取客户端访问权限的非特定的用户发送待朗读的语句文本;
接收与所述语句文本对应的语音数据;
所述客户端执行:
向所述服务器发起语句文本的朗读请求和接收待朗读的语句文本;
采集用户朗读语句文本的语音数据,并将采集到的语音数据传送至所述服务器。
2.如权利要求1所述的采集***,其特征在于,还包括语音评价模块,所述语音评价模块执行对所述语音数据进行评价。
3.如权利要求2所述的采集***,其特征在于,所述语音评价模块执行所述语音数据进行评价,具体为:根据噪音水平及用户是否按照语句文本进行朗读计算所述语音数据的评分。
4.如权利要求2所述的采集***,其特征在于,所述语音评价模块集成于所述服务器,所述服务器还执行:对所述语音数据进行评价,将通过评价的语音数据进行有效标记并将其保存至与其相对应的语句文本的存储体中,否则,将未通过评价的语音数据进行无效标记。
5.如权利要求2所述的采集***,其特征在于,所述语音评价模块集成于所述客户端,所述客户端还执行:对所述语音数据进行评价,将通过评价的语音数据进行有效标记并将其传送至所述服务器,否则,将未通过评价的语音数据进行无效标记。
6.如权利要求2所述的采集***,其特征在于,还包括第三方检测平台,所述第三方检测平台分别与所述客户端和服务器网络连接;
所述客户端执行:
将采集到的语音数据传送至所述第三方检测平台;
所述第三方检测平台内置有所述语音评价模块,所述第三方检测平台执行:
对所述语音数据进行评价,将通过评价的语音数据进行有效标记并将其传输至所述服务器,否则,将未通过评价的语音数据进行无效标记。
7.如权利要求4-6任一项所述的采集***,其特征在于,所述服务器集成有抽查模块,所述服务器还执行:对保存的有效的语音数据进行随机人工抽查。
8.如权利要求1所述的采集***,其特征在于,所述客户端执行的程序至少依附于其中之一:智能设备、个人电脑和浏览器网页。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710543472.5A CN107342079A (zh) | 2017-07-05 | 2017-07-05 | 一种基于互联网的真实人声的采集*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710543472.5A CN107342079A (zh) | 2017-07-05 | 2017-07-05 | 一种基于互联网的真实人声的采集*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107342079A true CN107342079A (zh) | 2017-11-10 |
Family
ID=60218438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710543472.5A Pending CN107342079A (zh) | 2017-07-05 | 2017-07-05 | 一种基于互联网的真实人声的采集*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107342079A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107818797A (zh) * | 2017-12-07 | 2018-03-20 | 苏州科达科技股份有限公司 | 语音质量评价方法、装置及其*** |
CN108010539A (zh) * | 2017-12-05 | 2018-05-08 | 广州势必可赢网络科技有限公司 | 一种基于语音激活检测的语音质量评估方法及装置 |
CN108696622A (zh) * | 2018-05-28 | 2018-10-23 | 成都昊铭科技有限公司 | 无需接口的语音唤醒测试装置、***及方法 |
CN110797001A (zh) * | 2018-07-17 | 2020-02-14 | 广州阿里巴巴文学信息技术有限公司 | 电子书语音音频的生成方法、装置及可读存储介质 |
CN111210826A (zh) * | 2019-12-26 | 2020-05-29 | 深圳市优必选科技股份有限公司 | 语音信息处理方法、装置、存储介质和智能终端 |
CN113422825A (zh) * | 2021-06-22 | 2021-09-21 | 读书郎教育科技有限公司 | 一种辅助培养朗读兴趣的***及方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1940915A (zh) * | 2005-09-29 | 2007-04-04 | 国际商业机器公司 | 训练语料扩充***和方法 |
US20070168578A1 (en) * | 2005-10-27 | 2007-07-19 | International Business Machines Corporation | System and method for data collection interface creation and data collection administration |
CN102176222A (zh) * | 2011-03-18 | 2011-09-07 | 北京科技大学 | 多传感器信息采集分析***及自闭症儿童监护辅助*** |
CN103198828A (zh) * | 2013-04-03 | 2013-07-10 | 中金数据***有限公司 | 语音语料库的构建方法和*** |
CN104732977A (zh) * | 2015-03-09 | 2015-06-24 | 广东外语外贸大学 | 一种在线口语发音质量评价方法和*** |
CN104754112A (zh) * | 2013-12-31 | 2015-07-01 | 中兴通讯股份有限公司 | 用户信息获取方法及移动终端 |
CN105825856A (zh) * | 2016-05-16 | 2016-08-03 | 四川长虹电器股份有限公司 | 车载语音识别模块的自主学习方法 |
CN105873050A (zh) * | 2010-10-14 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 无线业务身份认证方法、服务器及*** |
CN106023991A (zh) * | 2016-05-23 | 2016-10-12 | 丽水学院 | 一种面向多任务交互的手持式语音交互装置及交互方法 |
-
2017
- 2017-07-05 CN CN201710543472.5A patent/CN107342079A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1940915A (zh) * | 2005-09-29 | 2007-04-04 | 国际商业机器公司 | 训练语料扩充***和方法 |
US20070168578A1 (en) * | 2005-10-27 | 2007-07-19 | International Business Machines Corporation | System and method for data collection interface creation and data collection administration |
CN105873050A (zh) * | 2010-10-14 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 无线业务身份认证方法、服务器及*** |
CN102176222A (zh) * | 2011-03-18 | 2011-09-07 | 北京科技大学 | 多传感器信息采集分析***及自闭症儿童监护辅助*** |
CN103198828A (zh) * | 2013-04-03 | 2013-07-10 | 中金数据***有限公司 | 语音语料库的构建方法和*** |
CN104754112A (zh) * | 2013-12-31 | 2015-07-01 | 中兴通讯股份有限公司 | 用户信息获取方法及移动终端 |
CN104732977A (zh) * | 2015-03-09 | 2015-06-24 | 广东外语外贸大学 | 一种在线口语发音质量评价方法和*** |
CN105825856A (zh) * | 2016-05-16 | 2016-08-03 | 四川长虹电器股份有限公司 | 车载语音识别模块的自主学习方法 |
CN106023991A (zh) * | 2016-05-23 | 2016-10-12 | 丽水学院 | 一种面向多任务交互的手持式语音交互装置及交互方法 |
Non-Patent Citations (1)
Title |
---|
IAN LANE等: "Tools for collecting speech corpora via Mechanical-Turk", 《PROCEEDINGS OF THE NAACL HLT 2010 WORKSHOP ON CREATING SPEECH AND LANGUAGE DATA WITH AMAZON’S MECHANICAL TURK》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010539A (zh) * | 2017-12-05 | 2018-05-08 | 广州势必可赢网络科技有限公司 | 一种基于语音激活检测的语音质量评估方法及装置 |
CN107818797A (zh) * | 2017-12-07 | 2018-03-20 | 苏州科达科技股份有限公司 | 语音质量评价方法、装置及其*** |
CN107818797B (zh) * | 2017-12-07 | 2021-07-06 | 苏州科达科技股份有限公司 | 语音质量评价方法、装置及其*** |
CN108696622A (zh) * | 2018-05-28 | 2018-10-23 | 成都昊铭科技有限公司 | 无需接口的语音唤醒测试装置、***及方法 |
CN110797001A (zh) * | 2018-07-17 | 2020-02-14 | 广州阿里巴巴文学信息技术有限公司 | 电子书语音音频的生成方法、装置及可读存储介质 |
CN110797001B (zh) * | 2018-07-17 | 2022-04-12 | 阿里巴巴(中国)有限公司 | 电子书语音音频的生成方法、装置及可读存储介质 |
CN111210826A (zh) * | 2019-12-26 | 2020-05-29 | 深圳市优必选科技股份有限公司 | 语音信息处理方法、装置、存储介质和智能终端 |
CN111210826B (zh) * | 2019-12-26 | 2022-08-05 | 深圳市优必选科技股份有限公司 | 语音信息处理方法、装置、存储介质和智能终端 |
CN113422825A (zh) * | 2021-06-22 | 2021-09-21 | 读书郎教育科技有限公司 | 一种辅助培养朗读兴趣的***及方法 |
CN113422825B (zh) * | 2021-06-22 | 2022-11-08 | 读书郎教育科技有限公司 | 一种辅助培养朗读兴趣的***及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107342079A (zh) | 一种基于互联网的真实人声的采集*** | |
Massucci et al. | Measuring the academic reputation through citation networks via PageRank | |
CN110457432B (zh) | 面试评分方法、装置、设备及存储介质 | |
US20200073996A1 (en) | Methods and Systems for Domain-Specific Disambiguation of Acronyms or Homonyms | |
CN109783631B (zh) | 社区问答数据的校验方法、装置、计算机设备和存储介质 | |
CN105956053A (zh) | 一种基于网络信息的搜索方法及装置 | |
US11182605B2 (en) | Search device, search method, search program, and recording medium | |
CN111524578A (zh) | 一种基于电子心理沙盘的心理评估装置、方法及*** | |
CN111967261B (zh) | 癌症分期信息处理方法、装置及存储介质 | |
CN111916110B (zh) | 语音质检的方法及装置 | |
Bianchi et al. | Exploring the potentialities of automatic extraction of university webometric information | |
Kim et al. | Speech intelligibility estimation using multi-resolution spectral features for speakers undergoing cancer treatment | |
Heeringa et al. | Computational dialectology | |
Sandhya et al. | Smart attendance system using speech recognition | |
CN110738032B (zh) | 一种生成裁判文书本院认为段的方法及装置 | |
CN109272262A (zh) | 一种自然语言特征的分析方法 | |
Yang et al. | Person authentication using finger snapping—a new biometric trait | |
CN108898439A (zh) | 一种基于景点的信息推荐方法 | |
KR101838089B1 (ko) | 복지서비스 발굴을 위한 빅데이터 사례 기반 감성 오피니언 추출 및 평가 시스템 및 그 방법 | |
Lei et al. | Robust scream sound detection via sound event partitioning | |
Volkova et al. | Light CNN architecture enhancement for different types spoofing attack detection | |
Heidari et al. | Investigation of the natural frequency of the structure and earthquake frequencies in the frequency domain using a discrete wavelet | |
Chen et al. | Music Feature Extraction Method Based on Internet of Things Technology and Its Application | |
Nerbonne et al. | Some further dialectometrical steps | |
SHAFIEE et al. | Research self-efficacy and career decision-making self-efficacy of students at shiraz university of medical sciences: an explanatory model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171110 |
|
WD01 | Invention patent application deemed withdrawn after publication |