CN107623614B - 用于推送信息的方法和装置 - Google Patents

用于推送信息的方法和装置 Download PDF

Info

Publication number
CN107623614B
CN107623614B CN201710846650.1A CN201710846650A CN107623614B CN 107623614 B CN107623614 B CN 107623614B CN 201710846650 A CN201710846650 A CN 201710846650A CN 107623614 B CN107623614 B CN 107623614B
Authority
CN
China
Prior art keywords
information
voiceprint
registered
user
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710846650.1A
Other languages
English (en)
Other versions
CN107623614A (zh
Inventor
王文宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Shanghai Xiaodu Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201710846650.1A priority Critical patent/CN107623614B/zh
Publication of CN107623614A publication Critical patent/CN107623614A/zh
Priority to US16/105,322 priority patent/US10832686B2/en
Priority to JP2018154666A priority patent/JP6613347B2/ja
Application granted granted Critical
Publication of CN107623614B publication Critical patent/CN107623614B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/61Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping
    • G06F9/4418Suspend and resume; Hibernate and awake
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/08Use of distortion metrics or a particular distance between probe pattern and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Security & Cryptography (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本申请公开了用于推送信息的方法和装置。该方法的一具体实施方式包括:接收用户通过终端发送的语音信息,语音信息包括唤醒用语音信息和查询用语音信息;对唤醒用语音信息进行声纹特征提取,得到声纹特征信息;将声纹特征信息与预先设定的注册声纹信息集合进行匹配,注册声纹信息集合中的各注册声纹信息包括注册声纹特征信息、以及与注册声纹特征信息对应的注册用户的用户行为数据;响应于声纹特征信息与注册声纹信息集合中的注册声纹特征信息匹配成功,基于查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向终端推送音频信息。该实施方式实现了富有针对性的信息推送,满足了用户的个性化需求。

Description

用于推送信息的方法和装置
技术领域
本申请涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及用于推送信息的方法和装置。
背景技术
近年来,人工智能技术有了深远的发展,并逐步实现产品化。特别是智能语音对话产品,例如,智能音箱、智能机器人等等。包括智能音箱、智能机器人等在内的智能语音对话产品的典型使用场景是在家庭之中,家庭用户可以使用语音与智能语音对话产品进行交互,提出服务请求,智能语音对话产品则使用一套通用应答规则为家庭用户提供服务。
然而,每个家庭中往往有多个用户,每个用户必然会有不同的需求,因此,如何识别出家庭用户中的各个用户,并为各个用户提供满足其个性化需求服务是急需解决的问题。
发明内容
本申请的目的在于提出一种改进的用于推送信息的方法和装置,来解决以上背景技术部分提到的技术问题。
第一方面,本申请实施例提供了一种用于推送信息的方法,该方法包括:接收用户通过终端发送的语音信息,其中,上述语音信息包括唤醒用语音信息和查询用语音信息,其中,上述唤醒用语音信息用于将上述终端从待机状态切换为唤醒状态;对上述唤醒用语音信息进行声纹特征提取,得到声纹特征信息;将上述声纹特征信息与预先设定的注册声纹信息集合进行匹配,其中,上述注册声纹信息集合中的各注册声纹信息包括注册声纹特征信息、以及与上述注册声纹特征信息对应的注册用户的用户行为数据;响应于上述声纹特征信息与上述注册声纹信息集合中的注册声纹特征信息匹配成功,基于上述查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向上述终端推送音频信息。
在一些实施例中,上述方法还包括:响应于上述声纹特征信息与上述注册声纹信息集合中的注册声纹信息匹配不成功,确定上述注册声纹信息集合中包含的注册声纹信息条数是否超过预先设定的数量阈值;如果超过,则删除上述注册声纹信息集合中的、用户行为数据最少的注册声纹信息;根据上述唤醒用语音信息建立上述用户的注册声纹信息,并将建立的注册声纹信息存入上述注册声纹信息集合中。
在一些实施例中,上述根据上述唤醒用语音信息建立上述用户的注册声纹信息,包括:将上述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到第一声纹特征超向量,其中,上述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;将上述第一声纹特征超向量经过降维处理得到第一注册声纹特征信息;生成上述第一注册声纹特征信息的第一声纹标识,并将上述用户的用户行为数据与上述第一声纹标识关联存储;将上述第一注册声纹特征信息、第一声纹标识以及上述用户的用户行为数据作为上述用户的注册声纹信息。
在一些实施例中,上述对上述唤醒用语音信息进行声纹特征提取,得到声纹特征信息,包括:将上述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到声纹特征超向量,其中,上述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;将上述声纹特征超向量经过降维处理得到声纹特征信息。
在一些实施例中,上述注册声纹信息集合中的各注册声纹信息还包括与注册声纹特征信息对应的声纹标识;以及对于上述注册声纹信息集合中的每条注册声纹信息,该注册声纹信息中包括的注册声纹特征信息、用户行为数据与该注册声纹信息的声纹标识关联存储。
第二方面,本申请实施例提供了一种用于推送信息的装置,该装置包括:接收单元,用于接收用户通过终端发送的语音信息,其中,上述语音信息包括唤醒用语音信息和查询用语音信息,其中,上述唤醒用语音信息用于将上述终端从待机状态切换为唤醒状态;提取单元,用于对上述唤醒用语音信息进行声纹特征提取,得到声纹特征信息;匹配单元,用于将上述声纹特征信息与预先设定的注册声纹信息集合进行匹配,其中,上述注册声纹信息集合中的各注册声纹信息包括注册声纹特征信息、以及与上述注册声纹特征信息对应的注册用户的用户行为数据;推送单元,用于响应于上述声纹特征信息与上述注册声纹信息集合中的注册声纹特征信息匹配成功,基于上述查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向上述终端推送音频信息。
在一些实施例中,上述装置还包括:确定单元,用于响应于上述声纹特征信息与上述注册声纹信息集合中的注册声纹信息匹配不成功,确定上述注册声纹信息集合中包含的注册声纹信息条数是否超过预先设定的数量阈值;删除单元,用于如果超过,则删除上述注册声纹信息集合中的、用户行为数据最少的注册声纹信息;注册单元,用于根据上述唤醒用语音信息建立上述用户的注册声纹信息,并将建立的注册声纹信息存入上述注册声纹信息集合中。
在一些实施例中,上述注册单元进一步用于:将上述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到第一声纹特征超向量,其中,上述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;将上述第一声纹特征超向量经过降维处理得到第一注册声纹特征信息;生成上述第一注册声纹特征信息的第一声纹标识,并将上述用户的用户行为数据与上述第一声纹标识关联存储;将上述第一注册声纹特征信息、第一声纹标识以及上述用户的用户行为数据作为上述用户的注册声纹信息。
在一些实施例中,上述提取单元进一步用于:将上述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到声纹特征超向量,其中,上述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;将上述声纹特征超向量经过降维处理得到声纹特征信息。
在一些实施例中,上述注册声纹信息集合中的各注册声纹信息还包括与注册声纹特征信息对应的声纹标识;以及对于上述注册声纹信息集合中的每条注册声纹信息,该注册声纹信息中包括的注册声纹特征信息、用户行为数据与该注册声纹信息的声纹标识关联存储。
第三方面,本申请实施例提供了一种服务器,该服务器包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于推送信息的方法和装置,通过对用户发送的唤醒用语音信息进行声纹特征提取,得到用户的声纹特征信息,而后将用户的声纹特征信息与注册声纹信息集合进行匹配,最后响应于用户的声纹特征信息与注册声纹信息集合中的注册声纹特征信息匹配成功,基于用户发送的查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向用户所使用的终端推送音频信息,从而识别出了不同用户,实现了富有针对性的信息推送,满足了用户的个性化需求。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性***架构图;
图2是根据本申请的用于推送信息的方法的一个实施例的流程图;
图3是根据本申请的用于推送信息的方法的一个应用场景的示意图;
图4是根据本申请的用于推送信息的装置的一个实施例的结构示意图;
图5是适于用来实现本申请实施例的服务器的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于推送信息的方法或用于推送信息的装置的实施例的示例性***架构100。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105 交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种客户端应用,例如音频播放类应用、搜索类应用、即时通信工具、社交平台软件、智能设备控制软件以及机器人控制软件等。
终端设备101、102、103可以是具有音频播放设备并且支持音频播放的各种电子设备,包括但不限于智能音箱、智能机器人、智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、 102、103上播放的音频信息提供支持的后台服务器。后台服务器可以对终端设备发送的语音信息进行识别等处理,并根据处理结果向终端设备反馈音频信息,以供终端设备进行播放。
需要说明的是,本申请实施例所提供的用于推送信息的方法一般由服务器105执行,相应地,用于推送信息的装置一般设置于服务器 105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于推送信息的方法的一个实施例的流程200。该用于推送信息的方法,包括以下步骤:
步骤201,接收用户通过终端发送的语音信息。
在本实施例中,用于推送信息的方法运行于其上的电子设备(例如图1所示的服务器105)可以通过有线连接方式或者无线连接方式从用户利用其进行音频播放的终端(例如图1所示的终端设备101、 102、103)接收语音信息,其中,上述语音信息可以包括唤醒用语音信息和查询用语音信息,其中,上述唤醒用语音信息可以用于将上述终端从待机状态切换为唤醒状态。上述唤醒用语音信息可以是预先设置的,例如,可以是预先设置的唤醒词或唤醒语句,用户可以通过说出唤醒词或唤醒语句使上述终端从待机状态切换为唤醒状态,比如,用户使用智能音箱时,可以通过说出预先设置的唤醒词“小度小度”使智能音箱从待机状态切换为唤醒状态,进而使智能音箱开始与用户进行语音交互。上述查询用语音信息可以是用户发出的、用于查询信息的语音信息,例如,上述电子设备可以根据用户说出的查询用语音信息“给我推荐一首歌儿”进行信息查询,从而为用户推送歌曲信息。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、 WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband) 连接、以及其他现在已知或将来开发的无线连接方式。
步骤202,对唤醒用语音信息进行声纹特征提取,得到声纹特征信息。
在本实施例中,上述电子设备可以对步骤201中接收的唤醒用语音信息进行声纹特征提取,得到声纹特征信息。声纹是用电声学仪器显示的携带言语信息的声波频谱。现代科学研究表明,声纹不仅具有特定性,而且有相对稳定性的特点。与指纹类似,每个人说话过程中蕴涵的语音特征和发音习惯也几乎是唯一的,因此,可以从一段语音中识别出说话人的身份。在这里,上述声纹特征信息可以是标识用户的声纹频谱特征的向量。例如,对唤醒用语音信息进行声纹特征提取可以通过提取唤醒用语音信息中的典型特征来实现。具体地,由于声音的波长、频率、强度、节奏等特征能体现用户声音的特点,因此,在对唤醒用语音信息进行声纹特征提取时,可以提取唤醒用语音信息中的波长、频率、强度、节奏等特征,并确定唤醒用语音信息中波长、频率、强度、节奏等特征的特征值,将唤醒用语音信息中的波长、频率、强度、节奏等特征的特征值等组成声纹特征信息。又例如,对唤醒用语音信息进行声纹特征提取还可以通过提取唤醒用语音信息中的声学特征,例如,梅尔倒谱系数,其中,对唤醒用语音信息提取梅尔倒谱系数的过程可以包括预加重、分帧、加窗、快速傅里叶变换、梅尔滤波、对数变换以及离散余弦变换等。需要说明的是,对唤醒用语音信息进行声纹特征提取是目前广泛研究和应用的公知技术,在此不再赘述。
在本实施例的一些可选的实现方式中,上述步骤202可以具体包括:
首先,上述电子设备可以将上述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到声纹特征超向量,其中,上述通用背景模型可以用于表征语音信息与声纹特征超向量的对应关系。
作为示例,通用背景模型可以是技术人员基于对大量的语音信息和声纹特征超向量的统计而预先制定的、存储有多条语音信息与声纹特征超向量的对应关系的对应关系表。
作为示例,上述通用背景模型((universal background model,UBM) 还可以由采用机器学习方法利用不同说话者的大量语音样本训练得出的高斯混合模型(GaussianMixture Model,GMM)。实践中,可以按如下方式将唤醒用语音信息导入通用背景模型得到声纹特征超向量:将唤醒用语音信息转化为短时频谱特征序列,计算每一帧频谱特征在通用背景模型各高斯分量上的后验概率,利用最大后验概率准则自适应得出上述用户的高斯混合模型中各高斯分量的均值,再将所得到的各高斯分量的均值拼接形成声纹特征超向量。
需要说明的是,上述训练得到通用背景模型、以及将唤醒用语音信息导入通用背景模型中得到声纹特征超向量的过程是目前广泛研究和应用的现有技术,在此不再赘述。
然后,上述电子设备可以将上述声纹特征超向量经过降维处理得到声纹特征信息。
这里,上述电子设备可以采用各种方法对上述声纹特征超向量进行降维处理。例如,可以通过联合因子分析方法(Joint Factor Analysis, JFA)、概率线性判别分析算法(Probabilistic Linear Discriminant Analysis,PLDA)、线性判别分析算法(LinearDiscriminant Analysis, LDA)或者辨识矢量(Identifying Vector,I-Vector)对上述声纹超向量进行降维处理得到声纹特征向量。需要说明的是,上述各种降维处理的方法目前广泛研究和应用的现有技术,在此不再赘述。
步骤203,将声纹特征信息与预先设定的注册声纹信息集合进行匹配。
在本实施例中,上述电子设备可以将步骤202中得到的声纹特征信息与预先设定的注册声纹信息集合中的注册声纹特征信息进行匹配,例如,可以首先计算上述声纹特征信息与上述注册声纹信息集合中各条注册声纹特征信息之间的匹配度,比如,可以采用曼哈顿距离(Manhattan Distance)、闵可夫斯基距离(Minkowski Distance)、余弦相似度(Cosine Similarity)等方法进行计算,然后,根据计算得到的匹配度判断上述声纹特征信息与上述注册声纹信息集合中的注册声纹特征信息是否匹配成功,例如,匹配度可以百分比表示,当匹配度超过预先设定的阈值时,可以认为匹配成功,此时,可以认为上述声纹特征信息对应的用户与匹配成功的注册声纹特征信息对应的注册用户为同一用户。在这里,上述注册声纹信息集合中的各注册声纹信息可以包括注册声纹特征信息、以及与该注册声纹特征信息对应的注册用户的用户行为数据,在这里,注册用户的用户行为数据可以是指与该注册用户相关的各种行为数据,例如,可以是该注册用户通过上述终端所播放音频的类型(例如,歌曲、新闻、相声等)、所播放音频的名称、所播放音频的表演者等等。上述电子设备可以通过注册用户的用户行为数据分析注册用户的偏好,进而为注册用户推送满足其个性化需求的音频信息。
在本实施例的一些可选的实现方式中,上述注册声纹信息集合中的各注册声纹信息还可以包括与注册声纹特征信息对应的声纹标识;以及对于上述注册声纹信息集合中的每条注册声纹信息,该注册声纹信息中包括的注册声纹特征信息、用户行为数据与该注册声纹信息的声纹标识关联存储。可选的,上述注册声纹信息集合可以关联同一账号(例如百度账号)之下,各个终端设备与账号是唯一绑定的,通过账号将终端设备与注册声纹信息联系起来,注册声纹信息可以通过账号下的任意终端设备注册,一旦注册,可以在账号下任意终端设备中使用。
步骤204,响应于声纹特征信息与注册声纹信息集合中的注册声纹特征信息匹配成功,基于查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向终端推送音频信息。
在本实施例中,响应于上述声纹特征信息与上述注册声纹信息集合中的注册声纹特征信息匹配成功,即确定上述声纹特征信息对应的用户与匹配成功的注册声纹特征信息对应的注册用户为同一用户,上述电子设备可以基于上述查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向终端推送音频信息。具体地,上述电子设备可以对上述用户发送的查询用语音信息进行语音识别,得出用户需求,然后,根据该用户需求和匹配成功的注册声纹特征信息对应的用户行为数据得到满足用户个性化需求的音频信息,并将该音频信息推送到用户所使用的终端。
在本实施例的一些可选的实现方式中,上述用于推送信息的方法还可以包括以下步骤:响应于上述声纹特征信息与上述注册声纹信息集合中的注册声纹信息匹配不成功,上述电子设备可以进一步确定上述注册声纹信息集合中包含的注册声纹信息条数是否超过预先设定的数量阈值,其中,上述数量阈值可以是根据实际需要人工设定的,例如,可以根据声纹识别的准确率确定数量阈值的大小,比如,可以设定准确率越高数量阈值越小,在这里,声纹识别的准确率可以是指基于一个用户的声纹特征信息,将该用户识别为他自己的概率。如果上述注册声纹信息集合中包含的注册声纹信息条数超过预先设定的数量阈值,上述电子设备则可以删除上述注册声纹信息集合中的、用户行为数据最少的注册声纹信息,并根据上述唤醒用语音信息建立上述用户的注册声纹信息,并将建立的注册声纹信息存入上述注册声纹信息集合中。通常,用户行为数据的多少可以代表一个用户的活跃程度,而如果用户行为数据过少,则可以认为该用户行为数据对应的用户为某个临时使用终端设备的“访客”,或者可以认为该用户行为数据是由于错误识别用户产生的,即该用户行为数据没有存储意义,因此可以删除该用户行为数据对应的注册声纹信息,从而避免了存储空间的浪费。如果未超过,上述电子设备可以根据上述唤醒用语音信息建立上述用户的注册声纹信息,并将建立的注册声纹信息存入上述注册声纹信息集合中,在这里,上述电子设备可以根据上述用户的唤醒用语音信息建立上述用户的注册声纹信息,而不需要上述用户重新发送注册用语音信息,实现了在用户无感知的状态下对用户进行注册,因此可以简化注册过程,提升用户体验。
在一些可选的实现方式中,上述根据上述唤醒用语音信息建立上述用户的注册声纹信息,可以具体如下进行:首先,上述电子设备可以将上述唤醒用语音信息导入预先训练的通用背景模型(Universal Background Model,UBM)中进行映射得到第一声纹特征超向量,其中,上述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;其次,上述电子设备可以将上述第一声纹特征超向量经过降维处理得到第一注册声纹特征信息,具体过程可参考步骤202的可选实现方式,此处不再赘述;然后,上述电子设备可以生成上述第一注册声纹特征信息的第一声纹标识,例如,上述电子设备可以随机生成一个与上述第一注册声纹特征信息唯一对应的第一声纹标识,并将上述用户的用户行为数据与上述第一声纹标识关联存储;最后,上述电子设备可以将上述第一注册声纹特征信息、第一声纹标识以及上述用户的用户行为数据作为上述用户的注册声纹信息。
继续参见图3,图3是根据本实施例的用于推送信息的方法的应用场景的一个示意图。在图3的应用场景中,用户首先对终端301发送语音信息“小度小度,给我推荐一首歌儿。”;之后,服务器302接收到该语音信息,并对该语音信息中的唤醒用语音信息“小度小度”进行声纹特征提取,得到声纹特征信息;然后,服务器302将该声纹特征信息与注册声纹信息集合进行匹配;最后,响应于该声纹特征信息与注册声纹信息集合中的注册声纹特征信息匹配成功,服务器302 可以对查询用语音信息“给我推荐一首歌儿”进行语音识别得出用户想要听歌的需求,并对匹配成功的注册声纹特征信息对应的用户行为数据进行分析,得出用户的偏好,例如喜欢听那种类型的歌、喜欢听那位歌手的歌、喜欢听那首歌等等,根据用户需求和用户偏好向终端 301推送歌曲信息,以供终端301为用户播放该歌曲信息。
本申请的上述实施例提供的方法通过用户发送的唤醒用语音信息识别出了不同用户,并基于用户发送的查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向用户所使用的终端推送音频信息,从而识别出了不同用户,实现了富有针对性的信息推送,满足了用户的个性化需求。
进一步参考图4,作为对上述各图所示方法的实现,本申请提供了一种用于推送信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的用于推送信息的装置400包括:接收单元401、提取单元402、匹配单元403和推送单元404。接收单元401 用于接收用户通过终端发送的语音信息,其中,上述语音信息包括唤醒用语音信息和查询用语音信息,其中,上述唤醒用语音信息用于将上述终端从待机状态切换为唤醒状态;提取单元402用于对上述唤醒用语音信息进行声纹特征提取,得到声纹特征信息;匹配单元403用于将上述声纹特征信息与预先设定的注册声纹信息集合进行匹配,其中,上述注册声纹信息集合中的各注册声纹信息包括注册声纹特征信息、以及与上述注册声纹特征信息对应的注册用户的用户行为数据;推送单元404用于响应于上述声纹特征信息与上述注册声纹信息集合中的注册声纹特征信息匹配成功,基于上述查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向上述终端推送音频信息。
在本实施例中,用于推送信息的装置400的接收单元401、提取单元402、匹配单元403和推送单元404的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203 和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述装置400还可以包括:确定单元(图中未示出),用于响应于上述声纹特征信息与上述注册声纹信息集合中的注册声纹信息匹配不成功,确定上述注册声纹信息集合中包含的注册声纹信息条数是否超过预先设定的数量阈值;删除单元(图中未示出),用于如果超过,则删除上述注册声纹信息集合中的、用户行为数据最少的注册声纹信息;注册单元(图中未示出),用于根据上述唤醒用语音信息建立上述用户的注册声纹信息,并将建立的注册声纹信息存入上述注册声纹信息集合中。
在本实施例的一些可选的实现方式中,上述注册单元可以进一步用于:将上述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到第一声纹特征超向量,其中,上述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;将上述第一声纹特征超向量经过降维处理得到第一注册声纹特征信息;生成上述第一注册声纹特征信息的第一声纹标识,并将上述用户的用户行为数据与上述第一声纹标识关联存储;将上述第一注册声纹特征信息、第一声纹标识以及上述用户的用户行为数据作为上述用户的注册声纹信息。
在本实施例的一些可选的实现方式中,上述提取单元402可以进一步用于:将上述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到声纹特征超向量,其中,上述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;将上述声纹特征超向量经过降维处理得到声纹特征信息。
在本实施例的一些可选的实现方式中,上述注册声纹信息集合中的各注册声纹信息还可以包括与注册声纹特征信息对应的声纹标识;以及对于上述注册声纹信息集合中的每条注册声纹信息,该注册声纹信息中包括的注册声纹特征信息、用户行为数据与该注册声纹信息的声纹标识关联存储。
下面参考图5,其示出了适于用来实现本申请实施例的服务器的计算机***500的结构示意图。图5示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图5所示,计算机***500包括中央处理单元(CPU,Central Processing Unit)501,其可以根据存储在只读存储器(ROM,Read Only Memory)502中的程序或者从存储部分506加载到随机访问存储器 (RAM,Random Access Memory)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有***500操作所需的各种程序和数据。CPU 501、ROM502以及RAM 503通过总线504彼此相连。输入/输出(I/O,Input/Output)接口505也连接至总线504。
以下部件连接至I/O接口505:包括硬盘等的存储部分506;以及包括诸如LAN(局域网,Local Area Network)卡、调制解调器等的网络接口卡的通信部分507。通信部分507经由诸如因特网的网络执行通信处理。驱动器508也根据需要连接至I/O接口505。可拆卸介质509,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器508上,以便于从其上读出的计算机程序根据需要被安装入存储部分506。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分507从网络上被下载和安装,和/或从可拆卸介质509被安装。在该计算机程序被中央处理单元(CPU)501 执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括接收单元、提取单元、匹配单元和推送单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,接收单元还可以被描述为“用于接收用户通过终端发送的语音信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:接收用户通过终端发送的语音信息,其中,上述语音信息包括唤醒用语音信息和查询用语音信息,其中,上述唤醒用语音信息用于将上述终端从待机状态切换为唤醒状态;对上述唤醒用语音信息进行声纹特征提取,得到声纹特征信息;将上述声纹特征信息与预先设定的注册声纹信息集合进行匹配,其中,上述注册声纹信息集合中的各注册声纹信息包括注册声纹特征信息、以及与上述注册声纹特征信息对应的注册用户的用户行为数据;响应于上述声纹特征信息与上述注册声纹信息集合中的注册声纹特征信息匹配成功,基于上述查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向上述终端推送音频信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于) 具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种用于推送信息的方法,其特征在于,所述方法包括:
接收用户通过终端发送的语音信息,其中,所述语音信息包括唤醒用语音信息和查询用语音信息,其中,所述唤醒用语音信息用于将所述终端从待机状态切换为唤醒状态;
对所述唤醒用语音信息进行声纹特征提取,得到声纹特征信息;
将所述声纹特征信息与预先设定的注册声纹信息集合进行匹配,其中,所述注册声纹信息集合中的各注册声纹信息包括注册声纹特征信息、以及与所述注册声纹特征信息对应的注册用户的用户行为数据;
响应于所述声纹特征信息与所述注册声纹信息集合中的注册声纹特征信息匹配成功,基于所述查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向所述终端推送音频信息,包括:通过匹配成功的注册声纹特征信息对应的用户行为数据分析所述用户的用户偏好;根据所述查询用语音信息和所述用户偏好向所述终端推送音频信息;
响应于所述声纹特征信息与所述注册声纹信息集合中的注册声纹特征信息匹配不成功,确定所述注册声纹信息集合中包含的注册声纹信息条数是否超过预先设定的数量阈值;
如果超过,则删除所述注册声纹信息集合中的、用户行为数据最少的注册声纹信息;
根据所述唤醒用语音信息建立所述用户的注册声纹信息,并将建立的注册声纹信息存入所述注册声纹信息集合中。
2.根据权利要求1所述的方法,其特征在于,所述根据所述唤醒用语音信息建立所述用户的注册声纹信息,包括:
将所述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到第一声纹特征超向量,其中,所述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;
将所述第一声纹特征超向量经过降维处理得到第一注册声纹特征信息;
生成所述第一注册声纹特征信息的第一声纹标识,并将所述用户的用户行为数据与所述第一声纹标识关联存储;
将所述第一注册声纹特征信息、第一声纹标识以及所述用户的用户行为数据作为所述用户的注册声纹信息。
3.根据权利要求1所述的方法,其特征在于,所述对所述唤醒用语音信息进行声纹特征提取,得到声纹特征信息,包括:
将所述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到声纹特征超向量,其中,所述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;
将所述声纹特征超向量经过降维处理得到声纹特征信息。
4.根据权利要求1所述的方法,其特征在于,所述注册声纹信息集合中的各注册声纹信息还包括与注册声纹特征信息对应的声纹标识;以及
对于所述注册声纹信息集合中的每条注册声纹信息,该注册声纹信息中包括的注册声纹特征信息、用户行为数据与该注册声纹信息的声纹标识关联存储。
5.一种用于推送信息的装置,其特征在于,所述装置包括:
接收单元,用于接收用户通过终端发送的语音信息,其中,所述语音信息包括唤醒用语音信息和查询用语音信息,其中,所述唤醒用语音信息用于将所述终端从待机状态切换为唤醒状态;
提取单元,用于对所述唤醒用语音信息进行声纹特征提取,得到声纹特征信息;
匹配单元,用于将所述声纹特征信息与预先设定的注册声纹信息集合进行匹配,其中,所述注册声纹信息集合中的各注册声纹信息包括注册声纹特征信息、以及与所述注册声纹特征信息对应的注册用户的用户行为数据;
推送单元,用于响应于所述声纹特征信息与所述注册声纹信息集合中的注册声纹特征信息匹配成功,基于所述查询用语音信息以及匹配成功的注册声纹特征信息对应的用户行为数据向所述终端推送音频信息,所述推送单元进一步用于:通过匹配成功的注册声纹特征信息对应的用户行为数据分析所述用户的用户偏好;根据所述查询用语音信息和所述用户偏好向所述终端推送音频信息;
确定单元,用于响应于所述声纹特征信息与所述注册声纹信息集合中的注册声纹特征信息匹配不成功,确定所述注册声纹信息集合中包含的注册声纹信息条数是否超过预先设定的数量阈值;
删除单元,用于如果超过,则删除所述注册声纹信息集合中的、用户行为数据最少的注册声纹信息;
注册单元,用于根据所述唤醒用语音信息建立所述用户的注册声纹信息,并将建立的注册声纹信息存入所述注册声纹信息集合中。
6.根据权利要求5所述的装置,其特征在于,所述注册单元进一步用于:
将所述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到第一声纹特征超向量,其中,所述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;
将所述第一声纹特征超向量经过降维处理得到第一注册声纹特征信息;
生成所述第一注册声纹特征信息的第一声纹标识,并将所述用户的用户行为数据与所述第一声纹标识关联存储;
将所述第一注册声纹特征信息、第一声纹标识以及所述用户的用户行为数据作为所述用户的注册声纹信息。
7.根据权利要求5所述的装置,其特征在于,所述提取单元进一步用于:
将所述唤醒用语音信息导入预先训练的通用背景模型中进行映射得到声纹特征超向量,其中,所述通用背景模型用于表征语音信息与声纹特征超向量的对应关系;
将所述声纹特征超向量经过降维处理得到声纹特征信息。
8.根据权利要求5所述的装置,其特征在于,所述注册声纹信息集合中的各注册声纹信息还包括与注册声纹特征信息对应的声纹标识;以及
对于所述注册声纹信息集合中的每条注册声纹信息,该注册声纹信息中包括的注册声纹特征信息、用户行为数据与该注册声纹信息的声纹标识关联存储。
9.一种服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-4中任一所述的方法。
CN201710846650.1A 2017-09-19 2017-09-19 用于推送信息的方法和装置 Active CN107623614B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710846650.1A CN107623614B (zh) 2017-09-19 2017-09-19 用于推送信息的方法和装置
US16/105,322 US10832686B2 (en) 2017-09-19 2018-08-20 Method and apparatus for pushing information
JP2018154666A JP6613347B2 (ja) 2017-09-19 2018-08-21 情報をプッシュする方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710846650.1A CN107623614B (zh) 2017-09-19 2017-09-19 用于推送信息的方法和装置

Publications (2)

Publication Number Publication Date
CN107623614A CN107623614A (zh) 2018-01-23
CN107623614B true CN107623614B (zh) 2020-12-08

Family

ID=61090071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710846650.1A Active CN107623614B (zh) 2017-09-19 2017-09-19 用于推送信息的方法和装置

Country Status (3)

Country Link
US (1) US10832686B2 (zh)
JP (1) JP6613347B2 (zh)
CN (1) CN107623614B (zh)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108091326B (zh) * 2018-02-11 2021-08-06 张晓雷 一种基于线性回归的声纹识别方法及***
CN108428452B (zh) * 2018-03-14 2019-12-13 百度在线网络技术(北京)有限公司 终端支架和远场语音交互***
SG11201912053XA (en) 2018-04-16 2020-01-30 Google Llc Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface
EP4254402A3 (en) * 2018-04-16 2023-12-20 Google LLC Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface
CN108899033B (zh) * 2018-05-23 2021-09-10 出门问问信息科技有限公司 一种确定说话人特征的方法及装置
CN108737872A (zh) * 2018-06-08 2018-11-02 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN108882032A (zh) * 2018-06-08 2018-11-23 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN109036421A (zh) * 2018-08-10 2018-12-18 珠海格力电器股份有限公司 信息推送方法及家电设备
CN109215646B (zh) * 2018-08-15 2021-08-17 北京百度网讯科技有限公司 语音交互处理方法、装置、计算机设备及存储介质
CN108831471B (zh) * 2018-09-03 2020-10-23 重庆与展微电子有限公司 一种语音安全保护方法、装置和路由终端
TWI684874B (zh) * 2018-10-18 2020-02-11 瑞軒科技股份有限公司 智慧型音箱及其操作方法
CN109493866A (zh) * 2018-10-29 2019-03-19 苏州乐轩科技有限公司 智能音箱及其操作方法
CN109672724B (zh) * 2018-11-01 2022-07-29 百度在线网络技术(北京)有限公司 信息推送方法、装置及设备
CN111179940A (zh) * 2018-11-12 2020-05-19 阿里巴巴集团控股有限公司 一种语音识别方法、装置及计算设备
CN109726332A (zh) * 2019-01-11 2019-05-07 何梓菁 一种基于自学习的个性化音乐推送方法和***
CN110032642B (zh) * 2019-03-26 2022-02-11 广东工业大学 基于词嵌入的流形主题模型的建模方法
CN111817943B (zh) 2019-04-12 2022-06-14 腾讯科技(深圳)有限公司 一种基于即时通讯应用的数据处理方法和装置
CN110134830A (zh) * 2019-04-15 2019-08-16 深圳壹账通智能科技有限公司 视频信息数据处理方法、装置、计算机设备和存储介质
CN111859008B (zh) * 2019-04-29 2023-11-10 深圳市冠旭电子股份有限公司 一种推荐音乐的方法及终端
CN110149618B (zh) * 2019-05-09 2020-07-28 腾讯科技(深圳)有限公司 基于声纹授权的智能设备接入方法、装置、设备及介质
CN110491378B (zh) * 2019-06-27 2021-11-16 武汉船用机械有限责任公司 船舶航行语音管理方法及***
CN110689894B (zh) * 2019-08-15 2022-03-29 深圳市声扬科技有限公司 自动注册方法及装置、智能设备
CN110491373A (zh) * 2019-08-19 2019-11-22 Oppo广东移动通信有限公司 模型训练方法、装置、存储介质及电子设备
CN110459227A (zh) * 2019-08-29 2019-11-15 四川长虹电器股份有限公司 基于智能电视的声纹注册方法
CN110534117B (zh) * 2019-09-10 2022-11-25 阿波罗智联(北京)科技有限公司 用于优化语音生成模型的方法、装置、设备和计算机介质
CN110992962B (zh) * 2019-12-04 2021-01-22 珠海格力电器股份有限公司 语音设备的唤醒调整方法、装置、语音设备及存储介质
CN111161713A (zh) * 2019-12-20 2020-05-15 北京皮尔布莱尼软件有限公司 一种语音性别识别方法、装置及计算设备
CN111210829A (zh) * 2020-02-19 2020-05-29 腾讯科技(深圳)有限公司 语音识别方法、装置、***、设备和计算机可读存储介质
CN111246023A (zh) * 2020-02-24 2020-06-05 中移(杭州)信息技术有限公司 身份识别方法、网络通信平台、主叫终端、电子设备
CN111326146A (zh) * 2020-02-25 2020-06-23 北京声智科技有限公司 语音唤醒模板的获取方法、装置、电子设备及计算机可读存储介质
CN112201257A (zh) * 2020-09-29 2021-01-08 北京百度网讯科技有限公司 基于声纹识别的信息推荐方法、装置、电子设备及存储介质
CN112312150B (zh) * 2020-10-21 2022-07-29 深圳市声扬科技有限公司 直播信息处理方法、直播信息处理装置及电子设备
CN112929501A (zh) * 2021-01-25 2021-06-08 深圳前海微众银行股份有限公司 语音通话服务方法、装置、设备、介质及计算机程序产品
CN113268630B (zh) * 2021-06-08 2023-03-10 腾讯音乐娱乐科技(深圳)有限公司 一种音频检索方法、设备及介质
CN115171699A (zh) * 2022-05-31 2022-10-11 青岛海尔科技有限公司 唤醒参数的调整方法和装置、存储介质及电子装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103700371A (zh) * 2013-12-13 2014-04-02 江苏大学 一种基于声纹识别的来电身份识别***及其识别方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US102804A (en) * 1870-05-10 Improvement in stanchion s for cattle
US9443522B2 (en) * 2013-11-18 2016-09-13 Beijing Lenovo Software Ltd. Voice recognition method, voice controlling method, information processing method, and electronic apparatus
CN103730114A (zh) * 2013-12-31 2014-04-16 上海交通大学无锡研究院 一种基于联合因子分析模型的移动设备声纹识别方法
CN104575504A (zh) * 2014-12-24 2015-04-29 上海师范大学 采用声纹和语音识别进行个性化电视语音唤醒的方法
JP6401126B2 (ja) 2015-08-11 2018-10-03 日本電信電話株式会社 特徴量ベクトル算出装置、特徴量ベクトル算出方法及び特徴量ベクトル算出プログラム。
CN106570443A (zh) * 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
CN105979376A (zh) * 2015-12-02 2016-09-28 乐视致新电子科技(天津)有限公司 一种推荐方法和装置
CN105513597B (zh) * 2015-12-30 2018-07-10 百度在线网络技术(北京)有限公司 声纹认证处理方法及装置
US10102844B1 (en) * 2016-03-29 2018-10-16 Amazon Technologies, Inc. Systems and methods for providing natural responses to commands
CN105933413B (zh) 2016-04-21 2019-01-11 深圳大数点科技有限公司 一种基于用户声音交互的个性化实时内容推送***
US10388273B2 (en) * 2016-08-10 2019-08-20 Roku, Inc. Distributed voice processing system
CN106782564B (zh) * 2016-11-18 2018-09-11 百度在线网络技术(北京)有限公司 用于处理语音数据的方法和装置
CN106847292B (zh) * 2017-02-16 2018-06-19 平安科技(深圳)有限公司 声纹识别方法及装置
US10504511B2 (en) * 2017-07-24 2019-12-10 Midea Group Co., Ltd. Customizable wake-up voice commands

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103700371A (zh) * 2013-12-13 2014-04-02 江苏大学 一种基于声纹识别的来电身份识别***及其识别方法

Also Published As

Publication number Publication date
JP6613347B2 (ja) 2019-11-27
CN107623614A (zh) 2018-01-23
US10832686B2 (en) 2020-11-10
US20190088262A1 (en) 2019-03-21
JP2019057273A (ja) 2019-04-11

Similar Documents

Publication Publication Date Title
CN107623614B (zh) 用于推送信息的方法和装置
CN107895578B (zh) 语音交互方法和装置
US10034029B1 (en) Systems and methods for audio object delivery based on audible frequency analysis
CN105489221B (zh) 一种语音识别方法及装置
US10708423B2 (en) Method and apparatus for processing voice information to determine emotion based on volume and pacing of the voice
CN110457457B (zh) 对话生成模型的训练方法、对话生成方法及装置
CN107995360B (zh) 通话处理方法及相关产品
CN107863108B (zh) 信息输出方法和装置
WO2016194740A1 (ja) 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法
CN108924218B (zh) 用于推送信息的方法和装置
WO2018022085A1 (en) Identification of preferred communication devices
KR20170030387A (ko) 사용자 기반 언어 모델 생성 장치, 방법 및 음성 인식 장치
KR20160106075A (ko) 오디오 스트림에서 음악 작품을 식별하기 위한 방법 및 디바이스
CN107705782B (zh) 用于确定音素发音时长的方法和装置
JP2020003774A (ja) 音声を処理する方法及び装置
CN106713111B (zh) 一种添加好友的处理方法、终端及服务器
CN111415653B (zh) 用于识别语音的方法和装置
CN107680584B (zh) 用于切分音频的方法和装置
CN110889008B (zh) 一种音乐推荐方法、装置、计算装置和存储介质
CN108766429B (zh) 语音交互方法和装置
CN112306560B (zh) 用于唤醒电子设备的方法和装置
CN114049875A (zh) 一种tts播报方法、装置、设备以及存储介质
CN111179943A (zh) 一种对话辅助设备及获取信息的方法
CN111768771B (zh) 用于唤醒电子设备的方法和装置
CN108804665B (zh) 用于推送信息、接收信息的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210510

Address after: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Patentee after: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.

Patentee after: Shanghai Xiaodu Technology Co.,Ltd.

Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Patentee before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.