CN110349568A - 语音检索方法、装置、计算机设备及存储介质 - Google Patents

语音检索方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN110349568A
CN110349568A CN201910492599.8A CN201910492599A CN110349568A CN 110349568 A CN110349568 A CN 110349568A CN 201910492599 A CN201910492599 A CN 201910492599A CN 110349568 A CN110349568 A CN 110349568A
Authority
CN
China
Prior art keywords
corpus
model
gram model
result
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910492599.8A
Other languages
English (en)
Other versions
CN110349568B (zh
Inventor
黄锦伦
陈磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910492599.8A priority Critical patent/CN110349568B/zh
Publication of CN110349568A publication Critical patent/CN110349568A/zh
Priority to PCT/CN2019/117872 priority patent/WO2020244150A1/zh
Application granted granted Critical
Publication of CN110349568B publication Critical patent/CN110349568B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了语音检索方法、装置、计算机设备及存储介质。该方法包括:接收训练集语料库,将训练集语料库输入至初始N‑gram模型进行训练,得到N‑gram模型;接收待识别语音,通过N‑gram模型对待识别语音进行进行识别,得到识别结果;将识别结果进行分词,得到与识别结果对应的语句分词结果;根据语句分词结果进行词法分析,得到语句分词结果对应的名词词性关键词;以及在预先存储的推荐语料库中搜索与名词性关键词的相似度超出预设的相似度阈值的语料,以得到检索结果。该方法采用语音识别技术,通过对语音识别的结果进行词法分析后得到名词词性关键词,实现根据名词词性关键词在推荐语料库中更准确的获取检索结果。

Description

语音检索方法、装置、计算机设备及存储介质
技术领域
本发明涉及语音识别技术领域,尤其涉及一种语音检索方法、装置、计算机设备及存储介质。
背景技术
目前,智能超市通过语音识别去检索商品,通常通过模糊查询去匹配商品,这时候需要对语音识别的结果进行分析,智能获取用户需要购买的物品名称。用户在使用时,经常会说出整个句子,例如:我要买XXX,我要吃XXX等等,而当前的语音识别***无法判断准确其购买意图。
发明内容
本发明实施例提供了一种语音检索方法、装置、计算机设备及存储介质,旨在解决现有技术中语音识别***在超市场景下语音识别准确率低下,导致识别结果不准确的问题。
第一方面,本发明实施例提供了一种语音检索方法,其包括:
接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型;
接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;
将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果;
根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词;以及
在预先存储的推荐语料库中搜索与所述名词性关键词的相似度超出预设的相似度阈值的语料,以得到检索结果。
第二方面,本发明实施例提供了一种语音检索装置,其包括:
模型训练单元,用于接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型;
语音识别单元,用于接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;
分词单元,用于将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果;
词性分析单元,用于根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词;以及
检索单元,用于在预先存储的推荐语料库中搜索与所述名词性关键词的相似度超出预设的相似度阈值的语料,以得到检索结果。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的语音检索方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的语音检索方法。
本发明实施例提供了一种语音检索方法、装置、计算机设备及存储介质。该方法包括接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型;接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果;根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词;以及在预先存储的推荐语料库中搜索与所述名词性关键词的相似度超出预设的相似度阈值的语料,以得到检索结果。该方法采用语音识别技术,通过对语音识别的结果进行词法分析,实现了对用户需求的准确获取。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的语音检索方法的应用场景示意图;
图2为本发明实施例提供的语音检索方法的流程示意图;
图3为本发明实施例提供的语音检索方法的子流程示意图;
图4为本发明实施例提供的语音检索方法的另一子流程示意图;
图5为本发明实施例提供的语音检索装置的示意性框图;
图6为本发明实施例提供的语音检索装置的子单元示意性框图;
图7为本发明实施例提供的语音检索装置的另一子单元示意性框图;
图8为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的语音检索方法的应用场景示意图,图2为本发明实施例提供的语音检索方法的流程示意图,该语音检索方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S110~S150。
S110、接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型。
在本实施例中,是站在服务器的角度描述技术方案。服务器中可接收训练集语料库训练得到N-gram模型,通过N-gram模型对设置在智能超市的前端语音采集终端上传至服务器的待识别语音进行识别。
在本实施例中,训练集语料库是通用语料和消费品语料的混合库,消费品语料是包括了大量商品名称(如商品品牌,商品名称等)的语料库;通用语料与消费品语料的不同之处在于,通用语料中的词汇并未偏向于某一具体领域。通过所述训练集语料库输入至初始N-gram模型进行训练,即可得到用于语音识别的N-gram模型。
在一实施例中,如图3所示,步骤S110包括:
S111、获取消费品语料,将所述消费品语料输入至第一初始N-gram模型进行训练,得到第一N-gram模型;
S112、获取通用语料,将所述通用语料输入至第二初始N-gram模型进行训练,得到第二N-gram模型;
S113、根据所设置的模型融合比例,将所述第一N-gram模型和所述第二N-gram模型进行融合,得到N-gram模型。
在本实施例中,消费品语料是包括了大量商品名称的语料库,通用语料与消费品语料的不同之处在于,通用语料中的词汇并未偏向于某一具体领域,而是各个领域的词汇都包括。
N-gram模型是一种语言模型(LanguageModel,LM),语言模型是一个基于概率的判别模型,它的输入是一句话(单词的顺序序列),输出是这句话的概率,即这些单词的联合概率(jointprobability)。
假设句子T是有词序列w1,w2,w3...wn组成,用公式表示N-Gram语言模型如下:
P(T)=P(w1)*p(w2)*p(w3)*…*p(wn)
=p(w1)*p(w2|w1)*p(w3|w1w2)*…*p(wn|w1w2w3...)
一般常用的N-Gram模型是Bi-Gram和Tri-Gram。分别用公式表示如下:
Bi-Gram:
P(T)=p(w1|begin)*p(w2|w1)*p(w3|w2)*…*p(wn|wn-1)
Tri-Gram:
P(T)=p(w1|begin1,begin2)*p(w2|w1,begin1)*p(w3|w2w1)*…*p(wn|wn-1,wn-2);
可见,对于句子T中每一个词出现的条件概率,可以通过在语料库中统计计数的方式得出。则n元模型如下:
p(wn|w1w2w3...)=C(wi-n-1,…,wi)/C(wi-n-1,…,wi-1);
式中C(wi-n-1,…,wi)表示字符串wi-n-1,…,wi在语料库中的次数。
根据所设置的模型融合比例,如消费品语料与通用语料的比例设置为2:8,得到第一N-gram模型和所述第二N-gram模型的模型融合比例也为2:8,将所述第一N-gram模型和所述第二N-gram模型进行融合,最终得到用于语音识别的N-gram模型。由于初始设置了消费品语料与通用语料的比例,最终融合得到的N-gram模型以智能超市场景下的语音识别的准确率得到有效的提高。
在一实施例中,如图4所示,步骤S111包括:
S1111、将所述消费品语料基于概率统计分词模型进行分词,得到与所述消费品语料对应的第一分词结果;
S1112、将所述第一分词结果输入至第一初始N-gram模型进行训练,得到第一N-gram模型。
在本实施例中,将所述消费品语料中每一语句通过基于概率统计分词模型进行分词过程如下:
例如,令C=C1C2...Cm,C是待切分的汉字串,令W=W1W2...Wn,W是切分的结果,Wa,Wb,……,Wk是C的所有可能的切分方案。那么,基于概率统计分词模型就是能够找到目的词串W,使得W满足:P(W|C)=MAX(P(Wa|C),P(Wb|C)...P(Wk|C))的分词模型,上述分词模型得到的词串W即估计概率为最大之词串。即:
对一个待分词的子串S,按照从左到右的顺序取出全部候选词w1、w2、…、wi、…、wn;在词典中查出每个候选词的概率值P(wi),并记录每个候选词的全部左邻词;计算每个候选词的累计概率,同时比较得到每个候选词的最佳左邻词;如果当前词wn是字串S的尾词,且累计概率P(wn)最大,则wn就是S的终点词;从wn开始,按照从右到左顺序,依次将每个词的最佳左邻词输出,即S的分词结果。在得到了与所述消费品语料对应的第一分词结果,将所述第一分词结果输入至第一初始N-gram模型进行训练,得到第一N-gram模型,该第一N-gram模型对智能超市场景下的语句识别准确率较高。
同样的,通过将所述通用语料基于概率统计分词模型进行分词,得到与所述通用语料对应的第二分词结果;将所述第二分词结果输入至第二初始N-gram模型进行训练,得到第二N-gram模型,该第二N-gram模型对日常生活普通场景下的语句识别准确率较高(即不偏向于对某一生活场景的语句的识别率较高)。
S120、接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果。
当通过所述N-gram模型对所述待识别语音进行进行识别,识别得到的是一整句话,例如“我要买XX品牌方便面”,通过N-gram模型能对所述待识别语音进行进行有效识别,得到识别概率最大的语句作为识别结果。
S130、将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果。
在一实施例中,步骤S130包括:
将所述识别结果基于概率统计分词模型进行分词,得到与所述识别结果对应的语句分词结果。
在本实施例中,步骤S130中对所述识别结果进行分词时也是采用基于概率统计分词模型进行分词具体过程可参考步骤S1111。当将识别结果进行分词后,即可进一步的进行词性分析。
S140、根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词。
在一实施例中,步骤S140包括:
将所述语句分词结果作为预先训练的联合词法分析模型的输入,得到所述语句分词结果中名词词性关键词。
在本实施例中,通过联合词法分析模型进行词法分析的过程如下:
词法分析任务的输入是一个字符串(后面使用『句子』来指代它),而输出是句子中的词边界和词性、实体类别。序列标注是词法分析的经典建模方式。在构建联合词法分析模型(即LAC模型)使用基于GRU(门控循环单元)的网络结构学习特征,将学习到的特征接入CRF解码层(CRF即条件随机场)完成序列标注。CRF解码层本质上是将传统CRF中的线性模型换成了非线性神经网络,基于句子级别的似然概率,因而能够更好的解决标记偏置问题。
联合词法分析模型的输入采用one-hot方式表示,每个字以一个id表示one-hot序列通过字表,转换为实向量表示的字向量序列;字向量序列作为双向GRU的输入,学习输入序列的特征表示,得到新的特性表示序列,其中堆叠了两层双向GRU以增加学习能力;CRF以GRU学习到的特征为输入,以标记序列为监督信号,实现对语句分词结果中各分词的词性标注。由于在智能超市的场景下,名字词性关键词为商品品牌或商品名称的概率更大,故选取所述语句分词结果对应的名词词性关键词作为筛选结果,以进一步进行商品检索。
S150、在预先存储的推荐语料库中搜索与所述名词性关键词的相似度超出预设的相似度阈值的语料,以得到检索结果。
在本实施例中,当获取了名词词性关键词,在预设的推荐语料库中对各名词词性关键词进行搜索,得到与词词性关键词近似度较大的词,以作为检索结果。其中,在在预设的推荐语料库中对各名词词性关键词进行搜索,得到与词词性关键词近似度较大的词是,具体是根据Word2Vec模型(Word2Vec模型是一款将词表征为实数值向量的高效工具)获取所述名词性关键词对应的词向量,然后与预先存储的推荐语料库中每一语料对应的词向量进行相似度的计算,其中计算两个向量之间的相似度是通过计算两个向量之间的欧式距离。若在预先存储的推荐语料库中存在与所述名词性关键词的相似度超出预设的相似度阈值的语料,将对应的语料作为检索结果之一,即多个符合与所述名词性关键词的相似度超出预设的相似度阈值的语料共同组成检索结果。
该方法采用语音识别技术,通过对语音识别的结果进行词法分析后得到名词词性关键词,实现根据名词词性关键词在推荐语料库中更准确的获取检索结果。
本发明实施例还提供一种语音检索装置,该语音检索装置用于执行前述语音检索方法的任一实施例。具体地,请参阅图5,图5是本发明实施例提供的语音检索装置的示意性框图。该语音检索装置100可以配置于服务器中。
如图5所示,语音检索装置100包括模型训练单元110、语音识别单元120、分词单元130、词性分析单元140、检索单元150。
模型训练单元110,用于接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型。
在本实施例中,是站在服务器的角度描述技术方案。服务器中可接收训练集语料库训练得到N-gram模型,通过N-gram模型对设置在智能超市的前端语音采集终端上传至服务器的待识别语音进行识别。
在本实施例中,训练集语料库是通用语料和消费品语料的混合库,消费品语料是包括了大量商品名称(如商品品牌,商品名称等)的语料库;通用语料与消费品语料的不同之处在于,通用语料中的词汇并未偏向于某一具体领域。通过所述训练集语料库输入至初始N-gram模型进行训练,即可得到用于语音识别的N-gram模型。
在一实施例中,如图6所示,模型训练单元110包括:
第一训练单元111,用于获取消费品语料,将所述消费品语料输入至第一初始N-gram模型进行训练,得到第一N-gram模型;
第二训练单元112,用于获取通用语料,将所述通用语料输入至第二初始N-gram模型进行训练,得到第二N-gram模型;
模型融合单元113,用于根据所设置的模型融合比例,将所述第一N-gram模型和所述第二N-gram模型进行融合,得到N-gram模型。
在本实施例中,消费品语料是包括了大量商品名称的语料库,通用语料与消费品语料的不同之处在于,通用语料中的词汇并未偏向于某一具体领域。
N-gram模型是一种语言模型(LanguageModel,LM),语言模型是一个基于概率的判别模型,它的输入是一句话(单词的顺序序列),输出是这句话的概率,即这些单词的联合概率(jointprobability)。
假设句子T是有词序列w1,w2,w3...wn组成,用公式表示N-Gram语言模型如下:
P(T)=P(w1)*p(w2)*p(w3)*…*p(wn)
=p(w1)*p(w2|w1)*p(w3|w1w2)*…*p(wn|w1w2w3...)
一般常用的N-Gram模型是Bi-Gram和Tri-Gram。分别用公式表示如下:
Bi-Gram:
P(T)=p(w1|begin)*p(w2|w1)*p(w3|w2)*…*p(wn|wn-1)
Tri-Gram:
P(T)=p(w1|begin1,begin2)*p(w2|w1,begin1)*p(w3|w2w1)*…*p(wn|wn-1,wn-2);
可见,对于句子T中每一个词出现的条件概率,可以通过在语料库中统计计数的方式得出。则n元模型如下:
p(wn|w1w2w3...)=C(wi-n-1,…,wi)/C(wi-n-1,…,wi-1);
式中C(wi-n-1,…,wi)表示字符串wi-n-1,…,wi在语料库中的次数。
根据所设置的模型融合比例,如消费品语料与通用语料的比例设置为2:8,得到第一N-gram模型和所述第二N-gram模型的模型融合比例也为2:8,将所述第一N-gram模型和所述第二N-gram模型进行融合,最终得到用于语音识别的N-gram模型。由于初始设置了消费品语料与通用语料的比例,最终融合得到的N-gram模型以智能超市场景下的语音识别的准确率得到有效的提高。
在一实施例中,如图7所示,第一训练单元111包括:
分词单元1111,用于将所述消费品语料基于概率统计分词模型进行分词,得到与所述消费品语料对应的第一分词结果;
分词训练单元1112,用于将所述第一分词结果输入至第一初始N-gram模型进行训练,得到第一N-gram模型。
在本实施例中,将所述消费品语料中每一语句通过基于概率统计分词模型进行分词过程如下:
例如,令C=C1C2...Cm,C是待切分的汉字串,令W=W1W2...Wn,W是切分的结果,Wa,Wb,……,Wk是C的所有可能的切分方案。那么,基于概率统计分词模型就是能够找到目的词串W,使得W满足:P(W|C)=MAX(P(Wa|C),P(Wb|C)...P(Wk|C))的分词模型,上述分词模型得到的词串W即估计概率为最大之词串。即:
对一个待分词的子串S,按照从左到右的顺序取出全部候选词w1、w2、…、wi、…、wn;在词典中查出每个候选词的概率值P(wi),并记录每个候选词的全部左邻词;计算每个候选词的累计概率,同时比较得到每个候选词的最佳左邻词;如果当前词wn是字串S的尾词,且累计概率P(wn)最大,则wn就是S的终点词;从wn开始,按照从右到左顺序,依次将每个词的最佳左邻词输出,即S的分词结果。在得到了与所述消费品语料对应的第一分词结果,将所述第一分词结果输入至第一初始N-gram模型进行训练,得到第一N-gram模型,该第一N-gram模型对智能超市场景下的语句识别准确率较高。
同样的,通过将所述通用语料基于概率统计分词模型进行分词,得到与所述通用语料对应的第二分词结果;将所述第二分词结果输入至第二初始N-gram模型进行训练,得到第二N-gram模型,该第二N-gram模型对日常生活普通场景下的语句识别准确率较高(即不偏向于对某一生活场景的语句的识别率较高)。
语音识别单元120,用于接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果。
当通过所述N-gram模型对所述待识别语音进行进行识别,识别得到的是一整句话,例如“我要买XX品牌方便面”,通过N-gram模型能对所述待识别语音进行进行有效识别,得到识别概率最大的语句作为识别结果。
识别结果分词单元130,用于将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果。
在一实施例中,识别结果分词单元130还用于:
将所述识别结果基于概率统计分词模型进行分词,得到与所述识别结果对应的语句分词结果。
在本实施例中,识别结果分词单元130中对所述识别结果进行分词时也是采用基于概率统计分词模型进行分词具体过程可参考分词单元1111。当将识别结果进行分词后,即可进一步的进行词性分析。
词性分析单元140,用于根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词。
在一实施例中,词性分析单元140还用于:
将所述语句分词结果作为预先训练的联合词法分析模型的输入,得到所述语句分词结果中名词词性关键词。
在本实施例中,通过联合词法分析模型进行词法分析的过程如下:
词法分析任务的输入是一个字符串(后面使用『句子』来指代它),而输出是句子中的词边界和词性、实体类别。序列标注是词法分析的经典建模方式。在构建联合词法分析模型(即LAC模型)使用基于GRU(门控循环单元)的网络结构学习特征,将学习到的特征接入CRF解码层(CRF即条件随机场)完成序列标注。CRF解码层本质上是将传统CRF中的线性模型换成了非线性神经网络,基于句子级别的似然概率,因而能够更好的解决标记偏置问题。
联合词法分析模型的输入采用one-hot方式表示,每个字以一个id表示one-hot序列通过字表,转换为实向量表示的字向量序列;字向量序列作为双向GRU的输入,学习输入序列的特征表示,得到新的特性表示序列,其中堆叠了两层双向GRU以增加学习能力;CRF以GRU学习到的特征为输入,以标记序列为监督信号,实现对语句分词结果中各分词的词性标注。由于在智能超市的场景下,名字词性关键词为商品品牌或商品名称的概率更大,故选取所述语句分词结果对应的名词词性关键词作为筛选结果,以进一步进行商品检索。
检索单元150,用于在预先存储的推荐语料库中搜索与所述名词性关键词的相似度超出预设的相似度阈值的语料,以得到检索结果。
在本实施例中,当获取了名词词性关键词,在预设的推荐语料库中对各名词词性关键词进行搜索,得到与词词性关键词近似度较大的词,以作为检索结果。其中,在在预设的推荐语料库中对各名词词性关键词进行搜索,得到与词词性关键词近似度较大的词是,具体是根据Word2Vec模型(Word2Vec模型是一款将词表征为实数值向量的高效工具)获取所述名词性关键词对应的词向量,然后与预先存储的推荐语料库中每一语料对应的词向量进行相似度的计算,其中计算两个向量之间的相似度是通过计算两个向量之间的欧式距离。若在预先存储的推荐语料库中存在与所述名词性关键词的相似度超出预设的相似度阈值的语料,将对应的语料作为检索结果之一,即多个符合与所述名词性关键词的相似度超出预设的相似度阈值的语料共同组成检索结果。
该装置采用语音识别技术,通过对语音识别的结果进行词法分析后得到名词词性关键词,实现根据名词词性关键词在推荐语料库中更准确的获取检索结果。
上述语音检索装置可以实现为计算机程序的形式,该计算机程序可以在如图8所示的计算机设备上运行。
请参阅图8,图8是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图8,该计算机设备500包括通过***总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作***5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行语音检索方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行语音检索方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图8中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下功能:接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型;接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果;根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词;以及在预先存储的推荐语料库中搜索与所述名词性关键词的相似度超出预设的相似度阈值的语料,以得到检索结果。
在一实施例中,处理器502在执行所述接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型的步骤时,执行如下操作:获取消费品语料,将所述消费品语料输入至第一初始N-gram模型进行训练,得到第一N-gram模型;获取通用语料,将所述通用语料输入至第二初始N-gram模型进行训练,得到第二N-gram模型;根据所设置的模型融合比例,将所述第一N-gram模型和所述第二N-gram模型进行融合,得到N-gram模型。
在一实施例中,处理器502在执行所述将所述消费品语料输入至第一初始N-gram模型进行训练,得到第一N-gram模型的步骤时,执行如下操作:将所述消费品语料基于概率统计分词模型进行分词,得到与所述消费品语料对应的第一分词结果;将所述第一分词结果输入至第一初始N-gram模型进行训练,得到第一N-gram模型。
在一实施例中,处理器502在执行所述将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果的步骤时,执行如下操作:将所述识别结果基于概率统计分词模型进行分词,得到与所述识别结果对应的语句分词结果。
在一实施例中,处理器502在执行所述根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词的步骤时,执行如下操作:将所述语句分词结果作为预先训练的联合词法分析模型的输入,得到所述语句分词结果中名词词性关键词。
本领域技术人员可以理解,图8中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图8所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessingUnit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、现成可编程门阵列(Field-ProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现以下步骤:接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型;接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果;根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词;以及在预先存储的推荐语料库中搜索与所述名词性关键词的相似度超出预设的相似度阈值的语料,以得到检索结果。
在一实施例中,所述接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型,包括:获取消费品语料,将所述消费品语料输入至第一初始N-gram模型进行训练,得到第一N-gram模型;获取通用语料,将所述通用语料输入至第二初始N-gram模型进行训练,得到第二N-gram模型;根据所设置的模型融合比例,将所述第一N-gram模型和所述第二N-gram模型进行融合,得到N-gram模型。
在一实施例中,所述将所述消费品语料输入至第一初始N-gram模型进行训练,得到第一N-gram模型,包括:将所述消费品语料基于概率统计分词模型进行分词,得到与所述消费品语料对应的第一分词结果;将所述第一分词结果输入至第一初始N-gram模型进行训练,得到第一N-gram模型。
在一实施例中,所述将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果,包括:将所述识别结果基于概率统计分词模型进行分词,得到与所述识别结果对应的语句分词结果。
在一实施例中,所述根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词,包括:将所述语句分词结果作为预先训练的联合词法分析模型的输入,得到所述语句分词结果中名词词性关键词。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种语音检索方法,其特征在于,包括:
接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型;
接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;
将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果;
根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词;以及
在预先存储的推荐语料库中搜索与所述名词性关键词的相似度超出预设的相似度阈值的语料,以得到检索结果;其中,所述推荐语料库中包括多个语料,每一语料包括一个或多个名词词性的关键词。
2.根据权利要求1所述的语音检索方法,其特征在于,所述接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型,包括:
获取消费品语料,将所述消费品语料输入至第一初始N-gram模型进行训练,得到第一N-gram模型;
获取通用语料,将所述通用语料输入至第二初始N-gram模型进行训练,得到第二N-gram模型;
根据所设置的模型融合比例,将所述第一N-gram模型和所述第二N-gram模型进行融合,得到N-gram模型。
3.根据权利要求2所述的语音检索方法,其特征在于,所述将所述消费品语料输入至第一初始N-gram模型进行训练,得到第一N-gram模型,包括:
将所述消费品语料基于概率统计分词模型进行分词,得到与所述消费品语料对应的第一分词结果;
将所述第一分词结果输入至第一初始N-gram模型进行训练,得到第一N-gram模型。
4.根据权利要求1所述的语音检索方法,其特征在于,所述将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果,包括:
将所述识别结果基于概率统计分词模型进行分词,得到与所述识别结果对应的语句分词结果。
5.根据权利要求1所述的语音检索方法,其特征在于,所述根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词,包括:
将所述语句分词结果作为预先训练的联合词法分析模型的输入,得到所述语句分词结果中名词词性关键词。
6.一种语音检索装置,其特征在于,包括:
模型训练单元,用于接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型;
语音识别单元,用于接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;
识别结果分词单元,用于将所述识别结果进行分词,得到与所述识别结果对应的语句分词结果;
词性分析单元,用于根据所述语句分词结果进行词法分析,得到所述语句分词结果对应的名词词性关键词;以及
检索单元,用于在预先存储的推荐语料库中搜索与所述名词性关键词的相似度超出预设的相似度阈值的语料,以得到检索结果。
7.根据权利要求6所述的语音检索装置,其特征在于,所述模型训练单元,包括:
第一训练单元,用于获取消费品语料,将所述消费品语料输入至第一初始N-gram模型进行训练,得到第一N-gram模型;
第二训练单元,用于获取通用语料,将所述通用语料输入至第二初始N-gram模型进行训练,得到第二N-gram模型;
模型融合单元,用于根据所设置的模型融合比例,将所述第一N-gram模型和所述第二N-gram模型进行融合,得到N-gram模型。
8.根据权利要求7所述的语音检索装置,其特征在于,所述第一训练单元,包括:
分词单元,用于将所述消费品语料基于概率统计分词模型进行分词,得到与所述消费品语料对应的第一分词结果;
分词训练单元,用于将所述第一分词结果输入至第一初始N-gram模型进行训练,得到第一N-gram模型。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5中任一项所述的语音检索方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至5任一项所述的语音检索方法。
CN201910492599.8A 2019-06-06 2019-06-06 语音检索方法、装置、计算机设备及存储介质 Active CN110349568B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910492599.8A CN110349568B (zh) 2019-06-06 2019-06-06 语音检索方法、装置、计算机设备及存储介质
PCT/CN2019/117872 WO2020244150A1 (zh) 2019-06-06 2019-11-13 语音检索方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910492599.8A CN110349568B (zh) 2019-06-06 2019-06-06 语音检索方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN110349568A true CN110349568A (zh) 2019-10-18
CN110349568B CN110349568B (zh) 2024-05-31

Family

ID=68181598

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910492599.8A Active CN110349568B (zh) 2019-06-06 2019-06-06 语音检索方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN110349568B (zh)
WO (1) WO2020244150A1 (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825844A (zh) * 2019-10-21 2020-02-21 拉扎斯网络科技(上海)有限公司 语音检索方法、装置、可读存储介质和电子设备
CN111291195A (zh) * 2020-01-21 2020-06-16 腾讯科技(深圳)有限公司 一种数据处理方法、装置、终端及可读存储介质
CN111460257A (zh) * 2020-03-27 2020-07-28 北京百度网讯科技有限公司 专题生成方法、装置、电子设备和存储介质
CN111783424A (zh) * 2020-06-17 2020-10-16 泰康保险集团股份有限公司 一种文本分句方法和装置
CN111862970A (zh) * 2020-06-05 2020-10-30 珠海高凌信息科技股份有限公司 一种基于智能语音机器人的虚假宣传治理应用方法及装置
WO2020244150A1 (zh) * 2019-06-06 2020-12-10 平安科技(深圳)有限公司 语音检索方法、装置、计算机设备及存储介质
CN112183114A (zh) * 2020-08-10 2021-01-05 招联消费金融有限公司 模型训练、语义完整性识别方法和装置
CN112381038A (zh) * 2020-11-26 2021-02-19 中国船舶工业***工程研究院 一种基于图像的文本识别方法、***和介质
CN112735413A (zh) * 2020-12-25 2021-04-30 浙江大华技术股份有限公司 一种基于摄像装置的指令分析方法、电子设备和存储介质
CN112905869A (zh) * 2021-03-26 2021-06-04 北京儒博科技有限公司 语言模型的自适应训练方法、装置、存储介质及设备
CN113256379A (zh) * 2021-05-24 2021-08-13 北京小米移动软件有限公司 一种为商品关联购物需求的方法
CN113256378A (zh) * 2021-05-24 2021-08-13 北京小米移动软件有限公司 一种确定用户购物需求的方法
CN113569128A (zh) * 2020-04-29 2021-10-29 北京金山云网络技术有限公司 数据检索方法、装置及电子设备
CN113642329A (zh) * 2020-04-27 2021-11-12 阿里巴巴集团控股有限公司 术语识别模型的建立方法及装置、术语识别方法及装置
CN114329225A (zh) * 2022-01-24 2022-04-12 平安国际智慧城市科技股份有限公司 基于搜索语句的搜索方法、装置、设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115563394B (zh) * 2022-11-24 2023-03-28 腾讯科技(深圳)有限公司 搜索召回方法、召回模型训练方法、装置和计算机设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154260A (zh) * 2017-04-11 2017-09-12 北京智能管家科技有限公司 一种领域自适应语音识别方法和装置
CN107204184A (zh) * 2017-05-10 2017-09-26 平安科技(深圳)有限公司 语音识别方法及***
CN108538286A (zh) * 2017-03-02 2018-09-14 腾讯科技(深圳)有限公司 一种语音识别的方法以及计算机
CN108804414A (zh) * 2018-05-04 2018-11-13 科沃斯商用机器人有限公司 文本修正方法、装置、智能设备及可读存储介质
CN109388743A (zh) * 2017-08-11 2019-02-26 阿里巴巴集团控股有限公司 语言模型的确定方法和装置
CN109817217A (zh) * 2019-01-17 2019-05-28 深圳壹账通智能科技有限公司 基于语音识别的自助贩卖方法、装置、设备及介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105139239A (zh) * 2014-05-27 2015-12-09 无锡韩光电器有限公司 一种具有语音查询功能的超市购物***
JP6353408B2 (ja) * 2015-06-11 2018-07-04 日本電信電話株式会社 言語モデル適応装置、言語モデル適応方法、プログラム
CN106875941B (zh) * 2017-04-01 2020-02-18 彭楚奥 一种服务机器人的语音语义识别方法
CN107247759A (zh) * 2017-05-31 2017-10-13 深圳正品创想科技有限公司 一种商品推荐方法及装置
CN109344830B (zh) * 2018-08-17 2024-06-28 平安科技(深圳)有限公司 语句输出、模型训练方法、装置、计算机设备及存储介质
CN109840323A (zh) * 2018-12-14 2019-06-04 深圳壹账通智能科技有限公司 保险产品的语音识别处理方法及服务器
CN110349568B (zh) * 2019-06-06 2024-05-31 平安科技(深圳)有限公司 语音检索方法、装置、计算机设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108538286A (zh) * 2017-03-02 2018-09-14 腾讯科技(深圳)有限公司 一种语音识别的方法以及计算机
CN107154260A (zh) * 2017-04-11 2017-09-12 北京智能管家科技有限公司 一种领域自适应语音识别方法和装置
CN107204184A (zh) * 2017-05-10 2017-09-26 平安科技(深圳)有限公司 语音识别方法及***
CN109388743A (zh) * 2017-08-11 2019-02-26 阿里巴巴集团控股有限公司 语言模型的确定方法和装置
CN108804414A (zh) * 2018-05-04 2018-11-13 科沃斯商用机器人有限公司 文本修正方法、装置、智能设备及可读存储介质
CN109817217A (zh) * 2019-01-17 2019-05-28 深圳壹账通智能科技有限公司 基于语音识别的自助贩卖方法、装置、设备及介质

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020244150A1 (zh) * 2019-06-06 2020-12-10 平安科技(深圳)有限公司 语音检索方法、装置、计算机设备及存储介质
CN110825844A (zh) * 2019-10-21 2020-02-21 拉扎斯网络科技(上海)有限公司 语音检索方法、装置、可读存储介质和电子设备
CN111291195A (zh) * 2020-01-21 2020-06-16 腾讯科技(深圳)有限公司 一种数据处理方法、装置、终端及可读存储介质
CN111460257B (zh) * 2020-03-27 2023-10-31 北京百度网讯科技有限公司 专题生成方法、装置、电子设备和存储介质
CN111460257A (zh) * 2020-03-27 2020-07-28 北京百度网讯科技有限公司 专题生成方法、装置、电子设备和存储介质
CN113642329A (zh) * 2020-04-27 2021-11-12 阿里巴巴集团控股有限公司 术语识别模型的建立方法及装置、术语识别方法及装置
CN113569128A (zh) * 2020-04-29 2021-10-29 北京金山云网络技术有限公司 数据检索方法、装置及电子设备
CN111862970A (zh) * 2020-06-05 2020-10-30 珠海高凌信息科技股份有限公司 一种基于智能语音机器人的虚假宣传治理应用方法及装置
CN111783424B (zh) * 2020-06-17 2024-02-13 泰康保险集团股份有限公司 一种文本分句方法和装置
CN111783424A (zh) * 2020-06-17 2020-10-16 泰康保险集团股份有限公司 一种文本分句方法和装置
CN112183114A (zh) * 2020-08-10 2021-01-05 招联消费金融有限公司 模型训练、语义完整性识别方法和装置
CN112183114B (zh) * 2020-08-10 2024-05-14 招联消费金融股份有限公司 模型训练、语义完整性识别方法和装置
CN112381038A (zh) * 2020-11-26 2021-02-19 中国船舶工业***工程研究院 一种基于图像的文本识别方法、***和介质
CN112381038B (zh) * 2020-11-26 2024-04-19 中国船舶工业***工程研究院 一种基于图像的文本识别方法、***和介质
CN112735413A (zh) * 2020-12-25 2021-04-30 浙江大华技术股份有限公司 一种基于摄像装置的指令分析方法、电子设备和存储介质
CN112735413B (zh) * 2020-12-25 2024-05-31 浙江大华技术股份有限公司 一种基于摄像装置的指令分析方法、电子设备和存储介质
CN112905869A (zh) * 2021-03-26 2021-06-04 北京儒博科技有限公司 语言模型的自适应训练方法、装置、存储介质及设备
CN113256379A (zh) * 2021-05-24 2021-08-13 北京小米移动软件有限公司 一种为商品关联购物需求的方法
CN113256378A (zh) * 2021-05-24 2021-08-13 北京小米移动软件有限公司 一种确定用户购物需求的方法
CN114329225A (zh) * 2022-01-24 2022-04-12 平安国际智慧城市科技股份有限公司 基于搜索语句的搜索方法、装置、设备及存储介质
CN114329225B (zh) * 2022-01-24 2024-04-23 平安国际智慧城市科技股份有限公司 基于搜索语句的搜索方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110349568B (zh) 2024-05-31
WO2020244150A1 (zh) 2020-12-10

Similar Documents

Publication Publication Date Title
CN110349568A (zh) 语音检索方法、装置、计算机设备及存储介质
CN110795543B (zh) 基于深度学习的非结构化数据抽取方法、装置及存储介质
CN107818781B (zh) 智能交互方法、设备及存储介质
CN107797984B (zh) 智能交互方法、设备及存储介质
CN110516247B (zh) 基于神经网络的命名实体识别方法及计算机存储介质
CN110347823A (zh) 基于语音的用户分类方法、装置、计算机设备及存储介质
CN109918485B (zh) 语音识别菜品的方法及装置、存储介质、电子装置
CN109325132A (zh) 专家知识推荐方法、装置、计算机设备及存储介质
CN112084381A (zh) 一种事件抽取方法、***、存储介质以及设备
CN110096572B (zh) 一种样本生成方法、装置及计算机可读介质
CN109800427B (zh) 一种分词方法、装置、终端及计算机可读存储介质
CN108038099B (zh) 基于词聚类的低频关键词识别方法
CN111966810B (zh) 一种用于问答***的问答对排序方法
CN106649605B (zh) 一种推广关键词的触发方法及装置
CN108108347B (zh) 对话模式分析***及方法
CN110287307A (zh) 一种搜索结果排序方法、装置及服务器
CN111125491A (zh) 商品信息的搜索方法和装置、存储介质及电子装置
CN113821605A (zh) 一种事件抽取方法
CN113704507A (zh) 数据处理方法、计算机设备以及可读存储介质
CN108491381A (zh) 一种汉语二分结构的句法分析方法
CN107122378B (zh) 对象处理方法、装置及移动终端
JP6555810B2 (ja) 類似度算出装置、類似検索装置、および類似度算出プログラム
CN111291169A (zh) 模板编辑回复的方法、装置、设备及存储介质
CN110795562A (zh) 图谱优化方法、装置、终端及存储介质
CN116090450A (zh) 一种文本处理方法及计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant