CN106875940A - 一种基于神经网络的机器自学习构建知识图谱训练方法 - Google Patents

一种基于神经网络的机器自学习构建知识图谱训练方法 Download PDF

Info

Publication number
CN106875940A
CN106875940A CN201710127387.0A CN201710127387A CN106875940A CN 106875940 A CN106875940 A CN 106875940A CN 201710127387 A CN201710127387 A CN 201710127387A CN 106875940 A CN106875940 A CN 106875940A
Authority
CN
China
Prior art keywords
sentence
answer
vector
lambda
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710127387.0A
Other languages
English (en)
Other versions
CN106875940B (zh
Inventor
刘颖博
王东亮
王洪斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin Sheng Chuang Technology Co Ltd
Original Assignee
Jilin Sheng Chuang Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin Sheng Chuang Technology Co Ltd filed Critical Jilin Sheng Chuang Technology Co Ltd
Priority to CN201710127387.0A priority Critical patent/CN106875940B/zh
Publication of CN106875940A publication Critical patent/CN106875940A/zh
Application granted granted Critical
Publication of CN106875940B publication Critical patent/CN106875940B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/72Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for transmitting results of analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于神经网络的机器自学习构建知识图谱训练方法,包括:获取用户发送的基于自然情景的语句,采用语音降噪算法对输入语句进行滤波降噪,确定匹配的反馈语句;如果不存在,则根据神经网络对话模型,给出针对用户发送的语句的答案;包括:所述用户发送语句模型的编码层构建为第一神经网络,在所述第一神经网络中对用户发送语句进行解析,得到用于表示用户发送语句语义的第一中间向量;所述对话生成模型的解码层构建为第二神经网络,在所述第二神经网络中对所述中间向量进行解析,获得表示语句答案的向量群,本发明采用阈值语音降噪算法能够获得较小的均方误差,提高了重构语音信号的信噪比。

Description

一种基于神经网络的机器自学习构建知识图谱训练方法
技术领域
本发明涉及智能机器人领域,尤其涉及一种基于神经网络的机器自学习构建知识图谱训练方法。
背景技术
聊天机器人(chatterbot)是一个用来模拟人类对话或聊天的程序。聊天机器人产生的原因是,研发者把自己感兴趣的回答放到数据库中,当一个问题被抛给聊天机器人时,它通过相似度匹配算法,从数据库中找到最相近的问题,然后根据问题与答案的对应关系,给出最贴切的答案,回复给它的聊伴。
然而,在当前机器人聊天的场景中,当在机器人知识库中并不能找到与用户请求的问题相匹配的相同或类似问题时,机器人就不能够给用户返回正确的或者说合适的答案。
现有技术这方面的局限除了导致机器人知识库有限的问题之外,还会导致语义理解的错误,从而使用户与机器人沟通过程的体验较差。此外,在知识推理上现有技术的知识推理过程也有一定局限性,传统的知识推理都是靠程序开发人员写一些规则来解决知识推理问题。但是,要穷举并制定这些规则对于开发人员来说无法想象。因为在自然语言处理领域中永远有写不完的规则。这时就需要机器人有自己的学习能力,并进行推理。
发明内容
本发明设计开发了一种基于神经网络的机器自学习构建知识图谱训练方法,采用阈值语音降噪算法能够获得较小的均方误差,提高了重构语音信号的信噪比。
本发明还有一个目的是采用神经网络训练生成对话模型,利用训练得到的模型,机器人可以自如的跟用户交谈。
本发明提供的技术方案为:
一种基于神经网络的机器自学习构建知识图谱训练方法,包括:
获取用户发送的基于自然情景的语句,采用阈值语音降噪算法对输入语句进行滤波降噪,并获取所述语句的类别,并获取该语句的上文语句,以及所述上文语句的类别;
根据语句所述语句类别,确定匹配的反馈语句;
如果不存在,则根据神经网络对话模型,给出针对用户发送的语句的答案;包括:
所述用户发送语句模型的编码层构建为第一神经网络,在所述第一神经网络中对用户发送语句进行解析,得到用于表示用户发送语句语义的第一中间向量;
所述对话生成模型的解码层构建为第二神经网络,在所述第二神经网络中对所述中间向量进行解析,获得表示语句答案的向量群;以及
所述表示语句答案的向量群作为问题答案输出。
优选的是,在所述第一神经网络中对所述用户发送的语句进行解析时,包括以下步骤:
在编码层将用户输入的语句拆分成具有语义的最小单词元,得到多个单词元,并分别获取每个单词元的属性,挑选包含信息量多的至少一个词语作为中心词,并将其以向量的形式作为问题向量群输入到所述第一神经网络的输入层;
在所述第一神经网络的隐含层对所述第一神经网络的输入层的输出和前一时刻所述第一神经网络的隐含层的输出进行语义解析,并进行线性加权组合,形成代表句义的中间向量。
优选的是,在所述第二神经网络中对所述中间向量进行解析时,包括以下步骤:
在解码层接收所述中间向量,并将所述中间向量作为第二神经网络的输入层输入;
在所述第二神经网络的隐含层对来自输入层的所述中间向量和前一时刻所述第二神经网络的隐含层的输出进行语义解析,依次生成若干单个向量,以形成答案向量群,其中所述答案向量群中的各个单个向量的语义对应于答案输出语句中最小单词元的语义;
在所述第二神经网络的输出层将所述答案向量群进行输出。
优选的是,在将所述答案向量群作为答案输出语句进行输出之后,将该答案输出语句与对话输入语句对应地保存到知识库中,以对知识库进行更新和扩充。
优选的是,在进行知识库匹配计算后,根据知识库中是否存在与所述对话输入语句的匹配度达到预定值的对话语句来设置请求标准信号位,并依据请求标志信号位的有效性来决定是否需要请求对话生成模型给出答案。
优选的是,所述线性加权组合,包括以下步骤:
步骤一:统计用户输入语句中提取出n组中心词语数据组,其中n为正整数,每组中心词语数据组λ天内中心词语出现的概率xi,前一语句中心词语数据组λ天内中心词语出现的概率yi,建立单变量回归模型,
yi=ω′i·xi
其中,i为整数,i=1,2,3......λ,ω′i为λ天中的加权回归系数;
步骤二:采用最小二乘法对步骤一种的公式进行求解,分别计算得到λ天内的回归系数估计值:
其中,为回归系数的估计值;xij为第j组中心词语数据组中第i天中心词语出现的概率;为j组中心词语数据组概率的平均值;yij第j组用户输入语句前一时刻语句中中心词语数据组中第i天;中心词语出现的概率;为j组前一时刻中心词语数据组概率的平均值
步骤三:归一化处理,获得加权后的权重值:
其中,ωi为用户输入语句加权后的权重值。
优选的是,输出搭配需要使用者进行挑选和运用,当输出答案为准确时存储在知识库。
优选的是,所述语音降噪算法,包括:
a,通过端点检测将语音帧区分为静音帧和语音帧;
b,对于静音帧,计算当前帧的功率谱值作为噪声功率谱估计值,对于语音帧,计算语音噪声功率谱估计值;
c,将语音帧的功率谱减去噪声功率谱估计值,得到降噪后的语音功率谱;
d,根据降噪后的语音功率谱得出降噪后的语音帧。
9、根据权利要求8所述的基于神经网络的机器自学习构建知识图谱训练方法,其特征在于,所述语音噪声功率谱估计值计算公式为:
其中,I为噪声功率谱能量;阈值n为噪音信号的帧号;j=1-5为转换系数,e为自然常数;π为圆周率;fc为噪音信号的频率;τ(t)=0.03t2+0.6t+0.1;t为分解尺度,1≤t≤4。
本发明的有益效果
本发明设计开发了一种基于神经网络的机器自学习构建知识图谱训练方法,采用阈值语音降噪算法能够获得较小的均方误差,提高了重构语音信号的信噪比。
本发明还有一个目的是采用神经网络训练生成对话模型,利用训练得到的模型,机器人可以自如的跟用户交谈。
附图说明
图1为本发明所述的基于神经网络的机器自学习构建知识图谱训练方法的流程图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
如图1所示,本发明提供的基于神经网络的机器自学习构建知识图谱训练方法,包括:
S100:获取用户发送的基于自然情景的语句,采用阈值语音降噪算法对输入语句进行滤波降噪,并获取所述语句的类别,并获取该语句的上文语句,以及所述上文语句的类别;
S200:根据语句所述语句类别,确定匹配的反馈语句;
S300:如果不存在,则根据神经网络对话模型,给出针对用户发送的语句的答案;包括:
S310:用户发送语句模型的编码层构建为第一神经网络,在第一神经网络中对用户发送语句进行解析,得到用于表示用户发送语句语义的第一中间向量;
S320:对话生成模型的解码层构建为第二神经网络,在所述第二神经网络中对所述中间向量进行解析,获得表示语句答案的向量群;以及
S400:所述表示语句答案的向量群作为问题答案输出。
其中,在步骤S310中第一神经网络中对用户发送的语句进行解析时,包括以下步骤:
S311:在编码层将用户输入的语句拆分成具有语义的最小单词元,得到多个单词元,并分别获取每个单词元的属性,挑选包含信息量多的至少一个词语作为中心词,并将其以向量的形式作为问题向量群输入到第一神经网络的输入层;
S312:在第一神经网络的隐含层对第一神经网络的输入层的输出和前一时刻所述第一神经网络的隐含层的输出进行语义解析,并进行线性加权组合,形成代表句义的中间向量。
在步骤S320中,第二神经网络中对所述中间向量进行解析时,包括以下步骤:
S321:在解码层接收:中间向量,并将中间向量作为第二神经网络的输入层输入;
S322:在第二神经网络的隐含层对来自输入层的所述中间向量和前一时刻第二神经网络的隐含层的输出进行语义解析,依次生成若干单个向量,以形成答案向量群,其中答案向量群中的各个单个向量的语义对应于答案输出语句中最小单词元的语义;
在第二神经网络的输出层将所述答案向量群进行输出。
在另一实施例中,将所述答案向量群作为答案输出语句进行输出之后,将该答案输出语句与对话输入语句对应地保存到知识库中,以对知识库进行更新和扩充。
在另一实施例中,在进行知识库匹配计算后,根据知识库中是否存在与所述对话输入语句的匹配度达到预定值的对话语句来设置请求标准信号位,并依据请求标志信号位的有效性来决定是否需要请求对话生成模型给出答案。
在另一实施例中,步骤S312中线性加权组合,包括以下步骤:
步骤一:统计用户输入语句中提取出n组中心词语数据组,其中n为正整数,每组中心词语数据组λ天内中心词语出现的概率xi,前一语句中心词语数据组λ天内中心词语出现的概率yi,建立单变量回归模型,
yi=ω′i·xi
其中,i为整数,i=1,2,3......λ,ω′i为λ天中的加权回归系数;
步骤二:采用最小二乘法对步骤一种的公式进行求解,分别计算得到λ天内的回归系数估计值:
其中,为回归系数的估计值;xij为第j组中心词语数据组中第i天中心词语出现的概率;为j组中心词语数据组概率的平均值;yij第j组用户输入语句前一时刻语句中中心词语数据组中第i天;中心词语出现的概率;为j组前一时刻中心词语数据组概率的平均值
步骤三:归一化处理,获得加权后的权重值:
其中,ωi为用户输入语句加权后的权重值。
优选的是,输出搭配需要使用者进行挑选和运用,当输出答案为准确时存储在知识库。
在另一实施例中,步骤S100中的阈值语音降噪算法,包括:
a,通过端点检测将语音帧区分为静音帧和语音帧;
b,对于静音帧,计算当前帧的功率谱值作为噪声功率谱估计值,对于语音帧,计算语音噪声功率谱估计值;
c,将语音帧的功率谱减去噪声功率谱估计值,得到降噪后的语音功率谱;
d,根据降噪后的语音功率谱得出降噪后的语音帧。
语音噪声功率谱估计值计算公式为:
其中,I为噪声功率谱能量;阈值n为噪音信号的帧号;j=1-5为转换系数,e为自然常数;π为圆周率;fc为噪音信号的频率;τ(t)=0.03t2+0.6t+0.1;t为分解尺度,1≤t≤4。
即通过语音收集装置,获得关于语音的噪声图谱,通过端点检测将语音帧区分为静音帧和语音帧;对于静音帧,计算当前帧的功率谱值作为噪声功率谱估计值,对于语音帧,计算:
其中,I为噪声功率谱能量;阈值n为噪音信号的帧号;j=1-5为转换系数,e为自然常数;π为圆周率;fc为噪音信号的频率;τ(t)=0.03t2+0.6t+0.1;t为分解尺度,1≤t≤4。
语音噪声功率谱估计值;将语音帧的功率谱减去噪声功率谱估计值,得到降噪后的语音功率谱;根据降噪后的语音功率谱得出降噪后的语音帧。
本发明设计开发了一种基于神经网络的机器自学习构建知识图谱训练方法,采用阈值语音降噪算法能够获得较小的均方误差,提高了重构语音信号的信噪比,并采用神经网络训练生成对话模型,利用训练得到的模型,机器人可以自如的跟用户交谈。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (9)

1.一种基于神经网络的机器自学习构建知识图谱训练方法,其特征在于,包括:
获取用户发送的基于自然情景的语句,采用语音降噪算法对输入语句进行滤波降噪,并获取所述语句的类别,并获取该语句的上文语句,以及所述上文语句的类别;
根据语句所述语句类别,确定匹配的反馈语句;
如果不存在,则根据神经网络对话模型,给出针对用户发送的语句的答案;包括:
所述用户发送语句模型的编码层构建为第一神经网络,在所述第一神经网络中对用户发送语句进行解析,得到用于表示用户发送语句语义的第一中间向量;
所述对话生成模型的解码层构建为第二神经网络,在所述第二神经网络中对所述中间向量进行解析,获得表示语句答案的向量群;以及
所述表示语句答案的向量群作为问题答案输出。
2.根据权利要求1所述的基于神经网络的机器自学习构建知识图谱训练方法,其特征在于,在所述第一神经网络中对所述用户发送的语句进行解析时,包括以下步骤:
在编码层将用户输入的语句拆分成具有语义的最小单词元,得到多个单词元,并分别获取每个单词元的属性,挑选包含信息量多的至少一个词语作为中心词,并将其以向量的形式作为问题向量群输入到所述第一神经网络的输入层;
在所述第一神经网络的隐含层对所述第一神经网络的输入层的输出和前一时刻所述第一神经网络的隐含层的输出进行语义解析,并进行线性加权组合,形成代表句义的中间向量。
3.根据权利要求2所述的基于神经网络的机器自学习构建知识图谱训练方法,其特征在于,在所述第二神经网络中对所述中间向量进行解析时,包括以下步骤:
在解码层接收所述中间向量,并将所述中间向量作为第二神经网络的输入层输入;
在所述第二神经网络的隐含层对来自输入层的所述中间向量和前一时刻所述第二神经网络的隐含层的输出进行语义解析,依次生成若干单个向量,以形成答案向量群,其中所述答案向量群中的各个单个向量的语义对应于答案输出语句中最小单词元的语义;
在所述第二神经网络的输出层将所述答案向量群进行输出。
4.根据权利要求1-3中任一项所述的基于神经网络的机器自学习构建知识图谱训练方法,其特征在于,在将所述答案向量群作为答案输出语句进行输出之后,将该答案输出语句与对话输入语句对应地保存到知识库中,以对知识库进行更新和扩充。
5.根据权利要求1-3中任一项所述的基于神经网络的机器自学习构建知识图谱训练方法,其特征在于,在进行知识库匹配计算后,根据知识库中是否存在与所述对话输入语句的匹配度达到预定值的对话语句来设置请求标准信号位,并依据请求标志信号位的有效性来决定是否需要请求对话生成模型给出答案。
6.根据权利要求2所述的基于神经网络的机器自学习构建知识图谱训练方法,其特征在于,所述线性加权组合,包括以下步骤:
步骤一:统计用户输入语句中提取出n组中心词语数据组,其中n为正整数,每组中心词语数据组λ天内中心词语出现的概率xi,前一语句中心词语数据组λ天内中心词语出现的概率yi,建立单变量回归模型,
yi=ω′i·xi
其中,i为整数,i=1,2,3......λ,ω′i为λ天中的加权回归系数;
步骤二:采用最小二乘法对步骤一种的公式进行求解,分别计算得到λ天内的回归系数估计值:
ω ^ i = Σ j = 1 n [ ( x i j - x ‾ ) ( y i j - y ‾ ) ] Σ j = 1 n ( x i j - x ‾ ) 2
其中,为回归系数的估计值;xij为第j组中心词语数据组中第i天中心词语出现的概率;为j组中心词语数据组概率的平均值;yij第j组用户输入语句前一时刻语句中中心词语数据组中第i天;中心词语出现的概率;为j组前一时刻中心词语数据组概率的平均值
步骤三:归一化处理,获得加权后的权重值:
ω i = ω ^ i ′ Σ i = 1 j ω ^ i ′
其中,ωi为用户输入语句加权后的权重值。
7.根据权利要求6所述的基于神经网络的机器自学习构建知识图谱训练方法,其特征在于,输出搭配需要使用者进行挑选和运用,当输出答案为准确时存储在知识库。
8.根据权利要求1所述的基于神经网络的机器自学习构建知识图谱训练方法,其特征在于,所述语音降噪算法,包括:
a,通过端点检测将语音帧区分为静音帧和语音帧;
b,对于静音帧,计算当前帧的功率谱值作为噪声功率谱估计值,对于语音帧,计算语音噪声功率谱估计值;
c,将语音帧的功率谱减去噪声功率谱估计值,得到降噪后的语音功率谱;
d,根据降噪后的语音功率谱得出降噪后的语音帧。
9.根据权利要求8所述的基于神经网络的机器自学习构建知识图谱训练方法,其特征在于,所述语音噪声功率谱估计值计算公式为:
f ( I ) = I I &GreaterEqual; &lambda; 0 I &le; &lambda; 2 3 ( 2 I - &lambda; ) 2 &lambda; - 2 ( 2 I - &lambda; ) 3 &lambda; 2 &lambda; 2 < I < &lambda; 3 ( 2 I + &lambda; ) 2 &lambda; - 2 ( 2 I + &lambda; ) 3 &lambda; 2 - &lambda; &le; I < - &lambda; 2
其中,I为噪声功率谱能量;阈值n为噪音信号的帧号;j=1-5为转换系数,e为自然常数;π为圆周率;fc为噪音信号的频率;τ(t)=0.03t2+0.6t+0.1;t为分解尺度,1≤t≤4。
CN201710127387.0A 2017-03-06 2017-03-06 一种基于神经网络的机器自学习构建知识图谱训练方法 Active CN106875940B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710127387.0A CN106875940B (zh) 2017-03-06 2017-03-06 一种基于神经网络的机器自学习构建知识图谱训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710127387.0A CN106875940B (zh) 2017-03-06 2017-03-06 一种基于神经网络的机器自学习构建知识图谱训练方法

Publications (2)

Publication Number Publication Date
CN106875940A true CN106875940A (zh) 2017-06-20
CN106875940B CN106875940B (zh) 2020-08-14

Family

ID=59171199

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710127387.0A Active CN106875940B (zh) 2017-03-06 2017-03-06 一种基于神经网络的机器自学习构建知识图谱训练方法

Country Status (1)

Country Link
CN (1) CN106875940B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108449A (zh) * 2017-12-27 2018-06-01 哈尔滨福满科技有限责任公司 一种面向医疗领域的基于多源异构数据问答***及该***的实现方法
CN108389614A (zh) * 2018-03-02 2018-08-10 西安交通大学 基于图像分割与卷积神经网络构建医学影像图谱的方法
WO2019024704A1 (zh) * 2017-08-03 2019-02-07 阿里巴巴集团控股有限公司 实体标注方法、意图识别方法及对应装置、计算机存储介质
CN109933773A (zh) * 2017-12-15 2019-06-25 上海擎语信息科技有限公司 一种多重语义语句解析***及方法
CN110349463A (zh) * 2019-07-10 2019-10-18 南京硅基智能科技有限公司 一种逆向教学***及方法
CN112309183A (zh) * 2020-11-12 2021-02-02 江苏经贸职业技术学院 适用于外语教学的交互式听说练习***
CN112487173A (zh) * 2020-12-18 2021-03-12 北京百度网讯科技有限公司 人机对话方法、设备和存储介质
CN112528039A (zh) * 2020-12-16 2021-03-19 中国联合网络通信集团有限公司 词语处理方法、装置、设备及存储介质
CN113316752A (zh) * 2019-01-24 2021-08-27 索尼半导体解决方案公司 电压控制装置
WO2021190389A1 (zh) * 2020-03-25 2021-09-30 阿里巴巴集团控股有限公司 语音处理方法、语音编码器、语音解码器及语音识别***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1647069A (zh) * 2002-04-11 2005-07-27 株式会社PtoPA 对话控制***和对话控制方法
US20060020473A1 (en) * 2004-07-26 2006-01-26 Atsuo Hiroe Method, apparatus, and program for dialogue, and storage medium including a program stored therein
CN104217226A (zh) * 2014-09-09 2014-12-17 天津大学 基于深度神经网络与条件随机场的对话行为识别方法
CN105704013A (zh) * 2016-03-18 2016-06-22 北京光年无限科技有限公司 基于上下文的话题更新数据处理方法及装置
CN105787560A (zh) * 2016-03-18 2016-07-20 北京光年无限科技有限公司 基于循环神经网络的对话数据交互处理方法及装置
CN106055662A (zh) * 2016-06-02 2016-10-26 竹间智能科技(上海)有限公司 基于情感的智能对话方法及***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1647069A (zh) * 2002-04-11 2005-07-27 株式会社PtoPA 对话控制***和对话控制方法
US20060020473A1 (en) * 2004-07-26 2006-01-26 Atsuo Hiroe Method, apparatus, and program for dialogue, and storage medium including a program stored therein
CN104217226A (zh) * 2014-09-09 2014-12-17 天津大学 基于深度神经网络与条件随机场的对话行为识别方法
CN105704013A (zh) * 2016-03-18 2016-06-22 北京光年无限科技有限公司 基于上下文的话题更新数据处理方法及装置
CN105787560A (zh) * 2016-03-18 2016-07-20 北京光年无限科技有限公司 基于循环神经网络的对话数据交互处理方法及装置
CN106055662A (zh) * 2016-06-02 2016-10-26 竹间智能科技(上海)有限公司 基于情感的智能对话方法及***

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019024704A1 (zh) * 2017-08-03 2019-02-07 阿里巴巴集团控股有限公司 实体标注方法、意图识别方法及对应装置、计算机存储介质
CN109388793A (zh) * 2017-08-03 2019-02-26 阿里巴巴集团控股有限公司 实体标注方法、意图识别方法及对应装置、计算机存储介质
CN109388793B (zh) * 2017-08-03 2023-04-07 阿里巴巴集团控股有限公司 实体标注方法、意图识别方法及对应装置、计算机存储介质
CN109933773B (zh) * 2017-12-15 2023-05-26 上海擎语信息科技有限公司 一种多重语义语句解析***及方法
CN109933773A (zh) * 2017-12-15 2019-06-25 上海擎语信息科技有限公司 一种多重语义语句解析***及方法
CN108108449A (zh) * 2017-12-27 2018-06-01 哈尔滨福满科技有限责任公司 一种面向医疗领域的基于多源异构数据问答***及该***的实现方法
CN108389614B (zh) * 2018-03-02 2021-01-19 西安交通大学 基于图像分割与卷积神经网络构建医学影像图谱的方法
CN108389614A (zh) * 2018-03-02 2018-08-10 西安交通大学 基于图像分割与卷积神经网络构建医学影像图谱的方法
CN113316752A (zh) * 2019-01-24 2021-08-27 索尼半导体解决方案公司 电压控制装置
CN110349463A (zh) * 2019-07-10 2019-10-18 南京硅基智能科技有限公司 一种逆向教学***及方法
WO2021190389A1 (zh) * 2020-03-25 2021-09-30 阿里巴巴集团控股有限公司 语音处理方法、语音编码器、语音解码器及语音识别***
CN112309183A (zh) * 2020-11-12 2021-02-02 江苏经贸职业技术学院 适用于外语教学的交互式听说练习***
CN112528039A (zh) * 2020-12-16 2021-03-19 中国联合网络通信集团有限公司 词语处理方法、装置、设备及存储介质
CN112487173A (zh) * 2020-12-18 2021-03-12 北京百度网讯科技有限公司 人机对话方法、设备和存储介质
CN112487173B (zh) * 2020-12-18 2021-09-10 北京百度网讯科技有限公司 人机对话方法、设备和存储介质

Also Published As

Publication number Publication date
CN106875940B (zh) 2020-08-14

Similar Documents

Publication Publication Date Title
CN106875940A (zh) 一种基于神经网络的机器自学习构建知识图谱训练方法
CN108734276B (zh) 一种基于对抗生成网络的模仿学习对话生成方法
CN105787560B (zh) 基于循环神经网络的对话数据交互处理方法及装置
CN109036465B (zh) 语音情感识别方法
Carberry Techniques for plan recognition
CN106095950B (zh) 一种人机对话中教授意图答案生成方法
Rothe et al. Question asking as program generation
CN108829756B (zh) 一种利用分层注意力上下文网络解决多轮视频问答的方法
CN106779053A (zh) 一种基于影响因子和神经网络的知识点摸底方法
CN109710744A (zh) 一种数据匹配方法、装置、设备及存储介质
CN113761156A (zh) 人机交互对话的数据处理方法、装置、介质及电子设备
Platonov et al. A spoken dialogue system for spatial question answering in a physical blocks world
CN115455985A (zh) 一种基于机器阅读理解的自然语言***的处理方法
Liu et al. Perspective-corrected spatial referring expression generation for human–robot interaction
CN113011196B (zh) 一种概念增强表示与单向蕴含注意力的主观题自动阅卷神经网络模型
CN109190116A (zh) 语义解析方法、***、电子设备及存储介质
Huang et al. Improving unsupervised commonsense reasoning using knowledge-enabled natural language inference
Yang et al. Multi-intent text classification using dual channel convolutional neural network
CN114168769B (zh) 基于gat关系推理的视觉问答方法
CN113761149A (zh) 对话信息处理方法、装置、计算机设备及存储介质
Katsumi et al. Optimization of information-seeking dialogue strategy for argumentation-based dialogue system
CN114625986A (zh) 对搜索结果进行排序的方法、装置、设备及存储介质
CN113741759A (zh) 评论信息的展示方法、装置、计算机设备和存储介质
Singh et al. Human perception based criminal identification through human robot interaction
Li Personalized Dialogue Generation Method of Chat Robot Based on Topic Perception

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Wang Dongliang

Inventor after: Liu Yingbo

Inventor after: Wang Hongbin

Inventor after: Jiang Yuji

Inventor after: Yao Xing

Inventor after: Yu Yanlong

Inventor after: Li Xiaowen

Inventor after: Zhang Zhiwei

Inventor after: Zhang Lingling

Inventor before: Liu Yingbo

Inventor before: Wang Dongliang

Inventor before: Wang Hongbin

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant