CN106548124B - 主题推定***、主题推定方法 - Google Patents

主题推定***、主题推定方法 Download PDF

Info

Publication number
CN106548124B
CN106548124B CN201610685263.XA CN201610685263A CN106548124B CN 106548124 B CN106548124 B CN 106548124B CN 201610685263 A CN201610685263 A CN 201610685263A CN 106548124 B CN106548124 B CN 106548124B
Authority
CN
China
Prior art keywords
topic
dependent
learning
layer
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610685263.XA
Other languages
English (en)
Other versions
CN106548124A (zh
Inventor
史宏杰
牛尾贵志
远藤充
山上胜义
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016080684A external-priority patent/JP6611053B2/ja
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of CN106548124A publication Critical patent/CN106548124A/zh
Application granted granted Critical
Publication of CN106548124B publication Critical patent/CN106548124B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/28Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
    • G06V30/287Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

提供一种即使在学习数据不充分的情况下,也能够更高精度地推定对话的主题的主题推定***、主题推定方法等。一种具备卷积神经网络(10)并用于推定对话的主题标签的主题推定***,卷积神经网络(10)具备:卷积层(12),其包括对于单词列矢量列的输入进行依存于话题的卷积运算的一个以上的依存话题卷积层、和进行不依存于话题的卷积运算的一个不依存话题卷积层而构成,所述单词列矢量列与记录了对话的对话文本对应;池化层(13),其对卷积层(12)的输出进行池化处理;以及全连接层(14),其对池化层(13)的输出进行全连接处理。

Description

主题推定***、主题推定方法
技术领域
本发明涉及推定对话的主题的主题推定***、主题推定方法。
背景技术
存在利用卷积神经网络进行图案识别的***(例如专利文献1)。在专利文献1中,公开了使用卷积神经网络的图案识别的一般方法。
另外,也已知将卷积神经网络应用于自然语言处理领域的方法(例如非专利文献1)。在非专利文献1中,公开了使用卷积神经网络进行语句的分类的方法,所述卷积神经网络为使用公知的数据集(data set)来学习而成的网络。
现有技术文献
专利文献
专利文献1:美国专利申请公开第2003/0174881号说明书
非专利文献
非专利文献1:Yoon Kim,“Convolutional Neural Networks for SentenceClassification”(用于语句分类的卷积神经网络),[在线],[2016年3月29日检索],互联网<URL:http://arxiv.org/abs/1408.5882>
发明内容
发明要解决的问题
然而,在使用了上述现有技术的语句的分类方法中,前提是卷积神经网络使用足够的学习数据来进行学习,并没有考虑到学习数据不充分的情况。
因此,即使使用上述现有技术所公开的卷积神经网络,也存在如下问题:在学习数据不充分的情况下,无法高精度地进行推定对话主题的任务。
因此,本发明是着眼于上述问题而做出的,其目的在于提供一种即使在学习数据不充分的情况下,也能够更高精度地推定对话的主题的主题推定***、主题推定方法以及程序。
用于解决问题的技术方案
为了解决上述问题,本发明的一个方式涉及的主题推定***,具备卷积神经网络,并用于推定对话的主题标签,所述卷积神经网络具备:卷积层,其包括对单词列矢量列的输入进行依存于话题的卷积运算的一个以上的依存话题卷积层、和进行不依存于该话题的卷积运算的一个不依存话题卷积层而构成,所述单词列矢量列与记录了对话的对话文本对应;池化层,其对所述卷积层的输出进行池化处理;以及全连接层,其对所述池化层的输出进行全连接处理。
此外,这些全面或具体的技术方案既可以用***、方法、集成电路、计算机程序或记录介质来实现,也可以用***、方法、集成电路、计算机程序和记录介质的任意组合来实现。
发明的效果
根据本发明,能够实现即使在学习数据不充分的情况下,也能够更高精度地推定对话的主题的主题推定***等。
附图说明
图1是表示比较例的主题推定***利用的卷积神经网络的构造的图。
图2是用于说明比较例的卷积神经网络无法应对多标签输出的图。
图3是表示实施方式1中的主题推定***利用的卷积神经网络的构造的图。
图4是表示实施方式1中的主题推定***的识别时的功能构成的框图。
图5是表示执行主题推定***所需的计算机的硬件构成的一例的图。
图6是表示图4所示的识别时的主题推定***的工作的流程图。
图7是表示实施方式1中的主题推定***的学习时的功能构成的框图。
图8是表示图7所示的学习时的主题推定***的工作的流程图。
图9是表示实施方式1中的主题推定***的实验性验证结果的图。
图10是表示实施方式2中的主题推定***的追加学习时的功能构成的框图。
图11是表示图10所示的追加学习时的主题推定***的工作的流程图。
图12是表示实施方式2中的主题推定***的实验性验证结果的坐标图。
标号说明
10、80 卷积神经网络
11、81 输入特征
11a、11b 单词列矢量列
12、82 卷积层
12a、12b 依存话题卷积层
12z 不依存话题卷积层
13、13a、13b、83 池化层
14、14a、14b、84 全连接层
50 输入信息
51、61 单词列信息
52、62 话题信息
60 学习数据
63 主题信息
110 输入部
111 单词矢量列控制部
121 依存话题卷积层计算部
122、124、142 存储部
123 不依存话题卷积层计算部
131 池化层计算部
141 全连接层计算部
150 输出部
160 误差判定部
161 权重更新部
170 外部数据取得部
1001 CPU
1002 存储器
1003 外部存储装置
1004 网络接口
1005 互联网
具体实施方式
(成为本发明的基础的见解)
在本公开中设想的推定对话的主题的任务是推定对话的主题是什么的任务,所述对话是以不论是人还是机械的二者之间为基本的自然语言的交换。该任务中,输入对话中的单词列,将认定为与一个话题相关的该单词列的段(segment)作为一个单位,推定该对话中的主题是什么。
在以卷积神经网络为基本的主题推定***中,使用学习数据进行卷积神经网络的学习,使用评价数据进行评价。
在本公开中设想的上述任务中,定义了有限个话题,也定义了作为输出想得到的有限个主题。另外,关于话题是什么,与段内的单词列一起提供给主题推定***。
然而,如上所述,在将上述现有技术公开的卷积神经网络用于主题推定***的情况下,前提是使用足够的学习数据使该卷积神经网络进行学习。未研究到学习数据不充分的情况。
例如,在根据记录了人彼此的对话的数据,将记录该对话的数据作为学习数据加以利用的情况下,关于某话题,可能发生对话量少且学习数据少这样的情况。另外,关于作为输出想要得到的主题,也可能发生某主题的学习数据少这样的情况。未研究学习数据少或数量上有偏差这样的情况。
因此,即使使用上述现有技术公开的卷积神经网络,在学习数据不充分的情况下,也会发生无法高精度地进行推定对话主题的任务这一问题。
为了解决这样的问题,本发明的一个方式涉及的主题推定***,具备卷积神经网络,并用于推定对话的主题标签,所述卷积神经网络具备:卷积层,其包括对单词列矢量列的输入进行依存于话题的卷积运算的一个以上的依存话题卷积层、和进行不依存于该话题的卷积运算的一个不依存话题卷积层而构成,所述单词列矢量列与记录了对话的对话文本对应;池化层,其对所述卷积层的输出进行池化处理;以及全连接层,其对所述池化层的输出进行全连接处理。
通过该构成,能够实现即使在学习数据不充分的情况下,也能够更高精度地推定对话的主题的主题推定***。更具体而言,根据该构成,由于在学习数据多的情况下按精度高的每个话题来学习而成的一个不依存话题卷积层、和在学习数据少的情况下与精度高的话题无关地学习而成的一个以上的依存话题卷积层在上位的阶层被综合利用,所以在学习数据的量少的情况下也能够得到高的主题推定性能。
另外,也可以是,所述卷积神经网络通过将所述输入作为两种类别分类问题进行解答,从而推定对于所述输入的对话的主题标签。
另外,也可以是,在所述卷积神经网络中,将学习用对话文本作为学习数据使用,使所述一个以上的依存话题卷积层分别以进行按作为所依存的话题的每个依存话题进行依存于该依存话题的卷积运算的方式学习第一权重,并且,使所述不依存话题卷积层以进行不依存于该依存话题的卷积运算的方式学习第二权重,所述学习用对话文本记录了对话,该学习用对话文本的所述对话的时序的文本被预先分割为每个话题的段,并且,该学习用对话文本被预先赋予了与分割而得到的每个段对应的话题的标签。
另外,也可以是,所述一个以上的依存话题卷积层分别以如下方式学习所述第一权重:通过被输入与所述学习用对话文本对应的单词列矢量列中的、与所述依存话题关联的单词列矢量列,进行依存于该依存话题的卷积运算,所述不依存话题卷积层以如下方式学习所述第二权重:通过被输入与所述学习用对话文本对应的单词列矢量列,进行不依存于所述依存话题的卷积运算。
另外,为了解决上述问题,本发明的一个方式涉及的主题推定方法,是具备卷积神经网络、并用于推定对话的主题标签的主题推定***的主题推定方法,所述主题推定方法包括:依存话题卷积处理步骤,对于与记录了对话的对话文本对应的单词列矢量列的输入,进行依存于话题的卷积运算;不依存话题卷积处理步骤,对于所述输入进行不依存于所述话题的卷积运算;池化处理步骤,对所述依存话题卷积处理步骤的输出和不依存话题卷积处理步骤的输出进行池化处理;以及全连接处理步骤,对所述池化处理步骤的输出进行全连接处理。
由此,能够实现即使在学习数据不充分的情况下,也能够更高精度地推定对话的主题的主题推定方法。更具体而言,由于依存于话题的卷积运算的结果和不依存于话题的卷积运算的结果在后级被综合利用,所以在学习数据的量少的情况下也能够得到高的主题推定性能。
另外,也可以是,在所述依存话题卷积处理步骤中,进行所述单词列矢量列与由特定单词触发的第一权重(A)的卷积运算,所述特定单词表示作为所依存的话题的依存话题,在所述不依存话题卷积处理步骤中,进行所述单词列矢量列与由表示所述依存话题以外的话题的单词触发的第二权重(Z)的卷积运算,在所述池化处理步骤中,进行从所述依存话题卷积处理步骤的输出和所述不依存话题卷积处理步骤的输出取出时间方向上的最大值的运算,在全连接处理步骤中,通过在对所述池化处理步骤的输出进行了使用连接权重的加权加法运算之后进行概率分布化,从而进行全连接处理。
另外,也可以是,包括输出步骤,该输出步骤中通过对所述池化处理步骤的输出的概率分布和阈值进行比较,推定并输出所述对话的主题标签。
另外,也可以是,包括输入步骤,该输入步骤中进行与所述对话文本对应的单词列矢量列的输入,所述输入步骤包括:受理步骤,受理记录了对话且所述对话被按时序来文本化而成的对话文本;和矢量化步骤,利用预定方法计算所述对话文本所包括的单词列的各单词的矢量,得到单词列矢量列。
另外,也可以是,还包括:第一步骤,在所述卷积神经网络中,将学习用对话文本作为学习数据使用,使所述依存话题卷积处理步骤以进行依存于依存话题的卷积运算的方式学习所述第一权重,所述学习用对话文本记录了对话,该学习用对话文本的所述对话的时序的文本被预先分割为每个话题的段,并且,该学习用对话文本被预先赋予了与分割而得到的每个段对应的话题的标签,所述依存话题是所依存的话题;和第二步骤,使用所述学习用对话文本,所述不依存话题卷积处理步骤以进行不依存于该依存话题的卷积运算的方式学习所述第二权重。
另外,也可以是,在所述第一步骤中,使用与所述学习用对话文本对应的单词列矢量列中的、与所述依存话题关联的单词列矢量列,学习所述第一权重,在所述第二步骤中,使用与所述学习用对话文本对应的单词列矢量列中的、与所述依存话题以外的话题关联的单词列矢量列,学习所述第二权重。
另外,也可以是,进一步,在与所述学习用对话文本对应的单词列矢量列中,与第一依存话题关联的单词列矢量列的数量比与第二依存话题关联的单词列矢量列的数量少的情况下,将检索Web而得到的与所述第一依存话题关联的对话文本用作所述学习数据的半监督数据来进行所述第一步骤和所述第二步骤。
此外,本发明不仅可以作为装置来实现,也可以作为具备这样的装置具备的处理单元的集成电路来实现,作为使构成该装置的处理单元成为步骤的方法来实现,作为使计算机执行这些步骤的程序来实现,作为表示该程序的信息、数据或信号来实现。而且,这些程序、信息、数据以及信号可以经由CD-ROM等记录介质或互联网等通信介质分发。
以下,使用附图,详细说明本发明的实施方式。此外,以下说明的实施方式均为示出本发明的一具体例的实施方式。在以下的实施方式中所示的数值、形状、构成要素、步骤、步骤的顺序等均为一例,并不意图限定本发明。另外,关于以下实施方式的构成要素中的、在表示最上位概念的独立权利要求中没有记载的构成要素,作为任意的构成要素进行说明。另外,在全部实施方式中,也可以将各自的内容加以组合。
(实施方式1)
在本实施方式中,说明具备卷积神经网络且推定对话的主题标签的主题推定***。此外,在以下说明中,首先,在使用图1说明比较例的主题推定***利用的卷积神经网络的构造等之后,使用图3说明本实施方式中的主题推定***利用的卷积神经网络的构造等。
[比较例的主题推定***的构造等]
图1是表示比较例的主题推定***利用的卷积神经网络80的构造的图。图1所示的卷积神经网络80具备:输入特征81、卷积层82、池化层(pooling layer)83以及全连接层(fully connecter layer)84。
输入特征81用预定的方法将成为输入的单词列转换成矢量列。卷积层82在切出一至多个单词接近的矢量列之后,使用学习完成的权重矩阵进行卷积运算。池化层83对卷积层82的输出进行求出时间方向上的最大值这一运算。全连接层84按全连接层84的每个输出要素,对池化层83的输出乘以连接权重并进行加法运算,最后使用Softmax函数而进行概率分布化。
当将这样的比较例中的卷积神经网络80用于主题推定任务时,通过使用了学习数据的学习,在对话中的单词列之中与主题关联性高的部分的权重变大,在包括特定的语言表现的情况下,能够推定特定的主题。
图1的输入特征81内的用粗线表示的框是时间窗。在图1中示出了一个单词用的时间窗和两个单词用的时间窗这两种时间窗。这些时间窗沿着时间方向从转换了成为输入的单词列而得到的矢量列的最初移位到最后,按各个时间窗进行卷积运算和非线性处理,得到输出值。保持这些输出值的输出要素用卷积层82内的用粗线表示的四方形表现。
此外,利用了卷积神经网络80的卷积运算也称为滤波器(filter)处理。另外,卷积层82的输出元素的数量由滤波器的总数与时间窗的移位数的乘法运算决定。另一方面,由于全连接层84具有与全部主题标签中的每一个对应的输出元素,所以全连接层84的输出元素的数量由全部主题标签的数量决定。因此,在利用了比较例的卷积神经网络80的主题推定***中,作为多类别分类问题来解答(解明)问题(主题推定)。
然而,如上所述,在比较例的卷积神经网络80中,在学习数据少的情况下,具有以下问题:被拉到学习数据少的主题的推定精度,无法高精度地进行推定对话的主题的任务。
进而,在比较例的卷积神经网络80中,也有无法应对多标签输出(语言表现的多义性)这一问题。使用图2对此进行说明。
图2是用于说明比较例的卷积神经网络80无法应对多标签输出的图。
在图2的(a)和(b)中,示出了如下情况:针对虽然在对话中的单词列中有相同的单词“rate”、但却是不同的话题的对话文,利用卷积神经网络80的主题推定***对主题进行了推定。更具体而言,在图2的(a)中,示出了:在话题为“ACCOMMODATION”(“住宿”)且对话中的单词列为“The room rate is twenty dollars.”的情况下,利用比较例的卷积神经网络80的主题推定***推定的主题标签为“Pricerange”(“价格范围”)。在图2的(b)中,示出了:在话题为“ATTRACTION”(“吸引力”)且对话中的单词列为“So kids have to pay the samerate as adults.”的情况下,利用比较例的卷积神经网络80的主题推定***推定的主题标签为“Pricerange”(“价格范围”)。
在图2的(b)中,虽然在对话中的单词列中有相同的单词“rate”,但是由于它与图2的(a)是不同的话题,所以主题标签“Fee”(“费用”)为正确答案。但是,在图2的(b)中,推定为与图2的(a)相同的主题标签“Pricerange”。这样,在利用比较例的卷积神经网络80的主题推定***中,也有如下问题:无法应对虽然在对话中的单词列中有相同的单词“rate”、但在上下文中主题发生变化的情况(在语言表现中有多义性的情况)。
[本实施方式的主题推定***的构造等]
图3是表示本实施方式中的主题推定***利用的卷积神经网络的构造的图。
图3所示的卷积神经网络10具备:输入特征11、卷积层12、池化层13以及全连接层14。后面将叙述详细情况,输入特征11根据话题而与构成卷积层12的依存话题的卷积层和不依存话题的卷积层连接。另外,根据话题,池化层13与依存话题的卷积层和不依存话题的卷积层连接。进一步,根据话题,全连接层14与池化层13连接。
输入特征11被输入单词列,并用预定的方法将所输入的单词列转换成矢量列。此外,也可以向输入特征11输入用预定的方法转换了作为输入对象的单词列而得到的矢量列。也就是说,可以将记录对话的对话文本所对应的单词列矢量列输入到输入特征11。更具体而言,可以向输入特征11输入利用预定的方法计算对话文本所包括的单词列的各单词的矢量而得到(转换)的单词列矢量列,所述对话文本是记录了对话且将对话按时间顺序文本化而得到的对话文本。
输入特征11根据所输入的矢量列中的利用时间窗切出的一至多个单词接近的矢量列的话题,与构成卷积层12的依存话题的卷积层或不依存话题的卷积层(后述)连接。
在图3所示的例子中,首先,向输入特征11输入与对话文本“if you take a dormbed per…”对应的单词列矢量列11a,所述对话文本记录了与话题#a相关的对话。并且,之后,向输入特征11输入与对话文本“if you want to buy a spec…”对应的单词列矢量列11b,所述对话文本记录了与话题#b相关的对话。在这里,图3的输入特征11内的用粗线表示的框是时间窗。与图1同样地,在图3中示出了一个单词用的时间窗和两个单词用的时间窗这两种时间窗。
卷积层12包括对单词列矢量列的输入进行依存于话题的卷积运算的一个以上的依存话题卷积层、和对该单词列矢量列的输入进行不依存于该话题的卷积运算的一个不依存话题卷积层而构成。依存话题卷积层进行单词列矢量列与由表示该依存的话题的特定单词触发的第一权重的卷积运算。另外,不依存话题卷积层进行单词列矢量列与由表示该依存的话题以外的(不依存于该依存话题的)话题的单词触发的第二权重的卷积运算。
这样,卷积层12具有:与话题关联的依存话题卷积层和不与话题关联的不依存话题卷积层。并且,输入特征11根据话题,与依存话题卷积层或不依存话题卷积层连接。
在本实施方式中,例如,设为话题为#a和#b这两种进行说明。此外,不言而喻的是,话题当然不限于两种。
如图3所示,卷积层12由进行依存于话题#a的卷积运算的依存话题卷积层12a、进行依存于话题#b的卷积运算的依存话题卷积层12b以及进行不依存于这些话题的卷积运算的不依存话题卷积层12z这三个部分构成。
更具体而言,依存话题卷积层12a进行:在单词列矢量列11a中切出的一至多个单词接近的矢量列、与由表示话题#a的特定单词触发的学习完成的权重矩阵(第一权重)的卷积运算。依存话题卷积层12b进行:在单词列矢量列11b中切出的一至多个单词接近的矢量列、与由表示话题#b的特定单词触发的学习完成的权重矩阵(第一权重)的卷积运算。不依存话题卷积层12z进行:在单词列矢量列11a中切出的一至多个单词接近的矢量列和在单词列矢量列11b中切出的一至多个单词接近的矢量列、与由表示话题#a和话题#b以外的话题的单词触发的学习完成的权重矩阵(第二权重)的卷积运算。
池化层13对卷积层12的输出进行池化处理。更具体而言,池化层13进行从依存话题卷积层的输出和不依存话题卷积层的输出取出时间方向上的最大值的运算。
在图3所示的例子中,在向输入特征11输入了单词列矢量列11a时,池化层13a与依存话题卷积层12a和不依存话题卷积层12z连接。池化层13a进行从它们的输出取出时间方向上的最大值的运算。另外,在向输入特征11输入了单词列矢量列11b时,池化层13b与依存话题卷积层12b和不依存话题卷积层12z连接。池化层13b进行从它们的输出取出时间方向上的最大值的运算。
全连接层14对池化层13的输出进行全连接处理。更具体而言,全连接层14在对池化层13的输出进行使用了连接权重的加权加法运算之后,进行概率分布化。在本实施方式中,全连接层14按每个输出元素对池化层13的输出乘以连接权重并相加,最后使用Softmax函数而进行概率分布化。
在图3所示的例子中,在向输入特征11输入了单词列矢量列11a时,池化层13a与全连接层14a连接。全连接层14a对池化层13a的输出乘以连接权重并相加,最后使用Softmax函数而进行概率分布化。另外,在向输入特征11输入了单词列矢量列11b时,池化层13b与全连接层14b连接。全连接层14b对池化层13b的输出乘以连接权重并相加,最后使用Softmax函数而进行概率分布化。
然后,全连接层14通过对池化层13的输出的概率分布和阈值进行比较,推定对话的主题标签并进行输出。
这样,卷积神经网络10通过将输入作为两种类别分类问题进行解答,推定对该输入的对话的主题标签。
换句话说,在用图1说明的比较例的全连接层84中,有与全部主题标签中的每一个对应的输出元素,作为多类别分类问题来解答(学习)了问题。另一方面,在利用了本实施方式中的卷积神经网络10的主题推定***中,具有专用于各个主题(话题)的依存话题卷积层和不专用于话题的不依存话题卷积层。因此,如图3所示,关于主题标签“pricerange”,能够解答(能够学习)为是价格范围(“pricerange”)或不是价格范围(“NOT pricerange”)这样的两种类别分类问题。由此,即使每个主题的学习数据的数量有偏差,不仅数量少的主题的学习结果不会受到数量多的主题的学习结果的影响,也能改善对数量少的学习数据的性能即推定精度。
(卷积神经网络10的学习)
在这里,说明本实施方式中的卷积神经网络10的学习。
在本实施方式中,作为学习数据(训练数据),使用学习用对话文本,所述学习用对话文本记录了对话,且该学习用对话文本的对话的时序的文本被预先分割为每个话题的段,且该学习用对话文本被预先赋予了与每个分割而得到的段对应的话题的标签。作为该学习用对话文本,例如也可以使用DSTC4(Dialog State Tracking Challenge 4)的数据集。
在卷积神经网络10中,使一个以上的依存话题卷积层12a、12b分别以按所依存的话题进行依存于该话题的卷积运算的方式学习第一权重,且使不依存话题卷积层12z以进行不依存于该依存的话题的卷积运算的方式学习第二权重。一个以上的依存话题卷积层分别以如下方式学习第一权重:被输入与学习用对话文本对应的单词列矢量列中的、与该依存的话题关联的单词列矢量列,进行依存于该依存的话题的卷积运算。不依存话题卷积层12z以如下方式学习第二权重:被输入与学习用对话文本对应的单词列矢量列,进行不依存于该依存的话题的卷积运算。
另外,在卷积神经网络10中,基于所期望的输出与实际输出之差(误差),进行卷积层12的卷积权重(第一权重、第二权重)和全连接层14的连接权重的学习。作为用于进行基于所期望的输出与实际输出之差(误差)的学习的学习算法,已知有随机梯度下降法(SGD)等。由于学习算法可以是公知的算法,所以省略在这里的说明。
在构成卷积层12的依存话题卷积层12a、依存话题卷积层12b以及不依存话题卷积层12z中的每一个中,进行这样的学习处理。由此,在依存话题卷积层12a、12b中,与根据话题而专用的语言表现相联系,但是依存于学习数据中的每一个的话题的对话语句的量有限,所以学习数据的量比较少。另一方面,在不依存话题卷积层12z中,由于与不根据话题的语言表现相联系,所以学习数据的量比较多。
而且,如图3所示,两者(依存话题卷积层12a、12b和不依存话题卷积层12z)构成为在后级(池化层13或全连接层14)相联系。因此,通过学***衡。即,对学习数据多的话题和学习数据少的话题都能调整依存话题卷积层12a、12b和不依存话题卷积层12z的连接权重。
由此,由于在被输入学习数据多的话题来作为对话语句的情况下重视依存话题卷积层的输出,在被输入学习数据少的话题作为对话语句的情况下重视不依存话题的卷积层的输出,所以能减小由学习数据的量的不同而导致的性能的差别。在本构成中,特别是能够提高对于学习数据少的话题的性能(推定精度)。
进一步,如图3所示,由于依存话题卷积层12a、12b和不依存话题卷积层12z构成为在上位的阶层(池化层13、全连接层14)相联系,所以也不会发生在图2说明的问题。即,具备卷积神经网络10的本实施方式中的主题推定***也能够推定利用卷积神经网络的多领域对话主题。
[本实施方式的主题推定***的功能构成]
接着,具体说明上述本实施方式中的主题推定***的学习时和识别时。在以下说明中,使用本主题推定***的学习时和识别时的功能构成图和工作图进行说明。
(识别时)
图4是表示本实施方式中的主题推定***的识别时的功能构成的框图。在这里,将主题推定***利用的卷积神经网络10作为功能框图来记载。
图4所示的本实施方式中的主题推定***具备:输入部110、单词矢量列控制部111、依存话题卷积层计算部121、不依存话题卷积层计算部123、池化层计算部131、全连接层计算部141以及输出部150。并且,本主题推定***具备:存储权重A(第一权重)的存储部122、存储权重Z(第二权重)的存储部124以及存储权重f的存储部142。在这里,输入部110和单词矢量列控制部111是上述输入特征11的功能构成。依存话题卷积层计算部121、存储部122、不依存话题卷积层计算部123以及存储部124是上述卷积层12的功能构成。池化层计算部131是上述池化层13的功能构成,全连接层计算部141和存储部142是上述全连接层14的功能构成。
在图4所示的主题推定***中,输入包括单词列信息51和话题信息52的输入信息50。输入部110从单词列信息51接受单词列,同时从话题信息52接受话题。单词矢量列控制部111利用预定的方法将单词列转换成矢量列。在这里,关于将单词列转换成矢量的方法,已提出了各种称为bag-of-words(词袋)的方法以及压缩其维度而加以使用的方法,将这些公知的方法作为上述预定的方法即可。
依存话题卷积层计算部121使用单词列矢量列和权重A(第一权重)进行卷积运算。存在与每个话题的滤波器的总数相应的数量的该权重A(第一权重)。不依存话题卷积层计算部123使用单词列矢量列和权重Z(第二权重)进行卷积运算。存在与不依存话题的滤波器的数量相应的数量的该权重Z(第二权重)。
池化层计算部131在时间方向上观察与依存话题卷积层计算部121和不依存话题卷积层计算部123中的每一个滤波器对应的输出,并取出最大值。
全连接层计算部141按输出元素将权重f乘以与滤波器对应的输出并相加,最后利用Softmax函数进行概率分布化。利用Softmax函数,例如,如图3所示的例子那样,在输出的主题为“pricerange”和“NOT pricerange”的情况下,两个元素的输出分别调整为0以上,且和成为1。
输出部150对阈值(例如0.5)和全连接层计算部141的结果进行比较,并输出概率分布超过阈值的主题。
此外,本主题推定***由图5所示的硬件构成的计算机执行。图5是表示执行主题推定***所需的计算机的硬件构成的一例的图。
如图5所示,执行本主题推定***的计算机具备:CPU1001、存储器1002、外部存储装置1003、网络接口1004、输出装置1006以及输入装置1007。它们通过总线连接。
本主题推定***的全部运算由CPU1001进行,权重等的更新所需的值和/或程序存储在存储器1002上。另外,学习数据等大量的数据存储于外部存储装置1003。网络接口1004用于访问互联网1005上的数据并从外部取入学习数据。另外,作为用户接口,也需要输出装置1006和输入装置1007。输入装置1007是输入按钮、触摸板、触摸面板显示器等成为用户界面的装置,接受用户的操作。
图6是表示图4所示的识别时的主题推定***的工作的流程图。
首先,输入部110受理输入单词列和话题标签(S101)。接着,单词矢量列控制部111利用预定的方法计算输入单词列的各单词而得到单词(单词列)的矢量列(S102)。接着,依存话题卷积层计算部121进行单词的矢量列和存储于存储部122的权重A(第一权重)的卷积运算(依存话题卷积运算)(S103)。接着,不依存话题卷积层计算部123进行单词的矢量列和存储于存储部124的权重Z(第二权重)的卷积运算(不依存话题卷积运算)(S104)。接着,池化层计算部131进行从依存话题卷积层计算部121的输出和不依存话题卷积层计算部123的输出取出各滤波器的最大值的池化处理(S105)。接着,全连接层计算部141对池化层计算部131的输出进行全连接层处理(S106)。更具体而言,全连接层计算部141利用存储于存储部122的权重f,对池化层计算部131的输出进行加权并进行加法运算。然后,在进行了对全部输出标签的加权加法运算之后,进行概率分布化。最后,输出部150通过对相对于输出标签的概率分布和阈值进行比较,决定输出标签(S107)。
此外,在图4所示的主题推定***进行多标签输出时,并行进行S103和S104的处理,在后级中综合它们的结果即可。在以下的学习时也是同样的。
(学习时)
图7是表示本实施方式中的主题推定***的学习时的功能构成的框图。对与图4相同的要素赋予相同的标号并省略详细的说明。与图4所示的识别时的主题推定***同样地,图7所示的学习时的主题推定***由上述图5所示的硬件构成的计算机执行。
与图4所示的识别时的功能构成图相比,图7所示的学习时的功能构成图的学习数据60、误差判定部160以及权重更新部161不同。
向学习时的本主题推定***输入单词列信息61和话题信息62作为学习数据(训练数据)。另外,在学习数据60中,存储有与学习时被输入到本主题推定***的单词列信息61和话题信息62对应的期望作为输出的主题信息63。
误差判定部160对相对于在输出部150输出的主题标签的概率分布、和将从主题信息63得到的期望的主题标签的概率设为1.0并将其他标签的概率设为0.0的情况下的概率分布进行比较,将这些概率分布之差作为误差进行输出。
权重更新部161利用预定的学习算法,基于从误差判定部160输出的误差的值,决定权重A(第一权重)、权重Z(第二权重)以及权重f各自的更新量,并执行它们的更新。在学习数据整体中,一边使学习系数变化,一边反复执行这样的权重的更新。
图8是表示图7所示的学习时的主题推定***的工作的流程图。此外,由于S201~S207的处理与图6所示的S101~S107的处理相同,所以省略说明。
学习时的主题推定***通过到S207为止的处理,基于输入单词列和话题,推定相对于主题标签的概率分布。接着,误差判定部160从主题信息63得到期望的主题,设置对于主题标签的概率分布的期望的值(概率),计算所设置的值与对于推定的主题标签的概率分布之差来作为误差(S208)。接着,权重更新部161利用预定的学习算法,更新在依存话题卷积层计算部121中使用的权重A(第一权重)、在全连接层计算部141中使用的与当前的话题关联的权重f以及在不依存话题卷积层计算部123中使用的权重Z(第一权重)(S209)。
此外,进行是否满足预先设定的结束条件的结束判定(S210),反复进行这些学习直到满足结束条件。在该结束判定中,以即使进行各权重的更新也不改善误差为条件,或以误差成为阈值以下为条件。
[效果等]
如上所述,利用本实施方式的卷积神经网络10的主题推定***即使在学习数据不充分的情况下,也能够更高精度地推定对话的主题。另外,该主题推定***也能够推定多领域(multi domain)对话主题。
更具体而言,由依存于话题的依存话题卷积层和不依存于话题的不依存话题卷积层构成卷积神经网络10的卷积层12,在池化层将它们合并,在全连接层取得来自依存话题卷积层的输出和来自不依存话题卷积层的输出的平衡。由此,由于在输入学习数据多的话题作为对话语句的情况下重视依存话题卷积层的输出,在输入学习数据少的话题作为对话语句的情况下重视不依存话题的卷积层的输出,所以能减小由学习数据的量的不同而导致的性能的差别。
在这里,使用实验性验证结果来说明:利用本实施方式的卷积神经网络10的主题推定***与利用比较例的神经网络的主题推定***相比推定精度提高。
图9是表示本实施方式中的主题推定***的实验性验证结果的图。在图9中,表示了对使用Dialog State Tracking Challenge4(DSTC4)的对话语料库时的、比较例与本实施方式的主题推定***的主题推定的精度进行比较得到的结果。DSTC4对话语料库包括五个领域(Attraction(吸引力)、Accommodation(住宿)、Food(食物)、Shopping(购物)、Transportation(交通))的对话。在各领域中,能够对于对话部分推定Pricerange(价格范围)、Preference(偏爱)、Exhibit(展览)等全部54种主题,但在图9中表示了对话主题标签为“Pricerange”的情况下的结果。另外,图9所示的“ACCOMMODATION(42/30)”的(42/30)是指学习数据的数量为42,测试数据的数量为30。
比较例的一般模型(General Model)是指:例如利用了图1所示的卷积神经网络80的主题推定***,且在一个卷积神经网络80中学习了全部话题而得到的主题推定***。另外,比较例的主题特定模型(Topic-specific Model)是指:构成利用仅学习Attraction领域的对话的神经网络的主题推定***等、按每个领域来与领域相对应的主题推定***的情况。也就是说,是使不同的主题推定***的神经网络按每个话题来进行学习的情况。
另一方面,多主题模型(Multi-topic model)是指:利用了图3所示的卷积神经网络10的主题推定***即本实施方式中的主题推定***。
如图9所示,在实验结果中,多主题模型的对话主题标签为“Pricerange”的情况下的各领域的全部的正确率比比较例更高。另外,可知:关于表示推定精度的F值(overall),多主题模型也比两个比较例高。
此外,从使用了DSTC4对话语料库的全部对话主题标签的推定精度在多主题模型中为48%,在一般模型中为43%,在主题特定模型中为43%也可知:多主题模型与两个比较例相比,推定精度提高。
(实施方式2)
在实施方式1中,说明了:通过由依存于话题的依存话题卷积层和不依存于话题的不依存话题卷积层构成卷积层12,从而主题推定的推定精度提高。在该卷积层12的构成中,如上所述,存在对依存话题卷积层的学习数据变少的倾向。在本实施方式中,使用功能构成图和工作图来说明:为了补充学习数据的不足,利用在实施方式1中说明的卷积神经网络10的主题推定***利用半监督学习的情况。
图10是表示本实施方式中的主题推定***的追加学习时的功能构成的框图。对与图7同样的要素赋予相同的标号而省略详细说明。与图7所示的学习时的主题推定***同样地,图10所示的追加学习时的主题推定***由上述图5所示的硬件构成的计算机执行。
图10所示的追加学习时的功能构成图与图7所示的学习时的功能构成图相比,追加了外部数据取得部170。
外部数据取得部170在学习用对话文本对应的单词列矢量列中与某依存话题关联的单词列矢量列的数量比与其他依存话题关联的单词列矢量列的数量少的情况下,将检索Web得到的与某依存话题关联的对话文本作为学习数据的半监督数据来取得。
更具体而言,例如,在对话数据的内容与旅行的计划安排相关的情况下,外部数据取得部170从互联网的旅行口碑网站取得与旅行相关的文本信息作为无监督学习数据。但是,在旅行口碑网站的信息中,没有像使用了上述公知的数据集的学习数据(有监督学习数据)那样赋予了主题信息的正确标签。另外,在旅行口碑网站的信息中也没有赋予话题标签。
因此,本实施方式的主题推定***通过向这样的作为无监督学习数据的旅行口碑网站的信息模拟地赋予正确标签,从而增加有监督学习数据。由此,能够增加与数量少的话题相关的有监督学习数据。更详细而言,图10所示的主题推定***进行识别时的工作(图6所示的S101~S107的识别处理),推定主题。另外,图10所示的主题推定***对于旅行口碑网站的信息的话题,按顺序输入全部标签。并且,按这种方式得到的、与话题对应的全连接层计算部141输出的主题的推定概率限定为比预先设定的阈值大,并赋予话题的标签和主题的标签。
接着,图10所示的主题推定***使用赋予了话题的标签和主题的标签的旅行口碑网站的信息,再次进行学习时的工作(图8所示的S201~S210的学习处理),再次反复进行对旅行口碑网站的信息的识别处理和再次的学习处理。此外,在按这种方式反复进行的学习处理(半监督学习处理)中,可以首先将阈值设定为较高,并逐渐降低。另外,由于在从口碑网站得到文本数据时,例如如果标题为“exhibition”(展示)则能够期待是与主题标签“exhibit”(展览)关联的内容,所以当按每个主题标签设定关联语句,并用标题等施加限制时是有效的。另外,当根据标题等对话题标签施加限制限制时也是有效的。也就是说,外部数据取得部170能够通过取得旅行口碑网站的评论语句等外部的无监督数据,并用关键词从取得的该无监督学习数据除去与对话主题无关的数据,从而取得与有用的预定对话主题对应的有监督学习数据。
图11是表示图10所示的追加学习时的主题推定***的工作的流程图。
首先,准备有监督学习数据(S301)。它例如用声音收录人彼此的对话数据,并通过人工记录。或者,进行利用键盘输入的聊天,并保存文本。并且,在对话中,通过人工进行认定从哪里开始到哪里为止是说了什么的话题这样的注释。注释可以利用众包(crowdsourcing)。但是,由于这些作业花费成本,所以学习用数据对于学习来说经常不充分。
接着,本实施方式的主题推定***使用得到的有监督学习数据,进行S201~S210的学习处理(S302)。
接着,外部数据取得部170取得与话题和/或主题关联的无监督学习数据(S303)。具体而言,如上所述,外部数据取得部170不是单单用旅行口碑网站这样的粒度的缩小范围来取得,而是使用与话题和/或主题的标签关联的词汇,并利用标题和/或其他索引,取得进行了更细的缩小范围而得到的数据来作为无监督学习数据(单词列)。
接着,本实施方式的主题推定***使用通过S302的学习处理学习得到的卷积神经网络10,推定无监督学习数据的话题标签和主题标签,并将推定的标签作为话题标签和主题标签赋予给该无监督学习数据(S304)。
接着,本实施方式的主题推定***使用赋予了话题标签和主题标签的该无监督学习数据,再次进行S201~S210的学习处理(S305)。由于在利用S302的学习结果和利用S305的学习结果中,卷积神经网络10的权重(第一权重、第二权重)变化,所以相应地在S304中推定的话题标签和主题标签也变化。
接着,本实施方式的主题推定***进行以权重的更新的变化量等为基准的结束判定(S306)。在不满足结束条件的情况下,反复进行S304和S305。
[效果等所]
如上所述,利用本实施方式的卷积神经网络10的主题推定***即使在学习数据不充分的情况下,也能够通过识别处理无监督学习数据并模拟地赋予正确标签而反复进行学习处理,从而充分地增加有监督学习数据。由此,本实施方式的主题推定***能够更高精度地推定对话的主题。
在这里,使用实验性验证结果,说明利用本实施方式的卷积神经网络10的主题推定***通过重复进行上述学习处理从而推定精度提高。
图12是表示本实施方式中的主题推定***的实验性验证结果的坐标图。在图12中,表示了使用DSTC4的对话语料库时的、本实施方式的主题推定***进行的半监督学习处理的效果。
在本实验中,在对话语句属于或不属于“Exhibit”主题这两个类别分类中,将通过本实施方式的主题推定***进行的半监督学习处理从外部取得的无监督数据作为监督数据(有监督数据),追加到原来的有监督数据。在这里,原来的有监督学习数据数为762,追加的无监督学习数据数为20~753。
如图12所示,可知:通过对从外部取得的无监督数据进行该半监督学习处理,并追加作为有监督学习数据,从而二值分类精度最大提高了3%。
以上,在实施方式1和实施方式2中说明了本发明的主题推定***和主题推定方法,但不特别限定实施各处理的主体或装置。也可以由装入配置在本地的特定装置内的处理器等(以下说明)来处理。另外,也可以由配置在与本地装置不同的场所的云服务器等来处理。
此外,本发明进一步也包括以下的情况。
(1)具体而言,上述装置是由微处理器、ROM、RAM、硬盘单元、显示器单元、键盘、鼠标等构成的计算机***。在所述RAM或硬盘单元中存储有计算机程序。通过所述微处理器按照所述计算机程序工作,各装置实现其功能。在这里,计算机程序是为了实现预定的功能而组合多条命令代码来构成的,所述命令代码表示对计算机的指令。
(2)构成上述装置的构成要素的一部分或全部可以由一个***LSI(Large ScaleIntegration:大规模集成电路)构成。***LSI是将多个构成部集成在一个芯片上制造而成的超多功能LSI,具体而言,是包括微处理器、ROM以及RAM等而构成的计算机***。在所述RAM中存储有计算机程序。通过所述微处理器按照所述计算机程序工作,***LSI实现其功能。
(3)构成上述装置的构成要素的一部分或全部可以由可拆装于各装置的IC卡或单体的模块构成。所述IC卡或所述模块是由微处理器、ROM以及RAM等构成的计算机***。所述IC卡或所述模块也可以包括上述超多功能LSI。通过微处理器按照计算机程序工作,所述IC卡或所述模块达成其功能。该IC卡或该模块也可以具有防篡改性。
(4)另外,本发明也可以是上述的方法。另外,既可以是利用计算机实现这些方法的计算机程序,也可以是由所述计算机程序构成的数字信号。
(5)另外,本发明也可以是将所述计算机程序或所述数字信号记录于计算机可读的记录介质,例如软盘、硬盘、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(注册商标)Disc)以及半导体存储器等。另外,也可以是记录在这些记录介质中的所述数字信号。
另外,本发明也可以是经由电通信线路、无线或有线通信线、以互联网为代表的网络以及数据广播等输送所述计算机程序或所述数字信号。
另外,本发明是具备微处理器和存储器的计算机***,所述存储器存储有上述计算机程序,所述微处理器按照所述计算机程序来工作。
另外,也可以通过将所述程序或所述数字信号记录于所述记录介质并移送,或经由所述网络等移送所述程序或所述数字信号,从而由独立的其他计算机***来实施。
产业上的可利用性
本发明能够利用于进行推定对话的主题是什么这一任务的主题推定***和主题推定方法,所述对话是不论是人还是机械的以二者之间为基本的自然语言的交换。

Claims (11)

1.一种主题推定***,具备卷积神经网络,并用于推定对话的主题标签,
所述卷积神经网络具备:
卷积层,其包括对单词列矢量列的输入进行依存于话题的卷积运算的一个以上的依存话题卷积层、和进行不依存于该话题的卷积运算的一个不依存话题卷积层而构成,所述单词列矢量列与记录了对话的对话文本对应;
池化层,其对所述卷积层的输出进行池化处理;以及
全连接层,其对所述池化层的输出进行全连接处理。
2.根据权利要求1所述的主题推定***,
所述卷积神经网络通过将所述输入作为两种类别分类问题进行解答,从而推定对于所述输入的对话的主题标签。
3.根据权利要求1所述的主题推定***,
在所述卷积神经网络中,将学习用对话文本作为学习数据使用,使所述一个以上的依存话题卷积层分别以进行按作为所依存的话题的每个依存话题进行依存于该依存话题的卷积运算的方式学习第一权重,并且,使所述不依存话题卷积层以进行不依存于该依存话题的卷积运算的方式学习第二权重,所述学习用对话文本记录了对话,该学习用对话文本的所述对话的时序的文本被预先分割为每个话题的段,并且,该学习用对话文本被预先赋予了与分割而得到的每个段对应的话题的标签。
4.根据权利要求3所述的主题推定***,
所述一个以上的依存话题卷积层分别以如下方式学习所述第一权重:通过被输入与所述学习用对话文本对应的单词列矢量列中的、与所述依存话题关联的单词列矢量列,进行依存于该依存话题的卷积运算,
所述不依存话题卷积层以如下方式学习所述第二权重:通过被输入与所述学习用对话文本对应的单词列矢量列,进行不依存于所述依存话题的卷积运算。
5.一种主题推定方法,是具备卷积神经网络、并用于推定对话的主题标签的主题推定***的主题推定方法,所述主题推定方法包括:
依存话题卷积处理步骤,对于与记录了对话的对话文本对应的单词列矢量列的输入,进行依存于话题的卷积运算;
不依存话题卷积处理步骤,对于所述输入进行不依存于所述话题的卷积运算;
池化处理步骤,对所述依存话题卷积处理步骤的输出和不依存话题卷积处理步骤的输出进行池化处理;以及
全连接处理步骤,对所述池化处理步骤的输出进行全连接处理。
6.根据权利要求5所述的主题推定方法,
在所述依存话题卷积处理步骤中,进行所述单词列矢量列与由特定单词触发的第一权重(A)的卷积运算,所述特定单词表示作为所依存的话题的依存话题,
在所述不依存话题卷积处理步骤中,进行所述单词列矢量列与由表示所述依存话题以外的话题的单词触发的第二权重(Z)的卷积运算,
在所述池化处理步骤中,进行从所述依存话题卷积处理步骤的输出和所述不依存话题卷积处理步骤的输出取出时间方向上的最大值的运算,
在全连接处理步骤中,通过在对所述池化处理步骤的输出进行了使用连接权重的加权加法运算之后进行概率分布化,从而进行全连接处理。
7.根据权利要求6所述的主题推定方法,
包括输出步骤,该输出步骤中通过对所述池化处理步骤的输出的概率分布和阈值进行比较,推定并输出所述对话的主题标签。
8.根据权利要求5~7中任一项所述的主题推定方法,
包括输入步骤,该输入步骤中进行与所述对话文本对应的单词列矢量列的输入,
所述输入步骤包括:
受理步骤,受理记录了对话且所述对话被按时序来文本化而成的对话文本;和
矢量化步骤,利用预定方法计算所述对话文本所包括的单词列的各单词的矢量,得到单词列矢量列。
9.根据权利要求6或7所述的主题推定方法,还包括:
第一步骤,在所述卷积神经网络中,将学习用对话文本作为学习数据使用,使所述依存话题卷积处理步骤以进行依存于依存话题的卷积运算的方式学习所述第一权重,所述学习用对话文本记录了对话,该学习用对话文本的所述对话的时序的文本被预先分割为每个话题的段,并且,该学习用对话文本被预先赋予了与分割而得到的每个段对应的话题的标签,所述依存话题是所依存的话题;和
第二步骤,使用所述学习用对话文本,所述不依存话题卷积处理步骤以进行不依存于该依存话题的卷积运算的方式学习所述第二权重。
10.根据权利要求9所述的主题推定方法,
在所述第一步骤中,使用与所述学习用对话文本对应的单词列矢量列中的、与所述依存话题关联的单词列矢量列,学习所述第一权重,
在所述第二步骤中,使用与所述学习用对话文本对应的单词列矢量列中的、与所述依存话题以外的话题关联的单词列矢量列,学习所述第二权重。
11.根据权利要求10所述的主题推定方法,
进一步,在与所述学习用对话文本对应的单词列矢量列中,与第一依存话题关联的单词列矢量列的数量比与第二依存话题关联的单词列矢量列的数量少的情况下,将检索Web而得到的与所述第一依存话题关联的对话文本用作所述学习数据的半监督数据来进行所述第一步骤和所述第二步骤。
CN201610685263.XA 2015-09-17 2016-08-18 主题推定***、主题推定方法 Active CN106548124B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562219904P 2015-09-17 2015-09-17
US62/219904 2015-09-17
JP2016080684A JP6611053B2 (ja) 2015-09-17 2016-04-13 主題推定システム、主題推定方法およびプログラム
JP2016-080684 2016-04-13

Publications (2)

Publication Number Publication Date
CN106548124A CN106548124A (zh) 2017-03-29
CN106548124B true CN106548124B (zh) 2021-09-07

Family

ID=57003331

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610685263.XA Active CN106548124B (zh) 2015-09-17 2016-08-18 主题推定***、主题推定方法

Country Status (3)

Country Link
US (1) US9870768B2 (zh)
EP (1) EP3144860A3 (zh)
CN (1) CN106548124B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9940539B2 (en) * 2015-05-08 2018-04-10 Samsung Electronics Co., Ltd. Object recognition apparatus and method
CN107704456B (zh) * 2016-08-09 2023-08-29 松下知识产权经营株式会社 识别控制方法以及识别控制装置
KR20180027887A (ko) * 2016-09-07 2018-03-15 삼성전자주식회사 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 트레이닝 방법
EP3550503A4 (en) * 2016-11-29 2019-10-09 Sony Mobile Communications Inc. INFORMATION PROCESSING, INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING DEVICE
US10628737B2 (en) * 2017-01-13 2020-04-21 Oath Inc. Identifying constructive sub-dialogues
CN107301169B (zh) * 2017-06-16 2021-02-05 科大讯飞股份有限公司 离题作文检测方法、装置和终端设备
CN107562718B (zh) * 2017-07-24 2020-12-22 科大讯飞股份有限公司 文本规整方法及装置、存储介质、电子设备
EP3605402B1 (en) * 2017-08-31 2022-08-31 Cambricon (Xi'an) Semiconductor Co., Ltd. Chip device and related product
US10847137B1 (en) * 2017-12-12 2020-11-24 Amazon Technologies, Inc. Trigger word detection using neural network waveform processing
US10657962B2 (en) * 2018-05-02 2020-05-19 International Business Machines Corporation Modeling multiparty conversation dynamics: speaker, response, addressee selection using a novel deep learning approach
US11100288B1 (en) * 2018-06-21 2021-08-24 SoundHound Inc. Factored neural networks for language modeling
CN109102798A (zh) * 2018-06-29 2018-12-28 厦门快商通信息技术有限公司 一种装修事件检测方法、装置、计算机设备及介质
JP2020035502A (ja) 2018-08-28 2020-03-05 キオクシア株式会社 半導体集積回路
CN111563209B (zh) * 2019-01-29 2023-06-30 株式会社理光 一种意图识别的方法、装置及计算机可读存储介质
CN110717023B (zh) * 2019-09-18 2023-11-07 平安科技(深圳)有限公司 面试回答文本的分类方法及装置、电子设备、存储介质
CN110717316B (zh) * 2019-09-24 2021-07-30 清华大学 字幕对话流的主题分割方法及装置
CN110879934B (zh) * 2019-10-31 2023-05-23 杭州电子科技大学 一种基于Wide&Deep深度学习模型的文本预测方法
US11238865B2 (en) * 2019-11-18 2022-02-01 Lenovo (Singapore) Pte. Ltd. Function performance based on input intonation
CN111553145B (zh) * 2020-07-10 2020-10-16 支付宝(杭州)信息技术有限公司 主题生成方法、装置和电子设备
US20220067532A1 (en) 2020-08-31 2022-03-03 Si Analytics Co., Ltd Method to Train Model
CN112148872B (zh) * 2020-09-28 2024-04-02 国家计算机网络与信息安全管理中心广东分中心 自然对话主题分析方法、装置、电子设备和存储介质
US12026248B2 (en) * 2021-06-10 2024-07-02 Armis Security Ltd. Techniques for securing network environments by identifying device attributes based on string field conventions
CN115600582B (zh) * 2022-12-15 2023-04-07 电子科技大学 一种基于预训练语言模型的可控文本生成方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5263107A (en) * 1991-01-31 1993-11-16 Sharp Kabushiki Kaisha Receptive field neural network with shift-invariant pattern recognition
CN102439597A (zh) * 2011-07-13 2012-05-02 华为技术有限公司 基于潜在狄利克雷模型的参数推断方法、计算装置及***
CN103425686A (zh) * 2012-05-21 2013-12-04 微梦创科网络科技(中国)有限公司 一种信息发布方法和装置
KR20140052266A (ko) * 2012-10-24 2014-05-07 에스케이텔레콤 주식회사 언어 영역의 자동평가장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체
CN104504150A (zh) * 2015-01-09 2015-04-08 成都布林特信息技术有限公司 新闻舆情监测***
CN104572630A (zh) * 2013-10-16 2015-04-29 国际商业机器公司 确定代表自然语句的主题的术语的组合的方法和***

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016529B2 (en) 2002-03-15 2006-03-21 Microsoft Corporation System and method facilitating pattern recognition
US8504361B2 (en) * 2008-02-07 2013-08-06 Nec Laboratories America, Inc. Deep neural networks and methods for using same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5263107A (en) * 1991-01-31 1993-11-16 Sharp Kabushiki Kaisha Receptive field neural network with shift-invariant pattern recognition
CN102439597A (zh) * 2011-07-13 2012-05-02 华为技术有限公司 基于潜在狄利克雷模型的参数推断方法、计算装置及***
CN103425686A (zh) * 2012-05-21 2013-12-04 微梦创科网络科技(中国)有限公司 一种信息发布方法和装置
KR20140052266A (ko) * 2012-10-24 2014-05-07 에스케이텔레콤 주식회사 언어 영역의 자동평가장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체
CN104572630A (zh) * 2013-10-16 2015-04-29 国际商业机器公司 确定代表自然语句的主题的术语的组合的方法和***
CN104504150A (zh) * 2015-01-09 2015-04-08 成都布林特信息技术有限公司 新闻舆情监测***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Convolutional Neural Networks for Sentence Classification;Yoon Kim;《Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP)》;20141025;标题;第1节第3段;图1;第2节;3.3节第4点 *
Natural Language Processing (Almost) from Scratch;Ronan Collobert等;《JOURNAL OF MACHINE LEARN}NG RESEARCH》;20110801;第5节、摘要、4.1节、4.5节第2点、4.2节4-5段 *

Also Published As

Publication number Publication date
CN106548124A (zh) 2017-03-29
EP3144860A3 (en) 2017-04-05
US9870768B2 (en) 2018-01-16
US20170084269A1 (en) 2017-03-23
EP3144860A2 (en) 2017-03-22

Similar Documents

Publication Publication Date Title
CN106548124B (zh) 主题推定***、主题推定方法
JP6611053B2 (ja) 主題推定システム、主題推定方法およびプログラム
CN110162749B (zh) 信息提取方法、装置、计算机设备及计算机可读存储介质
JP6955580B2 (ja) 文書要約自動抽出方法、装置、コンピュータ機器及び記憶媒体
Heiss Structural choice analysis with nested logit models
US10936950B1 (en) Processing sequential interaction data
CN109978060B (zh) 一种自然语言要素抽取模型的训练方法及装置
KR20180125905A (ko) 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치
CN111078836A (zh) 基于外部知识增强的机器阅读理解方法、***、装置
US20080256009A1 (en) System for temporal prediction
CN107807968B (zh) 基于贝叶斯网络的问答装置、方法及存储介质
Agrawal et al. On the use of acquisition function‐based Bayesian optimization method to efficiently tune SVM hyperparameters for structural damage detection
CN111241828A (zh) 情感智能识别方法、装置及计算机可读存储介质
EP3608802A1 (en) Model variable candidate generation device and method
CN111241843B (zh) 基于复合神经网络的语义关系推断***和方法
CN113886697A (zh) 基于聚类算法的活动推荐方法、装置、设备及存储介质
JP2018041300A (ja) 機械学習用モデル生成装置及びプログラム。
US11386272B2 (en) Learning method and generating apparatus
JP2010272004A (ja) 判別装置及び判別方法、並びにコンピューター・プログラム
CN109241993B (zh) 融合用户和整体评价信息的评价对象情感分类方法及装置
CN113722477B (zh) 基于多任务学习的网民情绪识别方法、***及电子设备
Serras et al. Online learning of attributed bi-automata for dialogue management in spoken dialogue systems
CN115099344A (zh) 模型训练方法和装置、用户画像生成方法和装置、设备
Kim et al. The use of discriminative belief tracking in pomdp-based dialogue systems
CN114358011A (zh) 命名实体提取方法与装置以及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant