CN104137102A - 非事实型询问应答***以及计算机程序 - Google Patents

非事实型询问应答***以及计算机程序 Download PDF

Info

Publication number
CN104137102A
CN104137102A CN201380010249.4A CN201380010249A CN104137102A CN 104137102 A CN104137102 A CN 104137102A CN 201380010249 A CN201380010249 A CN 201380010249A CN 104137102 A CN104137102 A CN 104137102A
Authority
CN
China
Prior art keywords
inquiry
unit
answer
candidate
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380010249.4A
Other languages
English (en)
Other versions
CN104137102B (zh
Inventor
吴钟勋
鸟泽健太郎
桥本力
川田拓也
史蒂恩·德萨哲
风间淳一
王轶讴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Publication of CN104137102A publication Critical patent/CN104137102A/zh
Application granted granted Critical
Publication of CN104137102B publication Critical patent/CN104137102B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

为了提供在非事实型询问应答***中能进一步提高精度的询问应答***,询问应答***(160)包含:候选句检索部(222),其响应于询问而从语料库存储部(178)中取出回答候选;特征向量生成部(232),其针对询问与各个回答候选的组合来生成特征;SVM(176),其进行了学习,使得:在被给出特征向量时,对成为基础的询问以及回答候选的组合,来计算表示为正确的组合的程度的得分;以及回答句排序部(234),其将计算出的得分最高的回答候选作为回答进行输出。特征是基于针对询问的词素解析及句法解析的结果、询问当中被进行了正或负的评价的词组及其极性、以及特征内的名词的含义类而生成的。

Description

非事实型询问应答***以及计算机程序
技术领域
本发明涉及询问应答***,尤其涉及针对询问某事的理由等的所谓的how型、why型询问等被称为非事实询问的询问的应答***。
背景技术
与针对一些事实的询问应答(QA)相关的研究最近取得了大的进展。例如美国的竞猜节目中这种***战胜人类的情况记忆犹新。针对与事实相关的询问,其精度据说为85%程度。即便在这样的与事实相关的询问应答***以外的领域,同样地关于针对精度高的询问应答***的研究,其必要性也开始被认可。然而,关于并非与事实相关的询问,例如与“为何”相关的询问,以及与“如何”相关的询问,实情是研究还未取得进展。
作为这样的***的例子,有在后述的非专利文献1中记载的***。在该***中,对询问和语料库内的各句进行词素解析,进而使用其结果来计算利用了从询问中所得到的单词的文档频度、各句中的单词频度、文档总数、文档的长度等的得分,并从语料库中选择得分上位的给定个数的文档。将在选择出的文档中所含的段落、以及1~3个连续的段落作为回答候选,主要通过询问中的单词与回答候选中所含的单词之间所计算的得分,来选择针对询问的回答。
然而,如后述可知,在该***中得不到足够的性能。为此,作为对该***进一步改良后的***,能考虑后述的非专利文献2中所记载的那样的***。该***例如在通过非专利文献1所记载的技术而选择了几个回答候选后,进而通过给定的得分来对各回答候选进行重新排序。
以下,基于非专利文献2的记载来说明被认为是典型的实现该***时的实现例。此外,以下将关于并非与事实相关的询问称为“非事实型询问”。
参照图1,该询问应答***30例如将在互联网上能检索的非常多的句子(在此限定为日语来考虑。)所组成的语料库存储至语料库存储部48,接受从可实现文本通信的便携式电话等的服务利用终端44发送的非事实型询问,回答处理部40从存储在语料库存储部48中的众多句子当中选择作为其回答的概率高的几个回答句,并作为回答句列表50而返回给服务利用终端44。回答处理部40在进行回答句的排序时使用支持向量机(SVM)46,由学习处理部42预先进行针对该SVM46的带监督的机器学习。
学习处理部42包含:QA句存储部60,其用于预先对非事实型询问、针对该询问的正确的回答或错误的回答、表示回答是否正确的标志所组成的几个日语的QA句进行存储;学习数据生成部62,其用于针对QA句存储部60中所存储的QA句进行解析,生成预先选择出的与语法相关的统计学信息的各种组合、以及表示该QA句的回答是否为针对询问的正确回答的标志所组成的学习数据,来作为用在SVM46的学习中的特征;学习数据存储部64,其存储由学习数据生成部62生成的学习数据;以及学习处理部66,其使用学习数据存储部64中所存储的学习数据,来进行SVM46的带监督的机器学习。该学习的结果是,当SVM46接受到与由学习数据生成部62生成的学习数据为同种组合的特征时,SVM46输出表示使该特征的组合被生成的询问句以及回答候选的组合是否为正确的组合,即回答候选是否为针对询问的正确的答案这样的尺度。
针对语料库存储部48中所存储的各句,预先执行与学习数据生成部62对各回答句进行过的解析处理相同的解析处理,并对各句附加为了生成赋予给SVM46的特征所需的信息。
对此,回答处理部40包含:询问句解析部86,其用于响应于从服务利用终端44接受到询问句的情况,对该询问句进行预先规定的文法性解析,针对该询问句中所含的各单词,输出为了生成特征所需的信息(词类、活用形、修饰被修饰结构等);候选句检索部82,其用于响应于服务利用终端44接受到询问句的情况,从语料库存储部48之中检索并提取针对询问的给定个数(例如300个)的回答候选句;以及回答候选句存储部84,其用于将候选句检索部82所输出的给定个数的候选句与其文法信息一起存储。
此外,在本实施方式中,虽然从语料库存储部48中检索并提取候选句而存储至回答候选句存储部84,但是无需如此缩减候选句。例如,可以将语料库存储部48中所存储的所有句子作为回答候选句。在此情况下,既可以是,候选句检索部82仅具有将语料库存储部48中所存储的句子全部读出的功能,也可以是,回答候选句存储部84发挥将由候选句检索部82读出的句子仅临时蓄积的功能。进而,语料库存储部48在本实施方式中虽然是询问应答***30在本地保持,但本发明不限于这样的实施方式。例如语料库48还可以为远程,也不限于1个,还可以分布于多个存储装置来执行存储。
回答处理部40还包含:特征向量生成部88,其用于基于从询问句解析部86输出的信息与回答候选句存储部84中所存储的各个回答候选句的组合,来生成应该赋予给SVM46的特征向量;以及回答句排序部90,其用于对于询问句与各回答候选句的组合,将从特征向量生成部88给出的特征向量赋予给SVM46,其结果是基于从SVM46输出的结果来对回答候选句存储部84中所存储的各回答句进行排序,将上位的给定个数的回答句候选作为回答句列表50进行输出。SVM46通常以数学方法来求取把对象分类为2个类(class)的超平面,基于其结果来确定输入属于哪一类,并将其结果以正/负的极性信息进行输出,这些是基本的功能,但还能输出从该超平面起到通过输入而确定的点为止的距离。该距离被认定为表征作为回答句的适合度的距离,因此回答句排序部90将该距离与SVM46所输出的极性信息的组合用作回答候选句的得分。
在该询问应答***30中,预先在QA句存储部60中存储众多询问句与作为针对该询问句的回答而适合的句子的组合、以及与作为针对询问句的回答而错误的句子的组合。对于各组合,预先手工地赋予表示该回答是否正确的标志。学习数据生成部62根据这些组合来生成用于进行SVM46的学习的学习数据,并保存至学习数据存储部64。学习处理部66使用学习数据存储部64中所存储的学习数据来进行SVM46的学习。该处理的结果是,SVM46在接受到与由学习数据生成部62生成的学习数据为相同种类的特征的组合时,能输出表示与作为获得其特征的基础的句子的组合(询问句和回答候选)的组合是否正确,即回答候选作为针对该询问句的回答是否正确的尺度的值。
另一方面,在语料库存储部48中存储有由众多的句子组成的语料库。这些各句被预先执行了与学习数据生成部62所进行的处理为同种的解析处理,被赋予了与学习数据的一部分同样的用于回答候选的排序的信息。在从服务利用终端44接受到询问句时,候选句检索部82进行现有的候选句检索处理,从语料库存储部48之中提取给定个数的针对询问句的回答候选。由候选句检索部82提取出的回答候选句与用于回答候选的排序的信息一起被保存至回答候选句存储部84。
另一方面,询问句解析部86对询问句进行给定的解析处理,生成为了生成特征所需的信息并赋予给特征向量生成部88。特征向量生成部88在从询问句解析部86接受到信息时,通过与回答候选句存储部84中所存储的各回答候选句的用于回答候选的排序的信息合在一起,来生成与由学习数据生成部62生成的学习数据相同的构成(其中,将表示回答候选是否为正确回答的标志除外。)的特征向量,并赋予给回答句排序部90。
回答句排序部90将从特征向量生成部88给出的、根据各回答候选与询问句的组合而得到的特征向量赋予给SVM46。SVM46按所赋予的各组合的特征向量的每一个,输出表示该组合中所含的回答候选作为针对该组合中所含的询问的回答适合到何种程度的得分。回答句排序部90将询问句与各回答候选的组合以它们的得分来降序地排序,并将得分上位的给定个数的回答候选作为针对从服务利用终端44给出的询问句的回答句列表50而返给服务利用终端44。
在先技术文献
非专利文献
非专利文献1:マサキムラタ、サチヨツカワキ、トシユキカナマル、チンマ、ヒトシイシハラ,「ノン·ファクトイド型の日本語の質問に対し、回答の型に応じた重み付けをした回答検索を用いて回答するシステム(A system for answering non-factoid Japanesequestions byusing passage retrieval weighted based on type of answer)」,In Proc.ofNTCIR-6.
非专利文献2:リユウイチロウヒガシナカ、ヒデキイソザキ,「ホワイ型質問のための、コ一パスを用いた質問応答システム(Corpus-basedquestion answering for why-questions)」,In Proc.of IJCNLP,pp.418-425.
非专利文献3:テツジナカガワ、ケンタロウイヌイ、サダ才クロハシ,「依存木に基づく、潜在変数を持つC R Fを用いた感情の分類(Tetsuji Nakagawa,Kentaro Inui,and Sadao Kurohashi,Dependencytree-based sentiment classification using CRFs with hiddenvariables.)」,In Proc.of Human Language Technologies:The 2010AnnualConference of Computational Linguistics,Pp.786-794,Los Angeles,California,June.Association for ComputationalLinguistics.
发明内容
发明要解决的课题
在非专利文献1所记载的***中可知得不到足够的精度。特别是,在同与事实相关的询问应答***的性能比较时,非事实型询问应答***的性能极低,从而寻求提高非事实型询问应答***的性能。特别是,今后不仅是与单纯的事实相关的询问,还需要从一些现象中知晓其理由,或从一些现象中推论其结论。
因此,本发明的目的在于,提供在关于与理由或方法相关的询问的询问应答***中能进一步提高精度的询问应答***。
用于解决课题的手段
本发明的第1局面所涉及的询问应答***是接受非事实型询问的输入并生成针对该询问的回答的非事实型询问应答***。该***与用于对由处理对象的语言的文档亦即计算机可读取的文档组成的语料库进行存储的语料库存储单元相连接而被使用。该***包含:候选检索单元,其用于响应于已接受询问的输入的情况,从语料库存储单元之中检索并取出针对该询问的多个回答候选;特征生成单元,其用于响应于已接受询问的输入的情况,针对该询问与存储在候选检索单元中的各个回答候选的组合,来生成给定的特征的集合;得分计算单元,其预先进行了学习,使得:在被给出由特征生成单元生成的特征的集合时,针对成为生成该特征的集合的基础的询问以及回答候选的组合,来计算表示该回答候选是针对该询问的正确回答的程度的得分;以及回答选择单元,其针对询问与存储在回答候选中的各个回答候选的组合,基于由得分计算单元计算出的得分,将针对询问为正确回答的可能性最高的回答候选作为针对询问的回答进行输出。针对由候选检索单元检索出的各个回答候选,赋予了由特征生成单元生成特征所需的信息。特征生成单元包含:句法解析单元,其用于针对询问进行词素解析以及句法解析,并输出词素信息以及语法信息;以及评价单元,其用于从询问当中确定遵照某评价基准而被分类为第1类的词组以及被分类为第2类的词组。针对第1类以及第2类各自分配了彼此相反的评价的极性。该询问应答***还包含:特征集合生成单元,其用于针对询问与各个回答候选的组合,基于句法解析单元的解析结果、由评价单元确定出的词组的位置及其评价类的极性、以及对回答候选所赋予的特征生成用信息,来生成特征的集合。
优选地,特征生成单元还包含:含义类变换单元,其用于将包含在句法解析单元的输出中的各名词分类成预先准备的多个单词的含义类中的任一者,并将该名词变换成对应的含义类。特征集合生成单元包含:第1单元,其用于针对询问与各个回答候选的组合,基于句法解析单元的解析结果、由评价单元确定出的词组的位置及其评价类的极性、由含义类变换单元被进行了变换后的句法解析单元的输出、以及对回答候选所赋予的特征生成用信息,来生成特征的集合。
第1单元基于由评价单元确定出的词组的位置以及评价类的极性而生成的特征可以包含:表示询问中的词组的评价类的极性与回答候选中的词组的评价类的极性是否一致的信息。
更优选地,第1单元基于由评价单元确定出的词组的位置以及评价类的极性而生成的特征还包含:表示当询问中的词组的评价类的极性与回答候选中的词组的评价类的极性一致时的该极性的信息。
第1单元所生成的特征可以包含:从句法解析单元的输出得到且未使用评价单元的输出或含义类变换单元的输出而得到的特征、对句法解析单元的输出组合评价单元的输出而得到的特征、以及对句法解析单元的输出组合含义类变换单元的输出而得到的特征。
或者,第1单元所生成的特征可以包含:对句法解析单元的输出组合评价单元的输出,进而组合含义类变换单元的输出而得到的特征。
本发明的第2局面所涉及的计算机程序是由计算机来实现接受非事实型询问的输入并生成针对该询问的回答的非事实型询问应答***的计算机程序。该计算机与用于对由处理对象的语言的文档亦即计算机可读取的文档组成的语料库进行存储的语料库存储单元相连接。第2局面所涉及的计算机程序使计算机作为如下单元发挥功能,即,候选检索单元,其用于响应于已接受询问的输入的情况,从语料库存储单元之中检索并取出针对该询问的多个回答候选;特征生成单元,其用于响应于已接受询问的输入的情况,针对该询问与存储在候选检索单元中的各个回答候选的组合,来生成给定的特征的集合;得分计算单元,其预先进行了学习,使得:在被给出由特征生成单元生成的特征的集合时,针对成为生成该特征的集合的基础的询问以及回答候选的组合,来计算表示该回答候选是针对该询问的正确回答的程度的得分;以及回答选择单元,其针对询问与存储在回答候选中的各个回答候选的组合,基于由得分计算单元计算出的得分,将针对询问为正确回答的可能性最高的回答候选作为针对询问的回答进行输出。针对由候选检索单元检索出的各个回答候选,赋予了由特征生成单元生成特征所需的信息。使计算机作为特征生成单元发挥功能的程序部分使计算机作为如下单元发挥功能,即,句法解析单元,其用于针对询问进行词素解析以及句法解析,并输出词素信息以及语法信息;以及评价单元,其用于从询问当中确定遵照某评价基准而被分类为第1评价类的词组以及被分类为第2评价类的词组。该计算机程序还使计算机作为如下单元发挥功能,即,特征集合生成单元,其用于针对询问与各个回答候选的组合,基于句法解析单元的解析结果、由评价单元评价出的词组的位置及其评价类的极性、以及对回答候选所赋予的特征生成用信息,来生成特征的集合。
附图说明
图1是表示现有的非事实型询问应答***的简要构成的框图。
图2是表示非事实型询问和其回答候选的例子的图。
图3是表示非事实型询问的回答候选的例子的图。
图4是说明对本发明的1实施方式所涉及的询问应答***进行利用的场景的图。
图5是本发明的1实施方式所涉及的询问应答***的框图。
图6是用于说明n-gram的构成的示意图。
图7是用于说明依赖于语法结构的n-gram的构成的图。
图8是以表格形式来表示本发明的1实施方式所涉及的询问应答***中使用的特征的一览的图。
图9是表示非事实型询问与其回答候选的组合的例子的图。
图10是将本发明所涉及的询问应答***的实验结果与现有技术的性能进行比较并以表格形式来表示的图。
图11是将在本发明所涉及的询问应答***中改变了要使用的特征的组合时的性能相互比较并以表格形式来表示的图。
图12是表示用于实现本发明的1实施方式所涉及的询问应答***的计算机的外观的示意图。
图13是说明图12所示的计算机的硬件构成的框图。
具体实施方式
在以下的说明以及附图中,对同一部件赋予了同一参照编号。因此,不重复针对它们的详细说明。
[引言]
在本申请发明中,着眼于非事实型询问与其回答之间存在以下那样的关系,并将其设为了第1假定。即,着眼于以下的点:
·当令人不满意的状况发生时其理由也有些令人不满意的情况多,
·当令人满意的状况发生时其理由也令人满意的情况多。
例如,考虑图2所示那样的询问Q1与其回答候选A1-1以及A1-2的组合110。回答候选A1-1的下线部120描述了关于癌的令人不满意的现象,与此相对,回答候选A1-2的下线部122描述了用于预防癌的令人满意的对应。本发明在上面的组合中,作为针对询问Q1的回答,可以说回答候选A1-1更加适合。在本说明书中,为了简化说明,将这种“令人满意的”以及“令人不满意的”这样的评价的方向称为“极性”,将“描述令人满意的现象的词组”以及“描述令人不满意的现象的词组”那样的、成为伴随极性的评价的对象的词组称为“评价词组”。即,在本申请发明中,针对词组,来确定遵照某评价基准而被分类至“描述令人满意的现象的词组”这样的第1评价类、以及“描述令人不满意的现象的词组”这样的第2评价类当中的任一者的词组。对于这些评价类,如“令人满意的”以及“令人不满意的”那样,分配了彼此相反的极性。此外,在此,作为极性,虽然考虑了“令人满意的/令人不满意的”这样的表达,但除此以外,还能基于评价基准来以各种方式考虑极性。例如能考虑“增加/减少”、“活性/惰性”、“美味/难吃”、“改善/恶化”、“采纳/不采纳”、“高兴/悲伤”等。
本发明的第2假定是在询问中的单词的词汇语义论的类与回答句中的它们之间存在极强的联系的假定。例如,针对像图2所示的询问Q1那样关于病的询问句的回答在多数情况下,包含(像回答候选A1-1那样)与化学物质相关的回答、或者与病毒或身体的一部分相关的提及。如此,例如,通过使病以及与病关联的有害物质等之间的统计性关联明确,从而能提高作为针对询问句的回答可列举适合的回答的可能性。为此,在以下叙述的实施方式中,将含义相近的单词归为含义类而用作了特征。尽管也能人工进行含义类的构筑,或利用了基于现有含义的同类词汇编,但在本实施方式中,利用了从Web文档所组成的大规模语料库中使用EM法而自动构筑的单词类群。关于该方法,详细记载于:Kazama and Torisawa,Inducing Gazetteers for Named EntityRecognition by Large-scale Clustering of DependencyRelations”(http://http://www.aclweb.org/anthology-new/P/P08/P08-1047.pdf)。
进而成为问题的可以说是,在回答候选之中存在包含极性不同的多个词组的回答候选。
例如,在图3中示出与图2的回答候选A1-2类似的回答候选A1-3。图3所示的回答候选A1-3包含:关于癌的令人不满意的评价词组140、以及关于癌的令人满意的评价词组142。在此情况下,留下如下问题:作为针对图2所示的询问Q1的回答,应该采用图2所示的回答候选A1-1与图3所示的回答候选A1-3的哪一者。在本发明中,为了应对这样的问题,使用了评价的极性、与询问句以及回答候选双方的与该极性关联的评价词组的内容的组合。
为了解决针对评价词组的内容进行统计学处理时的数据的稀疏性,开发了将评价的极性与单词含义类有效组合后的特征的组。对于这些特征,通过带监督的学习,进行了执行针对非事实型询问句的回答候选的评分的分类器的学习。实验的结果将在后面叙述。
[构成]
参照图4,本实施方式所涉及的非事实型询问应答***160预先获得互联网上的大量的文档所组成的文档集合164,响应于经由互联网162而从服务利用终端166接受到非事实型询问的情况,从所蓄积的文档集合164中生成作为针对该询问的回答而适合的回答的列表,并返给服务利用终端166。在本实施方式中,来自服务利用终端166的询问作为到Web的形式的输入数据而被发送至非事实型询问应答***160。
参照图5,该询问应答***160包含:语料库存储部178,其用于预先存储从互联网取得的大量的文档所组成的文档集合164,该文档集合是针对各句赋予了用于排序回答候选的特征形成所需的信息后的文档的集合;回答处理部170,其用于响应于从服务利用终端166接受到询问句的情况,从语料库存储部178中所存储的文章中提取几个作为针对接受到的询问的回答而言适合的回答,进行排序,对服务利用终端166输出将上位的给定个数列表后的回答句列表174;SVM176,其在回答处理部170进行回答候选的排序时使用;以及学习处理部172,其通过预先准备的学习数据来进行针对SVM176的带监督的机器学习,在SVM176接受到根据询问句与回答句的组合所得到的预先确定的特征的组合时,输出得分,该得分不仅表示该组合是否正确,即对于该组合中的询问,该组合中的回答句是否为正确的回答,而且表示该回答的正确度是何种程度。
回答处理部170包含:候选句检索部222,其用于响应于从服务利用终端166接受到询问的情况,通过与现有技术同样的处理来检索语料库存储部178,并从众多句子之中提取给定个数(例如300个)的回答候选句;回答候选句存储部224,其用于存储由候选句检索部222提取出的候选句;询问句解析部226,其用于响应于从服务利用终端166接受到询问句的情况,进行针对询问句的解析处理,进行特征所利用的词素解析以及句法解析(语法性解析),来输出词素信息以及语法信息;含义类变换部230,其通过从询问句解析部226所输出的信息当中,对单词应用给定的统计学概率模型来估计含义类,并赋予表征含义类的信息来输出;以及评价处理部228,其用于对询问句解析部226的输出进行评价,如已叙述那样确定评价词组和其极性,并按各个评价词组来进行输出。
此外,尽管未图示,但针对语料库存储部178中所存储的文档的各句子,也预先进行与由询问句解析部226、评价处理部228以及含义类变换部230所进行的处理相同的处理。如此,能降低在后用于根据询问与回答候选的组来生成特征向量的处理量。
回答处理部170还包含:特征向量生成部232,其用于接受询问句解析部226的输出、评价处理部228的输出、以及含义类变换部230的输出,进而从回答候选句存储部224读出各回答候选句和附随信息,并基于询问句与回答候选的双方的信息来生成应用于SVM176的特征向量;以及回答句排序部234,其用于按每个回答候选句,基于通过将特征向量生成部232所输出的特征向量应用于SVM176而从SVM176得到的得分,来对回答候选进行排序,生成上位的给定个数的回答候选所组成的回答句列表174,并返给服务利用终端166。
学习处理部172包含:QA句存储部190,其用于将众多的QA句与表示其组合的适当与否的标志一起存储;QA句解析部192,其用于对于QA句存储部190中所存储的询问句与回答候选的各个组合,进行与询问句解析部226同样的处理;含义类变换部196,其用于对QA句解析部192的输出中的各单词,使用统计学模型来附加含义类信息;评价处理部194,其用于通过对QA句的询问句以及回答句各自进行评价处理,来附加表示评价词组的标签及其极性来进行输出;学习数据生成部198,其通过将QA句解析部192、评价处理部194、以及含义类变换部196所输出的信息进行组合,来生成用于进行SVM176的学习的学习数据(特征向量)并输出;学习数据存储部200,其用于存储学习数据生成部198所输出的学习数据;以及SVM学习部202,其用于使用学习数据存储部200中所存储的学习数据,来对SVM176进行带监督的机器学习。
在本实施方式中,从互联网收集了6亿个日语文档并保存至语料库存储部178。
(回答候选的提取)
作为候选句检索部222,在本实施方式中使用以http://lucene.apache.org/solr所分发的Solr。在本实施方式中,候选句检索部222按照如下方式进行调整:对于一个询问句,从语料库存储部178中所保存的6亿个文档当中,例如按照包含回答的可能性从高到低的顺序,提取位于前面的给定个数(例如300个)的文档。各候选进而被分割成由5个连续的句子组成的回答候选的集合。为了减小因文档的分割方法的错误而得不到正确的回答的可能性,针对所分割的文档,使其能彼此共享至2个句子。
在候选句检索部222中,进而通过以下的式(1)所示的评分函数S(q,ac)来对如此针对询问q所得到的各回答候选ac进行评分。此外,在本实施方式中,为了提取回答候选,检索包含询问中所含的词语的部分,进而检索包含表示因果关系的3个线索语(理由、原因以及要因)的部分。候选句检索部222基于式(1)的排序,选择300个针对询问的回答候选,并经回答候选句存储部224而赋予给回答句排序部234。
式(1)所示的评分函数S(q,ac)对各回答候选分配与tf(对数指数词频)-idf(文档频度的倒数)相似的得分。在此,式(1)的1/dist(t1,t2起到tf那样的作用,1/df(t2)是询问q以及回答候选ac所共有的针对所给的t1以及t2的idf。
[数式1]
S ( q , ac ) = max t 1 ∈ T Σ t 2 ∈ T φ × log ( ts ( t 1 , t 2 ) ) - - - ( 1 )
ts ( t 1 , t 2 ) = N 2 × dis ( t 1 , t 2 ) × df ( t 2 )
其中,T是询问q中的名词、动词以及形容词亦即回答候选ac中也出现的词所组成的词集。在回答候选ac中存在线索语的情况下,注意将它们追加至词集T。N是文档的合计数(6亿),dist(t1,t2)是回答候选ac中的单词t1以及t2之间的距离(字符数)。df(t)是词语t的文档频度, 是指标,若ts(t1,t2)>1,则否则
(回答候选的排序)
如上所述,对于排序,使用利用了3种类的特征集合的带监督的分类器(SVM)。特征集合包含:(1)表征询问和回答候选的词素分析以及语法分析的结果的特征(以“MSA”来表示。)、(2)表征询问和回答候选中出现的含义的单词类的特征(以“SWC”来表示。)、以及(3)表征评价分析的结果的特征(以“SA”来表示。)。
《MSA》
MSA是为了回答候选的重新排序而从以往广泛使用的特征。该特征用于使询问与回答候选之间的词素、句节以及语法结构级别下的联系更明确。
将询问和其回答候选中所含的全部句子以3种方法来表征。即,词素包(a bag ofmorphemes),句节包(a bag ofword phrases),语法结构链包。它们分别能使用词素分析程序(例如http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN)以及句法解析程序(例如http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP)来得到。
在本实施方式中,从询问以及回答候选的每一个中提取词素、句节、以及语法结构的g-gram(n为1~3)。例如,设句子如图6(A)所示,包含由连续的4个句节A、B、C以及D组成的部分240。从该4个句节所得到的句节3-gram是由图6(B1)所示的句节A、B以及C组成的3-gram242、以及由图6(B2)所示的句节B、C以及D组成的3-gram244。
对此,语法结构n-gram在本说明书中是指,在语法结构的网络中具有连续的3个句节的通道。例如,设为得到了图7(A)所示那样的语法结构的网络260。若从该网络260中取出3-gram,则可得到图7(B1)所示的句节A、B以及C所组成的3-gram262、以及图7(B2)所示的句节A、C以及D所组成的3-gram264。将它们与图6进行比较可知其差异。此外,语法结构n-gram的1-gram与句节1-gram一致,因此不使用。
作为MSA,能使用图8的表270所示的MSA1~MSA4的4种类的特征。其说明如图8所示那样,因此不对各个反复说明。此外,MSA2例如像图2的“类型的癌”那样,是包含询问中的单词那样的n-gram。
《SWC》
单词含义类是指在含义上类似的单词的集合。在本实施方式中,使用前述的Kazama以及Torisawa的文献所记载的名词的聚类技术来构筑了这样的单词含义类。该文献所记载的算法基于含义上类似的单词有出现在类似的语境中的趋势这样的假定。该方法通过将单词间的语法的修饰被修饰关系作为语境进行处理,从而以以下的式(2)来定义与非动词的修饰被修饰关系相关的针对隐性类的概率模型。
[数式2]
p(n,v,r)=∑p(n|c)p(<v,r>|c)p(c)    (2)
其中,在此的n是名词,v是基于语法关系r(日语中为后置语)而名词n所从属的动词或名词,c是隐性类。修饰被修饰关系的频度能从6亿的句子所组成的语料库中得到。模型参数p(n|c)、p(<v,r>|c)以及p(c)是使用EM算法而估计出的。能使用该技术将550万的名词聚类为500个类。即,对于各名词n,通过EM聚类来估计与表征含义类的隐性变量相关的概率分布。基于该分布,对各名词n分配使c=argmaxc*p(c*|n)的类c。其结果,得到了化学物质、营养素、病等明确含义的类。
SWC用于反映询问中的单词与回答候选中的单词之间的关联性。在学习数据中,存在具有特定的含义类的单词的询问和具有特定的含义类的单词的回答候选,在彼此的关系是肯定性(回答候选是针对询问的正确的回答。)的情况下,若与学习数据的询问为相同的含义类的单词位于询问中,则SVM视为其他的条件固定,将具有与学习数据的回答中的特定的含义类的单词为相同的含义类的单词的回答候选,选择为针对该询问的回答。
还能不以单词的含义级别而以单词级别来考虑同样的处理。也就是,还能将特定的单词级别下的联系以统计学的方式模型化。然而,在此情况下,单词与单词这样的组合过于特定,产生数据的稀疏这样的问题,因此模型的通用化难,不能提高模型的可靠性。
如图8所示,作为SWC,使用SWC1和SWC2这2个种类。它们的说明如图8所记载的那样。
为了得到SWC1,遵照以下的过程。首先,将MSA1的n-gram内的名词全部变换成它们所属的含义类。在所得到的n-gram之中,将至少1个单词含义类残留的n-gram作为SWC1进行采用。
SWC2是回答候选中的n-gram,将与位于询问中的词语相同的词语变为它们的含义类而得到的。
这些特征表示询问和回答候选之中的单词的含义类的对应关系。
《SA》
SA这样的特征进一步被分类为2种类。第1是单词级别下的评价分析(单词的极性)。将其在图8中以SAW1~SAW4来表征。第2是词组级别下的评价分析(词组极性)。它们在图8中以SAP1~SAP10来表征。
(1)单词极性(SAW)
单词的极性通过参照预先准备的用于单词的极性趋势的词典来执行。作为词典,在本实施方式中,使用通过非专利文献3所介绍的工具程序而提供的词典。该特征用于使询问中的单词的极性与正确的回答中的单词的极性的关联明确。在此,遵循前提,学习的结果应该是,询问中的单词的极性与所选择的回答中的单词的极性彼此相等的情况变多。
图8所示的SAW1和SAW2是指,从单词极性n-gram当中将包括至少1个具有单词极性的单词的n-gram得到的评价分析特征。这些n-gram是将MSA1n-gram内的全部名词通过词典参照而变换成对应的单词极性而得到的。SAW1关于询问和回答候选中的全部的单词极性n-gram。SAW2是SAW1所得到的n-gram当中原始的n-gram包含询问的词语的。
进而,通过将单词极性与单词的含义类相组合,从而分类器能识别这些组合当中特别具有含义的组合。例如作为单词的极性而为负且含义类为“条件”的单词表征“令人不满意的条件”。其结果,能使分类器学习这些表征负的条件的单词、与这些单词的关于病的询问的关联性之间的相关。SAW3和SAW4是这种特征。它们分别与SAW1以及SAW2同样地被定义。其中,将SAW1以及SAW2中的单词的极性在单词的含义类与单词的极性进行置换这点上不同。将SAW3和SAW4的n-gram称为(单词)类-极性结合n-gram。
(2)词组极性(SAP)
在本实施方式中,评价词组的提取及其极性的判定使用现有的工具程序(基于前述的非专利文献3。)。实验的结果可知,针对不包含询问内的词语那样的评价词组,为了确定正确的回答并非有用。因此,在本实施方式中,仅将从至少包含1个询问内的词语那样的句子中所提取出的评价词组用于词组极性的特征生成。
作为与词组极性相关的特征,大体上使用3个类别的特征。第1类别包含图8所示的SAP1以及SAP2。第2类别包含图8的SAp3~SAP5。第3类别包含图8的SAP6~SAP10。
第1类别的特征涉及询问与其回答候选之间的、评价词组的极性的一致。调查询问与回答候选之间的评价词组的组合。若它们之中存在极性一致的组合,则将表示其的指标和其极性分别设为SAP1以及SAP2。
第2类别的特征基于如下假定:评价词组在多数情况下构成正确的回答的中心部。需要使用表征它们的特征。图8的SAP3~SAP5用于此。关于这些特征的内容,要参照图8。
第3类别的特征用于通过使用单词的含义类来将上述的与询问或回答的内容相关的特征一般化。参照图8可知,这些特征是将从评价词组得到的单词的含义类n-gram以及类·极性结合n-gram与其词组极性相组合而得到的。关于这些特征的内容,要参照图8。
[动作]
以上说明过的本实施方式所涉及的非事实型询问应答***160的动作基本上沿袭与图1所示的现有的过程同样的过程。即,是SVM176的学习、以及回答处理部170所执行的询问的处理。先于这些处理,需要预先创建评价处理部194中使用的评价工具及词典、以及含义类变换部196中使用的统计学概率模型。该概率模型基于式(2)。进而,收集众多句子,并保存至语料库存储部178。针对这些,如已叙述的那样,特征向量生成部232创建为了生成特征所需的信息,并赋予给各句。另一方面,准备人工创建的、询问和其回答所组成的多个组合(QA句),并保存至QA句存储部190。作为这些询问与回答的组合,准备某询问与针对该询问的正确的回答所组成的组。作为这些询问与回答的组合,期望使用尽可能多的种类的询问。故而,理想状态是让尽可能多的人参与该QA句的创建。不过,现实是参与该准备的人数受限的情况较多,在该点上,***中可产生某种制约的情况不可避免。
接下来,由QA句解析部192来进行针对这些QA句的每一个的词素解析以及句法解析等,并将表示所得到的词类信息、修饰被修饰关系等的信息赋予给QA句后给到评价处理部194、含义类变换部196以及学习数据生成部198。
评价处理部194针对所给出的各QA句中的询问以及各个回答进行评价词组的搜索,并将其范围和其极性作为标签赋予给相应位置而给到学习数据生成部198。含义类变换部196针对所给出的各QA句中的名词,生成变换成单词的含义类后的名词后给到学习数据生成部198。
学习数据生成部198按每个QA句,基于来自QA句解析部192的词素及语法信息、与来自评价处理部194的评价相关的信息、以及与来自含义类变换部196的含义类相关的信息,生成图8所示的各种特征,生成赋予了赋予给QA句的标志(表示回答作为针对询问的答案是否适合的标志)的学习数据,并保存至学习数据存储部200。
SVM学习部202使用学习数据存储部200中所保存的学习数据来进行SVM176的学习。学习结束的SVM176被视作回答句排序部234可利用的状态。
《回答的检索》
通过在回答句排序部234中嵌入SVM176,从而回答处理部170能进行回答处理。若服务利用终端166将询问发送至回答处理部170,则询问句解析部226以及候选句检索部222接受该询问。
候选句检索部222响应于接受到询问的情况,从语料库存储部178中所存储的众多句子之中检索作为回答候选的可能性高的上位300个回答候选句,并输出至回答候选句存储部224。此时,回答候选句的得分创建所使用的尺度如式(1)所示那样。
另一方面,询问句解析部226对接收到的询问进行词素解析以及句法解析,并输出词素信息以及语法信息。
评价处理部228对询问句解析部226所输出的信息进行评价处理,对询问句进行表示评价词组的范围和其极性的附标签动作,并给到特征向量生成部232。含义类变换部230从询问句解析部226所输出的信息当中,对名词应用由式(2)表征的用于含义类估计的统计学模型从而估计其含义类,并变换成表征含义类的信息后给到特征向量生成部232。
特征向量生成部232基于评价处理部228所输出的带评价标签的询问句、从询问句解析部226输出的词素信息以及句法解析信息、由含义类变换部230输出的信息、以及对回答候选句存储部224中所存储的各个回答候选句所预先赋予的同样的信息,针对询问与各回答候选的各组合,求取图8所示那样的特征,并生成由它们组成的特征向量。特征向量生成部232将询问与各回答候选的各组合给到回答句排序部234。
回答句排序部234通过对所给出的组合应用SVM176,从而针对各组合,得到表示回答候选作为针对询问的回答是否适当的得分。回答句排序部234进而遵照该得分来将各组合降序排序,将上位的给定个数按照得分的顺序排列,从而生成回答句列表174。回答句排序部234对服务利用终端166返回如此得到的回答句列表174。
[实验]
通过实验来调查了:根据上述的实施方式,针对非事实型询问的回答的精度提高了多少。
(1)数据
为了评价上述实施方式,通过手工作业来构筑了测试集。测试集的构筑是询问的生成以及针对其的回答的验证。尽管期望通过尽可能多的人来构筑该测试集,但实际中因各种制约而成为了受限人数(4人)的作业。实际中询问的范围更广,因此以下的实验的结果可认为成为示出了将上述实施方式用于实际的应用时的性能的上限的结果。
在询问的生成处理中,从预先收集到的句子之中提取出将理由、原因、要因等已描述的线索语至少包含1个的部分。从提取出的部分中,4人的作业者取出了被认为记载了针对某种现象的理由的连续的3个句子所组成的部分,并根据该记载,创建了使该部分成为正确的回答那样的非事实型询问。其结果是,得到了362个非事实型询问,其回答包含在原语料库中这样的结果。
在回答的验证中,使用上述实施方式的***,按每个询问,首先检索上位20个回答候选,并针对这些回答候选和询问的全部组合进行了人工检查。表示评价者间的评价的偏差的尺度(Fleiss’Kappa)是0.611,呈大体一致的评价。针对各询问的正确的回答是通过来多数表决来确定的。
在该实验中,检索出的20个回答候选之中含有正确的回答的是,362个询问当中的仅61.6%(223个询问)。上位20个回答候选之中平均含有4.1个正确回答。根据本实施方式,在本实验条件下,只能进行回答候选的上位20个的重新排序,因此61.6%成为本实验所得到的性能的上限。实验中用到的样本的例子表示在图9中。在图9中示出询问以及回答候选的组280、和询问以及回答候选的组282。
(2)实验的机理
在实验中,使用上述的测试集,并通过10分割交叉鉴定来进行了***的评价。学***均准确率(AP)的平均)来进行的。
P1示出针对询问当中的几个,得到了作为最上位的回答而正确的回答。MAP通过以下的式子来评价顶部n个回答候选的整体的质量。
[数式3]
MAP = 1 | Q | &Sigma; q &Element; Q ( Prec ( k ) &times; rel ( k ) ) | A q | - - - ( 3 )
在此,Q表征非事实型询问的集合,Aq表征针对非事实型询问q∈Q的正确的回答的集合,Prec(k)表征上位n个回答候选的第k位的精度,rel(k)表征在秩k为Aq内的正确的回答时为1、否则为0的指标。
(3)结果
针对5个不同的***,通过上述设定的实验而得到的结果表示在图10中。在图10中,B-QA是非专利文献1所记载的***由发明者安装的,这是基本***。B-Ranker是在B-QA的回答检索***中附加了利用根据词素信息以及语法信息所得的特征(MSA)的重新排序而得到的。本实施方式所涉及的***的用于本实施方式的部分是作为“本发明”而示出的,利用了图8列举的全部特征。记载为“上限”是指,在顶部20个回答候选中存在正确的回答时,必须在其上位n个回答候选之中将n个正确的回答全部列举那样的***。这表示本实验中能期待的最好的结果(上限)。括号内示出将各***的结果与上限***比较后的结果。
在实验中,进而在本发明所涉及的***中,还评价了能进行使用对于最初检索出的20个回答候选进而加入了在生成询问时使用的原文章部分所得的21个回答候选的、完整的回答检索的模块。将其结果表示为“Retrieval-Oracle”。根据图10的结果可知,在本申请发明所涉及的***中,在最初选择21个回答候选(必包含正确回答。)的***(Retrieval-Oracle)中,P1中呈70.2%这样高的精度。
从图10可知,本申请发明所涉及的***与成为比较对象的2个***比较,呈高精度。尤其对于B-QA,P1中得到11.6%这样的精度的提高。通过获得针对B-Ranker的精度的提高(P1中为6.4%),从而较之于在先技术文献中使用的特征,可知本发明中采用的特征集卓越。另外,还可知由于B-Ranker与B-QA之间存在性能的差异,因此重新排序是有效的。
为了调查各种特征的贡献度,同样地进行了将要使用的特征的组合进行改变的各种实验。在实验中,将MSA作为基本特征,并使用了MSA特征与其他特征的各种组合。进而,针对不使用MSA的***也进行了实验。结果在图11汇总。
在图11中,在MSA+SWC+SA为最令人满意的实施方式中,MSA表示B-Ranker。SA分割为2个群组,即SAW(表示单词和其极性的特征)、以及SAP(表示词组和其极性的特征)。基于MSA+SWC+SA与其他的结果之间的性能的差异可知,已使用的特征全部对精度的提高作出了贡献。在P1这样的观点下可知,基于与词组和其极性相关的特征即SAP,得到了最高的改善。即,本发明与MSA+SWC+SAW之间的性能的差异达到了4.4%。基于该事实,示出了“当令人不满意的状况发生时其理由也有些令人不满意的情况多,当令人满意的状况发生时其理由也令人满意的情况多。”这样的成为本申请发明的构思的基础的假定正确的可能性高。
《实施方式的效果》
如上所述,根据本实施方式,基于上述的假定来确定询问中的评价词组、以及回答候选中的评价词组,在它们的极性相同的情况下认为回答候选正确,基于这样的想法来选择特征,由此得到了回答检索的精度的提高。进而,在学习与这样的评价相关的统计学模型时,鉴于询问有跨宽范围的可能性、以及对于此用于学习的数据的范围以及数量受限的情况,针对询问以及回答候选中的名词,导入含义类,并将这些名词置换至含义类后得到的作为特征进行了导入。通过这些特征的导入,成为对回答进行检索的对象的语料库包含非常多的句子,且学习数据受限的情况下,较之于现有的非事实型询问应答***,也得到了精度大大提高的非事实型询问应答***。
[基于计算机的实现]
在本实施方式的***当中,回答处理部170以及学习处理部172分别通过计算机硬件、由该计算机硬件执行的程序、计算机硬件中所保存的数据来实现。两者可以安装于同一计算机硬件内。图12表示该计算机***330的外观,图13表示计算机***330的内部构成。
参照图12,该计算机***330包含:具有存储器端口352以及DVD(Digital Versatile Disc;数字多功能光盘)驱动器350的计算机340、键盘346、鼠标348、以及监视器342。
参照图13,计算机340除了包含存储器端口352以及DVD驱动器350以外,还包含:CPU(中央处理装置)356;与CPU356、存储器端口352以及DVD驱动器350相连接的总线366;对开机程序等进行存储的读出专用存储器(ROM)358;以及与总线366连接,并对程序命令、***程序以及作业数据等进行存储的随机存取存储器(RAM)360。计算机***330还包含提供向能与其他终端通信的网络进行连接的网络接口(I/F)344。
用于使计算机***330作为非事实型询问应答***来进行动作的计算机程序,被存储在安装于DVD驱动器350或存储器端口352的DVD362或可移动存储器364,进而被转发至硬盘354。或者,程序可以通过未图示的网络而发送至计算机340并存储至硬盘354。程序在执行时被加载至RAM360。可以从DVD362或者可移动存储器364,或经由网络IF344将程序直接加载至RAM360。
该程序包含使计算机340作为本实施方式的非事实型询问应答***来进行动作的多个命令。进行该动作所需的几个基本功能通过在计算机340上动作的操作***(OS)或者第三方程序、或安装至计算机340的各种编程工具包的模块而被提供。因此,该程序不一定必需包含为了实现本实施方式的***以及方法所需的全部功能。该程序仅包含命令当中以被控制为从期望的结果得到的做法来调用适当的功能或编程工具包内的适当的程序工具从而执行作为上述的非事实型询问应答***的动作的命令即可。计算机***330的动作是周知的。因此在此不累述。
在上述实施方式中,询问是从服务利用终端以文本形式来发送的,回答也是以文本形式来返回的。然而本发明不限于这样的实施方式,例如还能应用于基于语音的询问应答***。在此情况下,图5所示的服务利用终端166是便携式电话,可以通过在候选句检索部222以及询问句解析部226的前段,对从服务利用终端166接收到的询问的语音信号进行语音识别,由此将询问变换成文本数据。在此情况下,作为回答句排序部234的输出,可以将回答句列表174以网页的形式返回至服务利用终端166,也可以通过基于得分最高的回答进行语音合成,由此作为语音而返回至服务利用终端166。
进而,上述实施方式与日语相关。然而本发明不是局限于仅日语能应用。不管任意的语言,只要是能创建学习数据且能收集足够多的计算机可读取的文章的语言,则无论何种语言都能应用。
进而,在上述实施方式中,针对语料库存储部178中所存储的句子,进行与预先询问句解析部226、评价处理部228、以及含义类变换部230所执行的处理同样的处理来与该句子加以关联地进行了存储。如此,能缩短特征向量生成部232中的用于特征生成的处理时间。然而本发明不限于这样的实施方式。具体而言,还可以对语料库存储部178中所存储的文档例如仅附加候选句检索部222进行候选句的检索所需的信息,在特征向量生成部232生成特征向量之际,针对选择出的候选句各自进行特征的生成所需的处理(与询问句解析部226、评价处理部228以及含义类变换部230所执行的处理同样的处理)。
另外,在候选句检索部222所执行的针对询问的回答候选句的检索中,在上述实施方式中,主要基于文档频度、文档内的单词频度,来检索了与询问句类似的词汇所组成的句子。然而本发明不限于这样的实施方式。只要是被认为能提取有可能成为针对询问的回答的句子的基准,则无论使用哪种基准均可。
在上述实施方式中,说明了将对象分类成成为作为评价类而彼此相反的评价的2个类的情况。然而本发明不限于这样的实施方式。例如,可以将评价类设为赋予了一定顺序的多个类,将对象分类成这多个评价类中的某一个。进而,可以设置2个以上的评价的基准,通过这2个以上的基准,来将对象分类成多个评价类。
本次公开的实施方式只不过是例示,本发明不应该仅局限于上述的实施方式。本发明的范围在参考发明的详细说明的记载的基础上,由权利要求书的各权利要求所示,包含与记载于此的措辞均等的含义以及范围内的全部变更。
工业实用性
本发明是利用了自然语言处理的与关于理由或方法的询问相关的询问应答***,在进行能进一步提高精度的询问应答***等的制造、利用以及租赁等工业中可利用。
符号说明
30  询问应答***
40、170  回答处理部
42、172  学习处理部
44、166  服务利用终端
46、176  SVM
48、178  语料库存储部
50、174  回答句列表
60、190  QA句存储部
62、198  学习数据生成部
64、200  学习数据存储部
66  学习处理部
82、222  候选句检索部
84、224  回答候选句存储部
86、226  询问句解析部
88、232  特征向量生成部
90、234  回答句排序部
160  非事实型询问应答***
192  QA句解析部
194、228  评价处理部
196、230  含义类变换部

Claims (6)

1.一种非事实型询问应答***,接受非事实型询问的输入并生成针对该询问的回答,
所述非事实型询问应答***与用于对由处理对象的语言的文档亦即计算机可读取的文档组成的语料库进行存储的语料库存储单元相连接而被使用,
所述非事实型询问应答***包含:
候选检索单元,其用于响应于已接受询问的输入的情况,从所述语料库存储单元之中检索并取出针对该询问的多个回答候选;
特征生成单元,其用于响应于已接受询问的输入的情况,针对该询问与存储在所述候选检索单元中的各个回答候选的组合,来生成给定的特征的集合;
得分计算单元,其预先进行了学习,使得:在被给出由所述特征生成单元生成的所述特征的集合时,针对成为生成该特征的集合的基础的询问以及回答候选的组合,来计算表示该回答候选是针对该询问的正确回答的程度的得分;以及
回答选择单元,其针对所述询问与存储在所述回答候选中的各个回答候选的组合,基于由所述得分计算单元计算出的得分,将针对所述询问为正确回答的可能性最高的回答候选作为针对所述询问的回答进行输出,
针对由所述候选检索单元检索出的各个回答候选,赋予了由所述特征生成单元生成特征所需的信息,
所述特征生成单元,包含:
句法解析单元,其用于针对所述询问进行词素解析以及句法解析,并输出词素信息以及语法信息;以及
评价单元,其用于从所述询问当中确定遵照某评价基准而被分类为第1评价类的词组以及被分类为第2评价类的词组,
针对所述第1评价类以及第2评价类各自分配了彼此相反的评价的极性,
所述询问应答***还包含:特征集合生成单元,其用于针对所述询问与各个所述回答候选的组合,基于所述句法解析单元的解析结果、由所述评价单元确定出的词组的位置及其评价类的极性、以及对所述回答候选所赋予的特征生成用信息,来生成所述特征的集合。
2.根据权利要求1所述的非事实型询问应答***,其中,
所述特征生成单元还包含:含义类变换单元,其用于将包含在所述句法解析单元的输出中的各名词分类成预先准备的多个单词的含义类中的任一者,并将该名词变换成对应的含义类,
所述特征集合生成单元包含:第1单元,其用于针对所述询问与各个所述回答候选的组合,基于所述句法解析单元的解析结果、由所述评价单元确定出的词组的位置及其评价类的极性、由所述含义类变换单元被进行了变换后的所述句法解析单元的输出、以及对所述回答候选所赋予的特征生成用信息,来生成所述特征的集合。
3.根据权利要求2所述的非事实型询问应答***,其中,
所述第1单元基于由所述评价单元确定出的词组的位置以及评价类的极性而生成的特征包含:表示询问中的词组的评价类的极性与回答候选中的词组的评价类的极性是否一致的信息。
4.根据权利要求2所述的非事实型询问应答***,其中,
所述第1单元所生成的特征包含:从所述句法解析单元的输出得到且未使用所述评价单元的输出或所述含义类变换单元的输出而得到的特征、对所述句法解析单元的输出组合所述评价单元的输出而得到的特征、以及对所述句法解析单元的输出组合所述含义类变换单元的输出而得到的特征。
5.根据权利要求2所述的非事实型询问应答***,其中,
所述第1单元所生成的特征包含:对所述句法解析单元的输出组合所述评价单元的输出,进而组合所述含义类变换单元的输出而得到的特征。
6.一种计算机程序,由计算机来实现接受非事实型询问的输入并生成针对该询问的回答的非事实型询问应答***,
所述计算机与用于对由处理对象的语言的文档亦即计算机可读取的文档组成的语料库进行存储的语料库存储单元相连接,
所述计算机程序使所述计算机作为如下单元发挥功能,即,
候选检索单元,其用于响应于已接受询问的输入的情况,从所述语料库存储单元之中检索并取出针对该询问的多个回答候选;
特征生成单元,其用于响应于已接受询问的输入的情况,针对该询问与存储在所述候选检索单元中的各个回答候选的组合,来生成给定的特征的集合;
得分计算单元,其预先进行了学习,使得:在被给出由所述特征生成单元生成的所述特征的集合时,针对成为生成该特征的集合的基础的询问以及回答候选的组合,来计算表示该回答候选是针对该询问的正确回答的程度的得分;以及
回答选择单元,其针对所述询问与存储在所述回答候选中的各个回答候选的组合,基于由所述得分计算单元计算出的得分,将针对所述询问为正确回答的可能性最高的回答候选作为针对所述询问的回答进行输出,
针对由所述候选检索单元检索出的各个回答候选,赋予了由所述特征生成单元生成特征所需的信息,
使所述计算机作为所述特征生成单元发挥功能的程序部分,使所述计算机作为如下单元发挥功能,即,
句法解析单元,其用于针对所述询问进行词素解析以及句法解析,并输出词素信息以及语法信息;以及
评价单元,其用于从所述询问当中确定遵照某评价基准而被分类为第1评价类的词组以及被分类为第2评价类的词组,
针对所述第1评价类以及第2评价类各自分配了彼此相反的评价的极性,
所述计算机程序还使所述计算机作为如下单元发挥功能,即,
特征集合生成单元,其用于针对所述询问与各个所述回答候选的组合,基于所述句法解析单元的解析结果、由所述评价单元确定出的词组的位置及其评价类的极性、以及对所述回答候选所赋予的特征生成用信息,来生成所述特征的集合。
CN201380010249.4A 2012-02-23 2013-01-23 非事实型询问应答***以及方法 Expired - Fee Related CN104137102B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012036972A JP5825676B2 (ja) 2012-02-23 2012-02-23 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP2012-036972 2012-02-23
PCT/JP2013/051327 WO2013125286A1 (ja) 2012-02-23 2013-01-23 ノン・ファクトイド型質問応答システム及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
CN104137102A true CN104137102A (zh) 2014-11-05
CN104137102B CN104137102B (zh) 2017-06-13

Family

ID=49005480

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380010249.4A Expired - Fee Related CN104137102B (zh) 2012-02-23 2013-01-23 非事实型询问应答***以及方法

Country Status (6)

Country Link
US (1) US9697477B2 (zh)
EP (1) EP2819031A4 (zh)
JP (1) JP5825676B2 (zh)
KR (1) KR101968102B1 (zh)
CN (1) CN104137102B (zh)
WO (1) WO2013125286A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105630917A (zh) * 2015-12-22 2016-06-01 成都小多科技有限公司 智能应答方法及装置
CN107949841A (zh) * 2015-08-31 2018-04-20 国立研究开发法人情报通信研究机构 提问应答***的训练装置以及该训练装置用的计算机程序
CN109791632A (zh) * 2016-09-26 2019-05-21 国立研究开发法人情报通信研究机构 场景片段分类器、场景分类器以及用于其的计算机程序
CN109863487A (zh) * 2016-10-07 2019-06-07 国立研究开发法人情报通信研究机构 非事实型问答***和方法及用于其的计算机程序
CN113302601A (zh) * 2019-01-08 2021-08-24 三菱电机株式会社 含义关系学习装置、含义关系学习方法及含义关系学习程序

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
JP5825676B2 (ja) * 2012-02-23 2015-12-02 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP6150282B2 (ja) * 2013-06-27 2017-06-21 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
US9471874B2 (en) 2013-12-07 2016-10-18 International Business Machines Corporation Mining forums for solutions to questions and scoring candidate answers
US9276939B2 (en) * 2013-12-17 2016-03-01 International Business Machines Corporation Managing user access to query results
KR101559376B1 (ko) 2014-02-24 2015-10-12 서울대학교산학협력단 엔트로피를 최대화하는 실시간 조합 자질 구축 방법 및 이를 수행하는 조합 자질 구축 장치
US9471601B2 (en) 2014-03-25 2016-10-18 International Business Machines Corporation Images for a question answering system
US9754207B2 (en) 2014-07-28 2017-09-05 International Business Machines Corporation Corpus quality analysis
US9886479B2 (en) 2014-07-29 2018-02-06 International Business Machines Corporation Managing credibility for a question answering system
JP6414956B2 (ja) * 2014-08-21 2018-10-31 国立研究開発法人情報通信研究機構 質問文生成装置及びコンピュータプログラム
KR101581816B1 (ko) * 2014-10-14 2016-01-05 서강대학교산학협력단 기계학습을 이용한 음성인식방법
US9946763B2 (en) * 2014-11-05 2018-04-17 International Business Machines Corporation Evaluating passages in a question answering computer system
US20160125751A1 (en) * 2014-11-05 2016-05-05 International Business Machines Corporation Answer management in a question-answering environment
KR102094934B1 (ko) * 2014-11-19 2020-03-31 한국전자통신연구원 자연어 질의 응답 시스템 및 방법
JP6087333B2 (ja) 2014-11-26 2017-03-01 株式会社ユニバーサルエンターテインメント 情報提供システム、情報提供方法、及びプログラム
JP6345577B2 (ja) 2014-11-26 2018-06-20 株式会社ユニバーサルエンターテインメント 情報提供システム、情報提供方法、プログラム、及びデータ構造
US10061842B2 (en) 2014-12-09 2018-08-28 International Business Machines Corporation Displaying answers in accordance with answer classifications
US10127284B2 (en) * 2014-12-18 2018-11-13 International Business Machines Corporation Scoring attributes in deep question answering systems based on algorithmic source code influences
US9928269B2 (en) * 2015-01-03 2018-03-27 International Business Machines Corporation Apply corrections to an ingested corpus
JP6551968B2 (ja) * 2015-03-06 2019-07-31 国立研究開発法人情報通信研究機構 含意ペア拡張装置、そのためのコンピュータプログラム、及び質問応答システム
CN104794109B (zh) * 2015-04-09 2017-06-23 山西大学 一种应用于学习机的智能解答***
US10102275B2 (en) 2015-05-27 2018-10-16 International Business Machines Corporation User interface for a query answering system
US9727552B2 (en) 2015-05-27 2017-08-08 International Business Machines Corporation Utilizing a dialectical model in a question answering system
FR3037843B1 (fr) * 2015-06-24 2018-01-05 Gaztransport Et Technigaz Procede et dispositif de decoupe de matiere isolante fibreuse ou alveolaire
US10223440B2 (en) * 2015-06-29 2019-03-05 International Business Machines Corporation Question and answer system emulating people and clusters of blended people
JP6544131B2 (ja) * 2015-08-14 2019-07-17 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
US10146858B2 (en) 2015-12-11 2018-12-04 International Business Machines Corporation Discrepancy handler for document ingestion into a corpus for a cognitive computing system
US9842161B2 (en) 2016-01-12 2017-12-12 International Business Machines Corporation Discrepancy curator for documents in a corpus of a cognitive computing system
US10176250B2 (en) 2016-01-12 2019-01-08 International Business Machines Corporation Automated curation of documents in a corpus for a cognitive computing system
US9720981B1 (en) 2016-02-25 2017-08-01 International Business Machines Corporation Multiple instance machine learning for question answering systems
JP6623852B2 (ja) * 2016-03-09 2019-12-25 富士通株式会社 検索制御プログラム、検索制御装置及び検索制御方法
US10592519B2 (en) 2016-03-29 2020-03-17 Microsoft Technology Licensing, Llc Computational-model operation using multiple subject representations
US20170293621A1 (en) * 2016-04-06 2017-10-12 International Business Machines Corporation Natural language processing based on textual polarity
US20170293620A1 (en) * 2016-04-06 2017-10-12 International Business Machines Corporation Natural language processing based on textual polarity
US10706044B2 (en) 2016-04-06 2020-07-07 International Business Machines Corporation Natural language processing based on textual polarity
CN107402912B (zh) * 2016-05-19 2019-12-31 北京京东尚科信息技术有限公司 解析语义的方法和装置
JP6721179B2 (ja) * 2016-10-05 2020-07-08 国立研究開発法人情報通信研究機構 因果関係認識装置及びそのためのコンピュータプログラム
WO2018066489A1 (ja) * 2016-10-07 2018-04-12 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム
US10699215B2 (en) * 2016-11-16 2020-06-30 International Business Machines Corporation Self-training of question answering system using question profiles
US10303763B2 (en) * 2017-01-06 2019-05-28 International Business Machines Corporation Process for identifying completion of domain adaptation dictionary activities
JP2019020893A (ja) 2017-07-13 2019-02-07 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答装置
JP6218057B1 (ja) * 2017-07-14 2017-10-25 Jeインターナショナル株式会社 自動応答サーバー装置、端末装置、応答システム、応答方法、およびプログラム
US10902738B2 (en) * 2017-08-03 2021-01-26 Microsoft Technology Licensing, Llc Neural models for key phrase detection and question generation
JP6972788B2 (ja) 2017-08-31 2021-11-24 富士通株式会社 特定プログラム、特定方法および情報処理装置
US10387572B2 (en) * 2017-09-15 2019-08-20 International Business Machines Corporation Training data update
US11409749B2 (en) * 2017-11-09 2022-08-09 Microsoft Technology Licensing, Llc Machine reading comprehension system for answering queries related to a document
KR102005525B1 (ko) * 2017-12-29 2019-07-30 (주)헤르스 딥러닝 기술을 활용한 화학물질 안전관리의 질의응답 관리시스템
US11449762B2 (en) 2018-02-20 2022-09-20 Pearson Education, Inc. Real time development of auto scoring essay models for custom created prompts
US11443140B2 (en) * 2018-02-20 2022-09-13 Pearson Education, Inc. Systems and methods for automated machine learning model training for a custom authored prompt
JP6691340B2 (ja) * 2018-03-07 2020-04-28 株式会社哲英 質問応答システム、質問受付回答システム、第1次回答システム、及びそれらを用いた質問応答方法
JP6772213B2 (ja) * 2018-04-23 2020-10-21 日本電信電話株式会社 質問応答装置、質問応答方法及びプログラム
US11106664B2 (en) * 2018-05-03 2021-08-31 Thomson Reuters Enterprise Centre Gmbh Systems and methods for generating a contextually and conversationally correct response to a query
JP7126682B2 (ja) * 2018-05-11 2022-08-29 国立研究開発法人情報通信研究機構 対話システム及びそのコンピュータプログラム
CN110489531B (zh) * 2018-05-11 2023-05-30 阿里巴巴集团控股有限公司 高频问题的确定方法和装置
JP7081671B2 (ja) 2018-08-06 2022-06-07 富士通株式会社 評価プログラム、評価方法および情報処理装置
RU2704738C1 (ru) * 2018-10-15 2019-10-30 Общество с ограниченной ответственностью "Уралинновация" Автоматизированная информационно-голосовая вопросно-ответная система
US11822588B2 (en) * 2018-10-24 2023-11-21 International Business Machines Corporation Supporting passage ranking in question answering (QA) system
CN109739956B (zh) * 2018-11-08 2020-04-10 第四范式(北京)技术有限公司 语料清洗方法、装置、设备及介质
CN111309875B (zh) * 2018-12-10 2023-08-04 百度在线网络技术(北京)有限公司 问题应答的方法、装置、设备和存储介质
CN111382573A (zh) * 2018-12-12 2020-07-07 百度在线网络技术(北京)有限公司 用于答案质量评估的方法、装置、设备和存储介质
US11093491B2 (en) 2019-01-16 2021-08-17 International Business Machines Corporation Question answering system using topic-sensitive source reliability scoring
US11262978B1 (en) * 2019-06-19 2022-03-01 Amazon Technologies, Inc. Voice-adapted reformulation of web-based answers
CN110837738B (zh) * 2019-09-24 2023-06-30 平安科技(深圳)有限公司 相似问识别方法、装置、计算机设备及存储介质
RU2722461C1 (ru) * 2019-11-19 2020-06-01 Общество с ограниченной ответственностью "Уралинновация" Голосовая роботизированная вопросно-ответная система и способ ее автоматического взаимодействия с электронным устройством пользователя
RU2724600C1 (ru) * 2019-11-19 2020-06-25 Общество с ограниченной ответственностью "Уралинновация" Голосовая роботизированная вопросно-ответная система и способ ее автоматического взаимодействия с электронным устройством пользователя
CN111339268B (zh) * 2020-02-19 2023-08-15 北京百度网讯科技有限公司 实体词识别方法和装置
US20210279605A1 (en) * 2020-03-06 2021-09-09 International Business Machines Corporation Efficiently generating accurate responses to a multi-facet question by a question answering system
US20220318230A1 (en) * 2021-04-05 2022-10-06 Vianai Systems, Inc. Text to question-answer model system
CN115455160A (zh) * 2022-09-02 2022-12-09 腾讯科技(深圳)有限公司 一种多文档阅读理解方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101377777A (zh) * 2007-09-03 2009-03-04 北京百问百答网络技术有限公司 一种自动问答方法和***
US20090070311A1 (en) * 2007-09-07 2009-03-12 At&T Corp. System and method using a discriminative learning approach for question answering
JP2009116662A (ja) * 2007-11-07 2009-05-28 National Institute Of Information & Communication Technology 質問応答装置、質問応答方法、及びプログラム
CN101872349A (zh) * 2009-04-23 2010-10-27 国际商业机器公司 处理自然语言问题的方法和装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247029A (ja) * 2000-02-02 2002-08-30 Sony Corp 認証装置、認証システムおよびその方法、処理装置、通信装置、通信制御装置、通信システムおよびその方法、情報記録方法およびその装置、情報復元方法およびその装置、その記録媒体
JP2004139553A (ja) * 2002-08-19 2004-05-13 Matsushita Electric Ind Co Ltd 文書検索システムおよび質問応答システム
JP5086799B2 (ja) 2007-12-27 2012-11-28 日本電信電話株式会社 質問応答方法、装置、プログラム並びにそのプログラムを記録した記録媒体
KR20130021944A (ko) * 2011-08-24 2013-03-06 한국전자통신연구원 서술형 질의 응답 방법 및 장치
JP5825676B2 (ja) * 2012-02-23 2015-12-02 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP5924666B2 (ja) * 2012-02-27 2016-05-25 国立研究開発法人情報通信研究機構 述語テンプレート収集装置、特定フレーズペア収集装置、及びそれらのためのコンピュータプログラム
JP6206840B2 (ja) * 2013-06-19 2017-10-04 国立研究開発法人情報通信研究機構 テキストマッチング装置、テキスト分類装置及びそれらのためのコンピュータプログラム
JP6150282B2 (ja) * 2013-06-27 2017-06-21 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP6150291B2 (ja) * 2013-10-08 2017-06-21 国立研究開発法人情報通信研究機構 矛盾表現収集装置及びそのためのコンピュータプログラム
JP5907393B2 (ja) * 2013-12-20 2016-04-26 国立研究開発法人情報通信研究機構 複雑述語テンプレート収集装置、及びそのためのコンピュータプログラム
JP5904559B2 (ja) * 2013-12-20 2016-04-13 国立研究開発法人情報通信研究機構 シナリオ生成装置、及びそのためのコンピュータプログラム
JP6403382B2 (ja) * 2013-12-20 2018-10-10 国立研究開発法人情報通信研究機構 フレーズペア収集装置、及びそのためのコンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101377777A (zh) * 2007-09-03 2009-03-04 北京百问百答网络技术有限公司 一种自动问答方法和***
US20090070311A1 (en) * 2007-09-07 2009-03-12 At&T Corp. System and method using a discriminative learning approach for question answering
JP2009116662A (ja) * 2007-11-07 2009-05-28 National Institute Of Information & Communication Technology 質問応答装置、質問応答方法、及びプログラム
CN101872349A (zh) * 2009-04-23 2010-10-27 国际商业机器公司 处理自然语言问题的方法和装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107949841A (zh) * 2015-08-31 2018-04-20 国立研究开发法人情报通信研究机构 提问应答***的训练装置以及该训练装置用的计算机程序
CN107949841B (zh) * 2015-08-31 2022-03-18 国立研究开发法人情报通信研究机构 提问应答***的训练装置以及存储介质
CN105630917A (zh) * 2015-12-22 2016-06-01 成都小多科技有限公司 智能应答方法及装置
CN109791632A (zh) * 2016-09-26 2019-05-21 国立研究开发法人情报通信研究机构 场景片段分类器、场景分类器以及用于其的计算机程序
CN109791632B (zh) * 2016-09-26 2023-07-21 国立研究开发法人情报通信研究机构 场景片段分类器、场景分类器以及记录介质
CN109863487A (zh) * 2016-10-07 2019-06-07 国立研究开发法人情报通信研究机构 非事实型问答***和方法及用于其的计算机程序
CN109863487B (zh) * 2016-10-07 2023-07-28 国立研究开发法人情报通信研究机构 非事实型问答***和方法及存储介质
CN113302601A (zh) * 2019-01-08 2021-08-24 三菱电机株式会社 含义关系学习装置、含义关系学习方法及含义关系学习程序

Also Published As

Publication number Publication date
EP2819031A1 (en) 2014-12-31
KR101968102B1 (ko) 2019-04-11
EP2819031A4 (en) 2016-05-18
CN104137102B (zh) 2017-06-13
WO2013125286A1 (ja) 2013-08-29
US9697477B2 (en) 2017-07-04
US20150026106A1 (en) 2015-01-22
JP5825676B2 (ja) 2015-12-02
JP2013171550A (ja) 2013-09-02
KR20140128346A (ko) 2014-11-05

Similar Documents

Publication Publication Date Title
CN104137102A (zh) 非事实型询问应答***以及计算机程序
CN110765244B (zh) 获取应答话术的方法、装置、计算机设备及存储介质
Sharma et al. Prediction of Indian election using sentiment analysis on Hindi Twitter
KR20160026892A (ko) 논팩토이드형 질의 응답 시스템 및 방법
CN104471568A (zh) 对自然语言问题的基于学习的处理
JP2006244262A (ja) 質問回答検索システム、方法およびプログラム
Etaiwi et al. Statistical Arabic name entity recognition approaches: A survey
Dethlefs et al. Cluster-based prediction of user ratings for stylistic surface realisation
Abdullah et al. Multilingual Sentiment Analysis: A Systematic Literature Review.
Haque et al. Opinion mining from bangla and phonetic bangla reviews using vectorization methods
Sardinha An assessment of metaphor retrieval methods
Hayes et al. Toward improved artificial intelligence in requirements engineering: metadata for tracing datasets
Ellouze et al. Automatic profile recognition of authors on social media based on hybrid approach
Solovyev et al. Sentiment in academic texts
Ruposh et al. A computational approach of recognizing emotion from Bengali texts
Purevdagva et al. A machine-learning based framework for detection of fake political speech
KR102240910B1 (ko) 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템
JP6942759B2 (ja) 情報処理装置、プログラム及び情報処理方法
Gwad et al. Twitter sentiment analysis classification in the Arabic language using long short-term memory neural networks
Zhu et al. YUN111@ Dravidian-CodeMix-FIRE2020: Sentiment Analysis of Dravidian Code Mixed Text.
Bouarara Sentiment analysis using machine learning algorithms and text mining to detect symptoms of mental difficulties over social media
Gosavi Transformer based Detection of Sarcasm and it’s Sentiment in Textual Data
Zajíc et al. First insight into the processing of the language consulting center data
Bilal A linguistic system for predicting sentiment in arabic tweets
Manea et al. UniRetro at PoliticEs@ IberLef 2022: Political Ideology Profiling using Language Models.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170613

Termination date: 20220123

CF01 Termination of patent right due to non-payment of annual fee