JP6721179B2 - 因果関係認識装置及びそのためのコンピュータプログラム - Google Patents

因果関係認識装置及びそのためのコンピュータプログラム Download PDF

Info

Publication number
JP6721179B2
JP6721179B2 JP2016197306A JP2016197306A JP6721179B2 JP 6721179 B2 JP6721179 B2 JP 6721179B2 JP 2016197306 A JP2016197306 A JP 2016197306A JP 2016197306 A JP2016197306 A JP 2016197306A JP 6721179 B2 JP6721179 B2 JP 6721179B2
Authority
JP
Japan
Prior art keywords
word
phrase
causal relationship
vector
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016197306A
Other languages
English (en)
Other versions
JP2018060364A (ja
Inventor
カナサイ クルンカライ
カナサイ クルンカライ
力 橋本
力 橋本
健太郎 鳥澤
健太郎 鳥澤
ジュリアン クロエツェー
ジュリアン クロエツェー
鍾勲 呉
鍾勲 呉
正弘 田仲
正弘 田仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2016197306A priority Critical patent/JP6721179B2/ja
Priority to KR1020197008805A priority patent/KR102431549B1/ko
Priority to US16/336,676 priority patent/US11256658B2/en
Priority to CN201780061597.2A priority patent/CN109791569B/zh
Priority to PCT/JP2017/035148 priority patent/WO2018066445A1/ja
Publication of JP2018060364A publication Critical patent/JP2018060364A/ja
Application granted granted Critical
Publication of JP6721179B2 publication Critical patent/JP6721179B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

この発明は、自然言語文中に存在する表現から因果関係を抽出するための装置に関し、特に、自然言語で記載された文中に明示的な手掛かり語なしに表現されている因果関係を認識し抽出するための技術に関する。
Web等にあるテキストに書かれた出来事間の因果関係の自動認識は、適切な意思決定のため、将来シナリオを自動生成したりするために重要な技術である。しかし、因果関係の記述が多岐に亘るため、高精度の認識は難しかった。例えば、「地震が起き、津波が来た」という文は明らかに「地震が起きる」という原因と「津波が来た」という結果からなる因果関係を表現していると考えられる。しかし、この文には、因果関係を表すとされる接続詞「ため」「から」等の明示的な手がかり語がない。従来技術は、因果関係に関する手掛かり語に基づいて因果関係を認識しているため、手掛かり語がない因果関係を認識することが難しい。こうした文からも高い精度で因果関係を抽出することが、より幅広い因果関係に関する知識を集積し、文書理解、なぜ型質問応答、将来シナリオの生成等において重要である。
この分野の従来技術としては、手掛かり語だけではなく、なんらかの言語表現のパターンを使って因果関係の原因と結果を表すフレーズの対を認識する技術、あるいは、パターンではなくて言語表現を手がかりとする機械学習による原因、結果のフレーズ対の自動認識技術等がある。
Chikara Hashimoto, Kentaro Torisawa, Julien Kloetzer, Motoki Sano, Istvan Varga, Jong-Hoon Oh, and Yutaka Kidawara. 2014. Toward future scenario generation: Extracting event causality exploiting semantic relation, context, and association features. In Proceedings of ACL, pages 987-997. Jong-Hoon Oh, Kentaro Torisawa, Chikara Hashimoto, Motoki Sano, Stijn De Saeger, and Kiyonori Ohtake. 2013. Why-question answering using intra- and inter- sentential causal relations. In Proceedings of ACL, pages 1733-1743.
しかし、因果関係認識に関する従来の手法は、依然として精度が低く、応用範囲も限定されているという問題がある。なぜなら、因果関係は様々な形で表現され、多くの場合には因果関係を示す手掛かり語なしに表現されていることがあり、また因果関係を表現するパターンも非常にたくさんあり得るためである。
例えば以下の2つの文について考える。
1.地球温暖化が進んだために台風が強力になった。
2.地球温暖化が進み、台風が強力になった。
第1文は「ために」という語を含む。この語は、「台風が強力になった」という結果と、「地球温暖化が進んだ」という原因との間の因果関係を明示している。これに対して、第2文にはそのような手掛かり語が存在しない。にもかかわらず、多くの人々はこの文が第1文と同じ因果関係を表現していると理解するであろう。これが可能なのは、人々が「台風」と「地球温暖化」とに関する背景知識を持っているためである。因果関係が多くの場合手掛かり語なしで表現されているために、上記した第2文のような因果関係を高精度で認識できるようにする必要がある。
それゆえに本発明の目的は、自然言語文から、因果関係を示す手掛かり語があるか否かにかかわらず、高精度で因果関係表現を認識できる因果関係認識装置を提供することである。
本発明の第1の局面に係る因果関係認識装置は、テキスト中に見いだされる第1のフレーズ及び第2のフレーズにより表される因果関係を自動認識する。第1のフレーズは因果関係の原因部の候補であり、第2のフレーズは因果関係の結果部の候補である。第1のフレーズ及び第2のフレーズは、いずれも名詞句と述部との組合せを含む。因果関係認識装置は、第1及び第2のフレーズからなる因果関係候補を受けて、当該因果関係候補を構成する単語列をそれぞれ表す第1の単語ベクトルの組を生成する第1のベクトル生成手段と、テキスト中において第1及び第2のフレーズが出現する文脈を構成する単語列をそれぞれ表す第2の単語ベクトルを生成する第2のベクトル生成手段と、第1のフレーズに含まれる名詞句と、第2のフレーズに含まれる名詞句との間の因果関係の有無を判定するための背景知識を表す単語ベクトルを生成するための関連パッセージベクトル生成手段と、第1及び第2の単語ベクトル、並びに関連パッセージベクトル生成手段により生成された単語ベクトルを受けて、それら単語ベクトルの元になった因果関係候補が因果関係である指標を出力するように予め学習済の分類手段とを含む。背景知識ベクトル生成手段は、大量の文書から、第1のフレーズに含まれる名詞句と、第2のフレーズに含まれる名詞句と、それら名詞句を結ぶ述部とを含むパターンを収集し、当該パターンの単語列を表す第3の単語ベクトルを生成する第3のベクトル生成手段と、因果関係候補からなぜ型質問を生成して、なぜ型質問応答装置から当該なぜ型質問に対する回答の集合を受け、当該回答の集合に含まれる回答のうちで、第1のフレーズに含まれる名詞句及び第2のフレーズに含まれる名詞句をいずれも含む回答から、第1のフレーズに含まれる名詞句及び第2のフレーズに含まれる名詞句を少なくとも含む単語列を表す第4の単語ベクトルを生成する第4のベクトル生成手段と、大量の文書に存在する、連続する所定個数の文の組であって、第1のフレーズに含まれる名詞句及び第2のフレーズに含まれる名詞句と、因果関係に関連する手掛かり語とが共起している文の組から、第1及び第2のフレーズに含まれる名詞句と、当該文の組内において両者の依存関係を表す単語と、当該文の組に含まれる手掛かり語とを連結した単語列を表す第5の単語ベクトルを生成する第5のベクトル生成手段との、少なくとも1つを含む任意の組合せを含む。
好ましくは、分類手段は、複数のカラムを持ち、第1及び第2の単語ベクトル、並びに背景知識ベクトル生成手段により出力される単語ベクトルをそれぞれ別々のカラムのサブネットワークに受けて、それら単語ベクトルの元になった因果関係候補が因果関係候補である指標を出力するように予め学習済のマルチカラムニューラルネットワークを含む。
より好ましくは、第3のベクトル生成手段は、大量の文書から、第1のフレーズに含まれる名詞句と、第2のフレーズに含まれる名詞句と、それら名詞句を結ぶ述部とを含むパターンからなるバイナリパターンを収集するバイナリパターン収集手段と、バイナリパターン収集手段により収集されたバイナリパターンの出現頻度を算出する頻度算出手段と、バイナリパターン収集手段により収集されたバイナリパターンのうち、頻度算出手段により算出された頻度が上位の所定個数のバイナリパターンを構成する単語列を表す単語ベクトルを生成し、第3の単語ベクトルとして出力する手段とを含む。
さらに好ましくは、第4のベクトル生成手段は、第2のフレーズになぜ型質問を表す疑問詞を付してなぜ型質問を生成し、なぜ型質問応答装置に与えることにより、当該なぜ型質問応答装置から回答の集合を取得する回答取得手段と、回答取得手段が取得した回答の集合から第1のフレーズに含まれる名詞句及び第2のフレーズに含まれる名詞句をいずれも含む所定個数の回答を抽出する抽出手段と、抽出手段により抽出された回答の各々の依存関係を解析して依存構造を生成する依存関係解析手段と、抽出手段により抽出された回答の各々について、依存関係解析手段により生成された依存構造の、第1及び第2のフレーズに含まれる名詞句と所定の関係にある位置に存在する単語とを含む単語列を表す単語ベクトルを生成し、第4の単語ベクトルとして出力する手段とを含む。
第5の単語ベクトル生成手段は、大量の文書から、連続する所定個数の文からなるパッセージであって、第1のフレーズに含まれる名詞句及び第2のフレーズに含まれる名詞句と、因果関係に関連する手掛かり語とが共起しているパッセージを検索する検索手段と、検索手段により検索されたパッセージの依存関係を解析し依存構造を生成する依存解析手段と、依存解析手段により生成された依存構造において、第1及び第2のフレーズに含まれる名詞句の間のパスに存在する単語と、当該パッセージに含まれる手掛かり語とを連結して単語列から第5の単語ベクトルを生成する手段とを含む。
本発明の第2の局面に係るコンピュータプログラムは、上記したいずれかの因果関係認識装置としてコンピュータを機能させる。
本発明の1実施の形態に係る因果関係認識装置のブロック図である。 図1に示す文脈ベクトル生成部のブロック図である。 図1に示すバイナリパターンベクトル生成部のブロック図である。 図1に示す回答ベクトル生成部のブロック図である。 図1に示す関連パッセージベクトル生成部のブロック図である。 図1に示すニューラルネットワークの構成を示す概略図である。 図6に示すニューラルネットワークの1カラムの構成を示す概略図である。 因果関係を構成するパターンを抽出する処理の概略を示す模式図である。 実験結果を示すグラフである。 本発明の実施の形態の因果関係認識装置を実現するハードウェアとしてのコンピュータシステムの外観図である。 図10に外観を示すコンピュータシステムのハードウェア構成を示すブロック図である。
以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。
以下の実施の形態では、文中に因果関係を示す手掛かり語があるか否かにかかわらず、自然言語文から因果関係を示す表現を認識し抽出する因果関係認識装置の構成及び動作を説明する。本実施の形態では、ウェブアーカイブ中のウェブ文書に記載されている大量の背景知識をニューラルネットワーク(畳み込みニューラルネットワーク及びLSTM:Long Short Term Memory)で処理することにより、こうした因果関係の認識を行う。すなわち、因果関係候補が与えられると、このニューラルネットワークは、因果関係候補と何らかの関係を持つような文をウェブ文書から検索して抽出し、それら文により表現される背景知識を用いて、因果関係候補が正しい因果関係か否かを判定する。ウェブ文書は以下に説明するようなある特定の基準にしたがって検索を行う。
以下の実施の形態では、「地球温暖化が進む」→「台風が強力になる」というような、前者のように原因部を表す表現と、後者のように結果部を表す表現の組み合わせを対象とする。原因部及び結果部は、いずれも名詞句と述部(動詞)の組み合わせからなる。
本発明の実施の形態の説明に先立ち、非特許文献1に記載された技術について説明する。非特許文献1は、因果関係の認識に、ウェブアーカイブから抽出した背景知識を用いている。非特許文献1に記載された技術では、名詞句A及びBを「AがBを引き起こす」、「AがBを防ぐ」のような形式で記述したパターン(「バイナリパターン」という。)の集合を用い、大量のウェブ文書中に、因果関係候補内の名詞句をA及びBに代入したバイナリパターンがあるか否かを分類器の素性に組み込むことによって因果関係認識の分類器の性能を改善した。
例えば、「タバコを吸う」→「肺がんで死ぬ」という因果関係候補が正しいか否かを判定する場合、非特許文献1では「タバコ」と「肺がん」という名詞句の組み合わせがウェブアーカイブ中のいずれかのバイナリパターンを充足するか否かを調べ、もしそのようなパターンがあれば、分類器(非特許文献1ではSVM)に入力する素性にそうしたパターンを組み込んだ。なお、非特許文献1では、因果関係パターンだけではなく、材料関係(「AはBから作られる」)、使用関係(「AはBのために用いられる」)等から成るバイナリパターンも使用されている。非特許文献1によれば、こうしたものも使用することにより、因果関係認識の精度が向上したということである。これはおそらく、因果関係判定の精度を改善する上で、非常に幅広い範囲の情報が手掛かりとして利用可能であることを示す。
本実施の形態では、幅広い範囲の情報を用いて因果関係の判定を行うために、後述するようなマルチカラム畳み込みニューラルネットワーク(Multicolumn Convolution Neural Network: MCNN)を用いる。MCNNを用いることにより、後述するように因果関係に関連する幅広い背景知識を因果関係の認識に用いることができる。
本実施の形態における因果関係の認識には、後述するようになぜ型質問応答装置からの回答を用いるが、それ以外に以下のように、いずれも因果関係候補内の2つの名詞句を使用する2種類の情報もMCNNに対する入力として用いる。すなわち、
A)非特許文献1で使用されたものよりも幅広いバイナリパターン。非特許文献1では、パターンに意味的制約を加えていたが、本実施の形態ではそのような制約を課すことなく、検索されたバイナリパターンは全て使用する。
B)ウェブアーカイブ中の文書中の1又は連続する2つの文であって、因果関係に関する「理由」、「なぜなら」のような手掛かり語と、因果関係候補に含まれる2つの名詞句とがその範囲で共起しているような文の組(「関連パッセージ」という。)。以下の実施の形態では、このパッセージの抽出には単純な単語マッチングを使用しているだけであって、複雑な検索処理をしているわけではない。上記した2つの名詞句と手掛かり句とを含む、1又は連続する2文を検索するだけである。もちろん、文の数は2に限定されず、3以上でもよいが、計算量からいって上限は2文又は3文程度が適切である。ただし、コンピュータの性能によりこの上限が変化し得るものであることはいうまでもない。
なぜ型質問応答システムの回答には、何ら有用な情報を含んでいないものも多く含まれる可能性がある。それ以上、上記Bに挙げたような情報は、有用な情報を含んでいない可能性が高い。単に単語マッチングにより検索しただけだからである。この情報を採用したのは、単純な処理で少ない計算量でこれら情報を得ることができるためである。また、なぜ型質問応答システム及び上記Bに挙げた情報は、バイナリパターンと比較してより複雑であり、分類器に与える情報としては不適当である。したがって、本実施の形態では、これら表現をよりコンパクトに、かつ背景知識を有効に表現するような表現手法を採用した。
また、以下の実施の形態はいずれも日本語に関連するものだが、他の言語に対してもそれほど大きな労力なく適用できるものと考える。
[実施の形態]
以下に述べる実施の形態に係る装置の入力は、「タバコを吸う」→「肺がんで死ぬ」のような因果関係候補である。以下に述べる実施の形態の装置は、こうした因果関係候補の入力を受けて、この表現が正しい因果関係を表しているか否かを判定するものである。原因候補Aと結果候補Bとからなる因果関係候補が正しいか否かの基本的な判定基準は、もしもイベントAが発生したときに、イベントBが発生する可能性が増加するという関係にあり、かつそのときに限り、その因果関係候補を正しいとする、というものである。実際の判定では、これに加えて、因果関係候補が出現する文脈を考慮することなく、因果関係候補のみからこうした判断ができることも必要である。
因果関係候補は、上記したように原因候補と結果候補とからなる。原因候補も結果候補も、述部と、その述部の引数としての名詞句との組み合わせを含む。すなわち、「タバコを吸う」であれば引数Xを持つ述部である「Xを吸う」と、Xに入る「タバコ」という名詞句との組み合わせであり、「肺がんで死ぬ」であれば「Xで死ぬ」という述部とXに入る「肺がん」という名詞句との組み合わせである。以下、引数Xを持つ述部(「Xを吸う」「Xで死ぬ」等)をテンプレートと呼ぶ。原因部は、元の文書で何らかの形で、たとえば「そして」とか「ので」のような接続詞を介して、結果部と依存関係にあることも必要である。このテンプレートは、非特許文献1に記載されたものと同じフォーマットのものを用いることができる。このフォーマットは、因果関係のエッセンスのみを含み、しかもアプリケーションに用いることが容易なためである。
<構成>
〔因果関係認識装置〕
図1に、本発明の1実施の形態に係る因果関係認識装置30の概略ブロック図を示す。図1を参照して、因果関係認識装置30は、因果関係候補32を受けて、因果関係候補32に含まれる単語を表す単語列から単語埋め込みベクトルを生成し、候補ベクトルとして出力する候補ベクトル生成部50と、因果関係候補32と、因果関係候補32が出現した文内の文脈34を受け、因果関係候補32が出現する文脈を表す単語埋め込みベクトルを生成して文脈ベクトルとして出力する文脈ベクトル生成部52とを含む。
因果関係認識装置30はさらに、大量のウェブ文書を格納した、コンピュータ読取り可能なウェブアーカイブ38に接続され、因果関係候補32を受けて、因果関係候補32の原因部に含まれる名詞句と、結果部に含まれる名詞句と、それら名詞句を結ぶ述部とを含むバイナリパターンを収集し、当該バイナリパターンの単語列を表す単語埋め込みベクトルを生成するバイナリパターンベクトル生成部54と、外部の質問応答システム36に接続され、因果関係候補32からなぜ型質問を自動的に生成して質問応答システム36に与えることにより、回答の集合を受け、回答の中で因果関係候補32の原因部に含まれる名詞句と結果部に含まれる名詞句とをいずれも含む回答から、少なくともそれら名詞句と、もしあれば因果関係に関係する手掛かり句とを含む単語列を表す単語埋め込みベクトルを生成し出力する回答ベクトル生成部56と、ウェブアーカイブ38に接続され、因果関係候補32を受けて、ウェブアーカイブ38に含まれる文書の中で、1つの文又は連続する2つの文であって、因果関係候補32の原因部の名詞句と結果部の名詞句とが共起している文の組から成るパッセージを抽出し、それら文の内で依存構造の上でそれら名詞句を結ぶパス上の単語、及び当該文の組内に因果関係を示す手掛かり語がもしあれば、その手掛かり語をも含む単語列を表す単語埋め込みベクトルを生成し、広くこの因果関係候補に関連すると思われる背景知識を表す関連パッセージベクトルとして出力する関連パッセージベクトル生成部58とを含む。
因果関係認識装置30はさらに、8つのカラムを持ち、第1カラムに候補ベクトル生成部50からの候補ベクトル、第2〜第5カラムの4カラムに文脈ベクトル生成部52からの4つの文脈ベクトル、第6カラムにバイナリパターンベクトル生成部54からのバイナリパターンベクトル、第7カラムに回答ベクトル生成部56からの回答ベクトル、及び第8カラムに関連パッセージベクトル生成部58からの関連パッセージベクトルを受け、因果関係候補32が因果関係である確率の指標であるスコアを出力するように予め機械学習により学習したマルチカラム畳み込みニューラルネットワーク(MCNN)60と、MCNN60の出力するスコアをしきい値と比較することにより、因果関係候補32が正しい因果関係を表すか否かを判定しその結果40を出力する判定部64と、判定部64が判定に使用するしきい値を予め記憶するしきい値記憶部62とを含む。
なお、本実施の形態に係る因果関係認識装置30は、候補ベクトル生成部50及び文脈ベクトル生成部52に加え、バイナリパターンベクトル生成部54、回答ベクトル生成部56及び関連パッセージベクトル生成部58を含む。しかし本発明はそのような実施の形態には限定されない。後述する実験結果から、バイナリパターンベクトル生成部54、回答ベクトル生成部56及び関連パッセージベクトル生成部58はいずれも単独でも従来技術よりも因果関係の認識精度を高めるものであることがわかった。したがって因果関係認識装置30は、バイナリパターンベクトル生成部54、回答ベクトル生成部56、及び関連パッセージベクトル生成部58のうち少なくとも1つを含む任意の組み合わせを含んでいればよい。
〈文脈ベクトル生成部52〉
図2を参照して、文脈ベクトル生成部52は因果関係候補32を受けて記憶する候補記憶部80と、候補記憶部80に記憶された因果関係候補に含まれる単語(名詞句とテンプレートを構成する述部)を分離して出力する単語分離部82と、因果関係候補32が取り出された元文書において、因果関係候補32とその周辺に存在する単語列からなる文脈34を受けて、文脈34に含まれる各文の形態素解析をする形態素解析部84と、形態素解析部84が出力する形態素列に対して依存関係解析をし、依存構造を出力する依存関係解析部86とを含む。
文脈ベクトル生成部52はさらに、依存関係解析部86が出力する依存構造を参照して、文脈中において単語分離部82が出力する、原因部の名詞句と述部との間に存在する単語列からなる第1の文脈ベクトルを生成し出力する第1の文脈ベクトル生成部88と、結果部の名詞句と述部との間に存在する単語列からなる第2の文脈ベクトルを生成し出力する第2の文脈ベクトル生成部90と、原因部の名詞句と結果部の述部との間の単語列からなる第3の文脈ベクトルを生成し出力する第3の文脈ベクトル生成部92と、結果部の後に出現する全ての単語からなる第4の文脈ベクトルを生成し出力する第4の文脈ベクトル生成部94とを含む。第1の文脈ベクトルはMCNN60の第2カラムに、第2の文脈ベクトルは第3カラムに、第3の文脈ベクトルは第4カラムに、第4の文脈ベクトルは第5カラムに、それぞれ入力される。
〈バイナリパターンベクトル生成部54〉
図3を参照して、本実施の形態では、背景知識の1つとして、ウェブアーカイブ38から抽出されたバイナリパターンを用いる。非特許文献1では、因果関係認識のために、「AがBを引き起こす」、「AがBを防ぐ」等、何らかの形で因果関係を表すと思われるものとして予め検討した結果選択された395,578個のバイナリパターンの集合を用いている。ここでいうパターンとは、依存構造上で2つの名詞句(変数A又はBに置き換えられている。)を接続するパスのことである。非特許文献1では、6億のウェブ文書のうちで、10回以上同じパターンで出現した名詞句のペアのみを用いている。この条件により、長く、かつまれにしか出現しないバイナリパターンが除かれ、比較的短いパターンのみが残る。本実施の形態でも、非特許文献1と同様の手法で検索されるバイナリパターンを用いる。ただし本実施の形態では、非特許文献1が用いたような制限はなく、因果関係候補の原因部及び結果部からそれぞれ抽出した2つの名詞句が変数A及びBに現れるようなパターンであれば全て用いている。2つの名詞句が与えられると、検索されたパターンの数は1から数百となる。本実施の形態では、これらの中から因果関係候補の名詞句のペアと共起する頻度が最大の15個のバイナリパターンを選択し、それらをデリミタ「|」を挟んで連結することによりできた単語列を出力する。ここでバイナリパターンの数として選択した「15」は、事前に200までの数の範囲で行った実験の結果、15個以上では性能に変化が認められないため、学習に係る計算量の節約の観点から選択した数字である。
図3を参照して、バイナリパターンベクトル生成部54は、因果関係候補32を受けて記憶する因果関係候補記憶部110と、予め作成されたバイナリパターンを多数記憶したバイナリパターン辞書128と、ウェブアーカイブ38において、因果関係候補記憶部110の原因部及び結果部から取り出された名詞句のペアがバイナリパターン辞書128に記憶されたバイナリパターンと共起している可能性がある単語列を含む候補文を検索する候補文検索部112と、候補文検索部112により検索された文の各々の形態素解析を行って形態素列を出力する形態素解析部114と、形態素解析部114が出力する形態素列に対する依存関係解析を行って依存構造を出力する依存関係解析部116と、依存関係解析部116により出力された依存構造上において、因果関係候補記憶部110から出力された名詞句のペアとバイナリパターン辞書128に記憶されているバイナリパターンとが共起している単語列があればそれを特定し、該当するバイナリパターンを出力するバイナリパターン検索部118とを含む。
バイナリパターンベクトル生成部54はさらに、バイナリパターン検索部118が出力したバイナリパターンをバイナリパターン別にカウントし、その値を記憶するバイナリパターンカウント記憶部120と、ウェブアーカイブ38からのバイナリパターンの検出が全て終了した後、バイナリパターンカウント記憶部120に記憶されているカウントの降順にバイナリパターンをソートしバイナリパターンのリストを出力するバイナリパターンソート部122と、バイナリパターンソート部122から出力されたバイナリパターンのリストのうち、カウントが上位15位までであるバイナリパターンを選択し出力するバイナリパターン選択部124と、バイナリパターン選択部124により選択されたバイナリパターンを、デリミタである「|」により互いに連結して単語埋め込みベクトルとして出力するバイナリパターン連結部126とを含む。バイナリパターン連結部126の出力する単語埋め込みベクトルは、MCNN60の第6カラムに入力される。
〈回答ベクトル生成部56〉
本実施の形態では、背景知識源の1つとしてなぜ型質問応答システムの出力を使用する。より具体的には、非特許文献2に記載されたなぜ型質問応答システムを用いる。この質問応答システムは、与えられたなぜ型質問に対する回答として、ウェブアーカイブから7つの連続した文を1つの回答として出力する。
図4を参照して、回答ベクトル生成部56は、因果関係候補32を受けて記憶する候補記憶部150と、候補記憶部150の結果部の先頭に「なぜ」のような疑問詞を付ける等して質問文を自動的に作成する質問文作成部152と、質問文作成部152より作成された質問文を質問応答システム36に与えることにより、質問応答システム36から所定個数の回答とそれらのスコアの集合を取得する回答取得部154とを含む。本実施の形態で使用した質問応答システム36は、1つの回答が、ウェブアーカイブから抽出された7つの連続した文を含み、教師あり学習により学習した分類器によりスコアが付されている。このランクの上位の回答には、質問に対する正しい回答が含まれている可能性が高い。回答取得部154は、質問応答システム36の回答のうち、上位のスコアを持つ200個の回答を取得し、さらに候補記憶部150に記憶された因果関係候補の原因部及び結果部からそれぞれ抽出された2つの名詞句を含むもののみを出力する。
回答ベクトル生成部56はさらに、回答取得部154が出力する回答の集合をそれらのスコアとともに記憶する回答・スコア記憶部156と、回答・スコア記憶部156に含まれる各回答について、それらの各文を形態素解析する形態素解析部158と、形態素解析部158が出力する形態素列に対して依存関係解析を行い、依存構造を出力する依存関係解析部160と、因果関係に関する手掛かり語を記憶した手掛かり語辞書162と、手掛かり語辞書162を参照して、依存関係解析部160により出力される依存構造上のパスにおいて、因果関係候補の原因部及び結果部から抽出された2つの名詞句の各々と依存構造のルートとの間の単語列を、出現順序を保存して連結し、もしも因果関係に関する手掛かり語が他に存在していれば、その出現位置にかかわらずその手掛かり語を連結したパターンを生成して出力するパターン生成部164とを含む。
例えば「なぜ(人は)肺がんで死ぬのですか?」という質問に対して回答の1つが「多くの人がタバコをやめられず、その結果、彼らは肺がんで苦しむ。」という文を含み、そこから「Aをやめられず、その結果、Bで苦しむ」というパターンが得られるものとする。この場合、Aは原因部からの名詞句、Bは結果部からの名詞句に対応する変数である。「その結果」は手掛かり語である。
なお、2つの名詞句が連続する文にまたがって存在している場合には、第1文の依存構造のルートから第2文の依存構造のルートへの仮想リンクを追加して、あたかも1文であるかのようにして上記パターンを生成する。この様子を図8に示す。
図8は因果関係を構成するパターンを抽出する処理の概略を示しており、因果関係候補から抽出された第1の名詞句「タバコ」が第1文460に存在し、第2の名詞句「肺がん」が第2文462に存在するものとする。この場合には、第1文460のルートと、第2文462との間に、仮想リンク464を追加し、第1文460及び第2文462があたかも1文であるかのようにしてパターン抽出466をし、「Aは有害だ Bを引き起こす」というパターン468を抽出する。
図4に戻って、回答ベクトル生成部56はさらに、パターン生成部164により生成されたパターンと各パターンが得られた回答に質問応答システム36により付されていた元スコアとを互いに関連付けて記憶するパターン・元スコア記憶部166と、質問応答システム36からの回答に対するパターン生成部164によるパターン生成の処理が全て完了した後、パターン・元スコア記憶部166に記憶されているパターンをそのスコアの降順にソートしリストとして出力するパターンソート部168と、パターンソート部168により出力されたリストの、上位15個を選択するパターン選択部170と、パターン選択部170により選択されたパターンをデリミタを介して連結し単語埋め込みベクトルとして出力するパターン連結部172とを含む。回答は、因果関係候補の結果部の理由を様々な観点で説明するものであるため、回答のいくつかは因果関係候補の原因部の名詞句を含まない場合があり得る。パターン連結部172の出力は、MCNN60の第7カラムに入力される。
〈関連パッセージベクトル生成部58〉
背景知識源の他の一つとして、本実施の形態では、大量のウェブ文書を記憶したウェブアーカイブから、因果関係候補の原因部と結果部とから取り出した名詞句のペアと、因果関係に関する「なぜなら」のような手掛かり語とを含む文を取出して利用する。取り出す文は1又は2個の連続した関連パッセージで、上記した名詞句のペアといずれかの手掛かり語とを含むものである。取り出されたパッセージから、回答ベクトル生成部56が行うのと同じ手法によりパターンを生成する。ウェブアーカイブ38の全体を処理したときのそれらパターンの出現頻度を計算し、回答ベクトル生成部56と同様、出現頻度が上位15位までのパターンを因果関係候補の判定に用いる。出現頻度が同じパターンがある場合には、より短い方を選択する。これらパターンは回答ベクトル生成部56によるものと同様、デリミタを介して互いに連結され、単語埋め込みベクトルとしてMCNN60に与えられる。
図5を参照して、上記した処理を行う関連パッセージベクトル生成部58は、因果関係候補32を受けて記憶する候補記憶部200と、候補記憶部200の原因部及び結果部からそれぞれ名詞句を抽出する単語抽出部202と、手掛かり語を記憶した手掛かり語辞書204と、ウェブアーカイブ38から、単語抽出部202が抽出した名詞句のペアと、手掛かり語辞書204に記憶された手掛かり語のいずれかとが共起している1又は2個の連続した文の組(関連パッセージ)を取得する関連パッセージ取得部206と、関連パッセージ取得部206により取得された関連パッセージを記憶する関連パッセージ記憶部208とを含む。
関連パッセージベクトル生成部58はさらに、関連パッセージ記憶部208に記憶された各関連パッセージに含まれる文について、形態素解析を行う形態素解析部210と、形態素解析部210が出力する形態素列に対して依存関係解析を行い、依存構造を出力する依存関係解析部212と、図4に示すパターン生成部164と同様の手法によりパターンを生成し出力するパターン生成部214と、パターン生成部214により生成されたパターンを、それらの頻度とともに記憶するパターン・頻度記憶部216と、ウェブアーカイブ38に対するパターン生成部214の処理が全て完了した後、パターン・頻度記憶部216に記憶されているパターンをそれらの頻度の降順でソートしリストとして出力するパターンソート部218と、パターンソート部218の出力するパターンのリストから、出現頻度が上位の15個のパターンを選択するパターン選択部220と、パターン選択部220が出力する15個のパターンを、間にデリミタをはさみながら連結して単語埋め込みベクトルとして出力するパターン連結部222とを含む。パターン連結部222の出力する単語埋め込みベクトルは、MCNN60の第8カラムに入力される。
〈マルチカラム畳み込みニューラルネットワーク60〉
図6を参照して、本実施の形態では、MCNN60は、第1〜第8の畳み込みニューラルネットワーク360〜374からなるニューラルネットワーク層340と、ニューラルネットワーク層340内の各ニューラルネットワークの出力を線形に連結する連結層342と、連結層342の出力するベクトルに対してSoftmax関数を適用して、因果関係候補が正しいか否かを0〜1の間のスコアで評価し出力するSoftmax層344とを含む。
第1カラムの畳み込みニューラルネットワーク360は、図1に示す候補ベクトル生成部50が生成する候補ベクトルを受ける。第2〜第5カラムの畳み込みニューラルネットワーク362、364、366、及び368は、図1及び図2に示す文脈ベクトル生成部52が出力する第1から第4の文脈ベクトルを受ける。第6カラムの畳み込みニューラルネットワーク370は、図1及び図3に示すバイナリパターンベクトル生成部54の出力するバイナリパターンベクトルを受ける。第7カラムの畳み込みニューラルネットワーク372は、図1及び図4に示す回答ベクトル生成部56の出力する回答ベクトルを受ける。第8カラムの畳み込みニューラルネットワーク374は、図1及び図5に示す関連パッセージベクトル生成部58の出力する関連パッセージベクトルを受ける。
ニューラルネットワーク層340の各畳み込みニューラルネットワークの出力は連結層342で単純に線形に連結され、Softmax層344への入力ベクトルとなる。
MCNN60についてその機能をより詳細に説明する。図7に、代表として1つの畳み込みニューラルネットワーク390を示す。ここでは、説明を分かりやすくするために、畳み込みニューラルネットワーク390が、入力層400、畳み込み層402、及びプーリング層404のみからなっているものとするが、この3つの層を複数備えているものでもよい。
入力層400には、単語ベクトル列X、X、…、X|t|が入力される。この単語ベクトル列X、X、…、X|t|は、行列T=[X、X、…、X|t|として表される。この行列Tに対して、M個の素性マップが適用される。素性マップはベクトルであって、各素性マップの要素であるベクトルOは連続する単語ベクトルからなるNグラムに対してfj(1≦j≦M)で示されるフィルタを適用しながらNグラム410を移動させることにより計算される。Oは次の式により表される。なお、このフィルタ数M及びNグラムのNはいずれもMCNN60のハイパーパラメータの一つである。
Figure 0006721179
なお、素性マップの全体にわたりNを等しくしてもよいし、異なるものがあってもよい。Nは任意の自然数だが、{2,…,6}の範囲から選択することが望ましい。本実施の形態では、Nグラムについては連続する複数の値を組み合わせて用いている。本実施の形態では、重み行列は全ての畳み込みニューラルネットワークにおいて等しくしてある。これらは互いに異なっていても良いが、実際、互いに等しくした方が、各重み行列を独立に学習する場合より精度が高くなる。
この素性マップの各々について、プーリング層404は、いわゆるマックスプーリングを行う。すなわち、プーリング層404は、例えば素性マップfの要素のうち、最大の要素420を選択し、要素430として取出す。これを素性マップの各々に対して行うことによって、要素432、…、430を取出し、これらをfからfの順番に連結して連結層342にベクトル442として出力する。各畳み込みニューラルネットワークからはこのようにして得られたベクトル440、…、442、…、444が連結層342に出力される。連結層342は、ベクトル440、…、442、…、444を単純に線形に連結してSoftmax層344に与える。なお、プーリング層404としてはマックスプーリングを行うものの方が平均値を採用するものよりも精度が高いと言われている。しかし、もちろん平均値を採用するようにしてもよいし、下位の層の性質をよく表現するものであれば、他の代表値を用いるようにしてもよい。
<動作>
上記実施の形態に係る因果関係認識装置30は以下のように動作する。
図1を参照して、因果関係認識装置30の候補ベクトル生成部50は、因果関係候補32を受けて、因果関係候補32に含まれる単語を表す単語列から単語埋め込みベクトルを生成し、候補ベクトルを出力する。この候補ベクトルは、図6に示す第1カラムの畳み込みニューラルネットワーク360に入力される。
文脈ベクトル生成部52は、因果関係候補32と、因果関係候補32が出現した文内の文脈34を受け、因果関係候補32が出現する文脈を表す単語埋め込みベクトルを生成して文脈ベクトルとして出力する。
より具体的には、図2を参照して、文脈ベクトル生成部52の候補記憶部80は、因果関係候補32を受けて記憶する。単語分離部82は、候補記憶部80に記憶された因果関係候補に含まれる単語(名詞句とテンプレートを構成する述部)を分離して出力する。形態素解析部84は、因果関係候補32が取り出された元文書において、因果関係候補32とその周辺に存在する単語列からなる文脈34を受けて、文脈34に含まれる各文の形態素解析をし、形態素列を出力する。依存関係解析部86は、形態素解析部84が出力する形態素列に対して依存関係解析をし、依存構造を出力する。
第1の文脈ベクトル生成部88は、依存関係解析部86が出力する依存構造を参照して、文脈中において単語分離部82が出力する、原因部の名詞句と述部との間に存在する単語列からなる第1の文脈ベクトルを生成し出力する。第2の文脈ベクトル生成部90は、結果部の名詞句と述部との間に存在する単語列からなる第2の文脈ベクトルを生成し出力する。第3の文脈ベクトル生成部92は、原因部の名詞句と結果部の述部との間の単語列からなる第3の文脈ベクトルを生成し出力する。第4の文脈ベクトル生成部94は、結果部の後に出現する全ての単語からなる第4の文脈ベクトルを生成し出力する。第1の文脈ベクトルはMCNN60の第2カラムの畳み込みニューラルネットワーク362に、第2の文脈ベクトルは第3カラムの畳み込みニューラルネットワーク364に、第3の文脈ベクトルは第4カラムの畳み込みニューラルネットワーク366に、第4の文脈ベクトルは第5カラムの畳み込みニューラルネットワーク368に、それぞれ入力される。
図3を参照して、バイナリパターンベクトル生成部54は、因果関係候補32の原因部に含まれる名詞句と、結果部に含まれる名詞句と、それら名詞句を結ぶ述部とを含むバイナリパターンを収集し、当該バイナリパターンの単語列を表す単語埋め込みベクトルを生成する。
より具体的には、バイナリパターンベクトル生成部54の因果関係候補記憶部110は、因果関係候補32を受けて記憶する。バイナリパターン辞書128は、予め作成されたバイナリパターンを多数記憶している。候補文検索部112は、ウェブアーカイブ38において、因果関係候補記憶部110の原因部及び結果部から取り出された名詞句のペアがバイナリパターン辞書128に記憶されたバイナリパターンと共起している可能性がある単語列を含む候補文を検索する。形態素解析部114は、候補文検索部112により検索された文の各々の形態素解析を行って形態素列を出力する。依存関係解析部116は、形態素解析部114が出力する形態素列に対する依存関係解析を行って依存構造を出力する。バイナリパターン検索部118は、依存関係解析部116により出力された依存構造上において、因果関係候補記憶部110から出力された名詞句のペアとバイナリパターン辞書128に記憶されているバイナリパターンとが共起している単語列があればそれを特定し、該当するバイナリパターンを出力する。
バイナリパターンカウント記憶部120は、バイナリパターン検索部118が出力したバイナリパターンをバイナリパターン別にカウントし、その値を記憶する。バイナリパターンソート部122は、ウェブアーカイブ38からのバイナリパターンの検出が全て終了した後、バイナリパターンカウント記憶部120に記憶されているカウントの降順にバイナリパターンをソートしバイナリパターンのリストを出力する。バイナリパターン選択部124は、バイナリパターンソート部122から出力されたバイナリパターンのリストのうち、カウントが上位15位までであるバイナリパターンを選択し出力する。バイナリパターン連結部126は、バイナリパターン選択部124により選択されたバイナリパターンを、デリミタである「|」により互いに連結して単語埋め込みベクトルとして出力する。バイナリパターン連結部126の出力する単語埋め込みベクトルは、MCNN60の第6カラムの畳み込みニューラルネットワーク370に入力される。
図4を参照して、回答ベクトル生成部56の候補記憶部150は、因果関係候補32を受けて記憶する。質問文作成部152は、候補記憶部150の結果部の先頭に「なぜ」のような疑問詞を付ける等して質問文を自動的に作成する。回答取得部154は、質問文作成部152より作成された質問文を質問応答システム36に与えることにより、質問応答システム36から所定個数の回答とそれらのスコアの集合を取得する。1つの回答は、ウェブアーカイブから抽出された7つの連続した文を含み、各回答にはスコアが付されている。回答取得部154は、質問応答システム36の回答のうち、上位のスコアを持つ200個の回答を取得し、さらに候補記憶部150に記憶された因果関係候補の原因部及び結果部からそれぞれ抽出された2つの名詞句を含むもののみを出力する。
回答・スコア記憶部156は、回答取得部154が出力する回答の集合をそれらのスコアとともに記憶する。形態素解析部158は、回答・スコア記憶部156に含まれる各回答について、それらの各文を形態素解析する。依存関係解析部160は、形態素解析部158が出力する形態素列に対して依存関係解析を行い、依存構造を出力する。パターン生成部164は、手掛かり語辞書162を参照して、依存関係解析部160により出力される依存構造上のパスにおいて、因果関係候補の原因部及び結果部から抽出された2つの名詞句の各々と依存構造のルートとの間の単語列を、出現順序を保存して連結しパターンを生成する。パターン生成部164はこの際、もしも因果関係に関する手掛かり語が他に存在していれば、その出現位置にかかわらずその手掛かり語をもこのパターンに連結する。
パターン・元スコア記憶部166は、パターン生成部164により生成されたパターンと各パターンが得られた回答に質問応答システム36により付されていた元スコアとを互いに関連付けて記憶する。パターンソート部168は、質問応答システム36からの回答に対するパターン生成部164によるパターン生成の処理が全て完了した後、パターン・元スコア記憶部166に記憶されているパターンをそのスコアの降順にソートしリストとして出力する。パターン選択部170は、パターンソート部168により出力されたリストの、上位15個を選択する。パターン連結部172は、パターン選択部170により選択されたパターンをデリミタを介して連結し単語埋め込みベクトルとして出力する。パターン連結部172の出力は、MCNN60の第7カラムの畳み込みニューラルネットワーク372に入力される。
図5を参照して、関連パッセージベクトル生成部58の候補記憶部200は、因果関係候補32を受けて記憶する。単語抽出部202は、候補記憶部200の原因部及び結果部からそれぞれ名詞句を抽出する。関連パッセージ取得部206は、ウェブアーカイブ38から、単語抽出部202が抽出した名詞句のペアと、手掛かり語辞書204に記憶された手掛かり語のいずれかとが共起している1又は2個の連続した文の組(関連パッセージ)を取得する。関連パッセージ記憶部208は、関連パッセージ取得部206と、関連パッセージ取得部206により取得された関連パッセージを記憶する。
形態素解析部210は、関連パッセージ記憶部208に記憶された各関連パッセージに含まれる文について、形態素解析を行い形態素列を出力する。依存関係解析部212は、形態素解析部210が出力する形態素列に対して依存関係解析を行い、依存構造を出力する。パターン生成部214は、図4に示すパターン生成部164と同様の手法によりパターンを生成し出力する。パターン・頻度記憶部216は、パターン生成部214により生成されたパターンを、それらの頻度とともに記憶する。ウェブアーカイブ38に対するパターン生成部214の処理が全て完了した後、パターンソート部218が、パターン・頻度記憶部216に記憶されているパターンをそれらの頻度の降順でソートしリストとして出力する。パターン選択部220は、パターンソート部218の出力するパターンのリストから、出現頻度が上位の15個のパターンを選択する。パターン連結部222は、パターン選択部220が出力する15個のパターンを、間にデリミタをはさみながら連結して単語埋め込みベクトルとして出力する。パターン連結部222の出力する単語埋め込みベクトルは、MCNN60の第8カラムの畳み込みニューラルネットワーク374に入力される。
図6を参照して、MCNN60の第1カラムの畳み込みニューラルネットワーク360は、図1に示す候補ベクトル生成部50が生成する候補ベクトルを受ける。第2〜第5カラムの畳み込みニューラルネットワーク362、364、366、及び368は、図1及び図2に示す文脈ベクトル生成部52が出力する第1から第4の文脈ベクトルを受ける。第6カラムの畳み込みニューラルネットワーク370は、図1及び図3に示すバイナリパターンベクトル生成部54の出力するバイナリパターンベクトルを受ける。第7カラムの畳み込みニューラルネットワーク372は、図1及び図4に示す回答ベクトル生成部56の出力する回答ベクトルを受ける。第8カラムの畳み込みニューラルネットワーク374は、図1及び図5に示す関連パッセージベクトル生成部58の出力する関連パッセージベクトルを受ける。これら畳み込みニューラルネットワークは、いずれも予め学習したパラメータにしたがって内部計算を行い、結果を出力する。各畳み込みニューラルネットワークの出力は連結層342で単純に線形に連結され、Softmax層344への入力ベクトルとなる。
Softmax層344は、入力ベクトルにSoftmax関数を適用することにより、因果関係候補が因果関係として適切である確率を表すスコアを算出し、出力する。
図1に示す判定部64は、このスコアとしきい値記憶部62に記憶されたしきい値とを比較し、スコアがしきい値以上であれば因果関係候補32が因果関係として適切であることを示す値を出力する。それ以外の場合には判定部64は、因果関係候補32が因果関係として適切でないことを示す値を出力する。
〔実験〕
本実験では、非特許文献1において、6億ウェブ文書から抽出した2,451,254個の因果関係候補の一部をデータセットとして利用した。3人のアノテータがこれらデータに対して因果関係として適切か否かを判定してアノテートした。この場合の因果関係の定義としては、もしもイベントAが発生したときに必ずイベントBの発生確率が増加するときに限り、しかも文脈を考慮せず、その因果関係候補のみでこの基準にしたがって判定できるときに限り、その因果関係が適切であると判定するようにした。最終的な決定は多数決により、Fleiss' kappaは0.67であり、判定はほぼ一致していた。
表1に、学習データ、開発データ、及びテストデータに関する統計を示す。開発データ及びテストデータは抽出された全因果関係候補からランダムにサンプリングして選択したが、学習データについてはそのようなことはしなかった。3つのデータセットの間で共通する因果関係候補は存在しなかった。
Figure 0006721179
MCNN60については、300次元の単語埋め込みベクトルで、スキップグラム及びネガティブサンプリングアルゴリズムを用いて、非特許文献1において因果関係候補が抽出された日本語の元データ(2.4M文、0.6M語)により事前学習を行った。スキップ間隔は5に設定し、負例の数を10に設定した。これら文内での出現回数が5回に満たない単語はいずれも削除し、未知語として扱い、ランダムベクトルを割り当てた。また、パターン中の変数についても未知語として扱い、ランダムベクトルを割り当てた。
全実験において、MCNN60の最終層において0.5のドロップアウトを適用し、100個のデータを用いたミニバッチで、学習率減衰=0.95としてSGD(Stochastic Gradient Descent:確率的勾配降下法)により学習を行った。全ての学習データを用いて5エポックの学習を行った。
ハイパーパラメータについては、開発データを用いて以下のような設定について検討した。Nグラムの組み合わせについては、{2,3,4,5,6}の中から3つ、4つ、及び5つを選択して組み合わせた。例えばある設定は、(2,3,4)×200と書くことができる。2グラム、3グラム及び4グラムの組み合わせで各々200個のフィルタを用いたということを意味する。Nグラムの組み合わせについては連続するNについてだけ選択した。例えば2、3、4という組み合わせは調べたが、2、4、6という組み合わせについては採用しなかった。フィルタ数は50、100、及び200の中から選択した。ハイパーパラメータの設定の組み合わせ数は18通りとなり、これらの全てについて検討した。
評価基準としては、非特許文献1にしたがい、平均適合率(Average Precision: AP)を採用した。開発データにより得られた、APがトップの2つのハイパーパラメータ設定を用いて、各ハイパーパラメータ設定につき5つのモデルの学習を行い、2×5のモデルに対するAPを以って最終の適合率を計算した。表2に、最もよいハイパーパラメータ設定と開発データによるハイパーパラメータのチューニング時のAPを示す。
Figure 0006721179
この表で、Baseは上記実施の形態と同様の考え方で因果関係候補の原因部及び結果部並びに元の文の文脈のみを用いた場合である。表2で使用されている略号及びその意味は以下のとおりである。BPはバイナリパターンを使用したもの、WHはなぜ型質問応答システムの回答を用いたもの、CLは手掛かり語を持つ文の組。最も高い性能を示したのは、Base+BP+WH (2,3,4,5,6)×200であった。
Figure 0006721179
表3は、テストデータに対する実験結果を示す。比較のため、本願発明によるものに加え、他の従来技術によるものも示した。非特許文献1はSVMを用いているが、その全ての素性を用いて開発データによりSVMをファインチューニングし、これに上記実施の形態で使用したBP、WH及びCLを組み合わせてテストした。非特許文献1に対する実験では、上記実施の形態のようにバイナリパターンを15個のみを用いるのではなく、全てのバイナリパターンを用いている。
表3において「CNN-SENT」は、上記実施の形態と同様の構成で、MCNN60に代えて単一カラムの畳み込みニューラルネットワーク(CNN)を用いたものを示す。ただしこの場合、因果関係を含む元の文をスキャンする点が異なる。ハイパーパラメータについては最適化し、既に述べた方法と同様の手法によりモデルのAPを算出した。
表3から明らかなとおり、本願発明に係る手法により、他の方式と比較してよいAPが得られた。本願発明に係る手法で最も高いAP(54.85%)は、Base+BP+WHの組み合わせで得られ、これは非特許文献1の方法の最良の値(47.52%)より7%高い。また、単一カラムのCNNを用いた場合と比較して、MCNN60を用いたことにより、APに5.6%の改善が見られた(CNN-SENT vs. Base)。バイナリパターンとなぜ型質問応答システムの回答から得られた背景知識を組み込むことにより、APに5%の改善が得られた(Base vs. Base+BP+WH)。
図9に、この実験の一部の設定についてのPR(Precision-Recall)曲線を示す。図9にに示すグラフにおいて、横軸は再現率、縦軸は適合率を示す。再現率とは、スコア上位の所定個数中に存在している正しい因果関係の数の、対象データ中に存在する正しい因果関係全体の数に対する割合を示し、適合率とは、スコア上位の所定個数に対する、その中の正しい候補の割合を示す。PR曲線は、スコア上位から選ぶ個数を順次変化させたときの再現率と適合率との関係をプロットしたものである。PR曲線のグラフが上にあるほど望ましい結果ということができる。
図9を参照して、本願発明によるベストの結果(Base+BP+WH)を示すグラフ480は、他の全てのPR曲線よりかなり上に位置している。また、本願発明で背景知識を用いないもの(Base)のグラフ482も、従来の手法の非特許文献1+BP+WHによるグラフ484、非特許文献1によるグラフ484、及びCNN-SENTによるグラフ488より上に位置していることから、本願発明の有効性が確認できた。
表2からはまた、本願発明にしたがったいずれの手法も、従来技術を上回るAPを示していることが分かる。すなわち、上記した実施の形態で説明した背景知識源のいずれも、本願発明ではAPの向上に有効である。また、これら背景知識源を組み合わせると、CL(手掛かり語による関連パッセージ)を除き、単独の場合よりもAPがさらに向上していることも分かる。CLの場合には、簡略な処理で背景知識を取出しているために、背景知識としてはノイジーであることが原因と思われる。しかしCL単独でも従来技術と比較してAPが向上している。したがって、本願発明では、上記した背景知識源の任意の組み合わせを適用できる。
なお、上記実施の形態では、MCNN60を用いている。しかし、本発明はMCNNによってのみ可能となるわけではない。MCNNに代えて、マルチカラムのLSTM(Long Short Term Memory)を用いても良い。
[コンピュータによる実現]
本発明の上記実施の形態に係る対話システム、因果関係認識装置30及びその各機能部は、コンピュータハードウェアと、そのコンピュータハードウェア上で実行されるコンピュータプログラムとにより実現できる。図10はこのコンピュータシステム630の外観を示し、図11はコンピュータシステム630の内部構成を示す。
図10を参照して、このコンピュータシステム630は、メモリポート652及びDVD(Digital Versatile Disc)ドライブ650を有するコンピュータ640と、キーボード646と、マウス648と、モニタ642とを含む。
図11を参照して、コンピュータ640は、メモリポート652及びDVDドライブ650に加えてCPU(中央処理装置)656を含み、さらに、CPU656とメモリポート652と及びDVDドライブ650とに接続されたバス666と、ブートプログラム等を記憶する読出専用メモリ(ROM)658と、バス666に接続され、プログラム命令、システムプログラム及び作業データ等を記憶するランダムアクセスメモリ(RAM)660と、ハードディスク654を含む。コンピュータシステム630はさらに、他端末との通信を可能とするネットワーク668への接続を提供するネットワークインターフェイス644を含む。
コンピュータシステム630を上記した実施の形態に係る対話システムの各機能部として機能させるためのコンピュータプログラムは、DVDドライブ650又はメモリポート652に装着されるDVD662又はリムーバブルメモリ664に記憶され、さらにハードディスク654に転送される。又は、プログラムはネットワーク668を通じてコンピュータ640に送信されハードディスク654に記憶されてもよい。プログラムは実行の際にRAM660にロードされる。DVD662から、リムーバブルメモリ664から又はネットワーク668を介して、直接にRAM660にプログラムをロードしてもよい。
このプログラムは、コンピュータ640を、上記実施の形態に係る因果関係認識装置30及びその各機能部として機能させるための複数の命令からなる命令列を含む。コンピュータ640にこの動作を行わせるのに必要な基本的機能のいくつかはコンピュータ640上で動作するオペレーティングシステム若しくはサードパーティのプログラム又はコンピュータ640にインストールされる、ダイナミックリンク可能な各種プログラミングツールキット又はプログラムライブラリにより提供される。したがって、このプログラム自体はこの実施の形態のシステム、装置及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット又はプログラムライブラリ内の適切なプログラムを実行時に動的に呼出すことにより、上記したシステム、装置又は方法としての機能を実現する命令のみを含んでいればよい。もちろん、プログラムのみで必要な機能を全て提供してもよい。
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
30 因果関係認識装置
32 因果関係候補
36 質問応答システム
38 ウェブアーカイブ
50 候補ベクトル生成部
52 文脈ベクトル生成部
54 バイナリパターンベクトル生成部
56 回答ベクトル生成部
58 関連パッセージベクトル生成部
60 マルチカラム畳み込みニューラルネットワーク(MCNN)
62 しきい値記憶部
64 判定部
80、150、200 候補記憶部
82 単語分離部
84、114、158、210 形態素解析部
86、116、160、212 依存関係解析部
88〜94 第1〜第4の文脈ベクトル生成部
110 因果関係候補記憶部
112 候補文検索部
118 バイナリパターン検索部
120 バイナリパターンカウント記憶部
122 バイナリパターンソート部
124 バイナリパターン選択部
126 バイナリパターン連結部
128 バイナリパターン辞書
152 質問文作成部
154 回答取得部
156 回答・スコア記憶部
162、204 手掛かり語辞書
164、214 パターン生成部
166 パターン・元スコア記憶部
168、218 パターンソート部
170、220 パターン選択部
172、222 パターン連結部
202 単語抽出部
206 関連パッセージ取得部
208 関連パッセージ記憶部
216 パターン・頻度記憶部
344 Softmax層
360〜374 第1〜第8カラムの畳み込みニューラルネットワーク

Claims (6)

  1. テキスト中に見いだされる第1のフレーズ及び第2のフレーズにより表される因果関係を自動認識する因果関係認識装置であって、
    前記第1のフレーズは前記因果関係の原因部の候補であり、前記第2のフレーズは前記因果関係の結果部の候補であり、
    前記第1のフレーズ及び前記第2のフレーズは、いずれも名詞句と述部との組合せを含み、
    前記因果関係認識装置は、
    前記第1及び第2のフレーズからなる因果関係候補を受けて、当該因果関係候補を構成する単語列をそれぞれ表す第1の単語ベクトルの組を生成する第1のベクトル生成手段と、
    前記テキスト中において前記第1及び第2のフレーズが出現する文脈を構成する単語列をそれぞれ表す第2の単語ベクトルを生成する第2のベクトル生成手段と、
    前記第1のフレーズに含まれる名詞句と、前記第2のフレーズに含まれる名詞句との間の因果関係の有無を判定するための背景知識を表す単語ベクトルを生成するための背景知識ベクトル生成手段と、
    前記第1及び第2の単語ベクトル、並びに前記背景知識ベクトル生成手段により生成された単語ベクトルを受けて、それら単語ベクトルの元になった前記因果関係候補が因果関係である指標を出力するように予め学習済の分類手段とを含み、
    前記背景知識ベクトル生成手段は、
    大量の文書から、前記第1のフレーズに含まれる名詞句と、前記第2のフレーズに含まれる名詞句と、それら名詞句を結ぶ述部とを含むパターンを収集し、当該パターンの単語列を表す第3の単語ベクトルを生成する第3のベクトル生成手段と、
    前記因果関係候補からなぜ型質問を生成して、なぜ型質問応答装置から当該なぜ型質問に対する回答の集合を受け、当該回答の集合に含まれる回答のうちで、前記第1のフレーズに含まれる名詞句及び前記第2のフレーズに含まれる名詞句をいずれも含む回答から、前記第1のフレーズに含まれる名詞句及び第2のフレーズに含まれる名詞句を少なくとも含む単語列を表す第4の単語ベクトルを生成する第4のベクトル生成手段と、
    大量の文書に存在する、連続する所定個数の文の組であって、前記第1のフレーズに含まれる名詞句及び前記第2のフレーズに含まれる名詞句と、因果関係に関連する手掛かり語とが共起しているパッセージから、前記第1及び第2のフレーズに含まれる名詞句と、当該文の組内において両者の依存関係を表す単語と、当該文の組に含まれる前記手掛かり語とを連結した単語列を表す第5の単語ベクトルを生成する第5のベクトル生成手段との、少なくとも1つを含む任意の組合せを含む、因果関係認識装置。
  2. 前記分類手段は、複数のカラムを持ち、前記第1及び第2の単語ベクトル、並びに前記背景知識ベクトル生成手段により出力される単語ベクトルをそれぞれ別々のカラムのサブネットワークに受けて、それら単語ベクトルの元になった前記因果関係候補が因果関係候補である指標を出力するように予め学習済のマルチカラムニューラルネットワークを含む、請求項1に記載の因果関係認識装置。
  3. 前記第3のベクトル生成手段は、前記大量の文書から、前記第1のフレーズに含まれる名詞句と、前記第2のフレーズに含まれる名詞句と、それら名詞句を結ぶ述部とを含むパターンからなるバイナリパターンを収集するバイナリパターン収集手段と、
    前記バイナリパターン収集手段により収集されたバイナリパターンの出現頻度を算出する頻度算出手段と、
    前記バイナリパターン収集手段により収集されたバイナリパターンのうち、前記頻度算出手段により算出された頻度が上位の所定個数のバイナリパターンを構成する単語列を表す単語ベクトルを生成し、前記第3の単語ベクトルとして出力する手段とを含む、請求項1又は請求項2に記載の因果関係認識装置。
  4. 前記第4のベクトル生成手段は、
    前記第2のフレーズになぜ型質問を表す疑問詞を付してなぜ型質問を生成し、前記なぜ型質問応答装置に与えることにより、当該なぜ型質問応答装置から回答の集合を取得する回答取得手段と、
    前記回答取得手段が取得した前記回答の集合から前記第1のフレーズに含まれる名詞句及び前記第2のフレーズに含まれる名詞句をいずれも含む所定個数の回答を抽出する抽出手段と、
    前記抽出手段により抽出された回答の各々の依存関係を解析して依存構造を生成する依存関係解析手段と、
    前記抽出手段により抽出された回答の各々について、前記依存関係解析手段により生成された前記依存構造上の、前記第1及び第2のフレーズに含まれる名詞句と所定の関係にある位置に存在する単語とを含む単語列を表す単語ベクトルを生成し、前記第4のベクトルとして出力する手段とを含む、請求項1〜請求項3の何れかに記載の因果関係認識装置。
  5. 前記第5の単語ベクトル生成手段は、大量の文書から、連続する所定個数の文からなるパッセージであって、前記第1のフレーズに含まれる名詞句及び前記第2のフレーズに含まれる名詞句と、因果関係に関連する手掛かり語とが共起しているパッセージを検索する検索手段と、
    前記検索手段により検索されたパッセージの依存関係を解析し依存構造を生成する依存解析手段と、
    前記依存解析手段により生成された依存構造において、前記第1及び第2のフレーズに含まれる名詞句の間のパスに存在する単語と、当該パッセージに含まれる前記手掛かり語とを連結して単語列から第5の単語ベクトルを生成する手段とを含む、請求項1〜請求項4の何れかに記載の因果関係認識装置。
  6. 請求項1〜請求項5の何れかに記載の因果関係認識装置としてコンピュータを機能させる、コンピュータプログラム。
JP2016197306A 2016-10-05 2016-10-05 因果関係認識装置及びそのためのコンピュータプログラム Active JP6721179B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016197306A JP6721179B2 (ja) 2016-10-05 2016-10-05 因果関係認識装置及びそのためのコンピュータプログラム
KR1020197008805A KR102431549B1 (ko) 2016-10-05 2017-09-28 인과 관계 인식 장치 및 그것을 위한 컴퓨터 프로그램
US16/336,676 US11256658B2 (en) 2016-10-05 2017-09-28 Causality recognizing apparatus and computer program therefor
CN201780061597.2A CN109791569B (zh) 2016-10-05 2017-09-28 因果关系识别装置及存储介质
PCT/JP2017/035148 WO2018066445A1 (ja) 2016-10-05 2017-09-28 因果関係認識装置及びそのためのコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016197306A JP6721179B2 (ja) 2016-10-05 2016-10-05 因果関係認識装置及びそのためのコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2018060364A JP2018060364A (ja) 2018-04-12
JP6721179B2 true JP6721179B2 (ja) 2020-07-08

Family

ID=61831465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016197306A Active JP6721179B2 (ja) 2016-10-05 2016-10-05 因果関係認識装置及びそのためのコンピュータプログラム

Country Status (5)

Country Link
US (1) US11256658B2 (ja)
JP (1) JP6721179B2 (ja)
KR (1) KR102431549B1 (ja)
CN (1) CN109791569B (ja)
WO (1) WO2018066445A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6622172B2 (ja) * 2016-11-17 2019-12-18 株式会社東芝 情報抽出支援装置、情報抽出支援方法およびプログラム
WO2019092867A1 (ja) * 2017-11-10 2019-05-16 日本電気株式会社 情報処理装置、情報処理方法及びコンピュータ読み取り可能な記録媒体
JP6603828B1 (ja) * 2018-03-02 2019-11-06 日本電信電話株式会社 フレーズ生成モデル学習装置、フレーズ生成装置、方法、及びプログラム
JP7139626B2 (ja) * 2018-03-02 2022-09-21 日本電信電話株式会社 フレーズ生成関係性推定モデル学習装置、フレーズ生成装置、方法、及びプログラム
JP6775545B2 (ja) * 2018-05-09 2020-10-28 日本電信電話株式会社 対話データ生成装置、対話データ生成方法、およびプログラム
CN110851573A (zh) * 2018-07-27 2020-02-28 北京京东尚科信息技术有限公司 语句处理方法、***和电子设备
CN111104477B (zh) * 2018-10-29 2023-04-14 阿里巴巴集团控股有限公司 事件确认方法、装置及电子设备
KR102259703B1 (ko) * 2018-12-27 2021-06-02 (주)아크릴 자연어 문장에 대한 의미 요소 관계 시각화 방법 및 이를 이용한 장치
US11397776B2 (en) 2019-01-31 2022-07-26 At&T Intellectual Property I, L.P. Systems and methods for automated information retrieval
KR102203895B1 (ko) * 2019-02-20 2021-01-15 성균관대학교산학협력단 임베딩 기반의 인과 관계 탐지 시스템과 방법 및 이를 실행하기 위한 프로그램이 기록된 기록매체
WO2020243965A1 (en) * 2019-06-06 2020-12-10 Nec Corporation Causal analysis
JP6875457B2 (ja) * 2019-06-18 2021-05-26 ヤフー株式会社 取得装置、取得方法、および取得プログラム
KR102259390B1 (ko) * 2019-09-09 2021-06-02 주식회사 솔트룩스 앙상블 질의 응답을 위한 시스템 및 방법
US11797594B2 (en) * 2019-12-09 2023-10-24 Verint Americas Inc. Systems and methods for generating labeled short text sequences
US20240202495A1 (en) * 2020-03-06 2024-06-20 Nippon Telegraph And Telephone Corporation Learning apparatus, information processing apparatus, learning method, information processing method and program
CN111401033B (zh) * 2020-03-19 2023-07-25 北京百度网讯科技有限公司 事件抽取方法、事件抽取装置和电子设备
CN111488740B (zh) * 2020-03-27 2023-12-22 北京百度网讯科技有限公司 一种因果关系的判别方法、装置、电子设备及存储介质
KR20220066634A (ko) 2020-11-16 2022-05-24 한국전자통신연구원 다변량 간 직접 인과 네트워크 생성 방법 및 시스템
KR102535613B1 (ko) 2021-02-15 2023-05-23 한국전자통신연구원 다변량 세트에서의 매개 변량 및 매개 영향도 추출 방법 및 시스템
CN113779190B (zh) * 2021-07-20 2023-08-18 中国科学院自动化研究所 事件因果关系识别方法、装置、电子设备与存储介质
CN113761107B (zh) * 2021-09-18 2024-06-07 杭州网易智企科技有限公司 基于问答***的信息处理方法、介质、装置和计算设备
KR102426508B1 (ko) 2021-12-21 2022-07-29 주식회사 스탠다임 문서 데이터로부터 질병과 유전자 간의 연관성을 예측하고 논거 문장을 출력하는 모델의 구축 방법 및 이를 이용한 시스템
CN115577678B (zh) * 2022-09-21 2024-04-02 中国人民解放军海军工程大学 文档级事件因果关系识别方法、***、介质、设备及终端
CN117271755B (zh) * 2023-11-21 2024-03-08 青岛海尔乐信云科技有限公司 基于人工智能的客诉闭环规则引擎管理控制方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7251781B2 (en) * 2001-07-31 2007-07-31 Invention Machine Corporation Computer based summarization of natural language documents
JP2007219947A (ja) * 2006-02-17 2007-08-30 Nippon Hoso Kyokai <Nhk> 因果関係知識抽出装置及びプログラム
CN101097573B (zh) * 2006-06-28 2010-06-09 腾讯科技(深圳)有限公司 一种自动问答***及方法
JP5086799B2 (ja) * 2007-12-27 2012-11-28 日本電信電話株式会社 質問応答方法、装置、プログラム並びにそのプログラムを記録した記録媒体
WO2010105216A2 (en) * 2009-03-13 2010-09-16 Invention Machine Corporation System and method for automatic semantic labeling of natural language texts
JP5382651B2 (ja) * 2009-09-09 2014-01-08 独立行政法人情報通信研究機構 単語対取得装置、単語対取得方法、およびプログラム
SG188994A1 (en) * 2011-10-20 2013-05-31 Nec Corp Textual entailment recognition apparatus, textual entailment recognition method, and computer-readable recording medium
JP5825676B2 (ja) * 2012-02-23 2015-12-02 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP5924666B2 (ja) 2012-02-27 2016-05-25 国立研究開発法人情報通信研究機構 述語テンプレート収集装置、特定フレーズペア収集装置、及びそれらのためのコンピュータプログラム
WO2014017023A1 (ja) * 2012-07-26 2014-01-30 日本電気株式会社 原因表現抽出装置、原因表現抽出方法および原因表現抽出プログラム
JP6150282B2 (ja) * 2013-06-27 2017-06-21 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP5907393B2 (ja) * 2013-12-20 2016-04-26 国立研究開発法人情報通信研究機構 複雑述語テンプレート収集装置、及びそのためのコンピュータプログラム
JP6403382B2 (ja) * 2013-12-20 2018-10-10 国立研究開発法人情報通信研究機構 フレーズペア収集装置、及びそのためのコンピュータプログラム
JP5904559B2 (ja) * 2013-12-20 2016-04-13 国立研究開発法人情報通信研究機構 シナリオ生成装置、及びそのためのコンピュータプログラム
CN105512209B (zh) * 2015-11-28 2018-06-19 大连理工大学 一种基于特征自动学习的生物医学事件触发词识别方法
JP6767042B2 (ja) * 2016-09-26 2020-10-14 国立研究開発法人情報通信研究機構 シナリオパッセージ分類器、シナリオ分類器、及びそのためのコンピュータプログラム

Also Published As

Publication number Publication date
KR102431549B1 (ko) 2022-08-11
KR20190062413A (ko) 2019-06-05
US11256658B2 (en) 2022-02-22
US20210286948A1 (en) 2021-09-16
CN109791569B (zh) 2023-07-04
JP2018060364A (ja) 2018-04-12
CN109791569A (zh) 2019-05-21
WO2018066445A1 (ja) 2018-04-12

Similar Documents

Publication Publication Date Title
JP6721179B2 (ja) 因果関係認識装置及びそのためのコンピュータプログラム
CN110874531B (zh) 一种话题分析方法、装置和存储介质
US20240028837A1 (en) Device and method for machine reading comprehension question and answer
CN107122340B (zh) 一种基于同义词分析的科技项目申报书的相似度检测方法
Singh et al. Bilingual automatic text summarization using unsupervised deep learning
CN110472203B (zh) 一种文章的查重检测方法、装置、设备及存储介质
CN116701431A (zh) 一种基于大语言模型的数据检索方法及***
KR102217248B1 (ko) 텍스트 문서 요약을 위한 자질 추출 및 학습 방법
Megala et al. Enriching text summarization using fuzzy logic
JP2011118689A (ja) 検索方法及びシステム
Thakur et al. A review on text based emotion recognition system
JP2006065387A (ja) テキスト文検索装置、テキスト文検索方法、及びテキスト文検索プログラム
Mohamed A first dataset for film age appropriateness investigation
Regina et al. Clickbait headline detection using supervised learning method
US20110106849A1 (en) New case generation device, new case generation method, and new case generation program
JP2017068742A (ja) 関連文書検索装置、モデル作成装置、これらの方法及びプログラム
CN115840815A (zh) 基于指针关键信息的自动摘要生成方法
JP5184195B2 (ja) 言語処理装置およびプログラム
JP2008197952A (ja) テキストセグメンテーション方法,その装置,そのプログラムおよびコンピュータ読み取り可能な記録媒体
Song et al. A hybrid model for monolingual and multilingual toxic comment detection
Bel Handling of Missing Values in Lexical Acquisition.
Xu Research on Automatic Recognition of New Words on Weibo
CN111737422B (zh) 实体链接方法、装置、电子设备和存储介质
CN108197154B (zh) 交互式文档探索的在线子集主题建模方法
Rogozin et al. Vectorization of documents and analysis of their identity using a neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200611

R150 Certificate of patent or registration of utility model

Ref document number: 6721179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250