JP7342971B2 - 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム - Google Patents

対話処理装置、学習装置、対話処理方法、学習方法及びプログラム Download PDF

Info

Publication number
JP7342971B2
JP7342971B2 JP2021563529A JP2021563529A JP7342971B2 JP 7342971 B2 JP7342971 B2 JP 7342971B2 JP 2021563529 A JP2021563529 A JP 2021563529A JP 2021563529 A JP2021563529 A JP 2021563529A JP 7342971 B2 JP7342971 B2 JP 7342971B2
Authority
JP
Japan
Prior art keywords
question
answer
batch
learning
history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021563529A
Other languages
English (en)
Other versions
JPWO2021117180A1 (ja
Inventor
康仁 大杉
いつみ 斉藤
京介 西田
久子 浅野
準二 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021117180A1 publication Critical patent/JPWO2021117180A1/ja
Application granted granted Critical
Publication of JP7342971B2 publication Critical patent/JP7342971B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Machine Translation (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)

Description

本発明は、対話処理装置、学習装置、対話処理方法、学習方法及びプログラムに関する。
機械読解に関する研究が従来から盛んに行われている。機械読解とは、質問と文書とを入力として、文書から質問に対する回答を生成する技術のことである。
ここで、従来から盛んに研究されている機械読解は一問一答形式である。すなわち、機械読解では、仮に複数の質問が入力されたとしても、これらの質問は独立に扱われ、それぞれの質問に対して独立に回答が生成される。これに対して、近年では、質問と回答とが交互に繰り返されるような対話型の機械読解も研究されている。
対話型の機械読解とは、文書と現在の質問と質問履歴と回答履歴とを入力として、現在の質問に対する回答を生成する技術のことである。このため、対話型の機械読解では、質問と回答とが繰り返される中で、これまでの対話の内容(つまり、質問履歴と回答履歴)を踏まえた回答を生成することができる。例えば、非特許文献1には、現在の質問に対する回答を生成する対話型の機械読解として、文書内で回答となる範囲の開始位置と終了位置とを出力する技術が記載されている。なお、質問履歴とは過去の質問の履歴のことであり、回答履歴とは過去の回答の履歴のことである。
Hsin-Yuan Huang, Eunsol Choi, and Wen-tau Yih. FlowQA: Grasping flow in history for conversational machine comprehension. arXiv preprint arXiv:1810.06683, 2018.
ところで、対話型の機械読解では、全ての質問履歴及び回答履歴が現在の質問にとって重要であるとは限らない。しかしながら、例えば、非特許文献1に記載されている技術では直前のいくつかの質問履歴及び回答履歴を考慮しており、現在の質問に対する回答に必要な質問履歴及び回答履歴を取捨選択することができなかった。
例えば、1つの質問とこの質問に対する1つの回答との組を1ターンと表記した場合、1ターン目~2ターン目は話題A、3ターン目~4ターン目は話題B、5ターン目は話題Aといったように対話の中で話題が変化することが有り得る。このとき、引用文献1に記載されている技術では直前のNターンの質問履歴及び回答履歴を考慮している。
したがって、例えば、N=2、かつ、現在の質問が話題Aに関する質問である場合、5ターン目の話題Aに関する対話中の質問及び回答と、4ターン目の話題Bに関する対話中の質問及び回答とが履歴として考慮され、1ターン目~2ターン目の話題Aに関する対話中の質問及び回答は履歴として利用することができなかった。また、例えば、N=5、かつ、現在の質問が話題Aに関する質問である場合、1ターン目~5ターン目の対話中の質問及び回答が履歴として考慮されるが、現在の質問の話題Aとは関連の薄い話題Bの対話中の質問及び回答も履歴として考慮されてしまっていた。
本発明の一実施形態は、上記の点に鑑みてなされたもので、現在の質問に対する回答に必要な履歴を考慮した回答を生成することを目的とする。
上記目的を達成するため、一実施形態に係る対話処理装置は、対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを入力として、予め学習済みの第1モデルパラメータを用いて、前記過去の質問及び前記過去の回答それぞれの属性及び重要度の少なくとも一方を反映した文脈符号化ベクトルuを生成する文脈符号化手段と、前記質問Qに対する回答Aの生成に用いられる文書Pと、前記文脈符号化ベクトルuとを入力として、予め学習済みの第2モデルパラメータを用いて、前記文書Pと前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手段と、を有することを特徴とする。
現在の質問に対する回答に必要な履歴を考慮した回答を生成することができる。
実施例1における対話処理装置の全体構成の一例を示す図である。 実施例1における対話処理の一例を示すフローチャートである。 実施例2における対話処理装置の全体構成の一例を示す図である。 実施例2における学習処理の一例を示すフローチャートである。 対話型機械読解タスクの学習処理の一例を示すフローチャートである。 クラス分類タスクの学習処理の一例を示すフローチャートである。 一実施形態に係る対話処理装置のハードウェア構成の一例を示す図である。
以下、本発明の一実施形態について説明する。本実施形態では、対話型の機械読解において、現在の質問に対する回答に必要な履歴(質問履歴及び回答履歴)を考慮した回答を生成することが可能な対話処理装置10について説明する。なお、以降では、質問履歴中の過去の質問の「過去質問」、回答履歴中の過去の回答を「過去回答」とも表す。
ここで、対話型の機械読解では、ニューラルネットワークにより実現されるモデルを用いて現在の質問に対する回答を生成する。このため、本実施形態に係る対話処理装置10には、このモデルのパラメータ(以降、「モデルパラメータ」とも表す。)を学習する「学習時」と、学習済みモデルパラメータを用いて現在の質問に対する回答を生成する「推論時」とが存在する。
本実施形態における学習時では、履歴(質問履歴及び回答履歴)を利用しながら現在の質問に回答する対話型の機械読解タスクと、与えられた文書内の各文の属性や重要度に基づいて各文を分類するクラス分類タスクとの両方を用いてモデルパラメータを学習する。言い換えれば、対話型機械読解タスク及びクラス分類タスクのマルチタスク学習によりモデルパラメータを学習する。これにより、学習済みのモデルは、履歴を参照しながら現在の質問に対する回答を生成する能力と、与えられた文書の各文の属性や重要度に基づいて各文を分類する能力とを獲得することができる。すなわち、この学習済みのモデルは、現在の質問の回答に対する各過去質問及び各過去回答の有効性を判断し、その有効性に基づいて現在の質問に回答することが可能となる。
以降では、対話型機械読解タスク及びクラス分類タスクのマルチタスク学習によりモデルパラメータが学習済みであるものとして、この学習済みモデルパラメータを用いて現在の質問に対する回答を生成する推論時について実施例1で説明し、対話型機械読解タスク及びクラス分類タスクのマルチタスク学習によりモデルパラメータを学習する学習時について実施例2で説明する。
[実施例1]
実施例1では、モデルパラメータは学習済みであるものとして、現在の質問に対する回答を生成する対話処理装置10について説明する。
<全体構成>
まず、実施例1における対話処理装置10の全体構成について、図1を参照しながら説明する。図1は、実施例1における対話処理装置10の全体構成の一例を示す図である。
図1に示すように、実施例1における対話処理装置10は、対話処理部110と、モデルパラメータ記憶部210とを有する。
対話処理部110は、現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}と文書Pとを入力として、モデルパラメータ記憶部210に記憶されている学習済みモデルパラメータを用いて、現在の質問Qに対する回答Aを生成及び出力する。ここで、iはターンを表す。ターンとは、上述したように、1つの質問とこの質問に対する1つの回答との組(つまり、1回の対話)のことである。また、文書は、例えば、「パッセージ」や「検索対象テキスト」等と称されてもよい。
なお、現在の質問Q、質問履歴{Q,・・・,Qi-1}中の各過去質問Q,・・・,Qi-1、回答履歴{A,・・・,Ai-1}中の各過去回答A,・・・,Ai-1、及び文書Pはそれぞれ単語列で表される。
対話処理部110には、文脈符号化部111と、マッチング部112と、回答予測部113とが含まれる。これら各部は、それぞれニューラルネットワークで実現される。以降では、モデルパラメータのうち、文脈符号化部111が用いるモデルパラメータ(つまり、文脈符号化部111を実現するニューラルネットワークのパラメータ)を「第1モデルパラメータ」と表す。同様に、モデルパラメータのうち、マッチング部112が用いるモデルパラメータを「第2モデルパラメータ」、回答予測部113が用いるモデルパラメータを「第3モデルパラメータ」と表す。
文脈符号化部111は、現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}とを入力として、学習済み第1モデルパラメータを用いて、質問履歴及び回答履歴中の過去質問及び過去回答の属性や重要度を反映した文脈の符号化を行って、文脈符号化ベクトルuを生成及び出力する。ここで、このような文脈符号化ベクトルuを得るためには、現在の質問と質問履歴中の各過去質問と回答履歴中の各過去回答とを区別することと、それぞれの属性や重要性を考慮することが必要である。
現在の質問と質問履歴中の各過去質問と回答履歴中の各過去回答との区別については、例えば、現在の質問や各過去質問、各過去回答のそれぞれを1つの文として、各文の間に特殊文字を挿入することで区別できる。一方で、各文の属性や重要性の考慮については、或る文書中の各文の属性や重要度に基づいて各文を分類するクラス分類タスクの学習により獲得することができる。なお、文は、1つ以上の単語の列(単語列)で表される。
文脈符号化部111によって生成及び出力される文脈符号化ベクトルuは、
Figure 0007342971000001
である。ここで、dは特徴量の次元数である。また、LはQ、{Q,・・・,Qi-1}及び{A,・・・,Ai-1}の合計単語数と、文頭や文末、文の区切り等を表す特殊文字の単語数とを足した単語数である。
文脈符号化部111を実現するニューラルネットワークとしては、例えば、以下の参考文献1に記載されているBERT(Bidirectional Encoder Representations from Transformers)と呼ばれるモデルを用いることができる。この場合、先頭にクラストークン[CLS]を付加すると共に、Q、Q,・・・,Qi-1,A,・・・,Ai-1の各々を区別するため、各文をセパレータトークン[SEP]で接続した単語列をBERTに入力し、出力として文脈符号化ベクトルuを得る。このとき、BERTに入力される単語列の単語数が所定の単語数に満たない場合には、末尾にパディングトークン[PAD]を必要な数だけ付加する。
参考文献1:J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova. Bert:Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805,2018.
マッチング部112は、文書P内の各単語に対して現在の質問Qと履歴(質問履歴{Q,・・・,Qi-1}及び回答履歴{A,・・・,Ai-1})の情報を考慮した特徴量を生成及び出力する。すなわち、マッチング部112は、文書Pと文脈符号化ベクトルuとを入力として、学習済み第2モデルパラメータを用いて、現在の質問Qと履歴の情報を考慮した特徴量
Figure 0007342971000002
を生成及び出力する。ここで、dは特徴量の次元数である。また、Lは文書Pの単語数と特殊文字の単語数とを足した単語数である。
マッチング部112を実現するニューラルネットワークの要件としては、文書Pと現在の質問Q並びに質問履歴{Q,・・・,Qi-1}及び回答履歴{A,・・・,Ai-1}とを単語単位でマッチングすることが必要である。この要件を満たすニューラルネットワークのモデルは複数考えられるが、例えば、以下の参考文献2に記載されているBiDirectional Attention Flow Modelに含まれるCharacter Embed LayerとWord Embed LayerとContextual Embed LayerとAttention Layerとで構成されるモデルを用いることができる。この場合、文書PをCharacter Embed Layer及びWord Embed Layerに入力し、Contextual Embed Layerを経てAttention Layerに入力する。また、文脈符号化ベクトルuもAttention Layerに入力する。そして、Attention Layerの出力を特徴量vとして用いればよい。
参考文献2:Min Joon Seo, Aniruddha Kembhavi, Ali Farhadi, and Hannaneh Hajishirzi. Bidirectional attention flow for machine comprehension. In ICLR 2017.
なお、上記の参考文献1に記載されているBERTは文脈符号化部111及びマッチング部112の両方の要件を満たすため、文脈符号化部111及びマッチング部112をBERT単体で実現することも可能である。この場合、Q,Q,・・・,Qi-1,A,・・・,Ai-1,Pをセパレータトークン[SEP]で接続した単語列をBERTに入力する。このとき、Segment Embeddingを用いて、文脈符号化部111とマッチング部112の役割を区別する。すなわち、Q,Q,・・・,Qi-1,A,・・・,Ai-1のSegment Embeddingと、PのSegment Embeddingとを異ならせることで、文脈符号化部111とマッチング部112の役割を区別する。特徴量vとしては、BERTの出力のうち、文書Pに対応する特徴量を用いればよい。
回答予測部113は、現在の質問Q並びに質問履歴及び回答履歴と単語単位でマッチングした文書Pの特徴量vを入力として、学習済み第3モデルパラメータを用いて、現在の質問Qに対する回答Aを生成及び出力する。ここで、回答Aは単語列で表され、その生成方法には2種類ある。
1つ目の生成方法は文書P内の単語列を抜き出して回答とする抽出形式であり、2つ目の方法は文書P内の単語だけでなく予め定められた所定の語彙集合内の単語も用いて回答を生成する生成形式である。抽出形式では、文書P内の各単語が回答範囲の開始位置である確率と終了位置である確率とをそれぞれ予測し、これらの予測結果に基づいて動的計画法で回答範囲を導出した上で、この回答範囲内の単語列を回答Aとすることが必要である。一方で、生成形式では、回答Aを単語毎に生成することが必要である。
抽出形式で利用可能なニューラルネットワークとしては、例えば、上記の参考文献2に記載されているModeling LayerとOutput Layerとで構成されるモデルが挙げられる。この場合、Modeling Layer及びOutput Layerに特徴量vを入力し、文書P内の各単語が開始位置である確率と終了位置である確率とを出力する。
一方で、生成形式で利用可能ニューラルネットワークとしては、例えば、以下の参考文献3に記載されているPointer-Generator Modelが挙げられる。この場合、Pointer-Generator Modelの符号化器に特徴量vを入力し、文書P内の単語の重要度を示す確率を出力する。この確率と、予め定められた外部の所定の語彙集合の重要度を示す確率とをPointer- Generator Modelの復号器に入力し、回答Aを生成する。
参考文献3:Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1073-1083, July 2017.
なお、マッチング部112と回答予測部113とが2つの機能部に分かれている必要はなく、例えば、マッチング部112と回答予測部113とで1つの機能部が構成されていてもよい。
モデルパラメータ記憶部210は、学習済みモデルパラメータ(つまり、学習済み第1モデルパラメータ、学習済み第2モデルパラメータ及び学習済み第3モデルパラメータ)を記憶する。
<対話処理>
以降では、現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}とを入力として、学習済みモデルパラメータを用いて、現在の回答Qに対する回答Aを生成及び出力する処理(対話処理)について、図2を参照しながら説明する。図2は、実施例1における対話処理の一例を示すフローチャートである。
まず、対話処理部110の文脈符号化部111は、現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}とを入力として、学習済み第1モデルパラメータを用いて、文脈符号化ベクトルuを生成及び出力する(ステップS101)。
次に、対話処理部110のマッチング部112は、文書Pと、上記のステップS101で出力された文脈符号化ベクトルuとを入力として、学習済み第2モデルパラメータを用いて、特徴量vを生成及び出力する(ステップS102)。
そして、対話処理部110の回答予測部113は、上記のステップS102で出力された特徴量vを入力として、学習済み第3モデルパラメータを用いて、回答Aを生成及び出力する(ステップS103)。これにより、現在の質問Qに対する回答として、履歴中の過去質問及び過去回答の属性や重要度を考慮した回答A(言い換えれば、現在の質問Qに関連する過去質問や過去回答を重点的に考慮した回答A)を生成及び出力することができる。
[実施例2]
実施例2では、モデルパラメータは学習済みでないものとして、これらのモデルパラメータを学習する対話処理装置10について説明する。
<全体構成>
まず、実施例2における対話処理装置10の全体構成について、図3を参照しながら説明する。図3は、実施例2における対話処理装置10の全体構成の一例を示す図である。
図3に示すように、実施例2における対話処理装置10は、対話処理部110と、バッチ集合作成部120と、更新部130と、モデルパラメータ記憶部210と、学習用データセット記憶部220とを有する。
モデルパラメータ記憶部210は、学習済みでないモデルパラメータを記憶する。なお、以降では、学習済みでないモデルパラメータを単に「モデルパラメータ」と表す。
学習用データセット記憶部220は、モデルパラメータの学習に用いられる学習用データセットを記憶する。ここで、実施例2では、学習用データセットとして、対話型機械読解タスクの学習データで構成される学習用データセットと、クラス分類タスクの学習データで構成される学習用データセットとを用いる。これらの学習用データセットは予め収集等しておき、学習用データセット記憶部220に記憶される。
対話型機械読解タスクの学習用データセットとしては、例えば、以下の参考文献4に記載されているデータセットを用いることができる。
参考文献4:Eunsol Choi, He He, Mohit Iyyer, Mark Yatskar, Wentau Yih, Yejin Choi, Percy Liang, and Luke Zettlemoyer. 2018. QuAC : Question Answering in Context. In EMNLP. ArXiv: 1808.07036.
対話型機械読解タスクの学習用データセットに含まれる各学習データは、現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}と文書Pと正解回答
Figure 0007342971000003
とで構成される。以降では、現在の質問Qに対する正解回答を「^A」とも表記する。なお、抽出形式の対話型機械読解タスクである場合は正解回答^Aは、文書P中で回答となる範囲の開始位置と終了位置との組で表される。一方で、生成形式の対話型機械読解タスクである場合は正解回答^Aは、単語列で表される。
また、クラス分類タスクの学習用データセットとしては、与えられた文書の各文の属性や重要度に基づいて各文を分類する能力を獲得可能なデータセットを用いる。このため、クラス分類タスクの学習用データセットは、文毎に属性や重要度を示すラベルが付与された学習データのデータセットである必要がある。すなわち、クラス分類タスクの学習用データセットに含まれる各学習データは、分類対象の文集合{S,・・・,S|S|}と各文の正解クラス
Figure 0007342971000004
とで構成される。以降では、S(j=1,・・・,|S|)に対する正解クラスを「^c」とも表記する。なお、Sは文(単語列)、|S|は文集合に含まれる文数である。
与えられた各文の重要度に基づいて各文を分類する能力を獲得可能なデータセットとしては、上記の参考文献3に記載されているデータセットを用いることができる。このデータセットは、原文と要約文との組で構成される学習データのデータセットであり、文書要約に用いられている。このため、原文の各文に対して、当該文が要約文に含まれるか否かの2値のラベルを付与することができる。例えば、当該文が要約文に含まれる場合にはラベルとして重要度「高」を示すラベルを付与し、当該文が要約文に含まれない場合にはラベルとして重要度「低」を示すラベルを付与することができる。
したがって、上記の参考文献3に記載されているデータセットを用いて、原文の各文に対して、上記のような重要度を示す2値のラベルを付与することで、重要度に基づいて各文を分類する能力を獲得可能なデータセットが得られる。言い換えれば、これにより、上記の参考文献3に記載されているデータセットを用いて、原文の各文が、要約文に含まれるか否かを予測(つまり、各文が要約文に含まれるか否かを分類)するクラス分類タスクに利用可能なデータセットが得られる。このため、このようなデータセットを用いて学習を行うことで、モデルは各文の重要度を推定することが可能になる。
また、与えられた各文の属性に基づいて各文を分類する能力を獲得可能なデータセットとしては、例えば、以下の参考文献5に記載されているデータセットを用いることができる。
参考文献5:Mihail Eric, Lakshmi Krishnan, Francois Charette, and Christopher D. Manning, "Key-Value Retrieval Networks for Task-Oriented Dialogue"
この参考文献5に記載されているデータセットは、2話者間の対話1つに対して、その対話の話題・内容を表すラベルが1つ付与されたデータセットである。例えば、最寄りのガソリンスタンドの場所を尋ねる対話(合計3ターン程度)に対して「navigate」のラベルが付与されている。上記の参考文献5に記載されているデータセットでは、「schedule」、「navigate」、「weather」の3通りのラベルが用いられている。したがって、このデータセットを用いる場合は、対話に付与されたラベルを対話内の各発話に付与することにより、これら各発話を表す文に3通りのラベルのうちの1つのラベルを付与して使用する。
バッチ集合作成部120は、学習用データセット記憶部220に記憶されている学習用データセット(対話型機械読解タスクの学習用データセットとクラス分類タスクの学習用データセット)から、学習用のバッチ集合を作成する。
すなわち、バッチ集合作成部120は、例えば、対話型機械読解タスクの学習用データセットをバッチ単位に分割してバッチ集合Bを作成すると共に、クラス分類タスクの学習用データセットをバッチ単位に分割してバッチ集合Bを作成する。そして、バッチ集合作成部120は、バッチ集合Bに含まれる各バッチに対して識別子idx=1を付与すると共に、バッチ集合Bに含まれる各バッチに対して識別子idx=0を付与した上で、これらのバッチを合わせたバッチ集合Bを作成し、このバッチ集合Bに含まれる各バッチの順番をランダムにシャッフルする。これにより、モデルパラメータの学習用のバッチ集合Bが作成される。バッチとは、予め決められた数の学習データの集合である。後述するように、バッチ単位でモデルパラメータが更新される。なお、学習用データセットを「バッチ」、予め決められた数の学習データ数で学習用データセットを分割した集合を「ミニバッチ」と呼ぶこともあるが、本明細書では、予め決められた数の学習データ数で学習用データセットを分割した集合を「バッチ」と称する。
対話処理部110は、バッチ集合Bに含まれるバッチ内の各学習データを用いて、対話型機械読解タスクによって回答の生成及び出力、又は、クラス分類タスクによってクラスの推定及び出力を行う。すなわち、対話処理部110は、当該バッチの識別子がidx=1の場合は、当該バッチ内の学習データ(つまり、対話型機械読解タスクの学習データ)に含まれる現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}と文書Pとを入力として、モデルパラメータを用いて、現在の質問Qに対する回答Aを生成及び出力する。一方で、対話処理部110は、当該バッチの識別子がidx=0の場合は、当該バッチ内の学習データ(つまり、クラス分類タスクの学習データ)に含まれる文集合{S,・・・,S|S|}を入力として、クラス{c,c,・・・,c|S|}を推定及び出力する。
ここで、実施例2では、対話処理部110には、文脈符号化部111と、マッチング部112と、回答予測部113と、分類部114とが含まれる。これら各部は、それぞれニューラルネットワークで実現される。以降では、分類部114が用いるモデルパラメータ(つまり、分類部114を実現するニューラルネットワークのパラメータ)を「第4モデルパラメータ」と表す。
対話型機械読解タスクの学習データを用いる場合には、文脈符号化部111、マッチング部112及び回答予測部113は、実施例1と同様の処理により回答Aを生成及び出力する。ただし、学習済みモデルパラメータの代わりに、学習済みでないモデルパラメータ(つまり、学習済みでない第1モデルパラメータ~第3モデルパラメータ)を用いる。
一方で、クラス分類タスクの学習データを用いる場合には、文脈符号化部111及び分類部114は、学習済みでないモデルパラメータ(つまり、学習済みでない第1モデルパラメータ及び第4モデルパラメータ)を用いて、クラス{c,c,・・・,c|S|}を推定及び出力する。すなわち、例えば、文脈符号化部111がBERTで実現されている場合には、先頭にクラストークン[CLS]を付加すると共に、各文S,・・・,S|S|をセパレータトークン[SEP]で接続した単語列をBERTに入力し、文脈符号化ベクトルuを生成及び出力する。そして、例えば、1層の線形変換層で構成されるニューラルネットワークで実現される分類部114に文脈符号化ベクトルuを入力し、各文が各クラスにそれぞれ属する確率
Figure 0007342971000005
を得る。ここで、Cはクラス数であり、Lは文集合{S,・・・,S|S|}の合計単語数と特殊文字の単語数とを足した単語数である。このとき、各文を区切る[SEP]で文を代表させる場合は、[SEP]の位置に対応するxのベクトル(C次元のベクトル)を、その文が各クラスにそれぞれ属する確率を表すベクトルとして用いる。これにより、文Sが各クラスにそれぞれ属する確率が得られ、当該文Sが属するクラスcが分類部114によって推定される。
更新部130は、回答予測部113によって生成及び出力された回答Aと正解回答^Aとの誤差を用いて、モデルパラメータ記憶部210に記憶されているモデルパラメータ(第1モデルパラメータ~第3モデルパラメータ)を更新する。また、更新部130は、分類部114によって推定及び出力されたクラス{c,c,・・・,c|S|}と正解クラス{^c,^c,・・・,^c|S|}との誤差を用いて、モデルパラメータ記憶部210に記憶されているモデルパラメータ(第1モデルパラメータ及び第4モデルパラメータ)を更新する。
なお、学習時には第4モデルパラメータも学習対象(更新対象)となるが、推論時には第4モデルパラメータは用いられない。推論時の対話処理部110には、分類部114が含まれないためである。
<学習処理>
以降では、学習データを用いて、モデルパラメータ(第1モデルパラメータ~第4モデルパラメータ)を学習する処理(学習処理)について、図4を参照しながら説明する。図4は、実施例2における学習処理の一例を示すフローチャートである。なお、モデルパラメータ記憶部210に記憶されているモデルパラメータは、学習処理の開始前に、適当な値に初期化されているものとする。
まず、バッチ集合作成部120は、学習用データセット記憶部220に記憶されている学習用データセットからバッチ集合Bとバッチ集合Bとを作成し、バッチ集合Bに含まれる各バッチには識別子idx=1を付与し、バッチ集合Bに含まれる各バッチには識別子idx=0を付与する(ステップS201)。
すなわち、バッチ集合作成部120は、対話型機械読解タスクの学習用データセットをバッチ単位に分割してバッチ集合Bを作成し、このバッチ集合Bに含まれる各バッチに識別子idx=1を付与する。同様に、バッチ集合作成部120は、クラス分類タスクの学習用データセットをバッチ単位に分割してバッチ集合Bを作成し、このバッチ集合Bに含まれる各バッチに識別子idx=0を付与する。なお、識別子idx=1は当該バッチが対話型機械読解タスクの学習データで構成されるバッチであることを表し、識別子idx=0は当該バッチがクラス分類タスクの学習データで構成されるバッチであることを表す。
次に、バッチ集合作成部120は、バッチ集合Bとバッチ集合Bとを合わせたバッチ集合Bを作成し、このバッチ集合Bに含まれる各バッチの順番をランダムにシャッフルする(ステップS202)。これにより、対話型機械読解タスクのバッチとクラス分類タスクのバッチとがランダムな順番で含まれるバッチ集合Bが得られる。
対話処理部110は、バッチ集合Bに含まれるバッチのうち、未読込の先頭のバッチを読み込む(ステップS203)。
次に、対話処理部110は、上記のステップS203で読み込んだバッチに付与されている識別子がidx=1又はidx=0のいずれであるかを判定する(ステップS204)。
上記のステップS204で識別子がidx=1であると判定された場合、対話処理装置10は、対話型機械読解タスクの学習処理を行う(ステップS205)。すなわち、対話処理装置10は、機械読解タスクの学習データを用いて、第1モデルパラメータ~第3モデルパラメータを学習する。なお、対話型機械読解タスクの学習処理の詳細については後述する。
一方で、上記のステップS204で識別子がidx=0であると判定された場合、対話処理装置10は、クラス分類タスクの学習処理を行う(ステップS206)。すなわち、対話処理装置10は、クラス分類タスクの学習データを用いて、第1モデルパラメータ及び第4モデルパラメータを学習する。なお、クラス分類タスクの学習処理の詳細については後述する。
上記のステップS205又はステップS206に続いて、対話処理部110は、バッチ集合Bの中に未読込のバッチがあるか否かを判定する(ステップS207)。
上記のステップS207で未読込のバッチがあると判定された場合、対話処理部110は、上記のステップS203に戻る。これにより、バッチ集合Bに含まれる各バッチに対して、その識別子に応じて、上記のステップS205又はステップS206のいずれかが実行される。
一方で、上記のステップS207で未読込のバッチがあると判定されなかった場合(つまり、バッチ集合Bの中の全てのバッチが読込済みである場合)、対話処理部110は、学習が収束したか否かを判定する(ステップS208)。
そして、上記のステップS208で学習が収束したと判定されなかった場合、対話処理部110は、バッチ集合Bの中の全てのバッチを未読込として、上記のステップS203に戻る。これにより、当該バッチ集合Bを用いて、上記のステップS203~ステップS207が再度実行される。
一方で、上記のステップS208で学習が収束したと判定された場合、対話処理部110は、学習処理を終了する。これにより、学習済みモデルパラメータが得られる。なお、学習の収束条件としては、例えば、上記のステップS203~ステップS207が所定の回数繰り返し実行されたこと等が挙げられる。
このように、実施例2では、対話型機械読解タスクとクラス分類タスクのマルチタスク学習(つまり、上記のステップS205の学習処理と上記のステップS206の学習処理)により学習済みモデルパラメータを得る。なお、上述したように、学習済み第1モデルパラメータ~学習済み第4モデルパラメータのうち、推論時には、学習済み第1モデルパラメータ~学習済み第3モデルパラメータのみを用いる。
≪対話型機械読解タスクの学習処理≫
次に、上記のステップS205における対話型機械読解タスクの学習処理の詳細について、図5を参照しながら説明する。図5は、対話型機械読解タスクの学習処理の一例を示すフローチャートである。
まず、対話処理部110は、上記のステップ203で読み込んだバッチ(idx=1が付与されているバッチ)に含まれる学習データのうち、未読込の学習データを読み込む(ステップS301)。
次に、対話処理部110の文脈符号化部111は、上記のステップS301で読み込んだ学習データに含まれる現在の質問Qと質問履歴{Q,・・・,Qi-1}と回答履歴{A,・・・,Ai-1}とを入力として、第1モデルパラメータを用いて、文脈符号化ベクトルuを生成及び出力する(ステップS302)。
次に、対話処理部110のマッチング部112は、上記のステップS301で読み込んだ学習データに含まれる文書Pと、上記のステップS302で出力された文脈符号化ベクトルuとを入力として、第2モデルパラメータを用いて、特徴量vを生成及び出力する(ステップS303)。
次に、対話処理部110の回答予測部113は、上記のステップS303で出力された特徴量vを入力として、第3モデルパラメータを用いて、回答Aを生成及び出力する(ステップS304)。
次に、対話処理部110は、当該バッチの中に未読込の学習データがあるか否かを判定する(ステップS305)。
上記のステップS305で未読込の学習データがあると判定された場合、対話処理部110は、上記のステップS301に戻る。これにより、当該バッチに含まれる各学習データに対して、上記のステップS301~ステップS304が実行される。
一方で、上記のステップS305で未読込の学習データがあると判定されなかった場合、更新部130は、上記のステップS304で出力された各回答Aと、これらの各回答Aのそれぞれ対応する正解回答^Aとの誤差を用いて、モデルパラメータ記憶部210に記憶されている第1モデルパラメータ~第3モデルパラメータを更新する(ステップS306)。なお、更新部130は、対話型機械読解タスクの学習に用いられる既知の最適化手法を用いて第1モデルパラメータ~第3モデルパラメータを更新すればよい。
≪クラス分類タスクの学習処理≫
次に、上記のステップS206におけるクラス分類タスクの学習処理の詳細について、図6を参照しながら説明する。図6は、クラス分類タスクの学習処理の一例を示すフローチャートである。
まず、対話処理部110は、上記のステップ203で読み込んだバッチ(idx=0が付与されているバッチ)に含まれる学習データのうち、未読込の学習データを読み込む(ステップS401)。
次に、対話処理部110の文脈符号化部111は、上記のステップS401で読み込んだ学習データに含まれる文集合{S,・・・,S|S|}の入力として、第1モデルパラメータを用いて、文脈符号化ベクトルuを生成及び出力する(ステップS402)。
次に、対話処理部110の分類部114は、上記のステップS402で出力された文脈符号化ベクトルuを入力として、第2モデルパラメータを用いて、各文が各クラスにそれぞれ属する確率xを生成及び出力する(ステップS403)。
次に、対話処理部110の分類部114は、上記のステップS403で出力された確率xから、各文S,・・・,S|S|が属するクラス{c,c,・・・,c|S|}を推定する(ステップS404)。
次に、対話処理部110は、当該バッチの中に未読込の学習データがあるか否かを判定する(ステップS405)。
上記のステップS405で未読込の学習データがあると判定された場合、対話処理部110は、上記のステップS401に戻る。これにより、当該バッチに含まれる各学習データに対して、上記のステップS401~ステップS404が実行される。
一方で、上記のステップS405で未読込の学習データがあると判定されなかった場合、更新部130は、上記のステップS403で出力された{c,c,・・・,c|S|}と、正解クラス{^c,^c,・・・,^c|S|}との誤差を用いて、モデルパラメータ記憶部210に記憶されている第1モデルパラメータ及び第4モデルパラメータを更新する(ステップS406)。なお、更新部130は、クラス分類タスクの学習に用いられる既知の最適化手法を用いて第1モデルパラメータ及び第4モデルパラメータを更新すればよい。
<ハードウェア構成>
最後に、本実施形態に係る対話処理装置10のハードウェア構成について、図7を参照しながら説明する。図7は、一実施形態に係る対話処理装置のハードウェア構成の一例を示す図である。
図7に示すように、本実施形態に係る対話処理装置10は一般的なコンピュータ又はコンピュータシステムで実現され、入力装置301と、表示装置302と、外部I/F303と、通信I/F304と、プロセッサ305と、メモリ装置306とを有する。これら各ハードウェアは、それぞれがバス307を介して通信可能に接続されている。
入力装置301は、例えば、キーボードやマウス、タッチパネル等である。表示装置302は、例えば、ディスプレイ等である。なお、対話処理装置10は、入力装置301及び表示装置302のうちの少なくとも一方を有していなくてもよい。
外部I/F303は、外部装置とのインタフェースである。外部装置には、記録媒体303a等がある。対話処理装置10は、外部I/F303を介して、記録媒体303aの読み取りや書き込み等を行うことができる。記録媒体303aには、対話処理装置10が有する各機能部(対話処理部110、バッチ集合作成部120及び更新部130)を実現する1以上のプログラムが格納されていてもよい。
なお、記録媒体303aには、例えば、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等がある。
通信I/F304は、対話処理装置10を通信ネットワークに接続するためのインタフェースである。なお、対話処理装置10が有する各機能部を実現する1以上のプログラムは、通信I/F304を介して、所定のサーバ装置等から取得(ダウンロード)されてもよい。
プロセッサ305は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の各種演算装置である。対話処理装置10が有する各機能部は、例えば、メモリ装置306に格納されている1以上のプログラムがプロセッサ305に実行させる処理により実現される。
メモリ装置306は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等の各種記憶装置である。対話処理装置10が有する各記憶部(モデルパラメータ記憶部201及び学習用データセット記憶部220)は、例えば、メモリ装置306を用いて実現可能である。なお、これら各記憶部のうちの少なくとも1つの記憶部が、対話処理装置10と通信ネットワークを介して接続される記憶装置(例えば、データベースサーバ等)を用いて実現されていてもよい。
本実施形態に係る対話処理装置10は、図7に示すハードウェア構成を有することにより、上述した対話処理や学習処理を実現することができる。なお、図7に示すハードウェア構成は一例であって、対話処理装置10は、他のハードウェア構成を有していてもよい。例えば、対話処理装置10は、複数のプロセッサ305を有していてもよいし、複数のメモリ装置306を有していてもよい。
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、請求の範囲の記載から逸脱することなく、種々の変形や変更、既知の技術との組み合わせ等が可能である。
10 対話処理装置
110 対話処理部
111 文脈符号化部
112 マッチング部
113 回答予測部
114 分類部
120 バッチ集合作成部
130 更新部
210 モデルパラメータ記憶部
220 学習用データセット記憶部

Claims (8)

  1. 対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを入力として、予め学習済みの第1モデルパラメータを用いて、前記過去の質問及び前記過去の回答それぞれの属性及び重要度の少なくとも一方を反映した文脈符号化ベクトルuを生成する文脈符号化手段と、
    前記質問Qに対する回答Aの生成に用いられる文書Pと、前記文脈符号化ベクトルuとを入力として、予め学習済みの第2モデルパラメータを用いて、前記文書Pと前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手段と、
    を有することを特徴とする対話処理装置。
  2. 前記第1モデルパラメータ及び前記第2モデルパラメータは、前記対話型機械読解タスクと、単語列で表される文を複数のクラスに分類するクラス分類タスクとのマルチタスク学習によって学習されたパラメータである、ことを特徴とする請求項1に記載の対話処理装置。
  3. 対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを接続した第1入力単語列、又は、クラス分類タスクで分類対象となる各文をそれぞれ表す単語列を接続した第2入力単語列のいずれかを入力として、第1モデルパラメータを用いて、前記第1入力単語列又は前記第2入力単語列で表される文脈の文脈符号化ベクトルuを生成する文脈符号化手段と、
    前記質問Qに対する回答Aの生成に用いられる文書Pと、前記第1入力単語列から生成された文脈符号化ベクトルuとを入力として、第2モデルパラメータを用いて、前記文書Pと前記第1入力単語列に含まれる前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手段と、
    前記第2入力単語列から生成された文脈符号化ベクトルuを入力として、第3モデルパラメータを用いて、前記各文のそれぞれが属するクラスを推定するクラス推定手段と、
    前記回答Aと前記質問Qに対する正解回答との誤差を用いて、前記第1モデルパラメータと前記第2モデルパラメータとを更新する第1更新手段と、
    前記クラスと前記分類対象となる各文のそれぞれが属する正解クラスとの誤差を用いて、前記第1モデルパラメータと前記第3モデルパラメータを更新する第2更新手段と、
    を有することを特徴とする学習装置。
  4. 前記学習装置は、
    前記分類対象となる各文と、前記各文のそれぞれが属する正解クラスとが含まれる学習データで構成される第1学習用データセットを用いて、前記クラス推定手段によるクラスの推定と、前記第2更新手段による更新とを行い、
    前記分類対象となる各文と前記正解クラスは、原文に含まれる各文と前記各文のそれぞれが要約文に含まれるか否かを示す重要度であり、前記原文と前記要約文とが含まれるデータセットから作成される、又は/及び、1以上の文で構成される対話に含まれる各文と前記対話における話題又は内容を示す属性であり、前記対話と前記対話における話題又は内容を表すラベルとが含まれるデータセットから作成される、ことを特徴とする請求項3に記載の学習装置。
  5. 前記第1学習用データセットと、前記対話型機械読解タスクの学習に用いられる第2学習用データセットとをそれぞれ複数のバッチに分割し、前記複数のバッチで構成されるバッチ集合を作成するバッチ集合作成手段と、
    前記バッチ集合に含まれるバッチ毎に、前記バッチが、前記第1学習用データセットから分割されたバッチ又は前記第2学習用データセットから分割されたバッチのいずれであるかを判定する判定手段と、を有し、
    前記文脈符号化手段は、
    前記第1学習用データセットから分割されたバッチであると判定された場合、前記バッチを構成する学習データに含まれる各文をそれぞれ表す単語列を接続した第2入力単語列を入力として、前記文脈符号化ベクトルuを生成し、
    前記第2学習用データセットから分割されたバッチであると判定された場合、前記バッチを構成する学習データに含まれる前記質問Qと前記質問履歴{Q,・・・,Qi-1}と前記回答履歴{A,・・・,Ai-1}とを接続した第1入力単語列を入力として、前記文脈符号化ベクトルuを生成する、ことを特徴とする請求項4に記載の学習装置。
  6. 対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを入力として、予め学習済みの第1モデルパラメータを用いて、前記過去の質問及び前記過去の回答それぞれの属性及び重要度の少なくとも一方を反映した文脈符号化ベクトルuを生成する文脈符号化手順と、
    前記質問Qに対する回答Aの生成に用いられる文書Pと、前記文脈符号化ベクトルuとを入力として、予め学習済みの第2モデルパラメータを用いて、前記文書Pと前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手順と、
    をコンピュータが実行することを特徴とする対話処理方法。
  7. 対話型機械読解タスクにおける現在の質問を表す単語列である質問Qと、過去の質問を表す単語列の集合である質問履歴{Q,・・・,Qi-1}と、前記過去の質問に対する過去の回答を表す単語列の集合である回答履歴{A,・・・,Ai-1}とを接続した第1入力単語列、又は、クラス分類タスクで分類対象となる各文をそれぞれ表す単語列を接続した第2入力単語列のいずれかを入力として、第1モデルパラメータを用いて、前記第1入力単語列又は前記第2入力単語列で表される文脈の文脈符号化ベクトルuを生成する文脈符号化手順と、
    前記質問Qに対する回答Aの生成に用いられる文書Pと、前記第1入力単語列から生成された文脈符号化ベクトルuとを入力として、第2モデルパラメータを用いて、前記文書Pと前記第1入力単語列に含まれる前記過去の質問及び前記過去の回答とのマッチングを行い、前記質問Qに対する回答Aを生成する回答生成手順と、
    前記第2入力単語列から生成された文脈符号化ベクトルuを入力として、第3モデルパラメータを用いて、前記各文のそれぞれが属するクラスを推定するクラス推定手順と、
    前記回答Aと前記質問Qに対する正解回答との誤差を用いて、前記第1モデルパラメータと前記第2モデルパラメータとを更新する第1更新手順と、
    前記クラスと前記分類対象となる各文のそれぞれが属する正解クラスとの誤差を用いて、前記第1モデルパラメータと前記第3モデルパラメータを更新する第2更新手順と、
    をコンピュータが実行することを特徴とする学習方法。
  8. コンピュータを、請求項1又は2に記載の対話処理装置における各手段、又は、請求項3乃至5の何れか一項に記載の学習装置における各手段、として機能させるためのプログラム。
JP2021563529A 2019-12-12 2019-12-12 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム Active JP7342971B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/048632 WO2021117180A1 (ja) 2019-12-12 2019-12-12 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2021117180A1 JPWO2021117180A1 (ja) 2021-06-17
JP7342971B2 true JP7342971B2 (ja) 2023-09-12

Family

ID=76330031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021563529A Active JP7342971B2 (ja) 2019-12-12 2019-12-12 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム

Country Status (3)

Country Link
US (1) US20230034414A1 (ja)
JP (1) JP7342971B2 (ja)
WO (1) WO2021117180A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11727209B2 (en) * 2020-04-27 2023-08-15 Adobe Inc. Systems for role classification
JP7232485B1 (ja) 2022-07-01 2023-03-03 株式会社ジョインポイントテック 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN117235239B (zh) * 2023-11-13 2024-02-20 智慧眼科技股份有限公司 一种主动式对话大模型构建装置、方法、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132812A (ja) 2000-10-19 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> 質問応答方法、質問応答システム及び質問応答プログラムを記録した記録媒体
JP2018206307A (ja) 2017-06-09 2018-12-27 エヌ・ティ・ティ レゾナント株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132812A (ja) 2000-10-19 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> 質問応答方法、質問応答システム及び質問応答プログラムを記録した記録媒体
JP2018206307A (ja) 2017-06-09 2018-12-27 エヌ・ティ・ティ レゾナント株式会社 情報処理装置、情報処理方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大塚 淳史 外,質問の意図を特定するニューラル質問生成モデル,日本データベース学会和文論文誌 [online],日本,日本データベース学会,2019年03月12日,第17-J巻,pp. 1-8

Also Published As

Publication number Publication date
US20230034414A1 (en) 2023-02-02
JPWO2021117180A1 (ja) 2021-06-17
WO2021117180A1 (ja) 2021-06-17

Similar Documents

Publication Publication Date Title
Uc-Cetina et al. Survey on reinforcement learning for language processing
JP7087938B2 (ja) 質問生成装置、質問生成方法及びプログラム
US10664744B2 (en) End-to-end memory networks
CN111344779B (zh) 训练和/或使用编码器模型确定自然语言输入的响应动作
Kalchbrenner et al. Recurrent convolutional neural networks for discourse compositionality
JP7342971B2 (ja) 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム
JP6611053B2 (ja) 主題推定システム、主題推定方法およびプログラム
CA3022998A1 (en) Method and device for generative adversarial network training
KR102189688B1 (ko) 동의어 추출 방법
CN108604311B (zh) 利用层级式外部存储器的增强神经网络
WO2019235103A1 (ja) 質問生成装置、質問生成方法及びプログラム
CN112905735A (zh) 用于自然语言处理的方法和设备
JP6649536B1 (ja) 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム
CN110210032A (zh) 文本处理方法及装置
JP6312467B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN108665055A (zh) 一种图说生成方法及装置
CN113826125A (zh) 使用无监督数据增强来训练机器学习模型
JP7422767B2 (ja) 自然言語ソリューション
CN110110331B (zh) 文本生成方法、装置、介质和计算设备
CN112825249A (zh) 语音处理方法和设备
CN113505583A (zh) 基于语义决策图神经网络的情感原因子句对提取方法
CN114528398A (zh) 一种基于交互双重图卷积网络的情感预测方法及***
CN114528387A (zh) 基于对话流自举的深度学习对话策略模型构建方法和***
CN112183062B (zh) 一种基于交替解码的口语理解方法、电子设备和存储介质
KR102610431B1 (ko) 인공지능 분석 기반 프로그램 소스코드의 요약문 생성 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R150 Certificate of patent or registration of utility model

Ref document number: 7342971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150