JP5959598B2 - Model learning device, ranking device, method, and program - Google Patents

Model learning device, ranking device, method, and program Download PDF

Info

Publication number
JP5959598B2
JP5959598B2 JP2014217760A JP2014217760A JP5959598B2 JP 5959598 B2 JP5959598 B2 JP 5959598B2 JP 2014217760 A JP2014217760 A JP 2014217760A JP 2014217760 A JP2014217760 A JP 2014217760A JP 5959598 B2 JP5959598 B2 JP 5959598B2
Authority
JP
Japan
Prior art keywords
utterance
sequence
unit
feature amount
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014217760A
Other languages
Japanese (ja)
Other versions
JP2016085597A (en
Inventor
東中 竜一郎
竜一郎 東中
今村 賢治
賢治 今村
克人 別所
克人 別所
牧野 俊朗
俊朗 牧野
松尾 義博
義博 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014217760A priority Critical patent/JP5959598B2/en
Publication of JP2016085597A publication Critical patent/JP2016085597A/en
Application granted granted Critical
Publication of JP5959598B2 publication Critical patent/JP5959598B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、モデル学習装置、ランキング装置、方法、及びプログラムに係り、特に、発話列の結束性を判定するためのモデルを学習するモデル学習装置、方法、及びプログラム、並びに、発話列をランキングするランキング装置、方法、及びプログラムに関する。   The present invention relates to a model learning device, a ranking device, a method, and a program, and in particular, a model learning device, a method, and a program for learning a model for determining coherence of an utterance sequence, and an utterance sequence. The present invention relates to a ranking apparatus, method, and program.

近年、ユーザと雑談を行う対話システムが研究されている。特に着目されている手法は抽出ベースの手法である。これは、ウェブやツイッター(登録商標)などから入力されたユーザ発話と高い関連度を持つものを選択することでシステム発話を実現する手法である。例えば、ツイッター(登録商標)からユーザ発話に関連するツイートを選択して発話を生成する旨が示されている。ウェブやツイッター(登録商標)といった大量のデータに基づくことで、幅広い内容を持つユーザ発話について、適切に応答できる可能性がある(非特許文献1)。   In recent years, a dialogue system for chatting with a user has been studied. A technique that is particularly attracting attention is an extraction-based technique. This is a technique for realizing system utterance by selecting a user utterance having a high degree of relevance input from the web or Twitter (registered trademark). For example, it is shown that a utterance is generated by selecting a tweet related to a user utterance from Twitter (registered trademark). Based on a large amount of data such as the web and Twitter (registered trademark), there is a possibility that a user utterance having a wide range of contents can be appropriately responded (Non-Patent Document 1).

また、抽出ベースのシステムでは、一般にユーザの入力発話と高い関連度を持つ文を大規模なテキストデータ(ウェブやツイッター(登録商標)のデータ)から選択する。関連度としては、単語ベクトルから計算されるコサイン類似度などを用いることが多い。ツイッター(登録商標)を用いる場合、ユーザの入力発話と関連度が高いツイートをまず選択し、このツイートに応答しているツイート(in-reply-toというメタ情報を用いて求めることができる)を用いてユーザ発話とする手法もある。   In addition, in an extraction-based system, a sentence having a high degree of relevance with a user's input utterance is generally selected from large-scale text data (Web or Twitter (registered trademark) data). As the degree of association, cosine similarity calculated from a word vector is often used. When using Twitter (registered trademark), first select a tweet that has a high degree of relevance to the user's input utterance, and then select the tweet responding to this tweet (which can be determined using meta information called in-reply-to) There is also a method of using it as a user utterance.

Bessho, F., Harada, T., and Kuniyoshi, Y. (2012). “Dialog System Using Real-Time Crowdsourcing and Twitter Large-Scale Corpus." In Proc. SIGDIAL,pp. 227-231.Bessho, F., Harada, T., and Kuniyoshi, Y. (2012). “Dialog System Using Real-Time Crowdsourcing and Twitter Large-Scale Corpus.” In Proc. SIGDIAL, pp. 227-231.

しかし、関連度に基づいて選択された発話が必ずしもよい発話であるとは限らない。内容は関連しているが、適切な応答ではないものが選択されるケースもある。例えば、ユーザ発話が質問であったとすると、なるべく質問に応答をした方が適切と考えられるが、内容の関連度だけに着目すると、質問に応答していない発話であっても高い関連度になりうる。そうした場合、不適切な発話を生成する可能性があるという問題がある。   However, the utterance selected based on the degree of association is not always a good utterance. In some cases, the content is relevant but not the appropriate response. For example, if the user utterance was a question, it would be more appropriate to respond to the question as much as possible. However, focusing only on the relevance of the content, the utterance not responding to the question will be highly relevant. sell. In such a case, there is a problem that inappropriate utterances may be generated.

本発明では、上記問題点を解決するために成されたものであり、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができるモデル学習装置、方法、及びプログラムを提供することを目的とする。   In the present invention, a model learning device, a method, and a method for learning a model for accurately ranking an utterance sequence based on the coherence of the utterance sequence, which is made to solve the above-described problems, and The purpose is to provide a program.

また、本発明では、発話列の結束性に基づいて発話列を精度よくランキングすることができるランキング装置、方法、及びプログラムを提供することを目的とする。   It is another object of the present invention to provide a ranking device, method, and program capable of accurately ranking utterance strings based on the coherence of utterance strings.

上記目的を達成するために、第1の発明に係るモデル学習装置は、正例として入力された、連続する複数の発話からなる発話列に基づいて、前記発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例として作成する疑似負例作成部と、前記正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、前記疑似負例作成部により作成された発話列に対する係り受け解析結果に基づいて、前記特徴量を抽出する特徴量抽出部と、前記特徴量抽出部において抽出された前記特徴量に基づいて、前記正例として入力された発話列の特徴量が、前記疑似負例作成部により作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習するモデル学習部と、を含んで構成されている。   In order to achieve the above object, the model learning device according to the first invention separates the last utterance included in the utterance sequence based on an utterance sequence composed of a plurality of continuous utterances inputted as a positive example. Based on the pseudo-negative example creation unit that creates the utterance string replaced with the utterance of the pseudo-negative example, and the dependency analysis result for the utterance string input as the positive example, the feature value is extracted, and the pseudo-negative example Based on the dependency analysis result for the utterance sequence created by the creation unit, the feature amount extracting unit that extracts the feature amount, and the positive example based on the feature amount extracted by the feature amount extraction unit A model learning unit that learns a model for determining the cohesiveness of the utterance sequence so that the feature amount of the uttered sequence is ranked higher than the feature amount of the utterance sequence created by the pseudo negative example creation unit And Nde is configured.

第2の発明に係るモデル学習方法は、疑似負例作成部と、特徴量抽出部と、モデル学習部と、を含むモデル学習装置におけるモデル学習方法であって、前記疑似負例作成部は、正例として入力された、連続する複数の発話からなる発話列に基づいて、前記発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例として作成し、前記特徴量抽出部は、前記正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、前記疑似負例作成部により作成された発話列に対する係り受け解析結果に基づいて、前記特徴量を抽出し、前記モデル学習部は、前記特徴量抽出部において抽出された前記特徴量に基づいて、前記正例として入力された発話列の特徴量が、前記疑似負例作成部により作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習する。   A model learning method according to a second invention is a model learning method in a model learning device including a pseudo negative example creation unit, a feature amount extraction unit, and a model learning unit, wherein the pseudo negative example creation unit includes: Based on an utterance sequence consisting of a plurality of continuous utterances input as a positive example, an utterance sequence in which the last utterance included in the utterance sequence is replaced with another utterance is created as a pseudo negative example, and the feature amount The extraction unit extracts a feature amount based on the dependency analysis result for the utterance sequence input as the positive example, and based on the dependency analysis result for the utterance sequence created by the pseudo negative example creation unit, A feature quantity is extracted, and the model learning unit creates a feature quantity of the utterance string input as the positive example based on the feature quantity extracted by the feature quantity extraction unit by the pseudo negative example creation unit. Utterance sequence As it will be ranked high than Choryou learns a model to determine the cohesion of speech column.

第1及び第2の発明によれば、疑似負例作成部により、正例として入力された、連続する複数の発話からなる発話列に基づいて、発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例として作成し、特徴量抽出部により、正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、疑似負例作成部により作成された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、モデル学習部により、特徴量抽出部において抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例作成部により作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習する。   According to the first and second inventions, the last utterance included in the utterance sequence is changed to another utterance based on the utterance sequence consisting of a plurality of continuous utterances input as a positive example by the pseudo negative example creation unit. The utterance sequence replaced with is created as a pseudo negative example, and the feature amount extraction unit extracts the feature amount based on the dependency analysis result for the utterance sequence input as a positive example, and creates it by the pseudo negative example creation unit The feature amount is extracted based on the dependency analysis result for the utterance sequence, and the feature amount of the utterance sequence input as a positive example is calculated based on the feature amount extracted by the feature amount extraction unit by the model learning unit. Then, a model for determining the cohesiveness of the utterance sequence is learned so that it is ranked higher than the feature amount of the utterance sequence created by the pseudo negative example creation unit.

このように、疑似負例を作成し、正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、疑似負例の発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例の発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習することにより、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができる。   In this way, a pseudo negative example is created, the feature amount is extracted based on the dependency analysis result for the utterance sequence input as the positive example, and the feature value is extracted based on the dependency analysis result for the utterance sequence of the pseudo negative example. The utterance string is coherent so that the feature quantity of the utterance string input as a positive example is ranked higher than the feature quantity of the utterance string of the pseudo negative example based on the extracted feature quantity. By learning a model for determining the utterance sequence, it is possible to learn a model for accurately ranking the utterance sequence based on the cohesiveness of the utterance sequence.

また、第1の発明において、前記特徴量抽出部は、前記発話列に対する係り受け解析結果に基づいて、前記発話列の依存構造を抽出し、前記抽出された依存構造に含まれる単語を前記単語の意味を表す意味属性として表現した特徴量を抽出してもよい。   In the first invention, the feature amount extraction unit extracts a dependency structure of the utterance sequence based on a dependency analysis result with respect to the utterance sequence, and selects a word included in the extracted dependency structure as the word. A feature amount expressed as a semantic attribute that represents the meaning of may be extracted.

また、第1の発明において、前記特徴量抽出部は、前記発話列に対する係り受け解析結果に基づいて、前記抽出された依存構造に含まれる単語を、前記単語の意味を表す意味属性より上位の意味を表す意味属性として表現した特徴量を抽出してもよい。   Further, in the first invention, the feature amount extraction unit is configured to select a word included in the extracted dependency structure based on a dependency analysis result for the utterance string above a semantic attribute representing the meaning of the word. A feature amount expressed as a semantic attribute representing meaning may be extracted.

第3の発明に係るランキング装置は、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、前記複数の発話候補の各々に対し、前記発話列に続く発話として前記発話候補を追加した発話列を構成する発話列構成部と、前記発話列構成部によって構成された発話列の各々について、前記発話列に対する係り受け解析結果に基づいて、前記特徴量を抽出する特徴量抽出部と、前記特徴量抽出部によって抽出された前記発話列の各々についての前記特徴量と、第1の発明のモデル学習装置によって学習された前記モデルとに基づいて、前記発話列構成部によって構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力するランキング部と、を含んで構成されている。   The ranking device according to a third aspect of the present invention provides an utterance following the utterance sequence for each of the plurality of utterance candidates based on an utterance sequence consisting of a plurality of utterances input as a dialogue context and a plurality of utterance candidates. For each of the utterance sequence constituting the utterance sequence to which the utterance candidate is added and the utterance sequence configured by the utterance sequence configuration unit, the feature amount is extracted based on the dependency analysis result for the utterance sequence Based on the feature amount extraction unit, the feature amount of each of the utterance sequences extracted by the feature amount extraction unit, and the model learned by the model learning device of the first invention. A ranking unit that ranks the utterance sequence configured by the configuration unit and outputs utterance candidates included in the utterance sequence ranked higher.

第4の発明に係るランキング方法は、発話列構成部と、特徴量抽出部と、ランキング部と、を含むランキング装置におけるランキング方法であって、前記発話列構成部は、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、前記複数の発話候補の各々に対し、前記発話列に続く発話として前記発話候補を追加した発話列を構成し、前記特徴量抽出部は、前記発話列構成部によって構成された発話列の各々について、前記発話列に対する係り受け解析結果に基づいて、前記特徴量を抽出し、前記ランキング部は、前記特徴量抽出部によって抽出された前記発話列の各々についての前記特徴量と、第2の発明のモデル学習方法によって学習された前記モデルとに基づいて、前記発話列構成部によって構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力する。   A ranking method according to a fourth invention is a ranking method in a ranking device including an utterance string configuration unit, a feature amount extraction unit, and a ranking unit, wherein the utterance string configuration unit is input as a conversation context Based on an utterance string composed of a plurality of utterances and a plurality of utterance candidates, the utterance string is configured by adding the utterance candidate as an utterance following the utterance string to each of the plurality of utterance candidates, and the feature amount The extraction unit extracts the feature amount for each of the utterance sequences configured by the utterance sequence configuration unit based on a dependency analysis result for the utterance sequence, and the ranking unit extracts by the feature amount extraction unit Configured by the utterance sequence configuration unit based on the feature amount for each of the uttered sequences and the model learned by the model learning method of the second invention. Ranking speech sequence, and outputs the utterance candidates included in the ranking utterance string to the upper.

第3及び第4の発明によれば、発話列構成部により、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、特徴量抽出部により、発話列構成部によって構成された発話列の各々について、発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、ランキング部により、特徴量抽出部によって抽出された発話列の各々についての特徴量と、第1又は第2の発明のモデル学習装置又はモデル学習方法によって学習されたモデルとに基づいて、発話列構成部によって構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力する。   According to the third and fourth inventions, for each of a plurality of utterance candidates, based on an utterance sequence consisting of a plurality of utterances input as a conversation context by the utterance sequence configuration unit and a plurality of utterance candidates, An utterance sequence in which utterance candidates are added as utterances following the utterance sequence is constructed, and the feature amount is extracted based on the dependency analysis result for the utterance sequence for each of the utterance sequences configured by the utterance sequence configuration unit. And the ranking unit based on the feature amount of each utterance string extracted by the feature amount extraction unit and the model learned by the model learning device or model learning method of the first or second invention The utterance strings constructed by the utterance string construction unit are ranked, and the utterance candidates included in the utterance strings ranked higher are output.

このように、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、構成された発話列の各々について、発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された発話列の各々についての特徴量と、学習されたモデルとに基づいて、構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力することにより、発話列の結束性に基づいて発話列を精度よくランキングすることができる。   As described above, an utterance sequence in which an utterance candidate is added as an utterance following the utterance sequence for each of a plurality of utterance candidates based on an utterance sequence composed of a plurality of utterances input as a dialogue context. For each configured utterance sequence, based on the dependency analysis result for the utterance sequence, and based on the feature amount for each extracted utterance sequence and the learned model Thus, by ranking the configured utterance strings and outputting the utterance candidates included in the utterance strings ranked higher, the utterance strings can be accurately ranked based on the coherence of the utterance strings.

また、本発明のプログラムは、コンピュータを、上記のモデル学習装置、及びランキング装置を構成する各部として機能させるためのプログラムである。   Moreover, the program of this invention is a program for functioning a computer as each part which comprises said model learning apparatus and ranking apparatus.

以上説明したように、本発明のモデル学習装置、方法、及びプログラムによれば、疑似負例を作成し、正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、疑似負例の発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例の発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習することにより、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができる。   As described above, according to the model learning apparatus, method, and program of the present invention, a pseudo negative example is created, and feature quantities are extracted based on the dependency analysis result for the utterance string input as the positive example. The feature amount is extracted based on the dependency analysis result with respect to the utterance sequence of the pseudo negative example, and the feature amount of the utterance sequence input as the positive example based on the extracted feature amount is the utterance sequence of the pseudo negative example. Learning a model for accurately ranking utterance strings based on the coherence of utterance strings by learning a model for judging the coherence of utterance strings so that it is ranked higher than the feature quantity of be able to.

また、本発明のランキング装置、方法、及びプログラムによれば、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、構成された発話列の各々について、発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された発話列の各々についての特徴量と、学習されたモデルとに基づいて、構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力することにより、発話列の結束性に基づいて発話列を精度よくランキングすることができる。   Further, according to the ranking apparatus, method, and program of the present invention, an utterance is made for each of a plurality of utterance candidates based on an utterance string composed of a plurality of utterances input as a conversation context and a plurality of utterance candidates. Consists of utterance sequences with utterance candidates added as utterances following the sequence, and for each configured utterance sequence, features are extracted based on the dependency analysis results for the utterance sequence, and for each extracted utterance sequence Utterances based on the coherence of the utterance sequence by ranking the configured utterance sequence based on the feature amount of and the learned model and outputting the utterance candidates included in the utterance sequence ranked higher Columns can be ranked accurately.

本発明の第1の実施の形態に係るモデル学習装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the model learning apparatus which concerns on the 1st Embodiment of this invention. 対話データの集合の例を示す図である。It is a figure which shows the example of the collection of dialogue data. 疑似負例作成のイメージの例を示す図である。It is a figure which shows the example of the image of pseudo negative example preparation. 係り受け解析器JDEPを用いた場合の結果の例を示す図である。It is a figure which shows the example of the result at the time of using the dependency analyzer JDEP. 特徴量の例を示す図である。It is a figure which shows the example of a feature-value. 学習したモデルにおける重みの例を示す図である。It is a figure which shows the example of the weight in the learned model. 本発明の第1の実施の形態に係るランキング装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the ranking apparatus which concerns on the 1st Embodiment of this invention. 文脈の例を示す図である。It is a figure which shows the example of a context. 発話候補の例を示す図である。It is a figure which shows the example of an utterance candidate. 作成された発話列の例を示す図である。It is a figure which shows the example of the produced utterance string. 2つの発話列の発話から取得される特徴量を示す図である。It is a figure which shows the feature-value acquired from the utterance of two utterance strings. 本発明の第1の実施の形態に係るモデル学習装置におけるモデル学習処理ルーチンを示すフローチャート図である。It is a flowchart figure which shows the model learning process routine in the model learning apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るランキング装置におけるランキング処理ルーチンを示すフローチャート図である。It is a flowchart figure which shows the ranking process routine in the ranking apparatus which concerns on the 1st Embodiment of this invention. ランキング結果の例を示す図である。It is a figure which shows the example of a ranking result. 本発明の第2の実施の形態に係るモデル学習装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the model learning apparatus which concerns on the 2nd Embodiment of this invention. 特徴量の例を示す図である。It is a figure which shows the example of a feature-value. 本発明の第2の実施の形態に係るランキング装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the ranking apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係るモデル学習装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the model learning apparatus which concerns on the 3rd Embodiment of this invention. 特徴量の例を示す図である。It is a figure which shows the example of a feature-value. 本発明の第3の実施の形態に係るランキング装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the ranking apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係るモデル学習装置におけるモデル学習処理ルーチンを示すフローチャート図である。It is a flowchart figure which shows the model learning process routine in the model learning apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係るランキング装置におけるランキング処理ルーチンを示すフローチャート図である。It is a flowchart figure which shows the ranking process routine in the ranking apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係るモデル学習装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the model learning apparatus which concerns on the 4th Embodiment of this invention. 特徴量の例を示す図である。It is a figure which shows the example of a feature-value. 本発明の第4の実施の形態に係るランキング装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the ranking apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施の形態に係るモデル学習装置におけるモデル学習処理ルーチンを示すフローチャート図である。It is a flowchart figure which shows the model learning process routine in the model learning apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施の形態に係るランキング装置におけるランキング処理ルーチンを示すフローチャート図である。It is a flowchart figure which shows the ranking process routine in the ranking apparatus based on the 4th Embodiment of this invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<本発明の原理>
本実施の形態においては、対話システムとの対話において、発話のつながりのよさを示す結束性を判定して、発話候補を選択する。本実施の形態は、モデル学習フェーズと、ランキングフェーズとから構成される。
<Principle of the present invention>
In the present embodiment, in the dialogue with the dialogue system, the cohesiveness indicating the goodness of the utterance connection is determined, and the utterance candidate is selected. The present embodiment includes a model learning phase and a ranking phase.

不適切な発話を生成してしまわないために、発話のつながりのよさ(結束性)を考慮して、発話を選択する必要がある。   In order not to generate an inappropriate utterance, it is necessary to select an utterance in consideration of the continuity of the utterance (cohesion).

結束性の判定を行うための方法として教師あり学習の手法が考えられる。例えば、結束性が高い発話列と結束性が低い発話列をそれぞれ準備し、これらから結束性が高いか低いかを二値分類する分類器を学習すればよい。しかし、雑談のような雑多な話題を持った対話では、様々なやりとりがなされる。それらをすべてカバーするような学習データを作ることは非常にコストがかかり困難である。そこで、本実施の形態においては、雑多な話題を持った対話のような学習事例を、疑似負例を用いて作成する。   As a method for determining cohesion, a supervised learning method can be considered. For example, an utterance sequence having high cohesiveness and an utterance sequence having low cohesiveness are prepared, and a classifier that performs binary classification of whether the cohesiveness is high or low may be learned. However, in conversations with various topics such as chat, various exchanges are made. It is very expensive and difficult to create learning data that covers all of them. Therefore, in the present embodiment, a learning example such as a dialogue with various topics is created using a pseudo negative example.

具体的には、まず大量の対話データを用意する。人間同士が話した自然な対話であれば何でもよい。そして、これらの対話データから一定の長さの発話列をサンプリングする。この発話列をAとする。同時に、発話列Aの最後の発話を他の発話とランダムに入れ替えた発話列(発話列B)も作成する。最後の発話がランダムに入れ替えられた発話列Bの結束性は、発話列Aよりも低いと想定できる。よって、発話列Aを正例とし、発話列Bを負例(疑似負例)とすることで、教師あり学習の手法が適用できる。   Specifically, a large amount of dialogue data is prepared first. Any natural dialogue spoken by humans can be used. Then, an utterance string of a certain length is sampled from these dialogue data. Let this utterance string be A. At the same time, an utterance string (utterance string B) in which the last utterance in the utterance string A is randomly replaced with another utterance is also created. It can be assumed that the cohesiveness of the utterance string B in which the last utterance is randomly replaced is lower than that of the utterance string A. Therefore, the supervised learning method can be applied by setting the utterance string A as a positive example and the utterance string B as a negative example (pseudo negative example).

なお、発話列Aは発話列Bよりも結束性が高いと考えられるが、発話列Bの結束性が必ずしも低いという保証はない。よって、学習手法としては相対的な序列を学習する手法であるランキング学習を用いる。具体的には、発話列Bよりも発話列Aが上位にランキングされるようにランキング規則を学習する。   Note that although the utterance string A is considered to have higher cohesion than the utterance string B, there is no guarantee that the utterance string B has a lower cohesiveness. Therefore, ranking learning, which is a method for learning relative ranks, is used as a learning method. Specifically, the ranking rule is learned so that the utterance string A is ranked higher than the utterance string B.

学習では特徴量が重要である。本実施の形態においては、発話列を表す特徴量として、最後の発話に含まれる単語の係り受け情報と、それ以前の発話のそれぞれに単語の係り受け情報を組み合わせた特徴量を用いる。係り受け情報は、単語間の依存関係で表され、単独の単語に着目していたのでは得られない、「何がどうした」のような文のおおまかな内容に関する情報を表すことができる。   Feature quantities are important for learning. In the present embodiment, as a feature amount representing an utterance string, a feature amount in which word dependency information included in the last utterance is combined with word dependency information in each previous utterance is used. The dependency information is expressed by dependency between words, and can represent information on a rough content of a sentence such as “what is wrong” that cannot be obtained by focusing on a single word.

それぞれの発話から依存構造を抽出し、これらの組み合わせを特徴量としてランキング学習を行う事で、内容に基づいて結束性の判定ができるようになる。なお、単語間の依存構造を特徴量とするということは特徴量の数が多くなり学習データが不足する恐れがある。そこで、本実施の形態においては、依存構造に含まれる単語を、単語の意味を表す意味属性によって抽象化する。また、意味属性の階層関係を用い、意味属性のさらに上位の意味属性を用いてさらなる抽象化を行う。   By extracting the dependency structure from each utterance and performing ranking learning using these combinations as feature quantities, it becomes possible to determine cohesion based on the contents. Note that using the dependency structure between words as a feature amount increases the number of feature amounts and may result in insufficient learning data. Therefore, in the present embodiment, words included in the dependency structure are abstracted by semantic attributes representing the meaning of the words. Further, using the hierarchical relation of semantic attributes, further abstraction is performed using semantic attributes higher in the semantic attributes.

具体的には、本実施の形態においては、下記(a)〜(d)の何れかの依存構造を抽出する。
(a)係り受け関係にある主辞のペアを依存構造として抽出
(b)係り受け関係にある主辞と機能語主辞のペアを依存構造として抽出
(c)上記主辞を対応する意味属性によって置き換えた依存構造を抽出
(d)上記意味属性をその上位概念によって置き換えた依存構造を抽出
Specifically, in this embodiment, any one of the following dependency structures (a) to (d) is extracted.
(A) A dependency pair pair extracted as a dependency structure is extracted as a dependency structure. (B) A dependency word combination of a main word and a function word main component is extracted as a dependency structure. (C) Dependence obtained by replacing the above main sentence with a corresponding semantic attribute. Extract structure (d) Extract dependency structure with the above semantic attribute replaced by its superordinate concept

本実施の形態においては、大量の対話データから、正例の発話列と疑似負例の発話列を生成し、特徴量を抽出し、ランキング学習を行う。また、学習されたランキングのモデルを対話システムの発話候補選択に適用することで、結束性の高い発話を行う対話システムにおける発話生成を実現する。   In the present embodiment, a positive example utterance sequence and a pseudo negative example utterance sequence are generated from a large amount of dialogue data, feature quantities are extracted, and ranking learning is performed. Furthermore, by applying the learned ranking model to utterance candidate selection of the dialogue system, utterance generation in the dialogue system that performs utterance with high cohesion is realized.

<本発明の第1の実施の形態に係るモデル学習装置の構成>
次に、本発明の第1の実施の形態に係るモデル学習装置の構成について説明する。図1に示すように、本発明の第1の実施の形態に係るモデル学習装置100は、CPUと、RAMと、後述するモデル学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このモデル学習装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部90とを備えている。
<Configuration of Model Learning Device According to First Embodiment of the Present Invention>
Next, the configuration of the model learning device according to the first embodiment of the present invention will be described. As shown in FIG. 1, the model learning device 100 according to the first embodiment of the present invention includes a CPU, a RAM, a ROM for storing a program and various data for executing a model learning processing routine described later, and , Can be configured with a computer including. Functionally, the model learning apparatus 100 includes an input unit 10, a calculation unit 20, and an output unit 90 as shown in FIG.

入力部10は、図2に示すような、対話データの集合を受け付ける。ここで、対話データは、連続する複数の発話からなるものとする。ここで、対話データは二人の話者によるものとし、発話は交互に違う話者が話したものとする。なお、第1の実施の形態において、対話データについては、話者情報を取り除いたものとする。   The input unit 10 accepts a set of dialogue data as shown in FIG. Here, it is assumed that the dialogue data consists of a plurality of continuous utterances. Here, it is assumed that the dialogue data is from two speakers, and the utterances are spoken by alternately different speakers. In the first embodiment, it is assumed that the speaker data is removed from the conversation data.

演算部20は、発話列抽出部22と、疑似負例作成部24と、形態素解析部26と、係り受け解析部28と、特徴量抽出部30と、モデル学習部32と、モデル記憶部34と、を備えている。   The calculation unit 20 includes an utterance string extraction unit 22, a pseudo negative example creation unit 24, a morpheme analysis unit 26, a dependency analysis unit 28, a feature amount extraction unit 30, a model learning unit 32, and a model storage unit 34. And.

発話列抽出部22は、入力部10において受け付けた対話データの各々について、当該対話データに含まれる、N個の連続する複数の発話からなる発話列の各々を抽出し、抽出された発話列の各々を正例の発話列とする。なお、発話列の抽出は、先頭に位置する発話を1つずつ繰り下げて抽出するため、発話列の各々に、重複する発話が含まれることになる。また、第1の実施の形態においてNの値は2とする。   For each piece of dialogue data received by the input unit 10, the utterance sequence extraction unit 22 extracts each of the utterance sequences composed of a plurality of N consecutive utterances included in the dialogue data, and extracts the extracted utterance sequence. Each is a positive utterance string. Note that since the utterance string is extracted by extracting the utterances positioned at the head one by one, duplicate utterances are included in each utterance string. In the first embodiment, the value of N is 2.

疑似負例作成部24は、発話列抽出部22において抽出された発話列の各々について、当該発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例の発話列として作成する。具体的には、発話列に含まれる最後の発話を、当該発話列を抽出した対話データからランダムに取得した発話に置き換える。ここで、1つの対話データにM個の発話があったとすると、当該対話データについては、Nが2の場合、M−1個の正例と、M−1個の疑似負例を作成できる。また、Nが3の場合、M−2個の正例と、M−2個の疑似負例を作成できる。図3に疑似負例作成のイメージを示す。なお、入力部10において受け付けた対話データの集合がL個の対話データであったとすると、L個の対話データの各々について、発話列抽出部22において正例の発話列の各々を作成し、疑似負例作成部24において、疑似負例の発話列の各々を作成する。   For each utterance string extracted by the utterance string extraction unit 22, the pseudo negative example creation unit 24 uses an utterance string obtained by replacing the last utterance included in the utterance string with another utterance as an utterance string of the pseudo negative example. create. Specifically, the last utterance included in the utterance string is replaced with an utterance randomly acquired from the conversation data from which the utterance string is extracted. Assuming that there are M utterances in one dialogue data, when N is 2, for the dialogue data, M-1 positive examples and M-1 pseudo negative examples can be created. Further, when N is 3, M-2 positive examples and M-2 pseudo negative examples can be created. FIG. 3 shows an image of creating a pseudo negative example. If the set of dialogue data received by the input unit 10 is L pieces of dialogue data, the utterance row extraction unit 22 creates each of the positive example utterance rows for each of the L pieces of dialogue data. The negative example creation unit 24 creates each of the pseudo negative example utterance strings.

形態素解析部26は、発話列抽出部22において抽出された正例の発話列の各々、及び疑似負例作成部24において作成された疑似負例の発話列の各々について、当該発話列に含まれる発話毎に、形態素解析を行う。   The morpheme analysis unit 26 includes each of the positive example utterance sequences extracted by the utterance sequence extraction unit 22 and each of the pseudo negative example utterance sequences created by the pseudo negative example creation unit 24 in the utterance sequence. Perform morphological analysis for each utterance.

係り受け解析部28は、形態素解析部26において形態素解析された正例の発話列の各々、及び疑似負例作成部24において作成された疑似負例の発話列の各々について、当該発話列に含まれる発話毎に、係り受け解析を行う。ここで、係り受け解析結果とは、発話を文節に区切り、その文節間の依存構造を与えたものである。   The dependency analysis unit 28 includes each of the positive example utterance strings analyzed by the morpheme analysis unit 26 and each of the pseudo negative example utterance strings created by the pseudo negative example creation unit 24 in the utterance string. Dependency analysis is performed for each utterance. Here, the dependency analysis result is obtained by dividing an utterance into phrases and giving a dependency structure between the phrases.

特徴量抽出部30は、係り受け解析部28において取得した、正例の発話列の各々、及び疑似負例の発話列の各々に含まれる発話毎の係り受け解析結果に基づいて、正例の発話列の各々、及び疑似負例の発話列の各々について、特徴量を抽出する。具体的には、まず、発話列に含まれる発話の各々について、当該発話の係り受け解析結果に基づいて依存構造を取得する。ここで、依存構造は、発話の係り受け解析結果から取得することができる。   Based on the dependency analysis results for each utterance included in each of the positive example utterance strings and each of the pseudo negative example utterance strings, the feature amount extraction unit 30 acquires the positive example. Feature values are extracted for each utterance string and each pseudo-negative utterance string. Specifically, first, for each utterance included in the utterance string, a dependency structure is acquired based on the dependency analysis result of the utterance. Here, the dependency structure can be acquired from the dependency analysis result of the utterance.

例えば、「私がイギリスに行く」という発話について、文節区切りを「/」で表すとすると「私が/イギリスに/行く」となる。文節は内容を表す内容部と機能部からなる。内容部は名詞や動詞といった内容を伴う単語(内容語)から構成される。内容部には主辞と呼ばれる単語があり、これが内容部の中で最も重要な単語となる。機能部は助詞などから構成される部分であり、内容部と同様、機能語を代表する単語として機能語主辞がある。   For example, if the phrase break is represented by “/” for the utterance “I go to the UK”, then “I / go to the UK”. A phrase consists of a content part representing the content and a function part. The content part is composed of words (content words) with contents such as nouns and verbs. There is a word called the main word in the content part, which is the most important word in the content part. The functional part is a part composed of particles and the like. Like the content part, a functional word main word is a word representing the functional word.

係り受け解析結果において、文節同士には依存関係がある。例えば、先の文であれば「私が」は「行く」に、「イギリスに」も「行く」に係っている。なお、第1の実施の形態においては、係り受け解析結果から得られる依存構造として、係り受け関係を持つ内容語主辞(単に主辞ともいう)のペアを抽出する。例えば、「私が」の主辞は「私」であり、「行く」の主辞は「行」である(「く」は語尾)。すなわち、「私−行」という依存構造が抽出される。また、同様に、「イギリス−行」も抽出される。   In the dependency analysis result, there is a dependency relationship between clauses. For example, in the previous sentence, “I am” is related to “go”, and “to England” is related to “go”. In the first embodiment, a pair of content word main words (also referred to simply as main words) having a dependency relationship is extracted as a dependency structure obtained from the dependency analysis result. For example, the main word of “I am” is “I”, and the main word of “go” is “line” (“ku” is the ending). That is, the dependency structure “I-row” is extracted. Similarly, “UK-row” is also extracted.

次に、例えば、長さNの発話列の最後の発話(N番目の発話)から、依存構造がA個抽出され、一方、N−1番目の発話から、依存構造がB個抽出されている場合、当該発話列の特徴量として、当該発話列に含まれる発話の各々の依存構造同士の全ての組み合わせを表す素性(その組み合わせが存在するか否かを表す二値素性)を抽出する。この場合、全部でA×B個の素性を抽出する。また、例えば、発話列にN−2番目の発話が存在する場合(即ち、Mが3以上である場合)、最後の発話の依存構造、N−1番目の発話の依存構造、N−2番目の発話の依存構造の組み合わせを表す素性を抽出する。具体的には、最後の発話から依存構造がC個抽出され、N−1番目の発話から依存構造がD個抽出され、N−2番目の発話から依存構造がE個抽出されたとすると、最後の発話の依存構造と以前の発話の依存構造のそれぞれとを組み合わせて、C×D+C×E個の素性を作成する。このように、最後の発話の依存構造と、発話列の最後の発話以外の発話の依存構造との全ての組み合わせを表す素性を、特徴量として抽出する。   Next, for example, A dependency structures are extracted from the last utterance (Nth utterance) of the utterance string of length N, while B dependency structures are extracted from the (N-1) th utterance. In this case, as the feature amount of the utterance string, a feature representing all combinations of the dependency structures of the utterances included in the utterance string (binary feature representing whether or not the combination exists) is extracted. In this case, A × B features are extracted in total. Also, for example, when the N-2th utterance exists in the utterance string (that is, when M is 3 or more), the dependency structure of the last utterance, the dependency structure of the N-1th utterance, the N-2th utterance Extract features that represent combinations of dependency structures of utterances. Specifically, if C dependency structures are extracted from the last utterance, D dependency structures are extracted from the (N-1) th utterance, and E dependency structures are extracted from the (N-2) th utterance, C × D + C × E features are created by combining the dependency structure of the utterance and the dependency structure of the previous utterance. In this way, the features representing all combinations of the dependency structure of the last utterance and the dependency structure of utterances other than the last utterance in the utterance string are extracted as feature amounts.

「趣味は何ですか?」、及び「そうですね、音楽鑑賞なんかをよくします。」という発話からなる発話列について素性を抽出した例について説明する。まず、当該発話列の発話各々について、係り受け解析部28において取得された係り受け解析結果は、図4に示すようになる。ここで、図4において、アスタリスクから始まる「* 0 1D 0/1」のような行は文節区切りを表し、アスタリスク以降は、文節ID、係り先文節IDと係りタイプ、「0/1」が主辞の位置、機能語主辞の位置である。アスタリスク以降の行は文節に含まれる単語の情報であり、単語の表層、品詞、標準表記、終止形(あれば)、読み、意味属性の情報である。意味属性は複数付与されていることがあるが、第1の実施の形態においては、最も重要とされる先頭のものを用いる。EOSは文区切りである。なお、第1の実施の形態においては、形態素解析部26、及び係り受け解析部28の処理で、出願人が開発したJDEPを用いており、図4に、係り受け解析器JDEPを用いた場合の結果を示す。   An example in which features are extracted from an utterance sequence consisting of utterances such as “What is your hobby?” And “Yes, I like to appreciate music” is explained. First, the dependency analysis result obtained by the dependency analysis unit 28 for each utterance in the utterance string is as shown in FIG. In FIG. 4, a line such as “* 0 1D 0/1” starting with an asterisk represents a phrase delimiter. After the asterisk, a phrase ID, a related phrase ID and a related type, “0/1” is the main character. The position of the function word main character. The lines after the asterisk are information on the word included in the phrase, and are information on the surface of the word, part of speech, standard notation, final form (if any), reading, and semantic attributes. A plurality of semantic attributes may be assigned, but in the first embodiment, the most important one is used. EOS is a sentence break. In the first embodiment, the JDEP developed by the applicant is used in the processing of the morphological analysis unit 26 and the dependency analysis unit 28, and the dependency analyzer JDEP is used in FIG. The results are shown.

当該発話の各々についての当該係り受け解析結果に基づいて取得された依存構造の組み合わせによって素性を作成すると、図5の様に素性が作成される。各素性は「|」で区切られており、素性値として1が与えられている。1は、その素性が存在していることを表す。「</s>」は、文末を表す素性であり、係り受け先が存在しない場合は、主辞と「</s>」との組み合わせによって依存構造が作成されるようにしている。素性の前の「D」というのは依存構造(Dependency)の素性であることを示す接頭辞である。   When a feature is created by a combination of dependency structures acquired based on the dependency analysis result for each utterance, the feature is created as shown in FIG. Each feature is delimited by “|”, and 1 is given as the feature value. 1 represents that the feature exists. “</ S>” is a feature representing the end of a sentence. When there is no dependency destination, a dependency structure is created by a combination of a main word and “</ s>”. “D” before the feature is a prefix indicating that it is a feature of the dependency structure.

モデル学習部32は、正例の発話列の各々について抽出された特徴量の各々と、疑似負例の発話列の各々について抽出された特徴量の各々とに基づいて、正例の発話列の各々について、当該正例の発話列に対応する擬似負例の発話列の特徴量より、当該正例の発話列の特徴量が上位にランキングされるように、ランキング学習により発話列の結束性を判定するためのモデルの学習を行い、モデル記憶部34に記憶する。具体的には、正例の発話列と当該正例の発話列から作成された疑似負例の発話列とのペアの各々について、当該正例の発話列の特徴量をFとし、当該疑似負例の発話列の特徴量をF´とし、ある重みベクトルWを用いて計算される、それぞれのスコア(内積により得られる)を比べ、FWがF´Wよりも大きくなるようなWを、最適化の手法などにより見つけることで、正例の発話列を疑似負例の発話列よりも上位にランキングする重みベクトル(ランキングモデル)を得ることができる。このような重みベクトルは、ランキング学習に一般的に用いられる手法である、ランキングSVMを用いることで、得ることが可能であり、出力は各素性の重みが記述されたモデルである。第1の実施の形態では、SVMにリニアSVMを用いる。   Based on each of the feature values extracted for each of the positive example speech strings and each of the feature values extracted for each of the pseudo negative example speech strings, the model learning unit 32 For each, the coherence of the utterance sequence is determined by ranking learning so that the feature amount of the utterance sequence of the positive example is ranked higher than the feature amount of the utterance sequence of the pseudo negative example corresponding to the utterance sequence of the positive example. The model for determination is learned and stored in the model storage unit 34. Specifically, for each pair of a positive example utterance sequence and a pseudo negative example utterance sequence created from the positive example utterance sequence, the feature amount of the positive example utterance sequence is F, and the pseudo negative example The feature amount of the utterance sequence in the example is F ′, and each score (obtained by the inner product) calculated using a certain weight vector W is compared, and the W that is larger than F′W is optimal. The weight vector (ranking model) that ranks the positive example utterance string higher than the pseudo negative example utterance string can be obtained by finding it using a conversion method or the like. Such a weight vector can be obtained by using ranking SVM, which is a method generally used for ranking learning, and the output is a model in which the weight of each feature is described. In the first embodiment, a linear SVM is used for the SVM.

モデル記憶部34には、モデル学習部32において学習された発話列の結束性を判定するモデルが記憶されている。図6に学習したモデルにおける重みの例を示す。「イギリス」という単語を含む素性で重みの大きいものから列挙している。   The model storage unit 34 stores a model for determining the cohesiveness of the utterance string learned by the model learning unit 32. FIG. 6 shows examples of weights in the learned model. Listed from features that contain the word “United Kingdom” with the most weight.

<第1の実施の形態に係るランキング装置の構成>
次に、本発明の第1の実施の形態に係るランキング装置の構成について説明する。図7に示すように、第1の実施の形態に係るランキング装置200は、CPUと、RAMと、後述するランキング処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このランキング装置200は、機能的には図7に示すように入力部210と、演算部220と、出力部290とを備えている。
<Configuration of ranking device according to first embodiment>
Next, the configuration of the ranking device according to the first embodiment of the present invention will be described. As shown in FIG. 7, the ranking device 200 according to the first embodiment is a computer including a CPU, a RAM, and a ROM that stores a program for executing a ranking processing routine described later and various data. Can be configured. Functionally, the ranking device 200 includes an input unit 210, a calculation unit 220, and an output unit 290 as shown in FIG.

入力部210は、1つ以上の発話からなる、ユーザと対話システムの発話列(以後、対話文脈とする。)と、P個の対話システムの発話候補とを受け付ける。ここで、対話システムの発話候補とは、入力部210において受け付ける、対話文脈に対応して、対話システムが生成した発話候補である。抽出ベースのシステムを対話システムとして用いる場合、直前のユーザの発話と関連度の高い(例えば、単語ベクトルのコサイン類似度が高い)発話の上位P個を発話候補とする。   The input unit 210 accepts an utterance string (hereinafter referred to as a dialog context) of a user and a dialog system, and utterance candidates of P dialog systems, which are composed of one or more utterances. Here, the utterance candidate of the dialog system is an utterance candidate generated by the dialog system corresponding to the dialog context received by the input unit 210. When an extraction-based system is used as a dialogue system, the top P utterances having a high degree of association with the immediately preceding user's utterance (for example, a word vector having a high cosine similarity) are set as utterance candidates.

演算部220は、発話列構成部222と、形態素解析部224と、係り受け解析部226と、特徴量抽出部228と、モデル記憶部230と、モデル適用部232と、ランキング部234と、を備えている。   The calculation unit 220 includes an utterance sequence configuration unit 222, a morpheme analysis unit 224, a dependency analysis unit 226, a feature amount extraction unit 228, a model storage unit 230, a model application unit 232, and a ranking unit 234. I have.

発話列構成部222は、入力部210において受け付けた、P個の対話システムの発話候補の各々について、入力部210において受け付けた対話文脈の最後に、当該対話システムの発話候補を追加して発話列を作成する。例えば、対話文脈に含まれる発話(U1,U2)があり、発話候補C1,C2があったとすると、(U1,U2,C1)と(U1,U2,C2)という発話列を作成する。なお、発話列構成部222は、後述するランキング部234が扱う発話列の長さに合わせて、発話列の要素数を所定の長さにする。例えば、ランキング部234が用いるモデルが2つの発話からなる発話列をランキングするように学習されている場合、発話列のそれぞれが2つの発話からなるようには発話列の先頭から切り詰める。例えば、(U1,U2,C1)と(U1,U2,C2)は、(U2,C1)と(U2,C2)という発話列になる。   For each of the P dialog system utterance candidates received by the input unit 210, the utterance string configuration unit 222 adds the utterance candidate of the dialog system to the end of the dialog context received by the input unit 210. Create For example, if there is an utterance (U1, U2) included in the dialog context and there are utterance candidates C1, C2, utterance strings (U1, U2, C1) and (U1, U2, C2) are created. Note that the utterance string configuration unit 222 sets the number of elements in the utterance string to a predetermined length in accordance with the length of the utterance string handled by the ranking unit 234 described later. For example, when the model used by the ranking unit 234 has been learned to rank an utterance string composed of two utterances, the utterance string is truncated from the beginning so that each utterance string is composed of two utterances. For example, (U1, U2, C1) and (U1, U2, C2) are utterance strings (U2, C1) and (U2, C2).

具体的には、対話文脈に含まれる発話が先頭から図8に示すように、「音楽が好きなんです。」、及び「楽器とか演奏しますか?」の2つであり、図9に示す2個の発話候補「好きなピアニストはいますか?」、及び「バイオリンを弾きます。」が存在する場合であり、かつ、ランキング部234が用いるモデルが2つの発話からなる発話列をランキングするように学習されている場合、作成される発話列は、図10に示す2つとなる。   Specifically, as shown in FIG. 8 from the top, the utterances included in the conversation context are “I like music” and “Do you play musical instruments?”, And are shown in FIG. When there are two utterance candidates “Is there a favorite pianist?” And “I play the violin.”, The model used by the ranking unit 234 ranks the utterance string composed of two utterances. , The utterance strings to be created are two as shown in FIG.

形態素解析部224は、発話列構成部222において作成した発話列の各々について、当該発話列に含まれる発話毎に、モデル学習装置100の形態素解析部26と同様に、形態素解析を行う。   The morpheme analysis unit 224 performs morpheme analysis for each utterance sequence created in the utterance sequence configuration unit 222 for each utterance included in the utterance sequence, as in the morpheme analysis unit 26 of the model learning device 100.

係り受け解析部226は、形態素解析部224において形態素解析された発話列の各々について、当該発話列に含まれる発話毎に、モデル学習装置100の係り受け解析部28と同様に、係り受け解析を行う。   The dependency analysis unit 226 performs dependency analysis for each utterance sequence analyzed by the morpheme analysis unit 224 for each utterance included in the utterance sequence in the same manner as the dependency analysis unit 28 of the model learning device 100. Do.

特徴量抽出部228は、発話列構成部222において作成した発話列の各々について、モデル学習装置100の特徴量抽出部30と同様に、係り受け解析部226において取得した係り受け解析結果に基づいて、依存構造の組み合わせを表す素性を特徴量として抽出する。図11に、示す2つの発話列の発話から取得される特徴量を示す。   The feature amount extraction unit 228 uses the dependency analysis result acquired by the dependency analysis unit 226 for each of the utterance sequences created by the utterance sequence configuration unit 222 in the same manner as the feature amount extraction unit 30 of the model learning device 100. Then, a feature representing a combination of dependency structures is extracted as a feature amount. FIG. 11 shows feature amounts acquired from the utterances of the two utterance strings shown.

モデル記憶部230には、モデル学習装置100において学習された発話列の結束性を判定するモデルが記憶されている。   The model storage unit 230 stores a model for determining the cohesiveness of the utterance sequence learned by the model learning device 100.

モデル適用部232は、発話列構成部222において作成した発話列の各々について、当該発話列の特徴量と、モデル記憶部230に記憶されている発話列の結束性を判定するモデルとに基づいて、当該発話列の結束性を表すスコアを算出する。具体的には、発話列から抽出された特徴量の各素性について、当該素性と、当該素性の重みを掛け合わせて、その総和をとった値を、当該発話列の結束性を表すスコアとして算出する。   The model application unit 232, for each utterance sequence created in the utterance sequence configuration unit 222, based on the feature amount of the utterance sequence and a model for determining the coherence of the utterance sequence stored in the model storage unit 230. Then, a score representing the cohesiveness of the utterance string is calculated. Specifically, for each feature of the feature quantity extracted from the utterance sequence, a value obtained by multiplying the feature by the weight of the feature and taking the sum is calculated as a score representing the cohesiveness of the utterance sequence. To do.

ランキング部234は、モデル適用部232において算出された、発話列の各々の当該発話列の結束性を表すスコアに基づいて、発話列の各々をランキングし、ランキング結果と、上位にランキングされた発話列に含まれる発話候補を出力部290に出力する。   The ranking unit 234 ranks each utterance sequence based on the score representing the cohesiveness of each utterance sequence calculated by the model application unit 232, and rank results and utterances ranked higher. The utterance candidates included in the column are output to the output unit 290.

<第1の実施の形態に係るモデル学習装置の作用>
次に、第1の実施の形態に係るモデル学習装置100の作用について説明する。入力部10において、対話データの集合を受け付けると、モデル学習装置100は、図12に示すモデル学習処理ルーチンを実行する。
<Operation of the model learning device according to the first embodiment>
Next, the operation of the model learning device 100 according to the first embodiment will be described. When the input unit 10 receives a set of conversation data, the model learning device 100 executes a model learning processing routine shown in FIG.

まず、ステップS100では、入力部10において受け付けた対話データの各々について、当該対話データに含まれる、N個の連続した発話からなる発話列の各々を正例の発話列として抽出する。   First, in step S100, for each piece of dialogue data received by the input unit 10, each of the utterance sequences composed of N consecutive utterances included in the dialogue data is extracted as a positive example utterance sequence.

次に、ステップS102では、ステップS100において取得した発話列の各々について、当該発話列に含まれる最後の発話を別の発話で置き換えた発話列を疑似負例の発話列として作成する。   Next, in step S102, for each of the utterance strings acquired in step S100, an utterance string in which the last utterance included in the utterance string is replaced with another utterance is created as an utterance string of a pseudo negative example.

次に、ステップS104では、ステップS100において取得した正例の発話列、及び、ステップS102において取得した疑似負例の発話列の各々について、形態素解析を行う。   Next, in step S104, morphological analysis is performed on each of the positive example utterance string acquired in step S100 and the pseudo negative example utterance string acquired in step S102.

次に、ステップS106では、ステップS104において取得した形態素解析済みの、ステップS100において取得した正例の発話列、及びステップS102において取得した疑似負例の発話列の各々について、係り受け解析を行う。   Next, in step S106, dependency analysis is performed on each of the positive example utterance sequence acquired in step S100 and the pseudo negative example utterance sequence acquired in step S102 and the morphological analysis acquired in step S104.

次に、ステップS108では、ステップS106において取得した係り受け解析済みの、ステップS100において取得した正例の発話列、及び、ステップS102において取得した疑似負例の発話列の各々について、特徴量を抽出する。   Next, in step S108, feature quantities are extracted for each of the positive example utterance sequence acquired in step S100 and the pseudo-negative example utterance sequence acquired in step S102 and the dependency analysis acquired in step S106. To do.

次に、ステップS110では、ステップS108において取得した、正例の発話列の各々についての特徴量と、疑似負例の発話列の各々についての特徴量と、に基づいて、発話列の結束性を判定するモデルを学習し、モデル記憶部34に記憶する。   Next, in step S110, the coherence of the utterance sequence is determined based on the feature amount for each of the positive example utterance sequences and the feature amount for each of the pseudo negative example utterance sequences acquired in step S108. The model to be determined is learned and stored in the model storage unit 34.

次に、ステップS112では、ステップS110において取得した発話列の結束性を判定するモデルを出力部90に出力して、モデル学習処理ルーチンを終了する。   Next, in step S112, a model for determining the cohesiveness of the utterance sequence acquired in step S110 is output to the output unit 90, and the model learning processing routine is terminated.

<第1の実施の形態に係るランキング装置の作用>
次に、本発明の第1の実施の形態に係るランキング装置200の作用について説明する。まず、入力部210から、モデル学習装置100において学習された発話列の結束性を判定するモデルが入力され、モデル記憶部230に記憶される。そして、入力部210において、対話文脈と、P個の発話候補とを受け付けると、ランキング装置200は、図13に示すランキング処理ルーチンを実行する。
<Operation of the ranking device according to the first embodiment>
Next, the operation of the ranking device 200 according to the first embodiment of the present invention will be described. First, a model for determining the cohesiveness of an utterance sequence learned by the model learning device 100 is input from the input unit 210 and stored in the model storage unit 230. When the input unit 210 receives the dialog context and P utterance candidates, the ranking device 200 executes a ranking process routine shown in FIG.

まず、ステップS200では、モデル記憶部230に記憶されている発話列の結束性を判定するモデルを読み込む。   First, in step S200, a model for determining the cohesiveness of the utterance sequence stored in the model storage unit 230 is read.

次に、ステップS202では、入力部210において受け付けた対話文脈、及びP個の発話候補に基づいて、P個の発話列を作成する。   Next, in step S202, P speech strings are created based on the dialog context received by the input unit 210 and the P speech candidates.

次に、ステップS204では、ステップS202において取得した発話列の各々について、当該発話列に含まれる発話毎に、ステップS104と同様に、形態素解析を行う。   Next, in step S204, morphological analysis is performed for each utterance string acquired in step S202 for each utterance included in the utterance string, as in step S104.

次に、ステップS206では、ステップS204において取得した、形態素解析済みの、ステップS202において取得した発話列の各々について、ステップS106と同様に、係り受け解析を行う。   Next, in step S206, dependency analysis is performed for each of the utterance strings acquired in step S202 and acquired in step S204, which have been subjected to morphological analysis, as in step S106.

次に、ステップS208では、ステップS206において取得した、係り受け解析済みの、ステップS202において取得した発話列の各々について、ステップS108と同様に、特徴量を抽出する。   Next, in step S208, the feature amount is extracted for each of the utterance strings acquired in step S202 and subjected to dependency analysis in step S206, as in step S108.

次に、ステップS210では、発話列の各々について、ステップS200において取得した発話列の結束性を判定するモデルと、ステップS208において取得した発話列の各々の特徴量とに基づいて、当該発話列の結束性を表すスコアを算出する。   Next, in step S210, for each utterance string, based on the model for determining the cohesiveness of the utterance string acquired in step S200 and the feature amount of each utterance string acquired in step S208, A score representing cohesiveness is calculated.

次に、ステップS212では、ステップS210において取得した発話列の各々の、当該発話列の結束性を表すスコアに基づいて、ランキングを行う。   Next, in step S212, ranking is performed based on the score representing the cohesiveness of the utterance sequence for each utterance sequence acquired in step S210.

次に、ステップS214では、ステップS212において取得したランキング結果と、上位にランキングされた発話列に含まれる発話候補とを、出力部290に出力してランキング処理ルーチンの処理を終了する。   Next, in step S214, the ranking result acquired in step S212 and the utterance candidates included in the utterance string ranked higher are output to the output unit 290, and the processing of the ranking processing routine is terminated.

<実施例>
人間同士の約3500対話について、発話列の長さ2で正例と疑似負例を作成し、モデル学習装置100において学習したモデルによって、図10に示す2つの発話候補をランキングした結果を図14に示す。図14の結果において、「バイオリンを弾きます。」のスコアの方が、「好きなピアニストはいますか?」のスコアよりも高い。これは、「楽器とか演奏しますか?」、「バイオリンを弾きます。」のやり取りを最も結束性が高いとシステムが判断したということを表す。当該例の場合、直前発話が「楽器とか演奏しますか?」であることから、妥当な発話が選択できている。
<Example>
FIG. 14 shows a result of ranking two utterance candidates shown in FIG. 10 by creating a positive example and a pseudo negative example with an utterance string length of 2 for about 3500 dialogues between humans, and learning by the model learning apparatus 100. Shown in In the result of FIG. 14, the score of “I play the violin” is higher than the score of “Do you have a favorite pianist?”. This means that the system has determined that the exchange of “Do you play with an instrument?” Or “Play the violin” is the most cohesive. In the case of this example, since the last utterance is “Do you want to play a musical instrument?”, An appropriate utterance can be selected.

以上説明したように、第1の実施の形態に係るモデル学習装置によれば、疑似負例を作成し、正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、疑似負例の発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例の発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習することにより、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができる。   As described above, according to the model learning device according to the first embodiment, a pseudo negative example is created, and a feature amount is extracted based on a dependency analysis result for an utterance string input as a positive example. The feature amount is extracted based on the dependency analysis result with respect to the utterance sequence of the pseudo negative example, and the feature amount of the utterance sequence input as the positive example based on the extracted feature amount is the utterance sequence of the pseudo negative example. Learning a model for accurately ranking utterance strings based on the coherence of utterance strings by learning a model for judging the coherence of utterance strings so that it is ranked higher than the feature quantity of be able to.

また、第1の実施の形態に係るランキング装置によれば、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、構成された発話列の各々について、発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された発話列の各々についての特徴量と、学習されたモデルとに基づいて、構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力することにより、発話列の結束性に基づいて発話列を精度よくランキングすることができる。   Further, according to the ranking device according to the first embodiment, an utterance is made for each of a plurality of utterance candidates based on an utterance string composed of a plurality of utterances input as a conversation context and a plurality of utterance candidates. Consists of utterance sequences with utterance candidates added as utterances following the sequence, and for each configured utterance sequence, features are extracted based on the dependency analysis results for the utterance sequence, and for each extracted utterance sequence Utterances based on the coherence of the utterance sequence by ranking the configured utterance sequence based on the feature amount of and the learned model and outputting the utterance candidates included in the utterance sequence ranked higher Columns can be ranked accurately.

また、対話システムの発話の結束性が高まり、ユーザにとって理解しやすい発話をシステムが生成できるようになる。それにより、システムとユーザの意思疎通がしやすくなり、システムとユーザとのインタラクションが円滑になる。   In addition, the coherence of utterances in the dialogue system is enhanced, and the system can generate utterances that are easy for the user to understand. This facilitates communication between the system and the user, and facilitates interaction between the system and the user.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

例えば、第1の実施の形態においては、対話データについては話者情報を取り除いたものとしているが、これに限定されるものではなく、対話データに話者情報があってもよい。   For example, in the first embodiment, it is assumed that the speaker information is removed from the dialog data, but the present invention is not limited to this, and the speaker information may be included in the dialog data.

また、第1の実施の形態においては、発話列を2個の連続する複数の発話からなるものとして抽出する場合について説明したが、これに限定されるものではなく、例えば、Nの値が2以上であるN個の連続する複数の発話からなる発話列を抽出してもよい。   Further, in the first embodiment, the case has been described in which the utterance string is extracted as being composed of two consecutive utterances. However, the present invention is not limited to this. For example, the value of N is 2 You may extract the utterance row | line | column which consists of the above-mentioned N continuous several utterances.

また、第1の実施の形態においては、Mが3以上である場合、発話列について、当該発話列に含まれる発話の各々の依存構造の組み合わせを作成し、C×D+C×E個の素性を作成する場合について説明したが、これに限定されるものではない。例えば、発話各々の依存構造同士の全ての組み合わせを表す素性として、C×D×E個の素性を作成してもよい。但し、この場合、素性に用いる発話の数が増えると素性数が爆発するため、第1の実施の形態の方法の方が一般的に望ましい。   In the first embodiment, when M is 3 or more, for each utterance sequence, a combination of dependency structures of utterances included in the utterance sequence is created, and C × D + C × E features are obtained. Although the case where it produces is demonstrated, it is not limited to this. For example, C × D × E features may be created as features representing all combinations of dependency structures of utterances. However, in this case, since the number of features explodes when the number of utterances used for the feature increases, the method of the first embodiment is generally desirable.

また、第1の実施の形態においては、係り受け解析器としてJDEPを用いる場合について説明したが、これに限定されるものではない。例えば、CaboChaやKNPを用いてもよい。   In the first embodiment, the case where JDEP is used as a dependency analyzer has been described. However, the present invention is not limited to this. For example, CaboCha or KNP may be used.

また、第1の実施の形態においては、疑似負例の発話列を作成する際に、正例の発話列に含まれる最後の発話を、当該発話列を抽出した対話データからランダムに取得した発話に置き換える場合について説明したが、これに限定されるものではない。例えば、正例の発話列に含まれる最後の発話を、当該発話列を抽出した対話データ以外の対話データからランダムに取得した発話に置き換えて、疑似負例の発話列を作成してもよい。   Further, in the first embodiment, when creating the utterance sequence of the pseudo negative example, the last utterance included in the utterance sequence of the positive example is randomly acquired from the conversation data from which the utterance sequence is extracted. Although the case where it replaces with was demonstrated, it is not limited to this. For example, the pseudo utterance sequence may be created by replacing the last utterance included in the utterance sequence of the positive example with an utterance randomly obtained from dialogue data other than the dialogue data from which the utterance sequence is extracted.

次に、第2の実施の形態に係るモデル学習装置及びランキング装置について説明する。   Next, a model learning device and a ranking device according to the second embodiment will be described.

第2の実施の形態においては、特徴量を抽出する際に用いる依存構造として、機能語主辞を含めた依存構造を用いる点が第1の実施の形態と異なる。なお、第1の実施の形態に係るモデル学習装置100及びランキング装置200と同様の構成及び作用については、同一の符号を付して説明を省略する。   The second embodiment is different from the first embodiment in that a dependency structure including a function word main word is used as a dependency structure used when extracting a feature quantity. In addition, about the structure and effect | action similar to the model learning apparatus 100 and ranking apparatus 200 which concern on 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

<第2の実施の形態に係るモデル学習装置の構成>
次に、本発明の第2の実施の形態に係るモデル学習装置の構成について説明する。図15に示すように、本発明の第2の実施の形態に係るモデル学習装置300は、CPUと、RAMと、後述するモデル学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このモデル学習装置300は、機能的には図15に示すように入力部10と、演算部320と、出力部90とを備えている。
<Configuration of Model Learning Device According to Second Embodiment>
Next, the configuration of the model learning device according to the second embodiment of the present invention will be described. As shown in FIG. 15, the model learning device 300 according to the second embodiment of the present invention includes a CPU, a RAM, a ROM for storing a program and various data for executing a model learning processing routine to be described later, and , Can be configured with a computer including. Functionally, the model learning apparatus 300 includes an input unit 10, a calculation unit 320, and an output unit 90 as shown in FIG.

演算部320は、発話列抽出部22と、疑似負例作成部24と、形態素解析部26と、係り受け解析部28と、特徴量抽出部330と、モデル学習部32と、モデル記憶部34と、を備えている。   The calculation unit 320 includes an utterance string extraction unit 22, a pseudo negative example creation unit 24, a morpheme analysis unit 26, a dependency analysis unit 28, a feature amount extraction unit 330, a model learning unit 32, and a model storage unit 34. And.

特徴量抽出部330は、係り受け解析部28において取得した、正例の発話列の各々、及び疑似負例の発話列の各々に含まれる発話毎の係り受け解析結果に基づいて、正例の発話列の各々、及び疑似負例の発話列の各々について、特徴量を抽出する。第2の実施の形態においては、発話列に含まれる発話の各々について、当該発話の係り受け解析結果に基づいて取得する依存構造として、機能語主辞を含めたものを取得する。例えば、文節区切りが「イギリスに/行く」であれば、「イギリスに」から、主辞として「イギリス」、機能語主辞として「に」が抽出され、「行く」から、主辞として「行」、機能語主辞として「く」が抽出され、そして、依存構造として、「イギリス−に−行−く」が抽出される。第2の実施の形態において抽出される特徴量の例を図16に示す。   Based on the dependency analysis results for each utterance included in each of the positive example utterance strings and each of the pseudo negative example utterance strings, the feature amount extraction unit 330 obtains the positive example utterances. Feature values are extracted for each utterance string and each pseudo-negative utterance string. In the second embodiment, for each utterance included in the utterance string, a dependency structure including the function word main word is acquired as a dependency structure acquired based on the dependency analysis result of the utterance. For example, if the phrase break is “go to UK”, “UK” is extracted as the main word and “NI” is used as the function word main word from “to UK”, and “line” is used as the main word from “GO”. “Ku” is extracted as the main word, and “UK-to-go-ku” is extracted as the dependency structure. An example of the feature amount extracted in the second embodiment is shown in FIG.

そして、上記第1の実施の形態と同様に、例えば、長さNの発話列の最後の発話(N番目の発話)から、依存構造がA個抽出され、一方、N−1番目の発話から、依存構造がB個抽出されている場合、当該発話列の特徴量として、当該発話列に含まれる発話の各々の依存構造同士の全ての組み合わせを表す素性(その組み合わせが存在するか否かを表す二値素性)を抽出する。   Then, as in the first embodiment, for example, A dependency structures are extracted from the last utterance (Nth utterance) of the utterance string of length N, while from the N−1th utterance. When B dependency structures are extracted, as features of the utterance sequence, a feature representing all combinations of the dependency structures of the utterances included in the utterance sequence (whether or not the combination exists) (Binary feature to represent) is extracted.

<第2の実施の形態に係るランキング装置の構成>
次に、第2の実施の形態に係るランキング装置の構成について説明する。図17に示すように、第2の実施の形態に係るランキング装置400は、CPUと、RAMと、後述するランキング処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このランキング装置400は、機能的には図17に示すように入力部210と、演算部420と、出力部290とを備えている。
<Configuration of ranking device according to second embodiment>
Next, the configuration of the ranking device according to the second embodiment will be described. As shown in FIG. 17, a ranking apparatus 400 according to the second embodiment is a computer that includes a CPU, a RAM, and a ROM that stores a program for executing a ranking processing routine described later and various data. Can be configured. The ranking device 400 functionally includes an input unit 210, a calculation unit 420, and an output unit 290 as shown in FIG.

演算部220は、発話列構成部222と、形態素解析部224と、係り受け解析部226と、特徴量抽出部428と、モデル記憶部230と、モデル適用部232と、ランキング部234と、を備えている。   The calculation unit 220 includes an utterance sequence configuration unit 222, a morpheme analysis unit 224, a dependency analysis unit 226, a feature amount extraction unit 428, a model storage unit 230, a model application unit 232, and a ranking unit 234. I have.

特徴量抽出部428は、発話列構成部222において作成した発話列の各々について、モデル学習装置300の特徴量抽出部330と同様に、係り受け解析部226において取得した係り受け解析結果に基づいて、依存構造の組み合わせに関する特徴量を抽出する。   The feature amount extraction unit 428 uses the dependency analysis result acquired by the dependency analysis unit 226 for each of the utterance sequences created by the utterance sequence configuration unit 222, similar to the feature amount extraction unit 330 of the model learning device 300. Then, a feature amount related to the combination of dependency structures is extracted.

以上、説明したように、第2の実施の形態に係るモデル学習装置によれば、疑似負例を作成し、正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、疑似負例の発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例の発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習することにより、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができる。   As described above, according to the model learning device according to the second embodiment, a pseudo negative example is created, and feature amounts are extracted based on the dependency analysis result for the utterance string input as the positive example. Then, based on the dependency analysis result for the utterance sequence of the pseudo negative example, the feature amount is extracted, and based on the extracted feature amount, the feature amount of the utterance sequence input as the positive example is the utterance of the pseudo negative example. Learning a model for accurately ranking utterance strings based on the coherence of utterance strings by learning a model for determining the continuity of utterance strings so that it ranks higher than the feature quantity of the strings can do.

また、第2の実施の形態に係るランキング装置によれば、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、構成された発話列の各々について、発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された発話列の各々についての特徴量と、学習されたモデルとに基づいて、構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力することにより、発話列の結束性に基づいて発話列を精度よくランキングすることができる。   Further, according to the ranking device according to the second embodiment, an utterance is made for each of a plurality of utterance candidates based on an utterance string composed of a plurality of utterances input as a conversation context and a plurality of utterance candidates. Consists of utterance sequences with utterance candidates added as utterances following the sequence, and for each configured utterance sequence, features are extracted based on the dependency analysis results for the utterance sequence, and for each extracted utterance sequence Utterances based on the coherence of the utterance sequence by ranking the configured utterance sequence based on the feature amount of and the learned model and outputting the utterance candidates included in the utterance sequence ranked higher Columns can be ranked accurately.

次に、第3の実施の形態に係るモデル学習装置及びランキング装置について説明する。   Next, a model learning device and a ranking device according to the third embodiment will be described.

第3の実施の形態においては、特徴量を抽出する際に用いる依存構造を、係り受け関係にある主辞を対応する意味属性によって置き換えた依存構造を用いる点が第1の実施の形態と異なる。なお、第1の実施の形態に係るモデル学習装置100及びランキング装置200と同様の構成及び作用については、同一の符号を付して説明を省略する。   The third embodiment is different from the first embodiment in that the dependency structure used when extracting the feature quantity uses a dependency structure in which the main words in the dependency relationship are replaced by corresponding semantic attributes. In addition, about the structure and effect | action similar to the model learning apparatus 100 and ranking apparatus 200 which concern on 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第3の実施の形態においては、第1及び第2の実施の形態のように、依存構造に単語をそのまま用いると、特徴量が疎になる可能性があることから、単語を抽象化する。例えば、主辞の内容語について、日本語の大規模シソーラスである日本語語彙大系を参照し、対応する意味属性があれば、その意味属性でその単語を代表させることで実現する。日本語語彙大系において、意味属性の数は全部で2715種類しかないので、抽象度を高めることが可能である。   In the third embodiment, as in the first and second embodiments, if a word is used as it is in the dependency structure, the feature amount may be sparse, so the word is abstracted. For example, the content word of the main word is realized by referring to a Japanese vocabulary system that is a large-scale Japanese thesaurus, and if there is a corresponding semantic attribute, the word is represented by the semantic attribute. In the Japanese vocabulary system, the number of semantic attributes is only 2715 in total, so that the level of abstraction can be increased.

<第3の実施の形態に係るモデル学習装置の構成>
次に、本発明の第3の実施の形態に係るモデル学習装置の構成について説明する。図18に示すように、本発明の第3の実施の形態に係るモデル学習装置500は、CPUと、RAMと、後述するモデル学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このモデル学習装置500は、機能的には図18に示すように入力部10と、演算部520と、出力部90とを備えている。
<Configuration of Model Learning Device According to Third Embodiment>
Next, the configuration of the model learning device according to the third embodiment of the present invention will be described. As shown in FIG. 18, a model learning apparatus 500 according to the third embodiment of the present invention includes a CPU, a RAM, a ROM for storing a program and various data for executing a model learning processing routine to be described later, , Can be configured with a computer including. Functionally, the model learning apparatus 500 includes an input unit 10, a calculation unit 520, and an output unit 90 as shown in FIG.

演算部520は、発話列抽出部22と、疑似負例作成部24と、辞書記憶部525と、形態素解析部526と、係り受け解析部28と、特徴量抽出部530と、モデル学習部32と、モデル記憶部34と、を備えている。   The calculation unit 520 includes an utterance string extraction unit 22, a pseudo negative example creation unit 24, a dictionary storage unit 525, a morpheme analysis unit 526, a dependency analysis unit 28, a feature amount extraction unit 530, and a model learning unit 32. And a model storage unit 34.

辞書記憶部525には、日本語の大規模シソーラスである日本語語彙大系が記憶されている。ここで、日本語語彙大系における意味属性の数は全部で2715種類あるものとする。   The dictionary storage unit 525 stores a large Japanese vocabulary system that is a large-scale Japanese thesaurus. Here, it is assumed that there are 2715 types of semantic attributes in the Japanese vocabulary system.

形態素解析部526は、発話列抽出部22において抽出された正例の発話列の各々、及び疑似負例作成部24において作成された疑似負例の発話列の各々について、当該発話列に含まれる発話毎に、形態素解析を行う。また、形態素解析部526は、発話列の各々について、当該発話列の形態素解析結果と、辞書記憶部525に記憶されている日本語語彙大系とに基づいて、当該発話列に含まれる単語の各々について、対応する意味属性を付与する。   The morphological analysis unit 526 includes each of the positive example utterance sequences extracted by the utterance sequence extraction unit 22 and each of the pseudo negative example utterance sequences created by the pseudo negative example creation unit 24 in the utterance sequence. Perform morphological analysis for each utterance. Further, the morpheme analysis unit 526, for each utterance sequence, based on the morphological analysis result of the utterance sequence and the Japanese vocabulary system stored in the dictionary storage unit 525, the morpheme analysis unit 526 For each, a corresponding semantic attribute is assigned.

特徴量抽出部530は、形態素解析部526において意味属性が付与された正例の発話列の各々、及び疑似負例の発話列の各々と、係り受け解析部28において取得した、正例の発話列の各々、及び疑似負例の発話列の各々の係り受け解析結果とに基づいて、発話列の各々について、特徴量を抽出する。具体的には、まず、発話列に含まれる発話の各々について、当該発話の係り受け解析結果に基づいて依存構造を取得する。次に、発話の各々について、当該発話の依存構造に含まれる単語を抽象化する。例えば、発話の依存構造が、「イギリス−行」で有る場合、形態素解析により付与された、当該発話に含まれる単語の各々の意味属性に基づいて、「イギリス」を463番で表現し、「行」を2132番で表現し、依存構造を「N463−N2132」として取得する。ここで、「N」は意味属性を表す接頭辞である。そして、当該発話列に含まれる発話の各々の意味属性で表現された依存構造に基づいて、第1の実施形態の特徴量抽出部30と同様に当該発話列の特徴量を抽出する。   The feature quantity extraction unit 530 acquires each of the positive example utterance strings to which the semantic attribute is given by the morphological analysis unit 526 and each of the pseudo negative example utterance strings and the positive example utterances acquired by the dependency analysis unit 28. A feature amount is extracted for each of the utterance strings based on each of the strings and the dependency analysis result of each of the utterance strings of the pseudo negative example. Specifically, first, for each utterance included in the utterance string, a dependency structure is acquired based on the dependency analysis result of the utterance. Next, for each utterance, the words included in the dependency structure of the utterance are abstracted. For example, when the dependency structure of the utterance is “UK-line”, “UK” is expressed by No. 463 based on the semantic attributes of each word included in the utterance given by the morphological analysis. "Line" is expressed by No. 2132, and the dependency structure is acquired as "N463-N2132". Here, “N” is a prefix representing a semantic attribute. Then, based on the dependency structure expressed by the semantic attributes of each utterance included in the utterance sequence, the feature amount of the utterance sequence is extracted in the same manner as the feature amount extraction unit 30 of the first embodiment.

例えば、長さNの発話列の最後の発話(N番目の発話)から、依存構造がA個抽出され、一方、N−1番目の発話から、依存構造がB個抽出されている場合、当該発話列の特徴量として、当該発話列に含まれる発話の各々の依存構造同士の全ての組み合わせを表す素性(その組み合わせが存在するか否かを表す二値素性)を抽出する。   For example, when A dependency structure is extracted from the last utterance (Nth utterance) of the utterance sequence of length N, while B dependency structures are extracted from the N−1 utterance, As a feature amount of an utterance string, a feature representing all combinations of dependency structures of utterances included in the utterance string (binary feature representing whether or not the combination exists) is extracted.

第3の実施の形態において抽出される特徴量の例を図19に示す。なお、図19の特徴量を抽出する依存構造において機能語主辞は含んでいない。   An example of the feature amount extracted in the third embodiment is shown in FIG. It should be noted that the function word main word is not included in the dependency structure for extracting the feature quantity in FIG.

<第3の実施の形態に係るランキング装置の構成>
次に、第3の実施の形態に係るランキング装置の構成について説明する。図20に示すように、第3の実施の形態に係るランキング装置600は、CPUと、RAMと、後述するランキング処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このランキング装置600は、機能的には図20に示すように入力部210と、演算部620と、出力部290とを備えている。
<Configuration of ranking device according to third embodiment>
Next, the configuration of the ranking device according to the third embodiment will be described. As shown in FIG. 20, a ranking device 600 according to the third embodiment is a computer that includes a CPU, a RAM, and a ROM that stores a program for executing a ranking processing routine described later and various data. Can be configured. Functionally, the ranking device 600 includes an input unit 210, a calculation unit 620, and an output unit 290 as shown in FIG.

演算部620は、発話列構成部222と、辞書記憶部623と、形態素解析部624と、係り受け解析部226と、特徴量抽出部628と、モデル記憶部230と、モデル適用部232と、ランキング部234と、を備えている。   The calculation unit 620 includes an utterance string configuration unit 222, a dictionary storage unit 623, a morpheme analysis unit 624, a dependency analysis unit 226, a feature amount extraction unit 628, a model storage unit 230, a model application unit 232, A ranking unit 234.

辞書記憶部623には、モデル学習装置500の辞書記憶部525に記憶されている日本語語彙大系と同一の日本語語彙大系が記憶されている。   The dictionary storage unit 623 stores the same Japanese vocabulary system as the Japanese vocabulary system stored in the dictionary storage unit 525 of the model learning device 500.

形態素解析部624は、発話列構成部222にいて作成した発話列の各々について、モデル学習装置500の形態素解析部526と同様に、形態素解析を行い、発話列の各々について、モデル学習装置500の形態素解析部526と同様に、当該発話列の形態素解析結果と、辞書記憶部623に記憶されている日本語語彙大系とに基づいて、当該発話列に含まれる単語の各々について、対応する意味属性を付与する。   The morpheme analysis unit 624 performs a morpheme analysis on each of the utterance sequences created in the utterance sequence configuration unit 222 in the same manner as the morpheme analysis unit 526 of the model learning device 500, and each of the utterance sequences of the model learning device 500 Similar to the morphological analysis unit 526, based on the morphological analysis result of the utterance sequence and the Japanese vocabulary system stored in the dictionary storage unit 623, the meanings corresponding to each word included in the utterance sequence are as follows. Assign attributes.

特徴量抽出部628は、発話列構成部222において作成した発話列の各々について、モデル学習装置500の特徴量抽出部530と同様に、形態素解析部624において意味属性が付与された発話列の各々の形態素解析結果と、係り受け解析部226において取得した発話列の各々の係り受け解析結果とに基づいて、依存構造の組み合わせに関する特徴量を抽出する。   For each utterance sequence created in the utterance sequence configuration unit 222, the feature amount extraction unit 628 uses each utterance sequence to which a semantic attribute is assigned in the morpheme analysis unit 624 in the same manner as the feature amount extraction unit 530 of the model learning device 500. Based on the morpheme analysis results and the dependency analysis results of each of the utterance strings acquired by the dependency analysis unit 226, feature quantities relating to combinations of dependency structures are extracted.

<第3の実施の形態に係るモデル学習装置の作用>
次に、第3の実施の形態に係るモデル学習装置500の作用について説明する。入力部10において、対話データの集合を受け付けると、モデル学習装置500は、図21に示すモデル学習処理ルーチンを実行する。
<Operation of Model Learning Device According to Third Embodiment>
Next, the operation of the model learning device 500 according to the third embodiment will be described. When the input unit 10 receives a set of dialogue data, the model learning device 500 executes a model learning processing routine shown in FIG.

まず、ステップS300では、辞書記憶部525に記憶されている日本語語彙大系を読み込む。   First, in step S300, a Japanese vocabulary system stored in the dictionary storage unit 525 is read.

ステップS302では、ステップS104において形態素解析済みの、ステップS100において取得した発話列の各々について、当該発話列に含まれる単語毎に、当該単語に対応する意味属性を付与する。   In step S302, for each of the utterance strings acquired in step S100 that have been morphologically analyzed in step S104, a semantic attribute corresponding to the word is assigned to each word included in the utterance string.

ステップS304では、ステップS100において取得した正例の発話列、及び、ステップS102において取得した疑似負例の発話列の各々の、ステップS106において取得した係り受け解析結果と、ステップS302において取得した意味属性の各々とに基づいて、特徴量を抽出する。   In step S304, the dependency analysis result acquired in step S106 and the semantic attribute acquired in step S302 of each of the positive example utterance string acquired in step S100 and the pseudo negative example utterance string acquired in step S102. The feature amount is extracted based on each of the above.

<第3の実施の形態に係るランキング装置の作用>
次に、本発明の第3の実施の形態に係るランキング装置600の作用について説明する。まず、入力部210から、モデル学習装置500において学習された発話列の結束性を判定するモデルが入力され、モデル記憶部230に記憶される。そして、入力部210において、対話文脈と、P個の発話候補とを受け付けると、ランキング装置600は、図22に示すランキング処理ルーチンを実行する。
<Operation of the ranking device according to the third embodiment>
Next, the operation of the ranking device 600 according to the third embodiment of the present invention will be described. First, a model for determining the cohesiveness of an utterance sequence learned by the model learning device 500 is input from the input unit 210 and stored in the model storage unit 230. When the input unit 210 accepts the conversation context and P utterance candidates, the ranking device 600 executes a ranking process routine shown in FIG.

まず、ステップS400では、辞書記憶部623に記憶されている日本語語彙大系を読み込む。   First, in step S400, the large Japanese vocabulary system stored in the dictionary storage unit 623 is read.

ステップS402では、ステップS204において形態素解析済みの、ステップS202において取得した発話列の各々について、当該発話列に含まれる単語毎に、当該単語に対応する意味属性を付与する。   In step S402, for each of the utterance strings acquired in step S202 that have been subjected to morphological analysis in step S204, a semantic attribute corresponding to the word is assigned to each word included in the utterance string.

ステップS404では、ステップS402において取得した発話列の各々についての意味属性と、ステップS206において取得した係り受け解析結果とに基づいて、ステップS304と同様に、特徴量を抽出する。   In step S404, based on the semantic attribute for each utterance string acquired in step S402 and the dependency analysis result acquired in step S206, feature amounts are extracted as in step S304.

以上説明したように、第3の実施の形態に係るモデル学習装置によれば、疑似負例を作成し、正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、疑似負例の発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例の発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習することにより、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができる。   As described above, according to the model learning device according to the third embodiment, a pseudo negative example is created, and a feature amount is extracted based on a dependency analysis result with respect to an utterance string input as a positive example. The feature amount is extracted based on the dependency analysis result with respect to the utterance sequence of the pseudo negative example, and the feature amount of the utterance sequence input as the positive example based on the extracted feature amount is the utterance sequence of the pseudo negative example. Learning a model for accurately ranking utterance strings based on the coherence of utterance strings by learning a model for judging the coherence of utterance strings so that it is ranked higher than the feature quantity of be able to.

また、第3の実施の形態に係るランキング装置によれば、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、構成された発話列の各々について、発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された発話列の各々についての特徴量と、学習されたモデルとに基づいて、構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力することにより、発話列の結束性に基づいて発話列を精度よくランキングすることができる。   Further, according to the ranking device according to the third embodiment, an utterance is made for each of a plurality of utterance candidates based on an utterance string composed of a plurality of utterances input as a conversation context and a plurality of utterance candidates. Consists of utterance sequences with utterance candidates added as utterances following the sequence, and for each configured utterance sequence, features are extracted based on the dependency analysis results for the utterance sequence, and for each extracted utterance sequence Utterances based on the coherence of the utterance sequence by ranking the configured utterance sequence based on the feature amount of and the learned model and outputting the utterance candidates included in the utterance sequence ranked higher Columns can be ranked accurately.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

例えば、第3の実施の形態においては、係り受け関係にある主辞のペアにおいて、当該主辞を対応する意味属性によって置き換えた依存構造を抽出する場合について説明したが、これに限定されるものではなく、第2の実施の形態において抽出される係り受け関係にある主辞と機能語主辞のペアにおいて、当該主辞を対応する意味属性によって置き換えた依存構造を抽出してもよい。   For example, in the third embodiment, a case has been described in which a dependency structure in which a main character is replaced with a corresponding semantic attribute is extracted from a dependency main character pair. However, the present invention is not limited to this. The dependency structure in which the main word is replaced with the corresponding semantic attribute in the pair of the main word and the functional word main word in the dependency relationship extracted in the second embodiment may be extracted.

次に、第4の実施の形態に係るモデル学習装置及びランキング装置について説明する。   Next, a model learning device and a ranking device according to the fourth embodiment will be described.

第4の実施の形態においては、特徴量を抽出する際に用いる依存構造として、係り受け関係にある主辞を対応する意味属性によって置き換え、置き換えた意味属性を更に上位概念によって置き換えた依存構造を用いる点が第3の実施の形態と異なる。なお、第3の実施の形態に係るモデル学習装置500及びランキング装置600と同様の構成及び作用については、同一の符号を付して説明を省略する。   In the fourth embodiment, as the dependency structure used when extracting the feature quantity, a dependency structure is used in which the main words in the dependency relationship are replaced with corresponding semantic attributes, and the replaced semantic attributes are further replaced with higher-level concepts. This is different from the third embodiment. In addition, about the structure and effect | action similar to the model learning apparatus 500 and ranking apparatus 600 which concern on 3rd Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第4の実施の形態においては、第3の実施の形態において、抽象化された意味属性の2715種類を更に抽象化する。日本語語彙大系の意味属性には階層関係があり、当該階層関係を利用して、意味属性を上位の意味属性に置き換えることで、より抽象度の高い依存構造を実現する。   In the fourth embodiment, 2715 types of abstracted semantic attributes are further abstracted in the third embodiment. Semantic attributes of the Japanese vocabulary system have a hierarchical relationship, and by using the hierarchical relationship, the semantic attribute is replaced with an upper semantic attribute, thereby realizing a dependency structure with a higher level of abstraction.

<第4の実施の形態に係るモデル学習装置の構成>
次に、本発明の第4の実施の形態に係るモデル学習装置の構成について説明する。図23に示すように、本発明の第4の実施の形態に係るモデル学習装置700は、CPUと、RAMと、後述するモデル学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このモデル学習装置700は、機能的には図23に示すように入力部10と、演算部720と、出力部90とを備えている。
<Configuration of Model Learning Device According to Fourth Embodiment>
Next, the configuration of the model learning device according to the fourth embodiment of the present invention will be described. As shown in FIG. 23, a model learning apparatus 700 according to the fourth embodiment of the present invention includes a CPU, a RAM, a ROM that stores a program and various data for executing a model learning processing routine described later, and , Can be configured with a computer including. Functionally, the model learning apparatus 700 includes an input unit 10, a calculation unit 720, and an output unit 90 as shown in FIG.

演算部720は、発話列抽出部22と、疑似負例作成部24と、辞書記憶部525と、形態素解析部526と、係り受け解析部28と、特徴量抽出部730と、モデル学習部32と、モデル記憶部34と、を備えている。   The calculation unit 720 includes an utterance string extraction unit 22, a pseudo negative example creation unit 24, a dictionary storage unit 525, a morpheme analysis unit 526, a dependency analysis unit 28, a feature amount extraction unit 730, and a model learning unit 32. And a model storage unit 34.

特徴量抽出部730は、形態素解析部526において意味属性が付与された正例の発話列の各々、及び疑似負例の発話列の各々と、係り受け解析部28において取得した、正例の発話列の各々、及び疑似負例の発話列の各々の係り受け解析結果と、辞書記憶部525に記憶されている日本語語彙大系とに基づいて、発話列の各々について、特徴量を抽出する。具体的には、まず、発話列に含まれる発話の各々について、当該発話の係り受け解析結果に基づいて依存構造を取得する。次に、発話の各々について、当該発話の依存構造に含まれる単語を抽象化する。例えば、発話の依存構造が、「イギリス−行」で有る場合、形態素解析により付与された、当該発話に含まれる単語の各々の意味属性に基づいて、「イギリス」を463番で表現し、「行」を2132番で表現し、依存構造を「N463−N2132」として取得する。次に、辞書記憶部525に記憶されている日本語語彙大系に基づいて、意味属性で表現された依存構造を上位概念化する。具体的には、「イギリス」の463番(領土という概念)の一つ上の概念として、458番(地域という概念)があり、また、その一つ上の概念として、388番(場所という概念)があり、一方、「行」については、一つ上の概念として、2131(発着という概念)があり、もう一つ上の概念として、2129番(移動・発着)という概念があることから、例えば、2つ抽象化することで、「N463−N2132」という依存構造を「N388−N2129」という依存構造に抽象化する。なお、日本語語彙大系は木構造をしているので、ルートノードからいくつのパス以内の意味属性に落とし込むように抽象化してもよい。例えば、ルートノードからの距離3までとするとき、ある意味属性がルートノードから4の距離にあったとすると、一つ上の意味属性を用いる。ルートノードから5の距離にあった場合、2つ上の意味属性を用いることになる。そして、当該発話列に含まれる発話の各々の上位概念化された意味属性で表現された依存構造に基づいて、第1の実施形態の特徴量抽出部30と同様に当該発話列の特徴量を抽出する。   The feature quantity extraction unit 730 obtains each of the positive example utterance strings to which the semantic attribute is given by the morpheme analysis unit 526, each of the pseudo negative example utterance strings, and the positive example utterances acquired by the dependency analysis unit 28. A feature amount is extracted for each utterance string based on the dependency analysis result of each utterance string and each utterance string of the pseudo negative example and the Japanese vocabulary system stored in the dictionary storage unit 525. . Specifically, first, for each utterance included in the utterance string, a dependency structure is acquired based on the dependency analysis result of the utterance. Next, for each utterance, the words included in the dependency structure of the utterance are abstracted. For example, when the dependency structure of the utterance is “UK-line”, “UK” is expressed by No. 463 based on the semantic attributes of each word included in the utterance given by the morphological analysis. "Line" is expressed by No. 2132, and the dependency structure is acquired as "N463-N2132". Next, based on the Japanese vocabulary system stored in the dictionary storage unit 525, the dependency structure expressed by the semantic attribute is made a high-level concept. Specifically, there is 458 (the concept of region) as a concept above 463 (the concept of territory) of “UK”, and 388 (the concept of place) as the concept above it. On the other hand, as for “row”, there is 2131 (concept of departure / arrival) as a concept above, and 2129 (movement / departure) as another concept, For example, by abstracting two, the dependency structure “N463-N2132” is abstracted into a dependency structure “N388-N2129”. Since the Japanese vocabulary system has a tree structure, it may be abstracted so that it is dropped into semantic attributes within the number of paths from the root node. For example, when the distance is 3 from the root node, if a certain semantic attribute is at a distance of 4 from the root node, the next higher semantic attribute is used. When the distance is 5 from the root node, the semantic attribute two higher is used. Then, based on the dependency structure expressed by the semantic attribute attributed to the higher level of each utterance included in the utterance sequence, the feature amount of the utterance sequence is extracted in the same manner as the feature amount extraction unit 30 of the first embodiment. To do.

例えば、長さNの発話列の最後の発話(N番目の発話)から、依存構造がA個抽出され、一方、N−1番目の発話から、依存構造がB個抽出されている場合、当該発話列の特徴量として、当該発話列に含まれる発話の各々の依存構造同士の全ての組み合わせを表す素性(その組み合わせが存在するか否かを表す二値素性)を抽出する。   For example, when A dependency structure is extracted from the last utterance (Nth utterance) of the utterance sequence of length N, while B dependency structures are extracted from the N−1 utterance, As a feature amount of an utterance string, a feature representing all combinations of dependency structures of utterances included in the utterance string (binary feature representing whether or not the combination exists) is extracted.

第4の実施の形態において抽出される特徴量の例を図24に示す。なお、図24に示す特徴量の例においては、ルートノードから4階層までの範囲に意味属性を抽出した場合の依存構造について特徴量を抽出した場合である。   An example of the feature amount extracted in the fourth embodiment is shown in FIG. In the example of the feature amount shown in FIG. 24, the feature amount is extracted for the dependency structure when the semantic attribute is extracted in the range from the root node to the fourth hierarchy.

<第4の実施の形態に係るランキング装置の構成>
次に、第4の実施の形態に係るランキング装置の構成について説明する。図25に示すように、第4の実施の形態に係るランキング装置800は、CPUと、RAMと、後述するランキング処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このランキング装置800は、機能的には図25に示すように入力部210と、演算部820と、出力部290とを備えている。
<Configuration of Ranking Device according to Fourth Embodiment>
Next, the configuration of the ranking device according to the fourth embodiment will be described. As shown in FIG. 25, a ranking device 800 according to the fourth embodiment is a computer that includes a CPU, a RAM, and a ROM that stores a program for executing a ranking processing routine described later and various data. Can be configured. Functionally, the ranking device 800 includes an input unit 210, a calculation unit 820, and an output unit 290 as shown in FIG.

演算部820は、発話列構成部222と、辞書記憶部623と、形態素解析部624と、係り受け解析部226と、特徴量抽出部828と、モデル記憶部230と、モデル適用部232と、ランキング部234と、を備えている。   The calculation unit 820 includes an utterance string configuration unit 222, a dictionary storage unit 623, a morpheme analysis unit 624, a dependency analysis unit 226, a feature amount extraction unit 828, a model storage unit 230, a model application unit 232, A ranking unit 234.

特徴量抽出部828は、発話列構成部222において作成した発話列の各々について、モデル学習装置700の特徴量抽出部730と同様に、形態素解析部624において意味属性が付与された発話列の各々の形態素解析結果と、係り受け解析部226において取得した発話列の各々の係り受け解析結果と、辞書記憶部623に記憶されている日本語語彙大系とに基づいて、依存構造の組み合わせに関する特徴量を抽出する。   For each utterance sequence created by the utterance sequence configuration unit 222, the feature amount extraction unit 828 uses each utterance sequence to which a semantic attribute has been assigned in the morpheme analysis unit 624 in the same manner as the feature amount extraction unit 730 of the model learning device 700. Of the dependency structure based on the morphological analysis results of, the dependency analysis results of each of the utterance strings acquired by the dependency analysis unit 226, and the Japanese vocabulary system stored in the dictionary storage unit 623 Extract the amount.

<第4の実施の形態に係るモデル学習装置の作用>
次に、第4の実施の形態に係るモデル学習装置700の作用について説明する。入力部10において、対話データの集合を受け付けると、モデル学習装置700は、図26に示すモデル学習処理ルーチンを実行する。
<Operation of the model learning device according to the fourth embodiment>
Next, the operation of the model learning device 700 according to the fourth embodiment will be described. When the input unit 10 receives a set of conversation data, the model learning device 700 executes a model learning processing routine shown in FIG.

ステップS500では、ステップS100において取得した正例の発話列、及び、ステップS102において取得した疑似負例の発話列の各々の、ステップS106において取得した係り受け解析結果と、ステップS302において取得した意味属性の各々と、ステップS300において取得した日本語語彙大系とに基づいて、特徴量を抽出する。   In step S500, the dependency analysis result acquired in step S106 and the semantic attribute acquired in step S302 of each of the positive example utterance string acquired in step S100 and the pseudo negative example utterance string acquired in step S102. And a feature amount are extracted based on the Japanese vocabulary system acquired in step S300.

<第4の実施の形態に係るランキング装置の作用>
次に、本発明の第4の実施の形態に係るランキング装置800の作用について説明する。まず、入力部210から、モデル学習装置700において学習された発話列の結束性を判定するモデルが入力され、モデル記憶部230に記憶される。そして、入力部210において、対話文脈と、P個の発話候補とを受け付けると、ランキング装置800は、図27に示すランキング処理ルーチンを実行する。
<Operation of the ranking device according to the fourth embodiment>
Next, the operation of the ranking device 800 according to the fourth embodiment of the present invention will be described. First, a model for determining the cohesiveness of an utterance sequence learned by the model learning device 700 is input from the input unit 210 and stored in the model storage unit 230. When the input unit 210 accepts the dialog context and P utterance candidates, the ranking device 800 executes a ranking process routine shown in FIG.

ステップS600では、ステップS400において取得した日本語語彙大系と、ステップS402において取得した発話列の各々についての意味属性と、ステップS206において取得した係り受け解析結果とに基づいて、ステップS500と同様に、特徴量を抽出する。   In step S600, based on the Japanese vocabulary system acquired in step S400, the semantic attributes of each utterance string acquired in step S402, and the dependency analysis result acquired in step S206, the same as in step S500. , Extract feature quantity.

以上説明したように、第4の実施の形態に係るモデル学習装置によれば、疑似負例を作成し、正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、疑似負例の発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例の発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習することにより、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができる。   As described above, according to the model learning device according to the fourth embodiment, a pseudo negative example is created, and a feature amount is extracted based on a dependency analysis result with respect to an utterance string input as a positive example. The feature amount is extracted based on the dependency analysis result with respect to the utterance sequence of the pseudo negative example, and the feature amount of the utterance sequence input as the positive example based on the extracted feature amount is the utterance sequence of the pseudo negative example. Learning a model for accurately ranking utterance strings based on the coherence of utterance strings by learning a model for judging the coherence of utterance strings so that it is ranked higher than the feature quantity of be able to.

また、第4の実施の形態に係るランキング装置によれば、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、構成された発話列の各々について、発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、抽出された発話列の各々についての特徴量と、学習されたモデルとに基づいて、構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力することにより、発話列の結束性に基づいて発話列を精度よくランキングすることができる。   In addition, according to the ranking device according to the fourth embodiment, an utterance is made for each of a plurality of utterance candidates based on an utterance string composed of a plurality of utterances input as a conversation context and a plurality of utterance candidates. Consists of utterance sequences with utterance candidates added as utterances following the sequence, and for each configured utterance sequence, features are extracted based on the dependency analysis results for the utterance sequence, and for each extracted utterance sequence Utterances based on the coherence of the utterance sequence by ranking the configured utterance sequence based on the feature amount of and the learned model and outputting the utterance candidates included in the utterance sequence ranked higher Columns can be ranked accurately.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

例えば、第4の実施の形態においては、係り受け関係にある主辞のペアにおいて、当該主辞を対応する意味属性によって置き換え、更に当該意味属性を上位概念によって置き換えた依存構造を抽出する場合について説明したが、これに限定されるものではなく、第2の実施の形態において抽出される係り受け関係にある主辞と機能語主辞のペアにおいて、当該主辞を対応する意味属性によって置き換え、更に当該意味属性を上位概念によって置き換えた依存構造を抽出してもよい。   For example, in the fourth embodiment, a case has been described in which a dependency structure is extracted by replacing a main attribute with a corresponding semantic attribute, and further replacing the semantic attribute with a higher concept in a dependency pair. However, the present invention is not limited to this, and in the pair of the main word and the function word main word in the dependency relationship extracted in the second embodiment, the main word is replaced with the corresponding semantic attribute, and the semantic attribute is further replaced. The dependency structure replaced by the superordinate concept may be extracted.

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能であるし、ネットワークを介して提供することも可能である。   Further, in the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium or provided via a network. It is also possible to do.

10 入力部
20 演算部
22 発話列抽出部
24 疑似負例作成部
26 形態素解析部
28 係り受け解析部
30 特徴量抽出部
32 モデル学習部
34 モデル記憶部
90 出力部
100 モデル学習装置
200 ランキング装置
210 入力部
220 演算部
222 発話列構成部
224 形態素解析部
226 係り受け解析部
228 特徴量抽出部
230 モデル記憶部
232 モデル適用部
234 ランキング部
290 出力部
300 モデル学習装置
320 演算部
330 特徴量抽出部
400 ランキング装置
420 演算部
428 特徴量抽出部
500 モデル学習装置
520 演算部
525 辞書記憶部
526 形態素解析部
530 特徴量抽出部
600 ランキング装置
620 演算部
623 辞書記憶部
624 形態素解析部
628 特徴量抽出部
700 モデル学習装置
720 演算部
730 特徴量抽出部
800 ランキング装置
820 演算部
828 特徴量抽出部
DESCRIPTION OF SYMBOLS 10 Input part 20 Calculation part 22 Utterance sequence extraction part 24 Pseudo negative example preparation part 26 Morphological analysis part 28 Dependency analysis part 30 Feature quantity extraction part 32 Model learning part 34 Model storage part 90 Output part 100 Model learning apparatus 200 Ranking apparatus 210 Input unit 220 Arithmetic unit 222 Utterance string configuration unit 224 Morphological analysis unit 226 Dependency analysis unit 228 Feature amount extraction unit 230 Model storage unit 232 Model application unit 234 Ranking unit 290 Output unit 300 Model learning device 320 Calculation unit 330 Feature amount extraction unit 400 ranking device 420 calculation unit 428 feature quantity extraction unit 500 model learning device 520 calculation unit 525 dictionary storage unit 526 morpheme analysis unit 530 feature quantity extraction unit 600 ranking unit 620 calculation unit 623 dictionary storage unit 624 morpheme analysis unit 628 feature quantity extraction unit 700 Model learning device 7 0 arithmetic unit 730 the feature extraction unit 800 Index 820 arithmetic unit 828 the feature extraction unit

Claims (7)

正例として入力された、連続する複数の発話からなる発話列に基づいて、前記発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例として作成する疑似負例作成部と、
前記正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、前記疑似負例作成部により作成された発話列に対する係り受け解析結果に基づいて、前記特徴量を抽出する特徴量抽出部と、
前記特徴量抽出部において抽出された前記特徴量に基づいて、前記正例として入力された発話列の特徴量が、前記疑似負例作成部により作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習するモデル学習部と、
を含む、モデル学習装置。
Based on an utterance sequence consisting of a plurality of continuous utterances input as a positive example, pseudo negative example creation for creating a utterance sequence in which the last utterance included in the utterance sequence is replaced with another utterance as a pseudo negative example And
The feature amount is extracted based on the dependency analysis result for the utterance sequence input as the positive example, and the feature amount is extracted based on the dependency analysis result for the utterance sequence created by the pseudo negative example creation unit. A feature quantity extraction unit,
Based on the feature amount extracted by the feature amount extraction unit, the feature amount of the utterance sequence input as the positive example is ranked higher than the feature amount of the utterance sequence created by the pseudo negative example creation unit. A model learning unit that learns a model for determining the cohesiveness of an utterance sequence,
A model learning device.
前記特徴量抽出部は、前記発話列に対する係り受け解析結果に基づいて、前記発話列の依存構造を抽出し、前記抽出された依存構造に含まれる単語を前記単語の意味を表す意味属性として表現した特徴量を抽出する請求項1記載のモデル学習装置。   The feature amount extraction unit extracts a dependency structure of the utterance sequence based on a dependency analysis result for the utterance sequence, and expresses a word included in the extracted dependency structure as a semantic attribute indicating the meaning of the word The model learning device according to claim 1, wherein the extracted feature amount is extracted. 前記特徴量抽出部は、前記発話列に対する係り受け解析結果に基づいて、前記抽出された依存構造に含まれる単語を、前記単語の意味を表す意味属性より上位の意味を表す意味属性として表現した特徴量を抽出する請求項記載のモデル学習装置。 The feature amount extraction unit expresses a word included in the extracted dependency structure as a semantic attribute representing a higher-order meaning than a semantic attribute representing the meaning of the word based on a dependency analysis result for the utterance string. The model learning device according to claim 2, wherein the feature amount is extracted. 対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、前記複数の発話候補の各々に対し、前記発話列に続く発話として前記発話候補を追加した発話列を構成する発話列構成部と、
前記発話列構成部によって構成された発話列の各々について、前記発話列に対する係り受け解析結果に基づいて、前記特徴量を抽出する特徴量抽出部と、
前記特徴量抽出部によって抽出された前記発話列の各々についての前記特徴量と、請求項1〜請求項3の何れか1項記載のモデル学習装置によって学習された前記モデルとに基づいて、前記発話列構成部によって構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力するランキング部と、
を含むランキング装置。
Based on an utterance string composed of a plurality of utterances input as a conversation context and a plurality of utterance candidates, an utterance string in which the utterance candidate is added as an utterance following the utterance string for each of the plurality of utterance candidates An utterance sequence component to be configured; and
A feature quantity extraction unit that extracts the feature quantity for each of the utterance series configured by the utterance series configuration unit based on a dependency analysis result for the utterance series;
The feature amount for each of the utterance strings extracted by the feature amount extraction unit and the model learned by the model learning device according to any one of claims 1 to 3, based on the model A ranking unit that ranks the utterance sequence configured by the utterance sequence configuration unit and outputs utterance candidates included in the utterance sequence ranked higher;
Ranking device including.
疑似負例作成部と、特徴量抽出部と、モデル学習部と、を含むモデル学習装置におけるモデル学習方法であって、
前記疑似負例作成部は、正例として入力された、連続する複数の発話からなる発話列に基づいて、前記発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例として作成し、
前記特徴量抽出部は、前記正例として入力された発話列に対する係り受け解析結果に基づいて、特徴量を抽出し、前記疑似負例作成部により作成された発話列に対する係り受け解析結果に基づいて、前記特徴量を抽出し、
前記モデル学習部は、前記特徴量抽出部において抽出された前記特徴量に基づいて、前記正例として入力された発話列の特徴量が、前記疑似負例作成部により作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習する
モデル学習方法。
A model learning method in a model learning device including a pseudo-negative example creation unit, a feature amount extraction unit, and a model learning unit,
The pseudo negative example creation unit, based on an utterance sequence composed of a plurality of consecutive utterances inputted as a positive example, replaces the last utterance included in the utterance sequence with another utterance. Create as an example,
The feature quantity extraction unit extracts a feature quantity based on the dependency analysis result for the utterance sequence input as the positive example, and based on the dependency analysis result for the utterance sequence created by the pseudo negative example creation unit. To extract the feature amount,
The model learning unit, based on the feature amount extracted by the feature amount extraction unit, features of the utterance sequence input as the positive example are features of the utterance sequence created by the pseudo negative example creation unit. A model learning method for learning a model for determining the cohesiveness of an utterance sequence so that it is ranked higher than the amount.
発話列構成部と、特徴量抽出部と、ランキング部と、を含むランキング装置におけるランキング方法であって、
前記発話列構成部は、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、前記複数の発話候補の各々に対し、前記発話列に続く発話として前記発話候補を追加した発話列を構成し、
前記特徴量抽出部は、前記発話列構成部によって構成された発話列の各々について、前記発話列に対する係り受け解析結果に基づいて、前記特徴量を抽出し、
前記ランキング部は、前記特徴量抽出部によって抽出された前記発話列の各々についての前記特徴量と、請求項5記載のモデル学習方法によって学習された前記モデルとに基づいて、前記発話列構成部によって構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力する
ランキング方法。
A ranking method in a ranking device that includes an utterance string configuration unit, a feature amount extraction unit, and a ranking unit,
The utterance sequence forming unit, based on an utterance sequence composed of a plurality of utterances input as a conversation context and a plurality of utterance candidates, for each of the plurality of utterance candidates, as the utterance as an utterance following the utterance sequence Construct an utterance sequence with added candidates,
The feature amount extraction unit extracts the feature amount based on a dependency analysis result for the utterance sequence for each utterance sequence configured by the utterance sequence configuration unit,
The ranking unit includes the utterance sequence configuration unit based on the feature amount for each of the utterance sequences extracted by the feature amount extraction unit and the model learned by the model learning method according to claim 5. The ranking method of ranking the utterance string constituted by the above and outputting the utterance candidates included in the utterance string ranked higher.
コンピュータを、請求項1から3の何れか1項記載のモデル学習装置、若しくは請求項4記載のランキング装置を構成する各部として機能させるためのプログラム。   The program for functioning a computer as each part which comprises the model learning apparatus of any one of Claim 1 to 3, or the ranking apparatus of Claim 4.
JP2014217760A 2014-10-24 2014-10-24 Model learning device, ranking device, method, and program Active JP5959598B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014217760A JP5959598B2 (en) 2014-10-24 2014-10-24 Model learning device, ranking device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014217760A JP5959598B2 (en) 2014-10-24 2014-10-24 Model learning device, ranking device, method, and program

Publications (2)

Publication Number Publication Date
JP2016085597A JP2016085597A (en) 2016-05-19
JP5959598B2 true JP5959598B2 (en) 2016-08-02

Family

ID=55973051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014217760A Active JP5959598B2 (en) 2014-10-24 2014-10-24 Model learning device, ranking device, method, and program

Country Status (1)

Country Link
JP (1) JP5959598B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023148831A1 (en) * 2022-02-01 2023-08-10 日本電信電話株式会社 Pseudo-negative example generation device, pseudo-negative example generation method, and program

Also Published As

Publication number Publication date
JP2016085597A (en) 2016-05-19

Similar Documents

Publication Publication Date Title
JP5257071B2 (en) Similarity calculation device and information retrieval device
JP6541673B2 (en) Real time voice evaluation system and method in mobile device
JP4930379B2 (en) Similar sentence search method, similar sentence search system, and similar sentence search program
JP6251562B2 (en) Program, apparatus and method for creating similar sentence with same intention
KR102167157B1 (en) Voice recognition considering utterance variation
JP5914054B2 (en) Language model creation device, speech recognition device, and program thereof
Nguyen et al. A method for Vietnamese Text Normalization to improve the quality of speech synthesis
JP2017091368A (en) Paraphrase device, method, and program
JP5959598B2 (en) Model learning device, ranking device, method, and program
JP4826719B2 (en) Speech recognition system, speech recognition method, and speech recognition program
JP5976037B2 (en) Model learning device, ranking device, method, and program
JP6126965B2 (en) Utterance generation apparatus, method, and program
JP6232358B2 (en) Next utterance candidate ranking apparatus, method, and program
Khoury Microtext normalization using probably-phonetically-similar word discovery
JP6558856B2 (en) Morphological analyzer, model learning device, and program
JP5744150B2 (en) Utterance generation apparatus, method, and program
Chowdhury et al. Bangla grapheme to phoneme conversion using conditional random fields
JP4405542B2 (en) Apparatus, method and program for clustering phoneme models
JP6067616B2 (en) Utterance generation method learning device, utterance generation method selection device, utterance generation method learning method, utterance generation method selection method, program
JP6574469B2 (en) Next utterance candidate ranking apparatus, method, and program
JP2017167378A (en) Word score calculation device, word score calculation method, and program
JP6634001B2 (en) Text summarization apparatus, method, and program
JP6309852B2 (en) Enhanced position prediction apparatus, enhanced position prediction method, and program
JP6220761B2 (en) Model learning device, character string conversion device, method, and program
JP6125991B2 (en) Pronunciation dictionary conversion model creation device, pronunciation dictionary conversion device and method, program, and recording medium thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160621

R150 Certificate of patent or registration of utility model

Ref document number: 5959598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150