JP2024022977A - Inference system, method, and inference unit - Google Patents
Inference system, method, and inference unit Download PDFInfo
- Publication number
- JP2024022977A JP2024022977A JP2022126453A JP2022126453A JP2024022977A JP 2024022977 A JP2024022977 A JP 2024022977A JP 2022126453 A JP2022126453 A JP 2022126453A JP 2022126453 A JP2022126453 A JP 2022126453A JP 2024022977 A JP2024022977 A JP 2024022977A
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- inference
- sentences
- input
- teacher data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013519 translation Methods 0.000 claims abstract description 52
- 238000012549 training Methods 0.000 claims description 28
- 238000011156 evaluation Methods 0.000 claims description 16
- 230000014616 translation Effects 0.000 description 48
- 238000012545 processing Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 11
- 230000010365 information processing Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000004904 shortening Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 6
- 208000015181 infectious disease Diseases 0.000 description 6
- 230000009467 reduction Effects 0.000 description 5
- 230000008602 contraction Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 101100259462 Caenorhabditis elegans snt-1 gene Proteins 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 101100013480 Rattus norvegicus Frs3 gene Proteins 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Machine Translation (AREA)
Abstract
Description
本発明は、推論システム、方法、プログラム、および推論器に関する。 The present invention relates to an inference system, method, program, and inference device.
ニューラルネットを用いて文章を操作する技術が知られている。例えば、非特許文献1および非特許文献2は、通常の文章が入力されると、当該入力された文章を短縮した文章を出力する技術を開示している。このような文章を短縮する技術は、要約技術に利用されている。
Techniques for manipulating sentences using neural networks are known. For example, Non-Patent
また、非特許文献3には、規準コーパスを用いて、文章の難易度を推定する技術を開示する。 Furthermore, Non-Patent Document 3 discloses a technique for estimating the difficulty level of sentences using a reference corpus.
上述の非特許文献1および非特許文献2に開示されるようなニューラルネットワークを構成するためには、通常の文章(入力)と短縮された文章(出力)とを対応付けた教師データが必要となる。しかしながら、このような教師データに利用できるコーパスはほとんど存在しない。
In order to construct a neural network as disclosed in
また、非特許文献3に開示される技術は、ニューラルネットを用いる手法ではないので、規準コーパスを教師データとして用いることはできない。 Furthermore, since the technique disclosed in Non-Patent Document 3 is not a method using a neural network, the reference corpus cannot be used as training data.
本発明は、教師データを生成するためのコーパスが存在しないまたは十分ではない場合であっても、文章を操作する推論器を構成できる新たな技術の提供を目的とする。 The present invention aims to provide a new technique that can configure a reasoner that operates on sentences even when a corpus for generating training data does not exist or is insufficient.
ある実施の形態に従う推論システムは、1または複数の文が入力されると、当該入力された1または複数の文に対応する1または複数の文を出力する推論器と、第1言語の第1の文と、第1の文の翻訳である第2言語の第2の文を機械翻訳することで生成される第1言語の第3の文と、の組から教師データを生成する生成部と、教師データを用いて推論器を学習する学習部とを含む。 An inference system according to an embodiment includes: a reasoner that outputs one or more sentences corresponding to the input one or more sentences when one or more sentences are input; and a third sentence in the first language that is generated by machine translating a second sentence in the second language that is a translation of the first sentence. , and a learning section that learns the inference machine using training data.
生成部は、第1の文および第3の文の評価値を算出する算出部を含んでいてもよい。
生成部は、第1の文の評価値と第3の文の評価値とを比較することで、第1の文および第3の文の一方を教師データの入力に決定し、第1の文および第3の文の他方を教師データの出力に決定するようにしてもよい。
The generation unit may include a calculation unit that calculates evaluation values of the first sentence and the third sentence.
By comparing the evaluation value of the first sentence and the evaluation value of the third sentence, the generation unit determines one of the first sentence and the third sentence as the input of the teacher data, and inputs the first sentence. and the third sentence may be determined to be the output of the teaching data.
算出部は、文の長さ、および、文の難易度のいずれかを含んでいてもよい。
推論システムは、第1の文および前記第3の文について、文の長さ、および、文の難易度のいずれかを評価する評価部をさらに含んでいてもよい。
The calculation unit may include either the length of the sentence or the difficulty level of the sentence.
The inference system may further include an evaluation unit that evaluates either the sentence length or the sentence difficulty of the first sentence and the third sentence.
生成部は、評価値のレベルを示すメタ情報を教師データに付加するようにしてもよい。
学習部は、教師データを用いて学習した推論器を、教師データのうち特定のメタ情報が付加されたデータを用いて追加学習するようにしてもよい。
The generation unit may add meta information indicating the level of the evaluation value to the teacher data.
The learning unit may perform additional learning on the inference device that has learned using the teacher data using data to which specific meta information is added from among the teacher data.
推論システムは、第1の文を機械翻訳して第2の文を生成する第1の翻訳部と、第2の文を機械翻訳して第3の文を生成する第2の翻訳部とをさらに含んでいてもよい。 The inference system includes a first translation unit that machine-translates a first sentence to generate a second sentence, and a second translation unit that machine-translates the second sentence to generate a third sentence. It may further contain.
別の実施の形態に従えば、1または複数の文が入力されると、当該入力された1または複数の文に対応する1または複数の文を出力する推論器を構成する方法が提供される。方法は、第1言語の第1の文と、第1の文の翻訳である第2言語の第2の文を機械翻訳することで生成される第1言語の第3の文と、の組から教師データを生成するステップと、教師データを用いて推論器を学習するステップとを含む。 According to another embodiment, a method is provided for configuring a reasoner that, upon input of one or more sentences, outputs one or more sentences corresponding to the input sentence or sentences. . The method involves combining a first sentence in a first language and a third sentence in the first language, which is generated by machine translation of a second sentence in the second language, which is a translation of the first sentence. The method includes a step of generating training data from the above, and a step of learning a reasoner using the training data.
さらに別の実施の形態に従えば、コンピュータに上述の方法を実行させるためのプログラムが提供される。 According to yet another embodiment, a program is provided for causing a computer to perform the above method.
さらに別の実施の形態に従えば、1または複数の文が入力されると、当該入力された1または複数の文に対応する1または複数の文を出力する推論器が提供される。推論器は、教師データを用いて学習することにより構成される。教師データは、第1言語の第1の文と、第1の文の翻訳である第2言語の第2の文を機械翻訳することで生成される第1言語の第3の文と、の組から生成される。 According to yet another embodiment, a reasoner is provided that, upon input of one or more sentences, outputs one or more sentences corresponding to the input sentence or sentences. The inference machine is configured by learning using training data. The training data consists of a first sentence in the first language and a third sentence in the first language generated by machine translation of the second sentence in the second language, which is a translation of the first sentence. generated from the tuple.
本発明によれば、教師データを生成するためのコーパスが存在しないまたは十分ではない場合であっても、文章を操作する推論器を構成できる。 According to the present invention, even when a corpus for generating training data does not exist or is insufficient, it is possible to configure a reasoner that operates on sentences.
本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the figures are designated by the same reference numerals, and the description thereof will not be repeated.
[A.推論システム]
本実施の形態に従う推論システムについて説明する。
[A. Reasoning system]
An inference system according to this embodiment will be explained.
図1は、本実施の形態に従う推論システム1の推論時の構成例を示す模式図である。図1を参照して、推論システム1は、入力された文章から対応する文章を推論する推論器10を含む。すなわち、推論器10は、1または複数の文が入力されると、当該入力された1または複数の文に対応する1または複数の文を出力(推論)する。
FIG. 1 is a schematic diagram showing a configuration example of an
推論器10は、後述する教師データを用いて学習することにより構成される学習済モデルを含む。一例として、推論器10は、ニューラルネットワークを用いて構成される。
The
例えば、任意の1または複数の文を入力とすることができる。出力としては、入力された1または複数の文を短縮した結果(短文)とすることができる。このような入力と出力との組み合わせを採用した場合には、推論器10は、入力された文章を短縮する短文化エンジンとして機能する。
For example, any one or more sentences can be input. The output can be the result of shortening one or more input sentences (short sentences). When such a combination of input and output is adopted, the
あるいは、入力された文章を容易化した結果を出力とすることができる。このような入力と出力との組み合わせを採用した場合には、推論器10は、入力された文章を理解し易くする容易化エンジンとして機能する。
Alternatively, the result of simplifying the input sentence can be output. When such a combination of input and output is adopted, the
なお、上述した短文化エンジンとは逆に、入力された文章を冗長化した結果を出力する推論器10を実現してもよい。あるいは、上述した容易化エンジンとは逆に、入力された文章を難読化した結果を出力する推論器10を実現してもよい。
Note that, contrary to the above-described short culture engine, an
このように、推論システム1に含まれる推論器10は、入力された文章を任意に操作できる。
In this way, the
以下では、主として、短文化エンジンを実現する場合の処理について説明する。短文化エンジンとして機能する推論器10の動作例は、例えば、以下のようになる。
In the following, processing for realizing the short culture engine will be mainly explained. An example of the operation of the
(入力1)シリンダヘッドをシリンダブロックに固定するためのボルトの締め付けによる歪み。 (Input 1) Distortion caused by tightening the bolts used to fix the cylinder head to the cylinder block.
(出力1)シリンダヘッドをシリンダブロックに固定するボルトによる歪み。
(入力2)図1は、基本筐体の前面右斜め上から筐体を透過して見たものであり、筐体内各部の配置の概略を示している。
(Output 1) Distortion caused by the bolts that fix the cylinder head to the cylinder block.
(Input 2) FIG. 1 is a view of the basic casing seen from diagonally above and to the right of the front surface of the casing, and shows an outline of the arrangement of each part within the casing.
(出力2)図1は、基本筐体の正面右斜め上方から見た図であり、筐体内の各部の配置の概略を示す。 (Output 2) FIG. 1 is a front view of the basic casing as viewed diagonally from above and to the right, and schematically shows the arrangement of each part within the casing.
(入力3)To provide information on appropriate diagnosis/monitoring of infections associated with administration of this drug and how to respond to such infections when they occur, in order to prepare for the risk of such infections and to minimize their seriousness when they occur.
(出力3)To provide information on appropriate diagnosis and monitoring of infections associated with administration of this drug and how to respond to such infections in order to minimize the risk and severity of such infections.
このように、短文化エンジンに入力された文章は短縮される。
(Input 3) To provide information on appropriate diagnosis/monitoring of infections associated with administration of this drug and how to respond to such infections when they occur, in order to prepare for the risk of such infections and to minimize their seriousness when they occur.
(Output 3) To provide information on appropriate diagnosis and monitoring of infections associated with administration of this drug and how to respond to such infections in order to minimize the risk and severity of such infections.
In this way, sentences input to the short culture engine are shortened.
[B.実施の形態1]
以下、本発明の実施の形態1に従う推論システム1について説明する。
[B. Embodiment 1]
The
(b1:教師データの生成)
まず、推論器10の構成に必要な教師データの生成について説明する。
(b1: Generation of teaching data)
First, generation of training data necessary for the configuration of the
図2は、実施の形態1に従う推論システム1の教師データを生成するための構成例を示す模式図である。図2を参照して、推論システム1は、翻訳エンジン22と、翻訳エンジン24と、生成部26とを含む。
FIG. 2 is a schematic diagram showing a configuration example for generating training data of the
翻訳エンジン22は、第1言語(例えば、日本語)の文S1を第2言語(例えば、英語)の文Tに翻訳する。すなわち、翻訳エンジン22は、文S1を機械翻訳して文Tを生成する。このように、翻訳エンジン22は、文S1に対応する文Tを推論する。
The
翻訳エンジン24は、第2言語の文Tを第1言語の文S2に翻訳する。すなわち、翻訳エンジン24は、文Tを機械翻訳して文S2を生成する。このように、翻訳エンジン24は、文Tに対応する文S2を推論する。
The
このように、翻訳エンジン22および翻訳エンジン24との間では、入力言語と出力言語が逆になっている。2つの翻訳エンジンを接続することで、同じ第1言語の文S1と文S2との組が得られる。
In this way, the input and output languages of the
翻訳エンジン22および翻訳エンジン24には、公知の学習済モデルを用いることができる。一例として、Transformerなどのニューラル機械翻訳(Neural Machine Translation:以下「NMT」とも略称する。)モデルを用いることができる。なお、十分に大きいコーパスを用いて、翻訳エンジン22および翻訳エンジン24を学習することが好ましい。
A known trained model can be used for the
生成部26は、文S1と文S2との組(文対)から教師データ20を生成する。すなわち、生成部26は、第1言語の文S1(第1の文)と、文S1の翻訳である第2言語の文T(第2の文)を機械翻訳することで生成される第1言語の文S2(第3の文)と、の組から教師データ20を生成する。
The
生成部26は、文S1および文S2の評価値を算出するようにしてもよい。目的の推論器10に応じた評価値が用いられる。例えば、短文化エンジンを構成する場合には、評価値として、文の長さ(文字数またはワード数)が採用すればよい。容易化エンジンを構成する場合には、評価値として、文の難易度を採用すればよい。
The
また、生成部26は、評価値などに基づいて、文S1と文S2との組を教師データ20として用いることができるか否かを評価するようにしてもよい。この場合には、生成部26は、教師データ20として用いることができる文の組のみを教師データ20に追加する。
Furthermore, the
より具体的には、生成部26は、長さ算出部27と、比較部28とを含む。長さ算出部27は、文S1および文S2のそれぞれの長さを算出する。比較部28は、文S1の長さと文S2の長さとを比較する。
More specifically, the
生成部26は、文S1および文S2のうち、長い方の文を長文LongSntとして出力し、短い方の文を短文ShortSntとして出力する。長文LongSntと短文ShortSntとの組が教師データ20となる。
The
教師データ20において、長文LongSntが入力であり、短文ShortSntが出力となる。以下では、教師データ20における入出力の対応関係を「LongSnt|||ShortSnt」と表現することもある。
In the
このように、生成部26は、文S1の評価値(長さ)と文S2の評価値(長さ)とを比較することで、文S1および文S2の一方を教師データ20の入力に決定し、文S1および文S2の他方を教師データ20の出力に決定するようにしてもよい。
In this way, the
なお、文S1と文S2との意味が一致している可能性を高めるために、生成部26は、文S1と文S2との類似度を算出するとともに、類似度が予め定められたしきい値(例えば、50%)を超える場合に限って、教師データ20として用いるようにしてもよい。
Note that in order to increase the possibility that the meanings of sentences S1 and S2 match, the
文S1として、任意の分野の任意の言語の文を任意の量だけ用いることで、任意の分野の任意の言語の教師データ20を任意の量だけ生成できる。
By using an arbitrary amount of sentences in an arbitrary language in an arbitrary field as the sentences S1, it is possible to generate an arbitrary amount of
図3は、実施の形態1に従う推論システム1の教師データを生成するための処理手順を示すフローチャートである。図3に示す各ステップは、例えば、プロセッサがプログラムを実行することで実現される。
FIG. 3 is a flowchart showing a processing procedure for generating teacher data of the
図3を参照して、推論システム1は、予め用意されたコーパスから文S1を選択する(ステップST2)。推論システム1は、選択された文S1を翻訳エンジン22に入力して文Tを生成する(ステップST4)。続いて、推論システム1は、選択された文Tを翻訳エンジン24に入力して文S2を生成する(ステップST6)。
Referring to FIG. 3,
推論システム1は、文S1および文S2のそれぞれの長さを算出し(ステップST8)、算出した文の長さを比較する(ステップST10)。
The
文S1が文S2より長ければ(ステップST10において「S1>S2」)、推論システム1は、文S1を長文LongSntとし、文S2を短文ShortSntとして、教師データ20に追加する(ステップST12)。
If the sentence S1 is longer than the sentence S2 (“S1>S2” in step ST10), the
文S2が文S1より長ければ(ステップST10において「S2>S1」)、推論システム1は、文S2を長文LongSntとし、文S1を短文ShortSntとして、教師データ20に追加する(ステップST14)。
If the sentence S2 is longer than the sentence S1 (“S2>S1” in step ST10), the
推論システム1は、教師データ20が予め定められたサイズに到達したか否かを判断する(ステップST16)。教師データ20が予め定められたサイズに到達していなければ(ステップST16においてNO)、ステップST2以下の処理が繰り返される。
The
教師データ20が予め定められたサイズに到達していれば(ステップST16においてYES)、教師データを生成するための処理は終了する。
If the
(b2:推論器10の学習)
次に、推論器10の学習について説明する。
(b2: Learning of inference device 10)
Next, learning of the
図4は、実施の形態1に従う推論システム1の推論器10を構成するための構成例を示す模式図である。図4を参照して、推論システム1は、学習部40を含む。
FIG. 4 is a schematic diagram showing a configuration example for configuring the
学習部40は、教師データ20を用いて推論器10を学習する。より具体的には、学習部40は、教師データ20を用いて、推論器10を構成するモデルのパラメータを最適化する。パラメータの最適化(学習)には、例えば、非特許文献2に開示される「sequence2sequence」といった任意の学習手法を採用できる。
The
推論器10をニューラルネットワーク(NMTモデル12)を用いて構成する場合には、NMTの手法を採用できる。より具体的には、学習部40は、教師データ(LongSnt|||ShortSnt)の長文LongSntと、長文LongSntをNMTモデル12に入力して得られる結果を対応する短文ShortSntとの差に基づいて、NMTモデル12のパラメータを最適化する。このように、学習部40は、一般的なNMTの学習方法により、NMTモデル12を学習することにより、短文化エンジンとして機能する推論器10(学習済モデル)を構成できる。
When the
[C.実施の形態2]
上述の実施の形態1においては、翻訳エンジン22を用いて、第1言語の文S1と第2言語の文Tとの対訳を用意する。すなわち、機械翻訳により対訳が用意される。
[C. Embodiment 2]
In the first embodiment described above, the
但し、第1言語の文S1と第2言語の文Tとの対訳については、予め用意されている対訳コーパスを用いてもよいし、人手翻訳に代えてもよい。 However, for the bilingual translation between the sentence S1 in the first language and the sentence T in the second language, a bilingual corpus prepared in advance may be used, or manual translation may be used instead.
このように、図2に示す構成例において、翻訳エンジン22は必須の構成ではなく、代替可能である。
In this way, in the configuration example shown in FIG. 2, the
[D.実施の形態3]
上述の実施の形態1においては、文S1と文S2との間で長さを比較することで、教師データ20を生成する処理例を説明したが、評価値のレベルを示すメタ情報を教師データ20に付加してもよい。より具体的には、短縮の度合いを示すメタ情報を教師データ20に付加するとともに、短縮の度合いを示すメタ情報を反映した推論器10を構成してもよい。
[D. Embodiment 3]
In the above-described first embodiment, an example of processing was described in which the
(d1:教師データの生成)
図2に示す構成例により生成される教師データ20において、長文LongSntの長さに対する短文ShortSntの長さの比率R(=ShortSnt/LongSnt)は、文S1と文S2との組毎に異なる。ここで、比率Rは、短縮率を示す。
(d1: Generation of training data)
In the
比率Rの大きさに基づいて、文の組を複数のクラス(例えば、2クラス)に分類してもよい。 Based on the magnitude of the ratio R, a set of sentences may be classified into a plurality of classes (for example, two classes).
図5は、実施の形態3に従う推論システム1の教師データを生成するための構成例を示す模式図である。図5に示す推論システム1は、図2に示す推論システム1に比較して、生成部26の構成が異なっている。
FIG. 5 is a schematic diagram showing a configuration example for generating teacher data of the
より具体的には、生成部26は、長さ算出部27および比較部28に加えて、比率算出部29を含む。比率算出部29は、文S1および文S2のうち長い方(長文LongSnt)の文長さに対する短い方(短文ShortSnt)の文長さの比率Rを算出する。
More specifically, the
生成部26は、算出される比率Rの大きさに基づいて、短縮の度合いを示すメタ情報を付加して、教師データ20を生成する。
The
一例として、生成部26は、(1)比率Rがしきい値(例えば、80%)以上である文対には、短縮の度合いが相対的に低いことを示す<WeakCompression>というタグを入力文の先頭に付加し、(2)比率Rがしきい値(例えば、80%)未満である文対には、短縮の度合いが相対的に高いことを示す<StrongCompression>というタグを入力文の先頭に付加する。
As an example, the
なお、比率Rが100%に近い文対(すなわち、短縮の度合いが低いと判断できる文対)については、教師データ20として用いることができないと判断して、破棄するようにしてもよい(すなわち、教師データ20には含めないようにしてもよい)。
Note that sentence pairs for which the ratio R is close to 100% (i.e., sentence pairs that can be judged to have a low degree of contraction) may be determined to be unusable as the
このような短縮の度合いを示すメタ情報として複数種類のタグを先頭に付加することで、教師データ20における入出力の対応関係は、以下のいずれかを含むことになる。
By adding multiple types of tags to the beginning as meta information indicating the degree of shortening, the input/output correspondence in the
<WeakCompression>LongSnt|||ShortSnt
<StrongCompression>LongSnt|||ShortSnt
(d2:推論器10の学習)
推論器10を構成する場合には、メタ情報であるタグが先頭に付加された教師データ20を用いて学習が行われる。学習方法としては、一般的なNMTの学習方法を用いることができる。
<WeakCompression>LongSnt | | | ShortSnt
<StrongCompression>LongSnt | | | ShortSnt
(d2: Learning of inference device 10)
When configuring the
(d3:推論)
図6は、実施の形態3に従う推論システム1の推論時の構成例を示す模式図である。図6を参照して、実施の形態3に従う推論システム1は、上述の教師データ20を用いて構成された推論器10に加えて、入力文の先頭にタグを付加するタグ付加部30を含む。
(d3: Reasoning)
FIG. 6 is a schematic diagram showing a configuration example of the
タグ付加部30は、入力文Sntに対して、予め用意されたタグ(例えば、<WeakCompression>または<StrongCompression>)を付加する。その結果、タグ付加部30からは、「<WeakCompression>Snt」または「<StrongCompression>Snt」が出力される。なお、タグ付加部30は、指定されたモードに応じて、付加するタグを切り替える。
The
タグ付加部30から出力されるタグが付加された入力文は、推論器10に入力される。これにより、<WeakCompression>のタグが付加された入力文に対しては、相対的に度合いの低い短縮が行われて、出力文は相対的に長くなる。また、<StrongCompression>のタグが付加された入力文に対しては、相対的に度合いの高い短縮が行われて、出力文は相対的に短くなる。
The tagged input sentence output from the
このように、ユーザがモードを選択することで、共通の推論器10を用いて、短縮の度合いを任意に切り替えることができる。
In this way, by selecting the mode by the user, the degree of reduction can be arbitrarily switched using the
[E.実施の形態3の変形例]
上述の実施の形態3において説明したように、短縮の度合いを示すメタ情報を付加した教師データ20を生成した場合には、学習により推論器10を構成した後に、さらにチューニング(adaptation)を行ってもよい。
[E. Modification of Embodiment 3]
As explained in the third embodiment above, when the
一般的に、相対的に度合いの高い短縮が利用されると想定されているため、教師データ20のうち、<StrongCompression>のタグが付加された文対を用いて、追加学習(ファインチューニング)を行うようにしてもよい。
Generally, it is assumed that a relatively high degree of contraction is used, so additional learning (fine tuning) is performed using sentence pairs to which the <Strong Compression> tag is added from the
より具体的には、上述の実施の形態3と同様の方法で、教師データ20を用いて学習することにより推論器10を構成する。なお、この学習においては、<WeakCompression>のタグが付加された文対、および、<StrongCompression>のタグが付加された文対の両方(すなわち、教師データ20のすべて)が用いられる。
More specifically, the
続いて、教師データ20に含まれる<StrongCompression>のタグが付加された文対を用いて、推論器10の追加学習が行われる。なお、教師データ20に含まれる<StrongCompression>のタグが付加された文対の一部だけが追加学習に用いられてもよい。また、<StrongCompression>のタグが付加された同じ文対を複数回用いるようにしてもよい。
Subsequently, additional learning of the
このように、教師データ20を用いて学習した推論器10を、教師データ20のうち特定のメタ情報(この例では、<StrongCompression>のタグ)が付加されたデータを用いて追加学習するようにしてもよい。このような追加学習により、短縮の度合いを高めた圧縮化が得意な推論器10を構成することができる。
In this way, the
なお、推論時には、図6に示す構成例に示すタグ付加部30は、基本的には、入力文Sntに対して<StrongCompression>を付加することになる。
Note that during inference, the
本願発明者らの実験によれば、実施の形態3の変形例において説明した追加学習を行うことにより、日本語、英語、中国語、韓国語、ベトナム語のいずれについても、平均して約75%程度の短縮を実現できることが確認された。 According to experiments by the inventors of the present application, by performing the additional learning described in the modification of Embodiment 3, on average, approximately 75% of Japanese, English, Chinese, Korean, and Vietnamese can be learned. It was confirmed that it was possible to achieve a reduction of approximately 1.5%.
[F.実施の形態4]
本発明の実施の形態に従う推論システム1の推論器10には、1文ではなく、複数の文を連結して入力することも可能である。上述の実施の形態に従う推論器10(短文化エンジン)は、数文程度を連結した結果を入力しても、短縮された文を出力可能である。但し、数文を超えると、適切に短縮できない場合もある。
[F. Embodiment 4]
It is also possible to input not one sentence but a plurality of connected sentences to the
このような場合には、予め定められた数の範囲で文を連結して短縮するという処理を繰り返し実行するようにしてもよい。例えば、複数の文からなる文書については、連続する複数の文(2以上の文)を連結して、推論器10の一つの入力とする。これによって、連結した複数の文に対応する短縮された文が出力される。この処理をボトムアップに繰り返し実行することで、複数の文からなる文書であっても、短縮された文章(例えば、要約)を生成できる。
In such a case, a process of concatenating and shortening sentences within a predetermined number range may be repeatedly executed. For example, for a document consisting of a plurality of sentences, a plurality of consecutive sentences (two or more sentences) are connected and used as one input to the
例えば、9文(Snt1~Snt9)を2文の要約を生成する場合には、以下のように処理することができる。なお、以下の説明において、「+」は結合を意味し、「→」は推論器10からの出力を意味する。
For example, when generating a two-sentence summary from nine sentences (Snt1 to Snt9), the following processing can be performed. In the following description, "+" means a combination, and "→" means an output from the
(1)短文化(Snt1+Snt2)→CompSnt12
(2)短文化(Snt3+Snt4)→CompSnt34
(3)短文化(Snt5+Snt6)→CompSnt56
(4)短文化(Snt7+Snt8+Snt9)→CompSnt789
すなわち、(1)~(4)においては、2または3文を連結して、短縮文CompSnt12,CompSnt34,CompSnt56,CompSnt789がそれぞれ生成される。
(1) Short culture (Snt1+Snt2) → CompSnt12
(2) Short culture (Snt3+Snt4) → CompSnt34
(3) Short culture (Snt5+Snt6) → CompSnt56
(4) Short culture (Snt7+Snt8+Snt9) → CompSnt789
That is, in (1) to (4), two or three sentences are concatenated to generate shortened sentences CompSnt12, CompSnt34, CompSnt56, and CompSnt789, respectively.
(5)短文化(CompSnt12+CompSnt34)→CompSnt1234
(6)短文化(CompSnt56+CompSnt789)→CompSnt56789
すなわち、(5)および(6)においては、2つの短縮文を連結して、短縮文CompSnt1234,CompSnt56789がそれぞれ生成される。
(5) Short culture (CompSnt12+CompSnt34) → CompSnt1234
(6) Short culture (CompSnt56+CompSnt789) → CompSnt56789
That is, in (5) and (6), two contracted sentences are concatenated to generate contracted sentences CompSnt1234 and CompSnt56789, respectively.
最終的に、短縮文CompSnt1234および短縮文CompSnt56789が要約として出力される。 Finally, the shortened sentence CompSnt1234 and the shortened sentence CompSnt56789 are output as a summary.
上述したような処理は、この要約のプロセスは、所望の文数および/または所望の長さの文が生成されるまで繰り返されてもよい。 As described above, this summarization process may be repeated until a desired number of sentences and/or sentences of a desired length are generated.
[G.実施の形態5]
上述の実施の形態1~4においては、入力された文を短縮する短文化エンジンとして機能する推論器10を例示したが、推論器10による文章の操作内容は、どのようなものであってもよい。
[G. Embodiment 5]
In the first to fourth embodiments described above, the
上述したように、容易化エンジンあるいは難読化エンジンとして機能する推論器10を構成する場合には、文S1と文S2との組(文対)について、非特許文献3に示される手法を用いて、難易度を評価した上で、容易化エンジンあるいは難読化エンジンを構成するための教師データ20を生成すればよい。
As described above, when configuring the
容易化エンジンを構成する場合には、難しい文を入力とし、対応する易しい文を出力として教師データ20が生成される。逆に、難読化エンジンを構成する場合には、易しい文を入力とし、対応する難しい文を出力として教師データ20が生成される。
When configuring the facilitation engine, the
このように、教師データ20を生成する際の文対の評価方法は、目的の推論器10に必要な機能を実現するものであれば、どのようなものであってもよい。
In this way, the method for evaluating sentence pairs when generating the
[H.ハードウェア構成例]
次に、本実施の形態に従う推論システム1を実現するためのハードウェア構成例について説明する。
[H. Hardware configuration example]
Next, an example of a hardware configuration for realizing the
図7は、本実施の形態に従う推論システム1を実現するハードウェア構成例を示す模式図である。推論システム1は、例えば、コンピュータの一例である情報処理装置100を用いて実現される。
FIG. 7 is a schematic diagram showing an example of a hardware configuration for realizing the
図7を参照して、情報処理装置100は、主要なハードウェアコンポーネントとして、CPU(central processing unit)102と、GPU(graphics processing unit)104と、主メモリ106と、ディスプレイ108と、ネットワークインターフェイス(I/F:interface)110と、二次記憶装置112と、入力デバイス122と、光学ドライブ124とを含む。これらのコンポーネントは、内部バス128を介して互いに接続される。
Referring to FIG. 7,
CPU102および/またはGPU104は、推論システム1の実現に必要な処理を実行するプロセッサである。CPU102およびGPU104は、複数個配置されてもよいし、複数のコアを有していてもよい。
The
主メモリ106は、プロセッサ(CPU102および/またはGPU104)が処理を実行するにあたって、プログラムコードやワークデータなどを一時的に格納(あるいは、キャッシュ)する記憶領域であり、例えば、DRAM(dynamic random access memory)やSRAM(static random access memory)などの揮発性メモリデバイスなどで構成される。
The
ディスプレイ108は、処理に係るユーザインターフェイスや処理結果などを出力する表示部であり、例えば、LCD(liquid crystal display)や有機EL(electroluminescence)ディスプレイなどで構成される。
The
ネットワークインターフェイス110は、インターネット上またはイントラネット上の任意の情報処理装置などとの間でデータをやり取りする。ネットワークインターフェイス110としては、例えば、イーサネット(登録商標)、無線LAN(local area network)、Bluetooth(登録商標)などの任意の通信方式を採用できる。
The
入力デバイス122は、ユーザからの指示や操作などを受け付けるデバイスであり、例えば、キーボード、マウス、タッチパネル、ペンなどで構成される。
The
光学ドライブ124は、CD-ROM(compact disc read only memory)、DVD(digital versatile disc)などの光学ディスク126に格納されている情報を読出して、内部バス128を介して他のコンポーネントへ出力する。光学ディスク126は、非一過的(non-transitory)な記録媒体の一例であり、任意のプログラムを不揮発的に格納した状態で流通する。光学ドライブ124が光学ディスク126からプログラムを読み出して、二次記憶装置112などにインストールすることで、コンピュータが情報処理装置100として機能するようになる。したがって、本発明の主題は、二次記憶装置112などにインストールされたプログラム自体、または、本実施の形態に従う機能や処理を実現するためのプログラムを格納した光学ディスク126などの記録媒体でもあり得る。
The
図7には、非一過的な記録媒体の一例として、光学ディスク126などの光学記録媒体を示すが、これに限らず、フラッシュメモリなどの半導体記録媒体、ハードディスクまたはストレージテープなどの磁気記録媒体、MO(magneto-optical disk)などの光磁気記録媒体を用いてもよい。
Although FIG. 7 shows an optical recording medium such as an
二次記憶装置112は、コンピュータを情報処理装置100として機能させるために必要なプログラムおよびデータを格納する。例えば、ハードディスク、SSD(solid state drive)などの不揮発性記憶装置で構成される。
The
より具体的には、二次記憶装置112は、図示しないOS(operating system)の他、教師データ生成プログラム114と、学習プログラム116と、パラメータセット118と、推論プログラム120とを格納している。
More specifically, the
教師データ生成プログラム114は、上述したような教師データ20を生成するための処理を実現する。
The teacher
学習プログラム116は、上述したような教師データ20を用いて推論器10を構成する処理を実現する。
The
パラメータセット118は、学習プログラム116による学習により最適化された結果を含む。
The parameter set 118 includes results optimized by learning by the
推論プログラム120は、パラメータセット118により規定される推論器10に1または複数の入力文を入力して、結果を出力する処理を実現する。
The
プロセッサ(CPU102および/またはGPU104)がプログラムを実行する際に必要となるライブラリや機能モジュールの一部を、OSが標準で提供するライブラリまたは機能モジュールにより代替してもよい。この場合には、プログラム単体では、対応する機能を実現するために必要なプログラムモジュールのすべてを含むものにはならないが、OSの実行環境下にインストールされることで、目的の処理を実現できる。このような一部のライブラリまたは機能モジュールを含まないプログラムであっても、本発明の技術的範囲に含まれ得る。
A part of the library or function module required when the processor (
また、これらのプログラムは、上述したようないずれかの記録媒体に格納されて流通するだけでなく、インターネットまたはイントラネットを介してサーバ装置などからダウンロードすることで配布されてもよい。 Furthermore, these programs may not only be stored and distributed in any of the recording media as described above, but may also be distributed by being downloaded from a server device or the like via the Internet or an intranet.
図7には、単一のコンピュータを用いて情報処理装置100を構成する例を示すが、これに限らず、コンピュータネットワークを介して接続された複数のコンピュータが明示的または黙示的に連携して、推論器10を含む推論システム1を実現するようにしてもよい。例えば、文章の操作をウェブサービスとして提供する場合には、ウェブブラウザを介して入力された1または複数の文を推論器10に入力し、推論器10から出力される結果をウェブブラウザを介して提供する処理を1または複数のサーバで実行するようにしてもよい。この場合、教師データ20を生成する処理、および、教師データ20を用いて推論器10を構成する処理は、別のサーバで実行されてもよい。
Although FIG. 7 shows an example in which the
プロセッサ(CPU102および/またはGPU104)がプログラムを実行することで実現される機能の全部または一部を、集積回路などのハードワイヤード回路(hard-wired circuit)を用いて実現してもよい。例えば、ASIC(application specific integrated circuit)やFPGA(field-programmable gate array)などを用いて実現してもよい。
All or part of the functions realized by the processor (
当業者であれば、本発明が実施される時代に応じた技術を適宜用いて、本実施の形態に従う情報処理装置100を実現できるであろう。
Those skilled in the art will be able to realize
説明の便宜上、同一の情報処理装置100が教師データ20の生成処理、学習処理および推論処理を実行する例を示すが、これらの処理の一部を異なるハードウェアを用いて実現してもよい。
For convenience of explanation, an example will be shown in which the same
[I.その他の実施の形態]
上述の説明では、推論システム1を短文化、容易化等のタスクを実現するものとしてとらえているが、入力文と出力文とを有する点では、機械翻訳も同様の推論システム1と考えることができる。言い換えれば、学習のための教師データを異ならせることにより、異なるタスクを実現するシステムととらえることができる。つまり、教師データを変えることにより、翻訳タスクと短文化タスクとを、同じニューラルネットワーク構成(例えば、自己注意を有するトランスフォーマーのネットワーク構成など)と推論プログラムの組み合わせで実現できる。推論プログラムは共用で、パラメータデータが異なる組み合わせになる。推論プログラムが共用できる構成は、システム管理上の利点がある。
[I. Other embodiments]
In the above explanation, the
そして、翻訳のための教師データ(いわゆる対訳コーパス)で学習した結果のパラメータデータ(翻訳パラメータデータ)と短文化のための教師データ(本明細書にて説明した教師データ)で学習した結果のパラメータ(短文化パラメータデータ)を保存していれば、図7のシステムにおいて、同じ推論プログラム120により、翻訳と短文化の機能を実現することができる。
Then, the parameter data (translation parameter data) as a result of learning with the training data for translation (so-called bilingual corpus) and the parameters as the result of learning with the training data for short culture (the training data explained in this specification). (Short Culture Parameter Data), in the system shown in FIG. 7, the translation and short culture functions can be realized by the
このような短文化と翻訳の機能を有するシステムのさらなる応用例について説明する。この応用例では、音声信号を入力として、目的言語に翻訳された音声信号が出力される(同時通訳的な使い方)。例えば、日本語から英語への同時通訳を考えると、同時通訳システムの起動時には、音声認識プログラム(音声入力をテキストに変換)、音声合成プログラム(テキストを音声に変換して出力)、短文化プログラム、翻訳プログラムが異なるプロセスとして起動される。 Further application examples of the system having such short text and translation functions will be explained. In this application example, an audio signal is input, and the audio signal translated into the target language is output (simultaneous interpretation usage). For example, when considering simultaneous interpretation from Japanese to English, when starting up the simultaneous interpretation system, a speech recognition program (converts speech input to text), a speech synthesis program (converts text to speech and outputs it), a short cultural program, , the translation program is started as a separate process.
ここで、短文化プログラムと翻訳プログラムは推論プログラムが同じもので、起動時に読み込むパラメータデータが異なることで、別のタスクを実現するプロセスとして起動される。そして、OSのプロセス間通信機能を利用し、各プロセス間でデータのやり取りが行われる。 Here, the short culture program and the translation program are the same inference program, but because the parameter data read at startup is different, they are launched as processes to accomplish different tasks. Then, data is exchanged between each process using the interprocess communication function of the OS.
この同時通訳システムに日本語が入力されると、日本語の音声入力が音声認識された結果、日本語テキスト文が得られる。この日本語テキスト文をまず、短文化プログラムで処理した上で、翻訳プログラムでの処理が行われ、目的言語でのテキストが音声合成プログラムにて処理され、音声出力が得られることになる。発話された文を簡略化して翻訳することは、人手による同時通訳でも行われることであり、このように、短文化された後で翻訳処理が行われることで、平均的に見て入力音声から翻訳結果が発話されるまでのレスポンスを改善できる。 When Japanese is input into this simultaneous interpretation system, a Japanese text sentence is obtained as a result of voice recognition of the Japanese voice input. This Japanese text sentence is first processed by a short culture program, then processed by a translation program, and the text in the target language is processed by a speech synthesis program to obtain speech output. Simplifying and translating uttered sentences is also done in manual simultaneous interpretation, and by performing translation processing after being shortened in this way, on average it is possible to It is possible to improve the response until the translation result is uttered.
[J.利点]
本実施の形態によれば、2つの翻訳エンジン、または、対訳コーパスおよび翻訳エンジンを用いて、教師データを生成できるので、コーパスが存在しないまたは十分ではない場合であっても、文章を操作する推論器を構成できる。
[J. advantage]
According to this embodiment, training data can be generated using two translation engines or a bilingual corpus and a translation engine, so even if a corpus does not exist or is insufficient, inference for manipulating sentences can be made. You can configure the vessel.
また、本実施の形態によれば、字幕の作成などの文章を短縮する必要がある場面で有益である。 Furthermore, the present embodiment is useful in situations where it is necessary to shorten sentences, such as when creating subtitles.
また、本実施の形態によれば、文章に含まれる冗長性を削減できるので、例えば、話し言葉を書き言葉に変換できる。会議などでの発言を書き起こしたような文章に対して適用すると、冗長な表現が削減されて、議事録などの作成を容易化できる。 Furthermore, according to the present embodiment, redundancy contained in sentences can be reduced, so that, for example, spoken words can be converted into written words. When applied to sentences such as transcriptions of statements made at meetings, etc., redundant expressions can be reduced, making it easier to create minutes.
また、本実施の形態に従う推論処理を、翻訳エンジンの一翻訳モデルとして構成することで、翻訳エンジンのシステムをそのまま流用することができる。つまり、日本語-英語を選択するのと同じように、短縮化を選択すれば、入力文が短い文となって出力される。 Further, by configuring the inference processing according to this embodiment as a translation model of a translation engine, the system of the translation engine can be used as is. In other words, just like selecting Japanese-English, if you select shortening, the input sentence will be output as a shorter sentence.
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims rather than the description of the embodiments described above, and it is intended that all changes within the meaning and range equivalent to the claims are included.
1 推論システム、10 推論器、12 NMTモデル、20 教師データ、22,24 翻訳エンジン、26 生成部、27 長さ算出部、28 比較部、29 比率算出部、30 タグ付加部、40 学習部、100 情報処理装置、102 CPU、104 GPU、106 主メモリ、108 ディスプレイ、110 ネットワークインターフェイス、112 二次記憶装置、114 教師データ生成プログラム、116 学習プログラム、118 パラメータセット、120 推論プログラム、122 入力デバイス、124 光学ドライブ、126 光学ディスク、128 内部バス、LongSnt 長文、R 比率、S1,S2,T 文、ShortSnt 短文、Snt 入力文。 1 Inference system, 10 Reasoner, 12 NMT model, 20 Teacher data, 22, 24 Translation engine, 26 Generation unit, 27 Length calculation unit, 28 Comparison unit, 29 Ratio calculation unit, 30 Tag addition unit, 40 Learning unit, 100 information processing device, 102 CPU, 104 GPU, 106 main memory, 108 display, 110 network interface, 112 secondary storage device, 114 teacher data generation program, 116 learning program, 118 parameter set, 120 inference program, 122 input device, 124 optical drive, 126 optical disc, 128 internal bus, LongSnt long sentence, R ratio, S1, S2, T sentence, ShortSnt short sentence, Snt input sentence.
Claims (6)
第1言語の第1の文と、前記第1の文の翻訳である第2言語の第2の文を機械翻訳することで生成される前記第1言語の第3の文と、の組から教師データを生成する生成部と、
前記教師データを用いて前記推論器を学習する学習部とを備える、推論システム。 a reasoner that, when one or more sentences is input, outputs one or more sentences corresponding to the inputted one or more sentences;
From a set of a first sentence in a first language and a third sentence in the first language generated by machine translation of a second sentence in the second language that is a translation of the first sentence. a generation unit that generates training data;
an inference system comprising: a learning unit that learns the inference machine using the teacher data;
前記学習部は、前記教師データを用いて学習した前記推論器を、前記教師データのうち特定のメタ情報が付加されたデータを用いて追加学習する、請求項1~3のいずれか1項に記載の推論システム。 The generation unit adds meta information indicating the level of the evaluation value to the teacher data,
4. The method according to claim 1, wherein the learning unit performs additional learning on the inference machine trained using the teacher data using data to which specific meta information is added among the teacher data. Described reasoning system.
第1言語の第1の文と、前記第1の文の翻訳である第2言語の第2の文を機械翻訳することで生成される前記第1言語の第3の文と、の組から教師データを生成するステップと、
前記教師データを用いて前記推論器を学習するステップとを備える、方法。 A method of configuring a reasoner that, when one or more sentences are input, outputs one or more sentences corresponding to the input one or more sentences, the method comprising:
From a set of a first sentence in a first language and a third sentence in the first language generated by machine translation of a second sentence in the second language that is a translation of the first sentence. a step of generating training data;
and training the reasoner using the teacher data.
前記推論器は、教師データを用いて学習することにより構成され、
前記教師データは、第1言語の第1の文と、前記第1の文の翻訳である第2言語の第2の文を機械翻訳することで生成される前記第1言語の第3の文と、の組から生成される、推論器。 A reasoner that, when one or more sentences is input, outputs one or more sentences corresponding to the input one or more sentences,
The inference device is configured by learning using training data,
The training data includes a third sentence in the first language that is generated by machine translation of a first sentence in the first language and a second sentence in the second language that is a translation of the first sentence. A reasoner generated from the set of and.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022126453A JP2024022977A (en) | 2022-08-08 | 2022-08-08 | Inference system, method, and inference unit |
PCT/JP2023/027349 WO2024034399A1 (en) | 2022-08-08 | 2023-07-26 | Inference system, method, and inferrer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022126453A JP2024022977A (en) | 2022-08-08 | 2022-08-08 | Inference system, method, and inference unit |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024022977A true JP2024022977A (en) | 2024-02-21 |
Family
ID=89851535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022126453A Pending JP2024022977A (en) | 2022-08-08 | 2022-08-08 | Inference system, method, and inference unit |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024022977A (en) |
WO (1) | WO2024034399A1 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10423665B2 (en) * | 2017-08-02 | 2019-09-24 | Oath Inc. | Method and system for generating a conversational agent by automatic paraphrase generation based on machine translation |
JP7211045B2 (en) * | 2018-11-30 | 2023-01-24 | 富士通株式会社 | Abstract generation method, abstract generation program, and abstract generation device |
-
2022
- 2022-08-08 JP JP2022126453A patent/JP2024022977A/en active Pending
-
2023
- 2023-07-26 WO PCT/JP2023/027349 patent/WO2024034399A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024034399A1 (en) | 2024-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102117160B1 (en) | A text processing method and device based on ambiguous entity words | |
US20230394242A1 (en) | Automated translation of subject matter specific documents | |
US8886514B2 (en) | Means and a method for training a statistical machine translation system utilizing a posterior probability in an N-best translation list | |
US8694303B2 (en) | Systems and methods for tuning parameters in statistical machine translation | |
JP7100747B2 (en) | Training data generation method and equipment | |
US20050010421A1 (en) | Machine translation device, method of processing data, and program | |
US11755909B2 (en) | Method of and system for training machine learning algorithm to generate text summary | |
JP7413630B2 (en) | Summary generation model training method, apparatus, device and storage medium | |
US20100125459A1 (en) | Stochastic phoneme and accent generation using accent class | |
EP4361897A2 (en) | Language-agnostic multilingual modeling using effective script normalization | |
WO2020170912A1 (en) | Generation device, learning device, generation method, and program | |
Bouscarrat et al. | STRASS: A light and effective method for extractive summarization based on sentence embeddings | |
KR20140049150A (en) | Automatic translation postprocessing system based on user participating | |
CN113407709A (en) | Generative text summarization system and method | |
WO2020170906A1 (en) | Generation device, learning device, generation method, and program | |
WO2024034399A1 (en) | Inference system, method, and inferrer | |
JP2006004366A (en) | Machine translation system and computer program for it | |
WO2021234610A1 (en) | Method of and system for training machine learning algorithm to generate text summary | |
WO2024023884A1 (en) | Image caption generation model training device, image caption generation device, image caption generation model training method, image caption generation method, and program | |
WO2021009972A1 (en) | Natural language processing method, natural language processing system, and natural language processing program | |
JP7385900B2 (en) | Inference machine, inference program and learning method | |
US20230359837A1 (en) | Multilingual summarization of episodes using longformers | |
US11664010B2 (en) | Natural language domain corpus data set creation based on enhanced root utterances | |
JP2022006237A (en) | Natural language processing system and natural language processing method | |
US20230298566A1 (en) | End-to-end streaming speech translation with neural transducer |