JP7113474B2 - data segmentation device - Google Patents

data segmentation device Download PDF

Info

Publication number
JP7113474B2
JP7113474B2 JP2018148249A JP2018148249A JP7113474B2 JP 7113474 B2 JP7113474 B2 JP 7113474B2 JP 2018148249 A JP2018148249 A JP 2018148249A JP 2018148249 A JP2018148249 A JP 2018148249A JP 7113474 B2 JP7113474 B2 JP 7113474B2
Authority
JP
Japan
Prior art keywords
data
sentence
unit
boundary
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018148249A
Other languages
Japanese (ja)
Other versions
JP2020024277A (en
Inventor
シャオリン ワン
将夫 内山
英一郎 隅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2018148249A priority Critical patent/JP7113474B2/en
Publication of JP2020024277A publication Critical patent/JP2020024277A/en
Application granted granted Critical
Publication of JP7113474B2 publication Critical patent/JP7113474B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、時系列に連続するシーケンスデータを分割する方法に関し、例えば、文章分割方法(センテンス・セグメンテーション)についての技術に関する。 The present invention relates to a method for segmenting sequence data that is continuous in time series, and for example, to a technique for a sentence segmentation method (sentence segmentation).

機械により同時通訳(リアルタイム通訳)を実現するためには、音声認識と機械翻訳とを実行する必要がある。つまり、自動同時通訳を実現するためには、自動音声認識と機械翻訳とを統合する必要がある。 In order to realize simultaneous interpretation (real-time interpretation) by a machine, it is necessary to perform speech recognition and machine translation. In other words, it is necessary to integrate automatic speech recognition and machine translation in order to realize automatic simultaneous interpretation.

自動音声認識により、取得されるデータ(文章データ)には、文章の区切り(セグメンテーション)が存在しない。一方、機械翻訳では、文章単位に区切られた文章(文章のデータ)が入力される必要がある。 Data (sentence data) acquired by automatic speech recognition does not have sentence breaks (segmentation). On the other hand, in machine translation, it is necessary to input sentences (sentence data) divided into sentence units.

近年、自動音声認識と機械翻訳とを統合するために、自動音声認識により取得されたデータ(文章データ)をリアルタイムで文章単位に分割し、文章単位に区切られた文章(文章のデータ)を取得するための技術が開発されている。 In recent years, in order to integrate automatic speech recognition and machine translation, data (sentence data) acquired by automatic speech recognition is divided into sentence units in real time, and sentences (sentence data) are acquired. Techniques have been developed to do so.

例えば、n-gram言語モデルを用いて会話音声の文章分割(センテンス・セグメンテーション)を自動で実行する技術がある(例えば、非特許文献1を参照)。 For example, there is a technique for automatically executing sentence segmentation of conversational speech using an n-gram language model (see, for example, Non-Patent Document 1).

このようなn-gram言語モデルを用いた手法では、文章の境界(区切り位置)を入力される単語間において発生する隠れイベント(hidden event)とみなす。そして、n-gram言語モデルを用いた手法では、文章の境界(区切り位置)が存在するとみなしたときと、文章の境界(区切り位置)が存在しないとみなしたときとの入力単語の尤度を計算する。具体的には、n-gram言語モデルを用いた手法では、入力される単語(単語データ)を、・・・,wt-1,w,wt+1,・・・とし、次の2つの(仮定1)、(仮定2)を設定する。
(仮定1):
単語wの後の位置に文章の境界(区切り位置)は存在せず、入力データは、・・・,wt-1,w,wt+1,・・・のままであるものとする。
(仮定2):
単語wの後の位置に文章の境界(区切り位置)が存在し、入力データは、・・・,wt-1,w,</s>,<s>,wt+1,・・・であるものとする。なお、「</s>」は、文章の終端位置を示し、「<s>」は、文章の開始位置を示している。
In the technique using such an n-gram language model, boundaries (delimitation positions) of sentences are regarded as hidden events that occur between input words. Then, in the method using the n-gram language model, the likelihood of input words when it is assumed that sentence boundaries (delimiter positions) exist and when it is assumed that sentence boundaries (delimiter positions) do not exist is calculated. calculate. Specifically, in the method using the n - gram language model, the input words (word data) are . (Assumption 1) and (Assumption 2) are set.
(Assumption 1):
It is assumed that there is no sentence boundary (delimiter position ) at the position after the word w t , and the input data remains .
(Assumption 2):
A sentence boundary (delimiter position ) exists at a position after the word w t , and the input data is . shall be "</s>" indicates the end position of the text, and "<s>" indicates the start position of the text.

n-gram言語モデルを用いた手法では、上記(仮定1)の確率と(仮定2)の確率とを比較することにより、文章の境界(区切り位置)を予測する。例えば、n-gram言語モデルを用いた手法では、下記数式により規定される単語wの後に文章の境界が存在する信頼度sに基づいて、文章の境界(区切り位置)を予測する。

Figure 0007113474000001

o:n-gram言語モデルのオーダー(order)
なお、例えば、「p(</s>|wt-o+2 )」は、wt-o+2,・・・,wt-1,wの後に、</s>が存在する確率を示している。他の表記についても同様である。 In the method using the n-gram language model, the sentence boundaries (delimiter positions) are predicted by comparing the probability of (Assumption 1) and the probability of (Assumption 2). For example, in a technique using an n-gram language model, a sentence boundary (delimiter position) is predicted based on the reliability s t that a sentence boundary exists after a word w t defined by the following formula.
Figure 0007113474000001

o: order of n-gram language model
For example, "p(</s>|w t-o+2 t )" indicates the probability that </s> exists after w t-o+2 , ..., w t-1 , w t . ing. The same applies to other notations.

Andreas Stolcke and Elizabeth Shriberg. 1996. Automatic linguistic segmentation of conversational speech. In Spoken Language, 1996. ICSLP 96. Proceedings., Fourth International Conference on, volume 2, pages 1005-1008. IEEE.Andreas Stolcke and Elizabeth Shriberg. 1996. Automatic linguistic segmentation of conversational speech. In Spoken Language, 1996. ICSLP 96. Proceedings., Fourth International Conference on, volume 2, pages 1005-1008.

しかしながら、上記のn-gram言語モデルを用いた手法では、以下の2つの問題点がある。 However, the above method using the n-gram language model has the following two problems.

第1に、n-gram言語モデルを用いた手法では、長い文章の依存性を把握することができない。文章は、通常、n-gramのオーダーよりも長いので、n単語より多い数の単語により構成される文章について、n-gram言語モデルを用いた手法では、当該文章の依存性を適切に判断することができず、その結果、文章の境界を適切に検出することができない。 First, the method using the n-gram language model cannot grasp the dependencies of long sentences. Since sentences are usually longer than the order of n-grams, for sentences composed of more than n words, the method using the n-gram language model appropriately judges the dependency of the sentences. As a result, sentence boundaries cannot be detected properly.

第2に、n-gram言語モデルを用いた手法では、2つのシーケンス(上記(仮定1)および(仮定2))の同時確率(generative probability)を比較することで、文章の境界(区切り位置)を予測するが、同時確率(generative probability)を用いたモデル(生成モデル(generative model))の検出精度(例えば、文章の境界の検出精度)は、条件付き確率を用いたモデル(識別モデル(discriminative model))の検出精度よりも劣る。 Second, in the method using the n-gram language model, by comparing the generative probability of the two sequences (above (hypothesis 1) and (hypothesis 2)), sentence boundaries (delimiter positions) However, the detection accuracy (e.g., sentence boundary detection accuracy) of a model using joint probability (generative model) is higher than that of a model using conditional probability (discriminative model). It is inferior to the detection accuracy of model)).

そこで、本発明は、上記課題に鑑み、シーケンスデータ(例えば、文章)を構成する単位データ数(例えば、単語数)に関係なく、リアルタイムでシーケンスデータ分割処理(例えば、文章分割処理)を実行することができるデータ・セグメンテーション装置を実現することを目的とする。 Therefore, in view of the above problems, the present invention executes sequence data division processing (eg, sentence division processing) in real time regardless of the number of unit data (eg, the number of words) constituting sequence data (eg, sentence). It is an object of the present invention to realize a data segmentation device capable of

上記課題を解決するための第1の発明は、ニューラルネットワーク部と、境界検出部と、を備えるデータ・セグメンテーション装置である。 A first invention for solving the above problems is a data segmentation device comprising a neural network section and a boundary detection section.

ニューラルネットワーク部は、時系列に連続するデータであるシーケンスデータ(例えば、文章)を構成する単位データ(例えば、語データ)を入力し、各要素がシーケンスデータ(例えば、文章)の境界位置である確率を示すデータであるm個(m:自然数)の要素と、もう1つの要素との合計m+1個の要素からなるm+1次元ベクトルデータを出力する。 The neural network unit inputs unit data (e.g., word data) that constitutes sequence data (e.g., sentences), which is data continuous in time series, and each element is a boundary position of the sequence data (e.g., sentences). It outputs m+1-dimensional vector data consisting of m+1 elements in total, including m (m: natural number) elements that are data indicating probability and another element.

境界検出部は、ニューラルネットワーク部から出力されるm+1次元ベクトルデータに基づいて、シーケンスデータ(例えば、文章)の境界位置を決定する。 The boundary detection unit determines boundary positions of sequence data (for example, sentences) based on the m+1-dimensional vector data output from the neural network unit.

このデータ・セグメンテーション装置では、例えば、語データ(例えば、単語データ)を入力とし、文章境界が存在する位置および確率を示すベクトルを出力とするニューラルネットワークによるモデルを用いて学習処理を行い、学習済みモデルを取得する。そして、このセンテンス・セグメンテーション装置では、上記の学習済みモデルを用いて、例えば、文章境界を検出する処理を行う。つまり、このセンテンス・セグメンテーション装置では、各要素が文章の境界位置である確率を示すデータであるm個(m:自然数)の要素の値を調べることで、文章境界が存在する位置を、容易かつ適切に検出することができる。また、このデータ・セグメンテーション装置では、m+1次元ベクトルデータを出力するので、例えば、「もう1つの要素」をm+1次元ベクトルの各要素の総和が、例えば「1」になるように設定することができる。これにより、例えば、ニューラルネットワーク部の出力層をソフトマックス層(活性化関数をSoftmax関数とする出力層)として扱うことが容易となる。 In this data segmentation device, for example, word data (for example, word data) is input, and learning processing is performed using a neural network model that outputs a vector indicating the position and probability of sentence boundaries. Get the model. Then, in this sentence segmentation device, using the learned model, for example, a process of detecting sentence boundaries is performed. In other words, in this sentence segmentation device, by examining the values of m (m: natural number) elements, which are data indicating the probability that each element is a sentence boundary position, the position where the sentence boundary exists can be easily and easily determined. can be properly detected. In addition, since this data segmentation device outputs m+1-dimensional vector data, for example, "another element" can be set so that the sum of each element of the m+1-dimensional vector becomes, for example, "1". . As a result, for example, the output layer of the neural network section can be easily treated as a softmax layer (an output layer whose activation function is the Softmax function).

第2の発明は、第1の発明であって、ニューラルネットワーク部は、再帰型ニューラルネットワークを含む。 A second invention is the first invention, wherein the neural network unit includes a recursive neural network.

これにより、このデータ・セグメンテーション装置では、例えば、長い文章の依存性も考慮することができ、文章を構成する単語数に関係なく、精度の高い文章境界検出処理、センテンス・セグメンテーション処理を実行することができる。 As a result, this data segmentation device can take into consideration the dependency of long sentences, for example, and can perform highly accurate sentence boundary detection processing and sentence segmentation processing regardless of the number of words that make up the sentence. can be done.

第3の発明は、第1または第2の発明であって、m次元の閾値ベクトルを設定する閾値ベクトル設定部をさらに備える。 A third invention is the first or second invention, further comprising a threshold vector setting unit for setting an m-dimensional threshold vector.

境界検出部は、m次元の閾値ベクトルとm+1次元ベクトルデータとに基づいて、シーケンスデータ(例えば、文章)の境界位置を決定する。 The boundary detection unit determines boundary positions of sequence data (for example, sentences) based on the m-dimensional threshold vector and the m+1-dimensional vector data.

第4の発明は、第3の発明であって、境界検出部は、m次元の閾値ベクトルのm個の要素と、m+1次元ベクトルデータのシーケンスデータ(例えば、文章)の境界位置である確率を示すデータであるm個の要素とを、それぞれ、比較することにより、シーケンスデータ(例えば、文章)の境界位置を決定する。 In a fourth invention based on the third invention, the boundary detection unit detects a probability of a boundary position between m elements of an m-dimensional threshold vector and sequence data (for example, sentences) of m+1-dimensional vector data. The boundary positions of the sequence data (for example, sentences) are determined by comparing each of the m elements, which are the indicated data.

これにより、このデータ・セグメンテーション装置では、簡単な比較処理を行うだけで、適切に文章の境界位置を決定(検出)することができる。 As a result, this data segmentation device can appropriately determine (detect) the boundary positions of sentences by simply performing a simple comparison process.

第5の発明は、第4の発明であって、境界検出部は、m次元の閾値ベクトルのm個の要素と、m+1次元ベクトルデータのシーケンスデータ(例えば、文章)の境界位置である確率を示すデータであるm個の要素とを、検出する対象のシーケンスデータ(例えば、文章)の境界位置が現時刻から時間的に近い順に、比較することでシーケンスデータ(例えば、文章)の境界位置を決定する処理を行い、シーケンスデータ(例えば、文章)の境界位置が決定されたとき、以降の比較処理を行わない。 In a fifth invention based on the fourth invention, the boundary detection unit detects the probability of a boundary position between m elements of an m-dimensional threshold vector and sequence data (for example, sentences) of m+1-dimensional vector data. The boundary position of the sequence data (e.g. sentence) is compared by comparing the m elements, which are the data shown, in the order in which the boundary position of the sequence data (e.g. sentence) to be detected is closest to the current time. When the boundary position of the sequence data (for example, sentence) is determined, the subsequent comparison processing is not performed.

これにより、このデータ・セグメンテーション装置では、現時刻tに時間的に近い方から順番に、例えば、ニューラルネットワーク部に入力された単語の後に文章境界があるか否かを判定することができる。そして、このセンテンス・セグメンテーション装置では、閾値ベクトルθを用いて比較処理により、文章境界を検出したら即文章境界検出処理を終了させる。従って、このセンテンス・セグメンテーション装置では、ユーザの発話開始からあまり時間を経過しない間に文章境界検出処理を行うことができるため、リアルタイムで文章分割処理を実行することができる。 As a result, in this data segmentation device, it is possible to determine, for example, whether or not there is a sentence boundary after a word input to the neural network unit, in order from the time closest to the current time t. Then, in this sentence segmentation apparatus, when a sentence boundary is detected by comparison processing using the threshold vector θ, the sentence boundary detection process is terminated immediately. Therefore, in this sentence segmentation apparatus, the sentence boundary detection process can be performed in a short time after the user starts speaking, so the sentence segmentation process can be performed in real time.

第6の発明は、第3から第5のいずれかの発明であって、閾値ベクトル設定部は、値F
=2×Precision×Recall/(Precision+Recall)
Precision:正しいと予測したデータのうち、実際に正しいデータであった割合
Recall:実際に正しいデータであるもののうち、正しいと予測されたデータの割合
とし、
評価値scoreを
score=F-α×latency
latency:遅延時間(遅延量)
α:係数
としたとき、
閾値ベクトルθをチューニングするために用いるデータセットにおいて、評価値scoreが所定の値よりも大きな値となるように、閾値ベクトルθを設定する。
A sixth invention is the invention according to any one of the third to fifth inventions, wherein the threshold vector setting unit sets the value F 1 as F 1 =2×Precision×Recall/(Precision+Recall)
Precision: The percentage of data that was actually correct out of the data predicted to be correct Recall: The percentage of data predicted to be correct out of the data that was actually correct,
The evaluation value score is score=F 1 −α×latency
latency: delay time (delay amount)
When α is a coefficient,
The threshold vector θ is set so that the evaluation value score is greater than a predetermined value in the data set used for tuning the threshold vector θ.

このデータ・セグメンテーション装置では、上記によりチューニングされた閾値ベクトルθを用いてデータ・セグメンテーション処理を行うことができる。上記によりチューニングされた閾値ベクトルθは、データ・セグメンテーションの正確さ(accuracy)と遅延時間(latency)とを考慮した評価値に基づいて、最適化されているため、データ・セグメンテーションを実行するときの閾値処理に用いる閾値ベクトルθとして適切である。 In this data segmentation device, data segmentation processing can be performed using the threshold vector θ tuned as described above. The threshold vector θ tuned by the above is optimized based on the evaluation value considering the accuracy and latency of data segmentation, so when performing data segmentation It is appropriate as the threshold vector θ used for threshold processing.

つまり、このデータ・セグメンテーション装置では、上記のようにしてチューニングされた閾値ベクトルθを用いて、例えば、文章境界検出処理、センテンス・セグメンテーション処理を実行することで、高精度かつ低遅延の文章境界検出処理、センテンス・セグメンテーション処理を実現することができる。 In other words, in this data segmentation device, using the threshold vector θ tuned as described above, for example, by executing sentence boundary detection processing and sentence segmentation processing, sentence boundary detection can be performed with high accuracy and low delay. processing, sentence segmentation processing can be implemented.

なお、閾値ベクトルθをチューニングするために用いるデータセットにおいて、評価値scoreが最大となるように、閾値ベクトルθを設定してもよい。 Note that the threshold vector θ may be set such that the evaluation value score is maximized in the data set used for tuning the threshold vector θ.

本発明によれば、シーケンスデータ(例えば、文章)を構成する単位データ数(例えば、単語数)に関係なく、リアルタイムでシーケンスデータ分割処理(例えば、文章分割処理)を実行することができるシーケンスデータ分割方法(例えば、文章分割方法)、データ・セグメンテーション装置を実現することができる。また、当該文章分割方法、センテンス・セグメンテーション装置を利用することで、リアルタイムで精度の高い機械翻訳を行うことができ、さらに、機械によるリアルタイムでの同時通訳を実現することができる。 According to the present invention, sequence data segmentation processing (eg, sentence segmentation processing) can be executed in real time, regardless of the number of unit data (eg, the number of words) constituting sequence data (eg, sentences). A segmentation method (eg, a sentence segmentation method), a data segmentation device can be implemented. In addition, by using the sentence segmentation method and the sentence segmentation device, highly accurate machine translation can be performed in real time, and real-time simultaneous interpretation by a machine can be realized.

第1実施形態に係る同時通訳システム1000の概略構成図。1 is a schematic configuration diagram of a simultaneous interpretation system 1000 according to the first embodiment; FIG. 第1実施形態に係る文章分割装置100のセンテンス分割部2の概略構成図。2 is a schematic configuration diagram of a sentence dividing section 2 of the sentence dividing device 100 according to the first embodiment; FIG. 学習時における文章分割装置100のニューラルネットワーク部22の各層のデータ入出力関係を時系列に展開した図。FIG. 4 is a diagram showing the data input/output relationship of each layer of the neural network unit 22 of the text segmentation device 100 during learning, which is developed in time series. 予測時(実行時)における文章分割装置100のニューラルネットワーク部22の各層のデータ入出力関係を時系列に展開した図。FIG. 4 is a diagram showing the data input/output relationship of each layer of the neural network unit 22 of the text segmentation device 100 at the time of prediction (at the time of execution) developed in time series. 文章境界検出処理のフローチャートである。9 is a flowchart of sentence boundary detection processing; 閾値ベクトルθをチューニングするためのアルゴリズムの疑似コードPseudo-code of the algorithm for tuning the threshold vector θ 第2実施形態に係る話者識別システム2000の概略構成図。1 is a schematic configuration diagram of a speaker identification system 2000 according to a second embodiment; FIG. 第2実施形態に係る話者識別システム2000のデータ分割装置100Aのデータ分割部2Aの概略構成図。FIG. 4 is a schematic configuration diagram of a data dividing section 2A of a data dividing device 100A of a speaker identification system 2000 according to a second embodiment; 第3実施形態に係る映像識別システム3000の概略構成図。The schematic block diagram of the video identification system 3000 which concerns on 3rd Embodiment. 第3実施形態に係る映像識別システム3000のデータ分割装置100Bのデータ分割部2Bの概略構成図。The schematic block diagram of the data division|segmentation part 2B of the data division|segmentation apparatus 100B of the video identification system 3000 which concerns on 3rd Embodiment. 第3実施形態の第1変形例に係る映像識別システム3000Aの概略構成図。The schematic block diagram of 3000 A of image|video identification systems based on the 1st modification of 3rd Embodiment. 第3実施形態の第2変形例に係る映像識別システム3000Bの概略構成図。The schematic block diagram of the image|video identification system 3000B based on the 2nd modification of 3rd Embodiment. 第1実施形態を実現するコンピュータの内部構成を示すブロック図。FIG. 2 is a block diagram showing the internal configuration of a computer that implements the first embodiment; FIG.

[第1実施形態]
第1実施形態について、図面を参照しながら、以下説明する。
[First embodiment]
A first embodiment will be described below with reference to the drawings.

<1.1:同時通訳システムの構成>
図1は、第1実施形態に係る同時通訳システム1000の概略構成図である。
<1.1: Configuration of Simultaneous Interpretation System>
FIG. 1 is a schematic configuration diagram of a simultaneous interpretation system 1000 according to the first embodiment.

図2は、第1実施形態に係る文章分割装置100のセンテンス分割部2の概略構成図である。 FIG. 2 is a schematic configuration diagram of the sentence dividing section 2 of the sentence dividing device 100 according to the first embodiment.

同時通訳システム1000は、図1に示すように、音声認識部Aud1と、文章分割装置100(データ・セグメンテーション装置)と、機械翻訳部MT1とを備える。 The simultaneous interpretation system 1000 includes, as shown in FIG. 1, a speech recognition unit Aud1, a text segmentation device 100 (data segmentation device), and a machine translation unit MT1.

音声認識部Aud1は、例えば、マイク等の音声入力装置により取得された音声データDinを入力する。そして、音声認識部Aud1は、例えば、音響モデル、言語モデル、辞書のデータベースを有しており、音声データDinに対して、音響モデル、言語モデル、辞書を用いて、音声認識処理を実行し、音声データDinに対応する文章データD1を取得する。そして、音声認識部Aud1は、取得した文章データD1を文章分割装置100に出力する。 The voice recognition unit Aud1 inputs voice data Din acquired by a voice input device such as a microphone. The speech recognition unit Aud1 has, for example, a database of acoustic models, language models, and dictionaries. Sentence data D1 corresponding to voice data Din is obtained. Then, the speech recognition unit Aud1 outputs the acquired sentence data D1 to the sentence dividing device 100. FIG.

文章分割装置100は、図1に示すように、閾値ベクトル設定部1と、センテンス分割部2とを備える。 The sentence segmentation device 100 includes a threshold vector setting unit 1 and a sentence segmentation unit 2, as shown in FIG.

閾値ベクトル設定部1は、所定のデータセットを用いて、学習することにより、閾値ベクトルθを取得する。そして、閾値ベクトル設定部1は、取得した閾値ベクトルθをセンテンス分割部2に出力する。 The threshold vector setting unit 1 acquires the threshold vector θ by learning using a predetermined data set. Then, the threshold vector setting unit 1 outputs the acquired threshold vector θ to the sentence dividing unit 2 .

センテンス分割部2は、図2に示すように、単語取得部21と、ニューラルネットワーク部22と、文章境界検出部23と、センテンス取得部24とを備える。 The sentence division unit 2 includes a word acquisition unit 21, a neural network unit 22, a sentence boundary detection unit 23, and a sentence acquisition unit 24, as shown in FIG.

単語取得部21は、音声認識部Aud1から出力される文章データD1を入力する。単語取得部21は、入力された文章データD1から単語データxを取得し、取得した単語データxをニューラルネットワーク部22に出力する。 The word acquisition unit 21 receives sentence data D1 output from the voice recognition unit Aud1. The word acquisition unit 21 acquires word data xt from the input sentence data D1 and outputs the acquired word data xt to the neural network unit 22 .

ニューラルネットワーク部22は、複数のRNN層(RNN:Recurrent Neural Network)を有するニューラルネットワークにより構成されている。ニューラルネットワーク部22は、図2に示すように、埋込層221と、第1RNN層222と、第2RNN層223と、第3RNN層224と、出力マッピング層225と、ソフトマックス層226とを備える。 The neural network unit 22 is configured by a neural network having a plurality of RNN layers (RNN: Recurrent Neural Network). The neural network unit 22 includes an embedding layer 221, a first RNN layer 222, a second RNN layer 223, a third RNN layer 224, an output mapping layer 225, and a softmax layer 226, as shown in FIG. .

ニューラルネットワーク部22は、単語取得部21から出力される単語データxを入力し、単語データxを用いて、ニューラルネットワークによる処理を実行し、センテンス・セグメンテーション判定用データyを取得する。そして、ニューラルネットワーク部22は、取得したセンテンス・セグメンテーション判定用データyを文章境界検出部23に出力する。 The neural network unit 22 receives the word data xt output from the word acquisition unit 21, executes neural network processing using the word data xt , and acquires sentence/segmentation determination data yt . Then, the neural network unit 22 outputs the acquired sentence/segmentation determination data yt to the sentence boundary detection unit 23 .

埋込層221は、単語データxに対して、埋め込み処理を行うための行列を用いて、行列変換することで、分散表現データに変換し、取得した分散表現データを第1RNN層222に出力する。 The embedding layer 221 converts the word data x t into distributed representation data by matrix transformation using a matrix for embedding processing, and outputs the acquired distributed representation data to the first RNN layer 222. do.

第1RNN層222、第2RNN層223および第3RNN層224は、RNNにより構成されている。第1RNN層222は、時刻tにおいて埋込層221から出力される分散表現データxoemb(t)と、時刻t-1において第1RNN層222から出力されたデータxoRNN1(t-1)とを入力する。そして、第1RNN層222は、時刻tにおいて埋込層221から出力される分散表現データと、時刻t-1において第1RNN層222から出力されたデータとを用いて、RNNによる処理を実行する。つまり、第1RNN層222は、
xoRNN1(t)=Wrec×xoRNN1(t-1)+W×xoemb(t)
rec:重み行列
:重み行列
に相当する処理を実行し、時刻tの第1RNN層の出力データxoRNN1(t)を取得し、当該データを第2RNN層223に出力する。
The first RNN layer 222, the second RNN layer 223 and the third RNN layer 224 are composed of RNNs. The first RNN layer 222 combines distributed representation data xo emb (t) output from the embedding layer 221 at time t and data xo RNN1 (t-1) output from the first RNN layer 222 at time t-1. input. The first RNN layer 222 then uses the distributed representation data output from the embedding layer 221 at time t and the data output from the first RNN layer 222 at time t-1 to perform RNN processing. That is, the first RNN layer 222 is
xo RNN1 (t)=W rec ×xo RNN1 (t−1)+W 1 ×xo emb (t)
W rec : Weight matrix W 1 : Performs processing corresponding to the weight matrix, acquires the output data xo RNN1 (t) of the first RNN layer at time t, and outputs the data to the second RNN layer 223 .

第2RNN層223は、時刻tにおいて第1RNN層222から出力されるデータと、時刻t-1において第2RNN層223から出力されたデータとを入力する。そして、第2RNN層223は、時刻tにおいて第1RNN層222から出力されるデータxoRNN1(t)と、時刻t-1において第2RNN層223から出力されたデータxoRNN2(t-1)とを用いて、RNNによる処理を実行する。つまり、第2RNN層223は、
xoRNN2(t)=Wrec2×xoRNN2(t-1)+W×xoRNN1(t)
rec2:重み行列
:重み行列
に相当する処理を実行し、時刻tの第2RNN層の出力データxoRNN2(t)を取得し、当該データを第3RNN層224に出力する。
The second RNN layer 223 receives data output from the first RNN layer 222 at time t and data output from the second RNN layer 223 at time t−1. Then, the second RNN layer 223 converts the data xo RNN1 (t) output from the first RNN layer 222 at time t and the data xo RNN2 (t−1) output from the second RNN layer 223 at time t−1. is used to perform processing by the RNN. That is, the second RNN layer 223 is
xo RNN2 (t)=W rec2 ×xo RNN2 (t−1)+W 2 ×xo RNN1 (t)
W rec2 : Weight matrix W 2 : Performs processing corresponding to the weight matrix, acquires output data xo RNN2 (t) of the second RNN layer at time t, and outputs the data to the third RNN layer 224 .

第3RNN層224は、時刻tにおいて第2RNN層223から出力されるデータと、時刻t-1において第3RNN層224から出力されたデータとを入力する。そして、第3RNN層224は、時刻tにおいて第2RNN層223から出力されるデータxoRNN2(t)と、時刻t-1において第3RNN層224から出力されたデータxoRNN3(t-1)とを用いて、RNNによる処理を実行する。つまり、第3RNN層224は、
xoRNN3(t)=Wrec3×xoRNN3(t-1)+W×xoRNN2(t)
rec3:重み行列
:重み行列
に相当する処理を実行し、時刻tの第3RNN層の出力データxoRNN3(t)を取得し、当該データを出力マッピング層225に出力する。
The third RNN layer 224 receives data output from the second RNN layer 223 at time t and data output from the third RNN layer 224 at time t−1. Then, the third RNN layer 224 combines the data xo RNN2 (t) output from the second RNN layer 223 at time t and the data xo RNN3 (t-1) output from the third RNN layer 224 at time t-1. is used to perform processing by the RNN. That is, the third RNN layer 224 is
xo RNN3 (t)=W rec3 ×xo RNN3 (t−1)+W 3 ×xo RNN2 (t)
W rec3 : weight matrix W 3 : performs processing corresponding to the weight matrix, acquires the output data xo RNN3 (t) of the third RNN layer at time t, and outputs the data to the output mapping layer 225 .

出力マッピング層225は、例えば、ニューラルネットワークにより構成されている。出力マッピング層225は、第3RNN層224から出力されたデータを入力する。出力マッピング層225は、第3RNN層224の各ノードから出力されるデータに対して重み付けを行い、重み付け後のデータを加算し、さらに、当該加算結果に対して、活性化関数による処理(例えば、tanh(x)による処理)を実行し、ソフトマックス層226のノード数と同じ次元のデータを取得する。そして、出力マッピング層225は、取得したデータをソフトマックス層226に出力する。 The output mapping layer 225 is composed of, for example, a neural network. The output mapping layer 225 receives data output from the third RNN layer 224 . The output mapping layer 225 weights the data output from each node of the third RNN layer 224, adds the weighted data, and further processes the addition result by an activation function (for example, tanh(x)) is executed to acquire data of the same dimension as the number of nodes in the softmax layer 226 . The output mapping layer 225 then outputs the acquired data to the softmax layer 226 .

ソフトマックス層226は、例えば、活性化関数をSoftmax関数として、m+1次元(m:自然数)のベクトルを出力データとして出力する。ソフトマックス層226は、出力マッピング層225から出力されるデータに対して、活性化関数を用いた処理を実行し、m+1次元のベクトルデータを取得する。例えば、ソフトマックス層226のi番目(i:自然数、1≦i≦m+1)のノードの出力値y(i)は、下記の数式(Softmax関数)により算出される。

Figure 0007113474000002

ソフトマックス層226は、各ノードに対応する出力値y(i)を要素とするm+1次元のベクトルデータを取得し、取得したm+1次元のベクトルデータを出力データy(センテンス・セグメンテーション判定用データy)として文章境界検出部23に出力する。 The softmax layer 226 outputs, for example, an m+1-dimensional (m: natural number) vector as output data using a Softmax function as an activation function. The softmax layer 226 performs processing using an activation function on the data output from the output mapping layer 225 to obtain m+1-dimensional vector data. For example, the output value y t (i) of the i-th (i: natural number, 1≤i≤m+1) node of the softmax layer 226 is calculated by the following formula (Softmax function).
Figure 0007113474000002

The softmax layer 226 acquires m+1-dimensional vector data whose elements are the output values yt (i) corresponding to each node, and converts the acquired m +1-dimensional vector data into output data yt (sentence/segmentation determination data y t ) to the sentence boundary detection unit 23 .

文章境界検出部23は、ニューラルネットワーク部22から出力されるセンテンス・セグメンテーション判定用データyと、閾値ベクトル設定部1から出力される閾値ベクトルθとを入力する。文章境界検出部23は、センテンス・セグメンテーション判定用データyと、閾値ベクトルθとに基づいて、文章境界を検出する処理を実行し、当該処理の検出結果データδを取得する。そして、文章境界検出部23は、取得した検出結果データδをセンテンス取得部24に出力する。 The sentence boundary detection unit 23 receives the sentence/segmentation determination data yt output from the neural network unit 22 and the threshold vector θ output from the threshold vector setting unit 1 . The sentence boundary detection unit 23 executes a process of detecting a sentence boundary based on the sentence/segmentation determination data yt and the threshold vector θ, and acquires detection result data δt of the process. The sentence boundary detection unit 23 then outputs the acquired detection result data δ t to the sentence acquisition unit 24 .

センテンス取得部24は、音声認識部Aud1から出力される文章データD1と、文章境界検出部23から出力される検出結果データδとを入力する。センテンス取得部24は、検出結果データδに基づいて、文章データD1を文章単位に分割する。つまり、センテンス取得部24は、検出結果データδに基づいて、文章データD1の文章の境界を示すデータ(例えば<EOS>の記号)を付与したデータをデータD2として取得し、取得したデータD2を機械翻訳部MT1に出力する。 The sentence acquisition unit 24 receives the sentence data D1 output from the speech recognition unit Aud1 and the detection result data δt output from the sentence boundary detection unit 23 . The sentence acquisition unit 24 divides the sentence data D1 into sentence units based on the detection result data δt . That is, based on the detection result data δt , the sentence acquisition unit 24 acquires data to which data indicating the boundaries of sentences of the sentence data D1 (for example, the symbol <EOS>) is added as the data D2, and the acquired data D2 is output to the machine translation unit MT1.

図1を参照して、機械翻訳部MT1は、文章分割装置100から出力されるデータD2を入力する。機械翻訳部MT1は、データD2に対して、機械翻訳処理を実行し、機械翻訳処理後のデータDoutを取得する。 Referring to FIG. 1, machine translation unit MT1 receives data D2 output from text segmentation device 100 . The machine translation unit MT1 performs machine translation processing on the data D2 and obtains data Dout after the machine translation processing.

<1.2:同時通訳システムの動作>
以上のように構成された同時通訳システム1000の動作について説明する。
<1.2: Operation of Simultaneous Interpretation System>
The operation of the simultaneous interpretation system 1000 configured as above will be described.

(1.2.1:学習処理)
まず、同時通訳システム1000において、文章分割装置100のニューラルネットワーク部22のニューラルネットワークの学習処理について、説明する。
(1.2.1: learning processing)
First, in the simultaneous interpretation system 1000, the learning process of the neural network of the neural network section 22 of the sentence segmentation device 100 will be described.

文章のシーケンスSをS=(S,S,・・・)とする。つまり、センテンスSi+1は、センテンスSに続くセンテンスであるものとする。そして、1つの学習用サンプル(X,n)が(S,Si+1)から抽出されるものとする。そして、
=(w ,w ,・・・,wni
であり、
(1)1≦t≦nの場合、
=w
であり、
(2)n+1≦t≦n+mの場合、
=wt-ni i+1
とする。なお、X=(x,x,・・・,xni+m)であり、Xは、入力単語のシーケンスである。
Let a sequence S of sentences be S=(S 1 , S 2 , . . . ). That is, sentence S i+1 shall be the sentence following sentence S i . Then, one training sample (X i , n i ) shall be extracted from (S i , S i+1 ). and,
S i =( w 1 i , w 2 i , . . . , w ni i )
and
(1) If 1 ≤ t ≤ n i ,
x t = w t i
and
(2) if n i +1≦t≦n i +m,
x t =w t−ni i+1
and Note that X i =(x 1 , x 2 , . . . , x ni+m ), where X i is the sequence of input words.

データyが教師データ(理想データ)であるとき、yは、以下のように定義される。
<k>=1 if 1≦t≦n、k=m+1
<k>=1 if n+1≦t≦n+m、k=t-n
<k>=0 otherwise(上記以外の場合)
したがって、実データy(訓練用データを入力したときの出力データy)と教師データとのクロスエントロピーE(S)を最小にするために、以下の基準を採用する。

Figure 0007113474000003

文章分割装置100のニューラルネットワーク部22では、訓練用データを入力し、出力データyを取得する。そして、取得したデータyについて、上記クロスエントロピーE(S)が所定の基準を満たすように、ニューラルネットワーク部22のニューラルネットワークのパラメータ(各シナプス間の重み付け)を決定する。そして、決定したパラメータ(各シナプス間の重み付け)を用いて、ニューラルネットワーク部22のニューラルネットワークにおいて、学習済みモデルを構築する。 When data yt is teacher data (ideal data), yt is defined as follows.
y t <k> = 1 if 1 ≤ t ≤ n i , k = m + 1
y t <k> =1 if n i +1≦t≦n i +m, k=t−n i
y t <k> = 0 otherwise (otherwise)
Therefore, in order to minimize the cross entropy E(S) between the actual data y t (output data y t when the training data is input) and the teacher data, the following criteria are adopted.
Figure 0007113474000003

The neural network unit 22 of the text segmentation device 100 receives training data and acquires output data yt . Then, for the acquired data yt , the neural network parameters (weighting between synapses) of the neural network unit 22 are determined so that the cross entropy E(S) satisfies a predetermined standard. Then, using the determined parameters (weighting between synapses), a trained model is constructed in the neural network of the neural network unit 22 .

例えば、文章データD1が「i‘d like some strawberries how much does it cost」である場合について、図3を用いて説明する。 For example, a case where text data D1 is "i'd like some strawberries how much does it cost" will be described with reference to FIG.

図3は、学習時における文章分割装置100のニューラルネットワーク部22の各層のデータ入出力関係を時系列に展開した図である。 FIG. 3 is a diagram showing the data input/output relationship of each layer of the neural network unit 22 of the text segmentation device 100 during learning, developed in time series.

図3に示すように、ニューラルネットワーク部22には、文章データD1から出力した以下の単語データxが入力される。なお、m=3とする。
=「i」
=「‘d」
=「like」
=「some」
=「strawberries」
=「how」
=「much」
=「does」
そして、ニューラルネットワーク部22の出力は、m+1次元のベクトルである。時刻tのニューラルネットワーク部22の出力は、yであり、
=(y <1>,y <2>,・・・,y <m>,y <m+1>
<1>:単語wt-1(入力データxt-1)の後に文章の境界(区切り)がある確率
<2>:単語wt-2(入力データxt-2)の後に文章の境界(区切り)がある確率
・・・
<m>:単語wt-m(入力データxt-m)の後に文章の境界(区切り)がある確率
<m+1>:yの全ての要素の加算値を「1」とするための値
<m+1>は、以下の数式を満たす。

Figure 0007113474000004

上記の場合、図3に示すように、「strawberries」の後に文章の境界があるので、教師データyを以下のデータとして、学習を行う。
=y=y=y=y=(0,0,0,1)
=(1,0,0,0)
=(0,1,0,0)
=(0,0,1,0)
上記以外の訓練用データについても同様にして学習を行う。つまり、上記クロスエントロピーE(S)が所定の基準を満たすように、ニューラルネットワーク部22のニューラルネットワークのパラメータ(各シナプス間の重み付け)を決定する。そして、決定したパラメータ(各シナプス間の重み付け)を用いて、ニューラルネットワーク部22のニューラルネットワークにおいて、学習済みモデルを構築する。 As shown in FIG. 3, the neural network unit 22 receives the following word data xt output from the sentence data D1. Note that m=3.
x 1 = "i"
x 2 = "'d"
x 3 = "like"
x 4 = "some"
x 5 = "strawberries"
x 6 = "how"
x7 = "much"
x 8 = "does"
The output of the neural network unit 22 is an m+1 dimensional vector. The output of the neural network unit 22 at time t is yt,
yt = ( yt <1> , yt <2> , ..., yt < m > , yt < m +1> )
y t <1> : Probability of sentence boundary (delimiter) after word w t−1 (input data x t−1 ) y t <2> : Word w t−2 (input data x t−2 ) Probability that there is a sentence boundary (delimiter) after ...
y t <m> : Probability that there is a sentence boundary (separation) after word w t−m (input data x t−m ) y t <m+1> : The sum of all elements of y t The value for y t <m+1> satisfies the following formula.
Figure 0007113474000004

In the above case, as shown in FIG. 3, since there is a sentence boundary after "strawberries", learning is performed using the following data as teacher data yt .
y1 =y2 = y3=y4= y5 = ( 0,0,0,1 )
y6 = (1,0,0,0)
y7 = (0, 1, 0, 0)
y8 = ( 0,0,1,0 )
Training data other than the above are similarly learned. That is, the neural network parameters (weighting between synapses) of the neural network unit 22 are determined so that the cross entropy E(S) satisfies a predetermined criterion. Then, using the determined parameters (weighting between synapses), a trained model is constructed in the neural network of the neural network unit 22 .

(1.2.2:予測処理)
次に、同時通訳システム1000において、上記学習処理により取得した学習済みモデルを用いた予測処理、すなわち、同時通訳処理について説明する。
(1.2.2: prediction processing)
Next, in the simultaneous interpretation system 1000, prediction processing using the trained model obtained by the above learning processing, that is, simultaneous interpretation processing will be described.

以下では、説明便宜のため、学習用の文章データD1が「i‘d like some strawberries how much does it cost」である場合について、説明する。 For convenience of explanation, a case where the text data D1 for learning is "i'd like some strawberries how much does it cost" will be explained below.

図4は、予測時(実行時)における文章分割装置100のニューラルネットワーク部22の各層のデータ入出力関係を時系列に展開した図である。 FIG. 4 is a diagram showing the data input/output relationship of each layer of the neural network unit 22 of the text segmentation device 100 at the time of prediction (at the time of execution) developed in chronological order.

図4に示すように、ニューラルネットワーク部22には、文章データD1から出力した以下の単語データxが入力される。なお、m=3とする。 As shown in FIG. 4, the neural network unit 22 receives the following word data xt output from the sentence data D1. Note that m=3.

単語取得部21は、音声認識部Aud1から入力された文章データD1から単語データx(時刻tにおける単語データx)を取得する。具体的には、単語取得部21は、t=1~8(1≦t≦8)において、文章データD1から以下の単語データxを取得し、ニューラルネットワーク部22の埋込層221に入力する。
=「i」
=「‘d」
=「like」
=「some」
=「strawberries」
=「how」
=「much」
=「does」
埋込層221では、入力された単語データxに対応する分散表現データが取得される。取得された分散表現データは、第1RNN層222に入力される。
The word acquisition unit 21 acquires word data x t (word data x t at time t ) from the text data D1 input from the voice recognition unit Aud1. Specifically, the word acquisition unit 21 acquires the following word data x t from the text data D1 at t=1 to 8 (1≦t≦8), and inputs them to the embedding layer 221 of the neural network unit 22. do.
x 1 = "i"
x 2 = "'d"
x 3 = "like"
x 4 = "some"
x 5 = "strawberries"
x 6 = "how"
x7 = "much"
x 8 = "does"
The embedding layer 221 acquires distributed representation data corresponding to the input word data xt . The acquired distributed representation data is input to the first RNN layer 222 .

第1RNN層222は、時刻tにおいて埋込層221から出力される分散表現データxoemb(t)と、時刻t-1において第1RNN層222から出力されたデータxoRNN1(t-1)とを用いて、RNNによる処理を実行する。つまり、第1RNN層222は、
xoRNN1(t)=Wrec×xoRNN1(t-1)+W×xoemb(t)
rec:重み行列
:重み行列
に相当する処理を実行し、時刻tの第1RNN層の出力データxoRNN1(t)を取得し、当該データを第2RNN層223に出力する。
The first RNN layer 222 combines distributed representation data xo emb (t) output from the embedding layer 221 at time t and data xo RNN1 (t-1) output from the first RNN layer 222 at time t-1. is used to perform processing by the RNN. That is, the first RNN layer 222 is
xo RNN1 (t)=W rec ×xo RNN1 (t−1)+W 1 ×xo emb (t)
W rec : Weight matrix W 1 : Performs processing corresponding to the weight matrix, acquires the output data xo RNN1 (t) of the first RNN layer at time t, and outputs the data to the second RNN layer 223 .

第2RNN層223は、時刻tにおいて第1RNN層222から出力されるデータxoRNN1(t)と、時刻t-1において第2RNN層223から出力されたデータxoRNN2(t-1)とを用いて、RNNによる処理を実行する。つまり、第2RNN層223は、
xoRNN2(t)=Wrec2×xoRNN2(t-1)+W×xoRNN1(t)
rec2:重み行列
:重み行列
に相当する処理を実行し、時刻tの第2RNN層の出力データxoRNN2(t)を取得し、当該データを第3RNN層224に出力する。
Using the data xo RNN1 (t) output from the first RNN layer 222 at time t and the data xo RNN2 (t-1) output from the second RNN layer 223 at time t-1, the second RNN layer 223 , perform processing by the RNN. That is, the second RNN layer 223 is
xo RNN2 (t)=W rec2 ×xo RNN2 (t−1)+W 2 ×xo RNN1 (t)
W rec2 : Weight matrix W 2 : Performs processing corresponding to the weight matrix, acquires output data xo RNN2 (t) of the second RNN layer at time t, and outputs the data to the third RNN layer 224 .

第3RNN層224は、時刻tにおいて第2RNN層223から出力されるデータxoRNN2(t)と、時刻t-1において第3RNN層224から出力されたデータxoRNN3(t-1)とを用いて、RNNによる処理を実行する。つまり、第3RNN層224は、
xoRNN3(t)=Wrec3×xoRNN3(t-1)+W×xoRNN2(t)
rec3:重み行列
:重み行列
に相当する処理を実行し、時刻tの第3RNN層の出力データxoRNN3(t)を取得し、当該データを出力マッピング層225に出力する。
Using the data xo RNN2 (t) output from the second RNN layer 223 at time t and the data xo RNN3 (t-1) output from the third RNN layer 224 at time t-1, the third RNN layer 224 , perform processing by the RNN. That is, the third RNN layer 224 is
xo RNN3 (t)=W rec3 ×xo RNN3 (t−1)+W 3 ×xo RNN2 (t)
W rec3 : weight matrix W 3 : performs processing corresponding to the weight matrix, acquires the output data xo RNN3 (t) of the third RNN layer at time t, and outputs the data to the output mapping layer 225 .

出力マッピング層225は、第3RNN層224の各ノードから出力されるデータに対して重み付けを行い、重み付け後のデータを加算し、さらに、当該加算結果に対して、活性化関数による処理(例えば、tanh(x)による処理)を実行し、ソフトマックス層226のノード数と同じ次元のデータを取得する。そして、出力マッピング層225は、取得したデータをソフトマックス層226に出力する。 The output mapping layer 225 weights the data output from each node of the third RNN layer 224, adds the weighted data, and further processes the addition result by an activation function (for example, tanh(x)) is executed to acquire data of the same dimension as the number of nodes in the softmax layer 226 . The output mapping layer 225 then outputs the acquired data to the softmax layer 226 .

ソフトマックス層226は、出力マッピング層225から出力されるデータに対して、活性化関数を用いた処理を実行し、m+1次元のベクトルデータを取得する。例えば、ソフトマックス層226のi番目(i:自然数、1≦i≦m+1)のノードの出力値y(i)は、下記の数式(Softmax関数)により算出される。

Figure 0007113474000005

ソフトマックス層226は、各ノードに対応する出力値y(i)を要素とするm+1次元のベクトルデータを取得し、取得したm+1次元のベクトルデータを出力データy(センテンス・セグメンテーション判定用データy)として文章境界検出部23に出力する。 The softmax layer 226 performs processing using an activation function on the data output from the output mapping layer 225 to obtain m+1-dimensional vector data. For example, the output value y t (i) of the i-th (i: natural number, 1≤i≤m+1) node of the softmax layer 226 is calculated by the following formula (Softmax function).
Figure 0007113474000005

The softmax layer 226 acquires m+1-dimensional vector data whose elements are the output values yt (i) corresponding to each node, and converts the acquired m +1-dimensional vector data into output data yt (sentence/segmentation determination data y t ) to the sentence boundary detection unit 23 .

図4の場合、y~yは、以下のデータとして取得されたものとする。
=(y <1>,y <2>,y <3>,y <4>
=(0.15,0.21,0.18,0.46)
=(y <1>,y <2>,y <3>,y <4>
=(0.13,0.24,0.21,0.42)
=(y <1>,y <2>,y <3>,y <4>
=(0.25,0.11,0.22,0.42)
=(y <1>,y <2>,y <3>,y <4>
=(0.36,0.24,0.21,0.19)
=(y <1>,y <2>,y <3>,y <4>
=(0.17,0.19,0.13,0.51)
=(y <1>,y <2>,y <3>,y <4>
=(0.33,0.24,0.21,0.22)
=(y <1>,y <2>,y <3>,y <4>
=(0.15,0.51,0.12,0.22)
=(y <1>,y <2>,y <3>,y <4>
=(0.13,0.24,0.61,0.02)
また、閾値ベクトル設定部1は、所定のデータセットを用いて学習した閾値ベクトルθをセンテンス分割部2に出力する。なお、ここでは、閾値ベクトルθは、
θ=(θ<1>,θ<2>,θ<3>)=(0.4,0.5,0.6)
であるものとする。
In the case of FIG. 4, y 1 to y 8 are obtained as the following data.
y1 = ( y1 < 1 > , y1 <2> , y1< 3 > , y1< 4 > )
= (0.15, 0.21, 0.18, 0.46)
y2 = (y2 <1> , y2 <2> , y2< 3 > , y2 < 4 > )
= (0.13, 0.24, 0.21, 0.42)
y3=(y3 <1> , y3< 2 > , y3 < 3 > , y3 <4> )
= (0.25, 0.11, 0.22, 0.42)
y4 =(y4 <1> , y4 <2> , y4< 3 > , y4 < 4 > )
= (0.36, 0.24, 0.21, 0.19)
y5 = (y5 <1> , y5 <2> , y5 < 3 > , y5< 4 > )
= (0.17, 0.19, 0.13, 0.51)
y6 =( y6 <1> , y6 <2> , y6 <3> , y6 <4> )
= (0.33, 0.24, 0.21, 0.22)
y7 =( y7 <1> , y7 <2> , y7 <3> , y7 <4> )
= (0.15, 0.51, 0.12, 0.22)
y8 = ( y8 <1> , y8 <2> , y8< 3 > , y8< 4 > )
= (0.13, 0.24, 0.61, 0.02)
Also, the threshold vector setting unit 1 outputs a threshold vector θ learned using a predetermined data set to the sentence dividing unit 2 . Here, the threshold vector θ is
θ=(θ <1> , θ <2> , θ <3> )=(0.4, 0.5, 0.6)
shall be

文章境界検出部23は、ニューラルネットワーク部22から出力されるセンテンス・セグメンテーション判定用データyと、閾値ベクトルθとに基づいて、文章境界を検出する処理を実行する。この処理について、図5のフローチャートを用いて説明する。 The sentence boundary detection unit 23 executes processing for detecting sentence boundaries based on the sentence/segmentation determination data yt output from the neural network unit 22 and the threshold vector θ. This process will be described with reference to the flowchart of FIG.

図5は、文章境界検出処理のフローチャートである。 FIG. 5 is a flow chart of sentence boundary detection processing.

(ステップS1):
ステップS1において、文章境界検出部23は、i=1に設定する処理を行う。
(Step S1):
In step S1, the sentence boundary detection unit 23 performs processing for setting i=1.

(ステップS2):
ステップS2において、文章境界検出部23は、センテンス・セグメンテーション判定用データyのi番目の要素y <i>と、閾値ベクトルθのi番目の要素θ<i>との比較処理を行う。そして、y <i>>θ<i>である場合、処理をステップS3に進め、y <i>>θ<i>ではない場合、処理をステップS4に進める。
(Step S2):
In step S2, the sentence boundary detection unit 23 compares the i-th element y t <i> of the sentence/segmentation determination data y t with the i-th element θ <i> of the threshold vector θ. Then, if y t <i> > θ <i> , the process proceeds to step S3, and if not y t <i> > θ <i> , the process proceeds to step S4.

(ステップS3):
ステップS3において、文章境界検出部23は、文章境界決定処理を行う。具体的には、文章境界検出部23は、y <i>>θ<i>であるので、文章境界(文章の区切り位置)が時刻t-iにニューラルネットワーク部22に入力された単語xt-iの後であると判定する。そして、文章境界検出部23は、当該判定結果を含むデータをセンテンス取得部24に出力する。具体的には、文章境界検出部23は、時刻tにおいて、ニューラルネットワーク部22に入力された単語xの後に文章境界があると判定した場合、δ=1とし、ニューラルネットワーク部22に入力された単語xの後に文章境界がないと判定した場合、δ=0とする。そして、δを含むデータをセンテンス取得部24に出力する。
(Step S3):
In step S3, the sentence boundary detection unit 23 performs sentence boundary determination processing. Specifically, since y t <i> > θ <i> , the sentence boundary detection unit 23 detects that the sentence boundary (sentence delimiting position) is the word x Determine that it is after ti . The sentence boundary detection unit 23 then outputs data including the determination result to the sentence acquisition unit 24 . Specifically, when the sentence boundary detection unit 23 determines that there is a sentence boundary after the word x t input to the neural network unit 22 at time t, the sentence boundary detection unit 23 sets δ t = 1, and inputs to the neural network unit 22 If it is determined that there is no sentence boundary after the selected word x t , then δ t =0. Then, the data including δt is output to the sentence acquiring section 24 .

例えば、図4の場合、y <2>>θ<2>(0.51>0.5)であるので、δ=1(5=7-2)となり、文章境界検出部23は、x(「strawberries」)の後に、文章境界があると判定する。 For example, in the case of FIG. 4, since y 7 <2><2> (0.51>0.5), δ 5 =1 (5=7−2), and the sentence boundary detection unit 23 Determine that there is a sentence boundary after x 5 (“strawberries”).

(ステップS4):
ステップS4において、文章境界検出部23は、値iと値mとを比較し、i>mである場合、処理を終了させ、i>mではない場合、処理をステップS5に進める。
(Step S4):
In step S4, the sentence boundary detection unit 23 compares the value i and the value m, and terminates the process if i>m, and advances the process to step S5 if i>m is not true.

ステップS5では、値iを1だけインクリメントし、処理をステップS2に戻す。 In step S5, the value i is incremented by 1, and the process returns to step S2.

文章境界検出部23では、上記のようにして、文章境界検出処理が実行される。 The sentence boundary detection section 23 executes the sentence boundary detection process as described above.

上記の通り、文章境界検出部23では、現時刻tに時間的に近い方から順番に、ニューラルネットワーク部22に入力された単語の後に文章境界があるか否かを判定する。そして、文章境界検出部23は、センテンス・セグメンテーション判定用データyと、閾値ベクトルθとの比較処理により、文章境界があると判定したら、即座に文章境界を出力し処理を終了させる。したがって、文章境界検出部23では、高速に文章境界を検出することができる。また、文章境界検出部23では、上記の通り、現時刻tから1~mステップ前の時刻(t-1~t-m)までのm個のデータについてのみ、文章境界検出処理を行うので、文章境界が検出されない場合において、処理が不要に長引くことを防止することができる。 As described above, the sentence boundary detection unit 23 determines whether or not there is a sentence boundary after the word input to the neural network unit 22 in order from the one closest to the current time t. When the sentence boundary detection unit 23 determines that there is a sentence boundary by comparing the sentence/segmentation determination data yt with the threshold vector θ, the sentence boundary is immediately output and the process ends. Therefore, the sentence boundary detection unit 23 can detect sentence boundaries at high speed. In addition, as described above, the sentence boundary detection unit 23 performs the sentence boundary detection process only for m pieces of data from the current time t to the time (t-1 to tm) 1 to m steps before. Processing can be prevented from being unnecessarily prolonged when a sentence boundary is not detected.

センテンス取得部24は、文章境界検出部23により取得された検出結果データδに基づいて、文章データD1を文章単位に分割する。例えば、センテンス取得部24は、検出結果データδに基づいて、文章データD1の文章の境界を示すデータ(<EOS>)を付与したデータをデータD2として取得し、取得したデータD2を機械翻訳部MT1に出力する。例えば、図4の場合、δ=1であるため、センテンス取得部24は、「strawberries」の後に文章境界があると適切に判定することができる。 The sentence acquisition unit 24 divides the sentence data D1 into sentence units based on the detection result data δ t acquired by the sentence boundary detection unit 23 . For example, based on the detection result data δ t , the sentence acquisition unit 24 acquires data to which data (<EOS>) indicating a sentence boundary of the sentence data D1 is added as the data D2, and machine-translates the acquired data D2. output to the unit MT1. For example, in the case of FIG. 4, δ 5 =1, so the sentence acquisition unit 24 can appropriately determine that there is a sentence boundary after “strawberries”.

機械翻訳部MT1は、文章分割装置100から出力されるデータD2に対して、機械翻訳処理を実行し、機械翻訳処理後のデータDoutを取得する。このとき、文章分割装置100から出力されるデータD2は、文章の区切り(文章境界)が明示されているデータであるため、機械翻訳部MT1は、機械翻訳対象とする文章を適切に取得することができる。つまり、機械翻訳部MT1は、文章単位に機械翻訳処理を実行することができる。例えば、図4の場合、δ=1であり、「strawberries」の後に文章境界があると判定することができるので、機械翻訳部MT1は、「i‘d like some strawberries」を一文と判定した上で翻訳文を出力し、次の一文が「how」から始まることを適切に把握することができる。 The machine translation unit MT1 performs machine translation processing on the data D2 output from the text segmentation device 100, and obtains data Dout after the machine translation processing. At this time, since the data D2 output from the sentence segmentation device 100 is data in which sentence boundaries (sentence boundaries) are specified, the machine translation unit MT1 appropriately acquires sentences to be machine-translated. can be done. That is, the machine translation unit MT1 can execute machine translation processing for each sentence. For example, in the case of FIG. 4, δ 5 =1, and it can be determined that there is a sentence boundary after "strawberries", so the machine translation unit MT1 determines that "i'd like some strawberries" is one sentence. You can output the translation above and know properly that the next sentence starts with "how".

したがって、機械翻訳部MT1は、文章境界が適切に判断された文章単位に機械翻訳を行うことができ、その結果、精度の高い機械翻訳結果を取得することができる。機械翻訳部MT1により取得された機械翻訳結果データは、データDoutとして出力される。 Therefore, the machine translation unit MT1 can perform machine translation on sentence units whose sentence boundaries are appropriately determined, and as a result, can obtain a highly accurate machine translation result. The machine translation result data acquired by the machine translation unit MT1 is output as data Dout.

以上のように、同時通訳システム1000では、単語データを入力とし、文章境界が存在する位置および確率を示すベクトルを出力とするニューラルネットワークによるモデルを用いて学習処理を行い、学習済みモデルを取得する。そして、同時通訳システム1000では、上記の学習済みモデルを用いて、文章境界を検出する処理を行う。同時通訳システム1000では、閾値ベクトルθを導入し、現時刻tに時間的に近い方から順番に、ニューラルネットワーク部22に入力された単語の後に文章境界があるか否かを判定する。そして、同時通訳システム1000では、閾値ベクトルθを用いて比較処理により、文章境界を検出したら即座に文章境界検出処理を終了させるとともに、平均してユーザの音声入力開始から文章境界検出までの時間(遅延時間)が短いため、リアルタイムで文章分割処理を実行することができる。 As described above, the simultaneous interpretation system 1000 acquires a trained model by performing learning processing using a model based on a neural network that receives word data as input and outputs vectors that indicate the positions and probabilities of sentence boundaries. . Simultaneous interpretation system 1000 then uses the learned model to detect sentence boundaries. In the simultaneous interpretation system 1000, a threshold vector θ is introduced, and it is determined whether or not there is a sentence boundary after the word input to the neural network unit 22 in order from the time closer to the current time t. Then, in the simultaneous interpretation system 1000, when a sentence boundary is detected by comparison processing using the threshold vector θ, the sentence boundary detection processing is terminated immediately, and the average time from the start of the user's speech input to the sentence boundary detection is calculated ( Since the delay time) is short, sentence segmentation processing can be executed in real time.

また、同時通訳システム1000では、単語データを入力とし、文章境界が存在する位置および確率を示すベクトルを出力とするニューラルネットワークにおいて、RNNを用いているため、長い文章の依存性も考慮することができ、文章を構成する単語数に関係なく、精度の高い文章境界検出処理、センテンス・セグメンテーション処理を実行することができる。 In addition, since the simultaneous interpretation system 1000 uses RNN in a neural network that receives word data as input and outputs vectors that indicate the positions and probabilities of sentence boundaries, it is possible to consider the dependency of long sentences. Highly accurate sentence boundary detection processing and sentence segmentation processing can be executed regardless of the number of words constituting a sentence.

また、同時通訳システム1000では、上記の通り、精度の高い文章境界検出処理、センテンス・セグメンテーション処理を実行できるので、文章境界を明示したデータを機械翻訳部MT1に入力し、機械翻訳部MT1が当該データに対して、機械翻訳処理を実行することで、精度の高い機械翻訳処理結果をリアルタイムで取得することができる。そして、このようにして取得した機械翻訳結果を、例えば、ディスプレイ等にテキストデータとして表示することで、同時通訳処理(リアルタイム通訳処理)を実行することができる。また、同時通訳システム1000において、上記のようにして取得した機械翻訳結果を、例えば、音声合成処理部により、音声合成処理を行い、機械翻訳結果に対応する合成音声を出力することで、同時通訳処理(リアルタイム通訳処理)を実行することができる。 As described above, the simultaneous interpretation system 1000 can execute highly accurate sentence boundary detection processing and sentence segmentation processing. By executing machine translation processing on the data, highly accurate machine translation processing results can be obtained in real time. Simultaneous interpretation processing (real-time interpretation processing) can be executed by displaying the obtained machine translation result as text data on a display or the like, for example. Further, in the simultaneous interpretation system 1000, the machine translation result obtained as described above is subjected to speech synthesis processing by, for example, a speech synthesis processing unit, and a synthesized speech corresponding to the machine translation result is output. Processing (real-time interpretation processing) can be performed.

≪変形例≫
次に、第1実施形態の変形例について、説明する。
<<Modification>>
Next, a modified example of the first embodiment will be described.

本変形例の同時通訳システムでは、閾値ベクトル設定部1において、センテンス・セグメンテーションの正確さ(accuracy)と遅延時間(latency)とを考慮した評価値を導入し、当該評価値に基づいて、閾値ベクトルθをチューニングする方法について、説明する。 In the simultaneous interpretation system of this modified example, the threshold vector setting unit 1 introduces an evaluation value that considers the accuracy and latency of sentence segmentation, and based on the evaluation value, sets the threshold vector A method for tuning θ will be described.

まず、値F(F値)を
=2×Precision×Recall/(Precision+Recall)
Precision:正しいと予測したデータのうち、実際に正しいデータであった割合
Recall:実際に正しいデータであるもののうち、正しいと予測されたデータの割合
とする。
First, the value F 1 (F value) is F 1 =2×Precision×Recall/(Precision+Recall)
Precision: Percentage of actually correct data out of data predicted to be correct Recall: Percentage of data predicted to be correct out of data that is actually correct.

そして、評価値scoreを
score=F-α×latency
latency:遅延時間(遅延量)
とする。
Then, the evaluation value score is score=F 1 -α×latency
latency: delay time (delay amount)
and

なお、αは係数であり、例えば、α=0.01である。 Note that α is a coefficient, and for example, α=0.01.

そして、閾値ベクトルθをチューニングするために用いるデータセットにおいて、上記評価値scoreを最大にするように、貪欲法(Greedy Algorithm)を用いたサーチを行う。例えば、図6に疑似コードを示したアルゴリズムにより、閾値ベクトルθをチューニングする。この手法では、その親データの評価値scoreが大きな値となる閾値ベクトルの優先順位を高くする。そして、上記手法では、θ<k>が降順となるようにし、ヒューリスティック手法により探索空間を刈り取る(取り除く)ことで、閾値ベクトルθをチューニングする。 Then, in the data set used for tuning the threshold vector θ, a search is performed using a greedy algorithm so as to maximize the evaluation value score. For example, the algorithm shown in pseudocode in FIG. 6 tunes the threshold vector θ. In this method, a threshold vector having a large evaluation value score of its parent data is given a high priority. Then, in the above method, θ <k> is arranged in descending order, and the threshold vector θ is tuned by pruning (removing) the search space using a heuristic method.

上記によりチューニングされた閾値ベクトルθは、センテンス・セグメンテーションの正確さ(accuracy)と遅延時間(latency)とを考慮した評価値に基づいて、最適化されているため、センテンス・セグメンテーションを実行するときの閾値処理に用いる閾値ベクトルθとして適切である。 The threshold vector θ tuned by the above is optimized based on the evaluation value considering sentence segmentation accuracy and latency, so when executing sentence segmentation It is appropriate as the threshold vector θ used for threshold processing.

つまり、本変形例の同時通訳システムでは、上記のようにしてチューニングされた閾値ベクトルθを用いて、文章境界検出処理、センテンス・セグメンテーション処理を実行することで、高精度かつ低遅延の文章境界検出処理、センテンス・セグメンテーション処理を実現することができる。 In other words, in the simultaneous interpretation system of this modified example, the threshold vector θ tuned as described above is used to execute the sentence boundary detection process and the sentence segmentation process, thereby achieving sentence boundary detection with high accuracy and low delay. processing, sentence segmentation processing can be implemented.

[第2実施形態]
次に、第2実施形態について、説明する。
[Second embodiment]
Next, a second embodiment will be described.

なお、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。 Parts similar to those of the above-described embodiment are given the same reference numerals, and detailed description thereof is omitted.

図7は、第2実施形態に係る話者識別システム2000の概略構成図である。 FIG. 7 is a schematic configuration diagram of a speaker identification system 2000 according to the second embodiment.

図8は、第2実施形態に係る話者識別システム2000のデータ分割装置100Aのデータ分割部2Aの概略構成図である。 FIG. 8 is a schematic configuration diagram of the data dividing section 2A of the data dividing device 100A of the speaker identification system 2000 according to the second embodiment.

第2実施形態では、第1実施形態の同時通訳システム1000の文章分割装置100に類似する構成を有するデータ分割装置100Aを用いて、話者識別システム2000を構築し、話者識別処理を実現させる方法について説明する。 In the second embodiment, a data dividing device 100A having a configuration similar to the sentence dividing device 100 of the simultaneous interpretation system 1000 of the first embodiment is used to construct a speaker identification system 2000 to implement speaker identification processing. I will explain how.

話者識別システム2000は、図7に示すように、第1実施形態の同時通訳システム1000において、音声認識部Aud1を音声特徴量取得部Pre1に置換し、文章分割装置100をデータ分割装置100Aに置換し、機械翻訳部MT1を話者識別部Post1に置換した構成を有している。 As shown in FIG. 7, in the simultaneous interpretation system 1000 of the first embodiment, the speaker identification system 2000 replaces the speech recognition unit Aud1 with the speech feature acquisition unit Pre1, and replaces the sentence segmentation device 100 with the data segmentation device 100A. In this configuration, the machine translation unit MT1 is replaced with the speaker identification unit Post1.

音声特徴量取得部Pre1は、入力データDin(例えば、音声データ)から時間的に連続した音声特徴量を取得し、取得した音声特徴量を含むデータをデータD1Aとしてデータ分割装置100Aに出力する。 The speech feature acquisition unit Pre1 acquires temporally continuous speech features from the input data Din (for example, speech data), and outputs data including the acquired speech features as data D1A to the data division device 100A.

データ分割装置100Aは、図7に示すように、閾値ベクトル設定部1と、データ分割部2Aとを備える。 As shown in FIG. 7, the data dividing device 100A includes a threshold vector setting section 1 and a data dividing section 2A.

閾値ベクトル設定部1は、第1実施形態の閾値ベクトル設定部1と同様の構成を有している。 The threshold vector setting unit 1 has the same configuration as the threshold vector setting unit 1 of the first embodiment.

データ分割部2Aは、図8に示すように、単位データ取得部21Aと、ニューラルネットワーク部22と、境界検出部23Aと、分割データ取得部24Aとを備える。 As shown in FIG. 8, the data division section 2A includes a unit data acquisition section 21A, a neural network section 22, a boundary detection section 23A, and a division data acquisition section 24A.

単位データ取得部21Aは、第1実施形態の単語取得部21と類似の処理を実行する機能部であり、入力されるデータD1A(例えば、時間的に連続した音声特徴量のデータ)から、ニューラルネットワークでの処理単位となるデータ(単位データ)を取得し、取得したデータをデータxとしてニューラルネットワーク部22に出力する。 The unit data acquisition unit 21A is a functional unit that executes processing similar to that of the word acquisition unit 21 of the first embodiment. It acquires data (unit data) that serves as a processing unit in the network, and outputs the acquired data to the neural network unit 22 as data xt .

ニューラルネットワーク部22では、学習処理において、第1実施形態と同様の処理が実行される。なお、第1実施形態のニューラルネットワーク部22では、センテンスの区切り位置において教師データyのy <k>の値を「1」として学習処理を実行したが、本実施形態のニューラルネットワーク部22では、話者が切り替わった時刻を区切り位置として当該区切り位置において教師データyのy <k>の値を「1」として学習処理を実行する。 In the neural network unit 22, processing similar to that of the first embodiment is executed in the learning processing. In addition, in the neural network unit 22 of the first embodiment, the learning process is executed with the value of y t <k> of the teacher data y t set to “1” at the sentence delimiter position, but the neural network unit 22 of the present embodiment Now, learning processing is executed with the time at which the speaker is switched as a delimiter position, and the value of y t <k> of the teacher data y t is set to “1” at the delimiter position.

ニューラルネットワーク部22は、予測処理において、第1実施形態のニューラルネットワーク部22と同様の処理を実行する。 The neural network unit 22 performs the same processing as the neural network unit 22 of the first embodiment in the prediction processing.

境界検出部23Aは、第1実施形態の文章境界検出部23と同様の構成を有しており、ニューラルネットワーク部22から出力されるデータyと、閾値ベクトル設定部1から出力される閾値ベクトルθとに基づいて、第1実施形態と同様の処理により、データ境界(話者が切り替わったタイミング)を検出する。そして、境界検出部23Aは、検出結果データδを分割データ取得部24Aに出力する。 The boundary detection unit 23A has the same configuration as the sentence boundary detection unit 23 of the first embodiment. Based on θ, a data boundary (timing at which the speaker switches) is detected by the same processing as in the first embodiment. Then, the boundary detection section 23A outputs the detection result data δt to the divided data acquisition section 24A.

分割データ取得部24Aは、第1実施形態のセンテンス取得部24と同様の構成を有しており、境界検出部23Aにより取得された検出結果データδに基づいて、データD1Aを話者ごとのデータに分割する。例えば、分割データ取得部24Aは、検出結果データδに基づいて、データD1Aの境界(話者が変わったタイミング)を示すデータ(例えば、特別な記号)を付与したデータをデータD2Aとして取得し、取得したデータD2Aを話者識別部Post1に出力する。 The divided data acquisition unit 24A has a configuration similar to that of the sentence acquisition unit 24 of the first embodiment, and converts the data D1A for each speaker based on the detection result data δt acquired by the boundary detection unit 23A. Split into data. For example, based on the detection result data δt, the divided data acquisition unit 24A acquires data to which data (e.g., a special symbol) indicating the boundary (timing at which the speaker changes) of the data D1A is added as the data D2A. , outputs the acquired data D2A to the speaker identification unit Post1.

話者識別部Post1は、データ分割部2Aから出力されるデータD2Aを入力する。話者識別部Post1は、データD2AからデータD1Aの境界(話者が変わったタイミング)を特定し、話者を識別する処理を実行し、当該識別処理の結果を含むデータDoutを出力する。 The speaker identifying section Post1 receives data D2A output from the data dividing section 2A. The speaker identification unit Post1 specifies the boundary (the timing at which the speaker changes) from the data D2A to the data D1A, executes processing for identifying the speaker, and outputs data Dout including the result of the identification processing.

上記により、話者識別システム2000では、時間的に連続するデータから、特定の区切り(本実施形態では、話者の変更)を検出する処理を実行することができる。そして、話者識別システム2000では、第1実施形態と同様の手法を用いているので、検出結果を取得するまでの時間が短く、その結果、リアルタイムで検出処理を実行することができる。 As described above, the speaker identification system 2000 can execute a process of detecting a specific delimiter (change of speaker in this embodiment) from temporally continuous data. Since the speaker identification system 2000 uses the same method as in the first embodiment, it takes a short time to obtain the detection result, and as a result, the detection process can be executed in real time.

[第3実施形態]
次に、第3実施形態について、説明する。
[Third Embodiment]
Next, a third embodiment will be described.

なお、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。 Parts similar to those of the above-described embodiment are given the same reference numerals, and detailed description thereof is omitted.

図9は、第3実施形態に係る映像識別システム3000の概略構成図である。 FIG. 9 is a schematic configuration diagram of a video identification system 3000 according to the third embodiment.

図10は、第3実施形態に係る映像識別システム3000のデータ分割装置100Bのデータ分割部2Bの概略構成図である。 FIG. 10 is a schematic configuration diagram of the data dividing section 2B of the data dividing device 100B of the video identification system 3000 according to the third embodiment.

第3実施形態では、第2実施形態の話者識別システム2000のデータ分割装置100Aと同様の構成を有するデータ分割装置100Bを用いて、映像識別システム3000を構築し、映像識別処理(シーンチェンジの検出処理)を実現させる方法について説明する。 In the third embodiment, a video identification system 3000 is constructed using a data division device 100B having the same configuration as the data division device 100A of the speaker identification system 2000 of the second embodiment, and video identification processing (scene change processing) is performed. detection processing) will be described.

映像識別システム3000は、図9に示すように、第2実施形態の話者識別システム2000において、音声特徴量取得部Pre1を映像データ取得部Pre2に置換し、データ分割装置100Aをデータ分割装置100Bに置換し、話者識別部Post1をシーンチェンジ検出部Post2に置換した構成を有している。 As shown in FIG. 9, the video identification system 3000 replaces the audio feature acquisition unit Pre1 with the video data acquisition unit Pre2 in the speaker identification system 2000 of the second embodiment, and replaces the data division device 100A with the data division device 100B. , and the speaker identification section Post1 is replaced with the scene change detection section Post2.

映像データ取得部Pre2は、入力データDin(例えば、映像データ、あるいは、映像データをCNN(Convolutional Neural Network)により圧縮して取得したデータ)から時間的に連続したデータを取得し、取得したデータをデータD1Bとしてデータ分割装置100Bに出力する。 The video data acquisition unit Pre2 acquires temporally continuous data from input data Din (for example, video data or data acquired by compressing video data by a CNN (Convolutional Neural Network)), and converts the acquired data into It is output to the data dividing device 100B as data D1B.

データ分割装置100Bは、図9に示すように、閾値ベクトル設定部1と、データ分割部2Bとを備える。 As shown in FIG. 9, the data dividing device 100B includes a threshold vector setting section 1 and a data dividing section 2B.

閾値ベクトル設定部1は、第1実施形態の閾値ベクトル設定部1と同様の構成を有している。 The threshold vector setting unit 1 has the same configuration as the threshold vector setting unit 1 of the first embodiment.

データ分割部2Bは、図10に示すように、単位データ取得部21Bと、ニューラルネットワーク部22と、境界検出部23Bと、分割データ取得部24Bとを備える。 As shown in FIG. 10, the data division unit 2B includes a unit data acquisition unit 21B, a neural network unit 22, a boundary detection unit 23B, and a division data acquisition unit 24B.

単位データ取得部21Bは、第1実施形態の単語取得部21と類似の処理を実行する機能部であり、入力されるデータD1B(例えば、時間的に連続した映像のデータ、あるいは、時間的に連続した映像のデータのCNNによる圧縮後のデータ)から、ニューラルネットワークでの処理単位となるデータ(単位データ)を取得し、取得したデータをデータxとしてニューラルネットワーク部22に出力する。 The unit data acquisition unit 21B is a functional unit that executes processing similar to that of the word acquisition unit 21 of the first embodiment, and receives input data D1B (for example, temporally continuous video data or temporally Data (unit data) to be a processing unit in the neural network is obtained from continuous video data compressed by CNN, and the obtained data is output to the neural network unit 22 as data xt .

ニューラルネットワーク部22では、学習処理において、第1実施形態と同様の処理が実行される。なお、第1実施形態のニューラルネットワーク部22では、センテンスの区切り位置において教師データyのy <k>の値を「1」として学習処理を実行したが、本実施形態のニューラルネットワーク部22では、シーンが切り替わった時刻(シーンチェンジの時刻)を区切り位置として当該区切り位置において教師データyのy <k>の値を「1」として学習処理を実行する。 In the neural network unit 22, processing similar to that of the first embodiment is executed in the learning processing. In addition, in the neural network unit 22 of the first embodiment, the learning process is executed with the value of y t <k> of the teacher data y t set to “1” at the sentence delimiter position, but the neural network unit 22 of the present embodiment Now, the learning process is executed with the time at which the scene changes (scene change time) as a delimiting position, and the value of y t <k> of the teacher data y t is set to “1” at the delimiting position.

ニューラルネットワーク部22は、予測処理において、第1実施形態のニューラルネットワーク部22と同様の処理を実行する。 The neural network unit 22 performs the same processing as the neural network unit 22 of the first embodiment in the prediction processing.

境界検出部23Bは、第1実施形態の文章境界検出部23と同様の構成を有しており、ニューラルネットワーク部22から出力されるデータyと、閾値ベクトル設定部1から出力される閾値ベクトルθとに基づいて、第1実施形態と同様の処理により、データ境界(シーンが切り替わったタイミング)を検出する。そして、境界検出部23Bは、検出結果データδを分割データ取得部24Bに出力する。 The boundary detection unit 23B has the same configuration as the sentence boundary detection unit 23 of the first embodiment. Based on θ, the data boundary (the timing at which the scene changes) is detected by the same processing as in the first embodiment. Then, the boundary detection section 23B outputs the detection result data δt to the divided data acquisition section 24B.

分割データ取得部24Bは、第1実施形態のセンテンス取得部24と同様の構成を有しており、境界検出部23Bにより取得された検出結果データδに基づいて、データD1Bをシーンごとのデータに分割する。例えば、分割データ取得部24Bは、検出結果データδに基づいて、データD1Bの境界(シーンが切り替わったタイミング)を示すデータ(例えば、特別な記号)を付与したデータをデータD2Bとして取得し、取得したデータD2Bをシーンチェンジ検出部Post2に出力する。 The divided data acquisition unit 24B has the same configuration as the sentence acquisition unit 24 of the first embodiment, and converts the data D1B into data for each scene based on the detection result data δt acquired by the boundary detection unit 23B. split into For example, based on the detection result data δt, the divided data acquisition unit 24B acquires, as the data D2B , data to which data (for example, a special symbol) indicating the boundary (timing at which the scene changes) of the data D1B is added, The acquired data D2B is output to the scene change detection unit Post2.

シーンチェンジ検出部Post2は、データ分割部2Bから出力されるデータD2Bを入力する。シーンチェンジ検出部Post2は、データD2BからデータD1Bの境界(シーンが切り替わったタイミング)を特定し、シーンチェンジを検出する処理を実行し、当該検出結果を含むデータDoutを出力する。 The scene change detector Post2 receives the data D2B output from the data divider 2B. The scene change detection unit Post2 identifies the boundary (timing at which the scene changes) from the data D2B to the data D1B, executes processing for detecting a scene change, and outputs data Dout including the detection result.

上記により、映像識別システム3000では、時間的に連続するデータから、特定の区切り(本実施形態では、シーンチェンジ)を検出する処理を実行することができる。そして、映像識別システム3000では、第1実施形態と同様の手法を用いているので、検出結果を取得するまでの時間が短く、その結果、リアルタイムで検出処理を実行することができる。 As described above, the video identification system 3000 can execute a process of detecting a specific delimiter (a scene change in this embodiment) from temporally continuous data. Since the video identification system 3000 uses the same method as in the first embodiment, it takes a short time to obtain the detection result, and as a result, the detection process can be executed in real time.

≪第1変形例≫
次に、第3実施形態の第1変形例について、説明する。
<<First Modification>>
Next, the 1st modification of 3rd Embodiment is demonstrated.

なお、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。 Parts similar to those of the above-described embodiment are given the same reference numerals, and detailed description thereof is omitted.

図11は、第3実施形態の第1変形例に係る映像識別システム3000Aの概略構成図である。 FIG. 11 is a schematic configuration diagram of a video identification system 3000A according to the first modified example of the third embodiment.

第3実施形態の第1変形例では、第2実施形態の話者識別システム2000のデータ分割装置100Aと同様の構成を有するデータ分割装置100Bを用いて、映像識別システム3000Aを構築し、映像識別処理(人物検出処理)を実現させる方法について説明する。 In the first modification of the third embodiment, a video identification system 3000A is constructed using a data division device 100B having the same configuration as the data division device 100A of the speaker identification system 2000 of the second embodiment. A method for realizing processing (human detection processing) will be described.

映像識別システム3000Aは、図11に示すように、第3実施形態の映像識別システム3000において、映像データ取得部Pre2を映像データ取得部Pre3に置換し、シーンチェンジ検出部Post2を人物検出部Post3に置換した構成を有している。 As shown in FIG. 11, the image identification system 3000A replaces the image data acquisition unit Pre2 with the image data acquisition unit Pre3 and replaces the scene change detection unit Post2 with the person detection unit Post3 in the image identification system 3000 of the third embodiment. It has a permuted configuration.

映像データ取得部Pre3は、入力データDin(例えば、映像データ、あるいは、映像データをCNN(Convolutional Neural Network)により圧縮して取得したデータ)から時間的に連続したデータを取得し、取得したデータをデータD1Bとしてデータ分割装置100Bに出力する。 The image data acquisition unit Pre3 acquires temporally continuous data from input data Din (for example, image data or data acquired by compressing image data by a CNN (Convolutional Neural Network)), and converts the acquired data into It is output to the data dividing device 100B as data D1B.

データ分割装置100Bでは、第3実施形態と同様の処理が実行される。 The data division device 100B performs the same processing as in the third embodiment.

単位データ取得部21Bは、第1実施形態の単語取得部21と類似の処理を実行する機能部であり、入力されるデータD1B(例えば、時間的に連続した映像のデータ、あるいは、時間的に連続した映像のデータのCNNによる圧縮後のデータ)から、ニューラルネットワークでの処理単位となるデータ(単位データ)を取得し、取得したデータをデータxとしてニューラルネットワーク部22に出力する。 The unit data acquisition unit 21B is a functional unit that executes processing similar to that of the word acquisition unit 21 of the first embodiment, and receives input data D1B (for example, temporally continuous video data or temporally Data (unit data) to be a processing unit in the neural network is obtained from continuous video data compressed by CNN), and the obtained data is output to the neural network unit 22 as data xt .

ニューラルネットワーク部22では、学習処理において、第1実施形態と同様の処理が実行される。なお、第1実施形態のニューラルネットワーク部22では、センテンスの区切り位置において教師データyのy <k>の値を「1」として学習処理を実行したが、本実施形態のニューラルネットワーク部22では、人物が検出された時刻(映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を区切り位置として当該区切り位置において教師データyのy <k>の値を「1」として学習処理を実行する。 In the neural network unit 22, processing similar to that of the first embodiment is executed in the learning processing. In addition, in the neural network unit 22 of the first embodiment, the learning process is executed with the value of y t <k> of the teacher data y t set to “1” at the sentence delimiter position, but the neural network unit 22 of the present embodiment Then, the time at which the person is detected (the time at which the person starts appearing in the video or the time at which the person disappears from the video) is used as a delimiting position, and the value of y t <k> of the training data y t is set to " 1” to execute the learning process.

ニューラルネットワーク部22は、予測処理において、第1実施形態のニューラルネットワーク部22と同様の処理を実行する。 The neural network unit 22 performs the same processing as the neural network unit 22 of the first embodiment in the prediction processing.

境界検出部23Bは、第1実施形態の文章境界検出部23と同様の構成を有しており、ニューラルネットワーク部22から出力されるデータyと、閾値ベクトル設定部1から出力される閾値ベクトルθとに基づいて、第1実施形態と同様の処理により、データ境界(映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を検出する。そして、境界検出部23Bは、検出結果データδを分割データ取得部24Bに出力する。 The boundary detection unit 23B has the same configuration as the sentence boundary detection unit 23 of the first embodiment. Based on θ, a data boundary (time at which a person starts appearing in the image or time at which the person disappears from the image) is detected by the same processing as in the first embodiment. Then, the boundary detection section 23B outputs the detection result data δt to the divided data acquisition section 24B.

分割データ取得部24Bは、第1実施形態のセンテンス取得部24と同様の構成を有しており、境界検出部23Bにより取得された検出結果データδに基づいて、データD1Bをシーンごとのデータに分割する。例えば、分割データ取得部24Bは、検出結果データδに基づいて、データD1Bの境界(映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を示すデータ(例えば、特別な記号)を付与したデータをデータD2Bとして取得し、取得したデータD2Bを人物検出部Post3に出力する。 The divided data acquisition unit 24B has the same configuration as the sentence acquisition unit 24 of the first embodiment, and converts the data D1B into data for each scene based on the detection result data δt acquired by the boundary detection unit 23B. split into For example, based on the detection result data δt , the divided data acquisition unit 24B acquires data (for example, special symbol) is acquired as data D2B, and the acquired data D2B is output to the person detection unit Post3.

人物検出部Post3は、データ分割部2Bから出力されるデータD2Bを入力する。人物検出部Post3は、データD2BからデータD1Bの境界(映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を特定し、人物を検出する処理を実行し、当該検出結果を含むデータDoutを出力する。 The person detection unit Post3 receives the data D2B output from the data division unit 2B. The person detection unit Post3 identifies the boundary between the data D1B and the data D1B (the time when the person starts appearing in the image or the time when the person disappears from the image), executes processing for detecting the person, and outputs the detection result. output the data Dout containing.

上記により、映像識別システム3000Aでは、時間的に連続するデータから、特定の区切り(本実施形態では、映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を検出する処理を実行することができる。そして、映像識別システム3000Aでは、第1実施形態と同様の手法を用いているので、検出結果を取得するまでの時間が短く、その結果、リアルタイムで検出処理を実行することができる。 As described above, the video identification system 3000A performs processing for detecting a specific break (in this embodiment, the time when a person starts appearing in the video or the time when the person disappears from the video) from temporally continuous data. can be executed. Since the video identification system 3000A uses the same method as in the first embodiment, it takes a short time to obtain the detection result, and as a result, the detection process can be executed in real time.

≪第2変形例≫
次に、第3実施形態の第2変形例について、説明する。
<<Second Modification>>
Next, the 2nd modification of 3rd Embodiment is demonstrated.

なお、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。 Parts similar to those of the above-described embodiment are given the same reference numerals, and detailed description thereof is omitted.

図12は、第3実施形態の第2変形例に係る映像識別システム3000Bの概略構成図である。 FIG. 12 is a schematic configuration diagram of a video identification system 3000B according to the second modification of the third embodiment.

第3実施形態の第2変形例では、第2実施形態の話者識別システム2000のデータ分割装置100Aと同様の構成を有するデータ分割装置100Bを用いて、映像識別システム3000Bを構築し、映像識別処理(犯罪行為検出処理)を実現させる方法について説明する。 In the second modification of the third embodiment, a video identification system 3000B is constructed using a data division device 100B having the same configuration as the data division device 100A of the speaker identification system 2000 of the second embodiment, and video identification is performed. A method for realizing processing (criminal act detection processing) will be described.

映像識別システム3000Bは、図12に示すように、第3実施形態の映像識別システム3000において、映像データ取得部Pre2を映像データ取得部Pre4に置換し、シーンチェンジ検出部Post2を犯罪行為検出部Post4に置換した構成を有している。 As shown in FIG. 12, the image identification system 3000B replaces the image data acquisition unit Pre2 with the image data acquisition unit Pre4 in the image identification system 3000 of the third embodiment, and replaces the scene change detection unit Post2 with the crime detection unit Post4. It has a configuration replaced with

映像データ取得部Pre4は、入力データDin(例えば、映像データ、あるいは、映像データをCNN(Convolutional Neural Network)により圧縮して取得したデータ)から時間的に連続したデータを取得し、取得したデータをデータD1Bとしてデータ分割装置100Bに出力する。 The video data acquisition unit Pre4 acquires temporally continuous data from input data Din (for example, video data or data acquired by compressing video data by CNN (Convolutional Neural Network)), and converts the acquired data into It is output to the data dividing device 100B as data D1B.

データ分割装置100Bでは、第3実施形態と同様の処理が実行される。 The data division device 100B performs the same processing as in the third embodiment.

単位データ取得部21Bは、第1実施形態の単語取得部21と類似の処理を実行する機能部であり、入力されるデータD1B(例えば、時間的に連続した映像のデータ、あるいは、時間的に連続した映像のデータのCNNによる圧縮後のデータ)から、ニューラルネットワークでの処理単位となるデータ(単位データ)を取得し、取得したデータをデータxとしてニューラルネットワーク部22に出力する。 The unit data acquisition unit 21B is a functional unit that executes processing similar to that of the word acquisition unit 21 of the first embodiment, and receives input data D1B (for example, temporally continuous video data or temporally Data (unit data) to be a processing unit in the neural network is obtained from continuous video data compressed by CNN), and the obtained data is output to the neural network unit 22 as data xt .

ニューラルネットワーク部22では、学習処理において、第1実施形態と同様の処理が実行される。なお、第1実施形態のニューラルネットワーク部22では、センテンスの区切り位置において教師データyのy <k>の値を「1」として学習処理を実行したが、本実施形態のニューラルネットワーク部22では、人物が検出された時刻(犯罪行為の開始時刻、あるいは、犯罪行為の終了時刻)を区切り位置として当該区切り位置において教師データyのy <k>の値を「1」として学習処理を実行する。 In the neural network unit 22, processing similar to that of the first embodiment is executed in the learning processing. In addition, in the neural network unit 22 of the first embodiment, the learning process is executed with the value of y t <k> of the teacher data y t set to “1” at the sentence delimiter position, but the neural network unit 22 of the present embodiment In the learning process, the time when a person is detected (the start time of a criminal act or the end time of a criminal act) is set as a delimiter position, and the value of y t <k> of the teacher data y t is set to “1” at the delimiter position. to run.

ニューラルネットワーク部22は、予測処理において、第1実施形態のニューラルネットワーク部22と同様の処理を実行する。 The neural network unit 22 performs the same processing as the neural network unit 22 of the first embodiment in the prediction processing.

境界検出部23Bは、第1実施形態の文章境界検出部23と同様の構成を有しており、ニューラルネットワーク部22から出力されるデータyと、閾値ベクトル設定部1から出力される閾値ベクトルθとに基づいて、第1実施形態と同様の処理により、データ境界(映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を検出する。そして、境界検出部23Bは、検出結果データδを分割データ取得部24Bに出力する。 The boundary detection unit 23B has the same configuration as the sentence boundary detection unit 23 of the first embodiment. Based on θ, a data boundary (time at which a person starts appearing in the image or time at which the person disappears from the image) is detected by the same processing as in the first embodiment. Then, the boundary detection section 23B outputs the detection result data δt to the divided data acquisition section 24B.

分割データ取得部24Bは、第1実施形態のセンテンス取得部24と同様の構成を有しており、境界検出部23Bにより取得された検出結果データδに基づいて、データD1Bをシーンごとのデータに分割する。例えば、分割データ取得部24Bは、検出結果データδに基づいて、データD1Bの境界(犯罪行為の開始時刻、あるいは、犯罪行為の終了時刻)を示すデータ(例えば、特別な記号)を付与したデータをデータD2Bとして取得し、取得したデータD2Bを犯罪行為検出部Post4に出力する。 The divided data acquisition unit 24B has the same configuration as the sentence acquisition unit 24 of the first embodiment, and converts the data D1B into data for each scene based on the detection result data δt acquired by the boundary detection unit 23B. split into For example, based on the detection result data δt , the divided data acquisition unit 24B adds data (for example, a special symbol) indicating the boundary of the data D1B (the start time of the criminal act or the end time of the criminal act). It acquires the data as data D2B and outputs the acquired data D2B to the criminal act detection unit Post4.

犯罪行為検出部Post4は、データ分割部2Bから出力されるデータD2Bを入力する。犯罪行為検出部Post4は、データD2BからデータD1Bの境界(犯罪行為の開始時刻、あるいは、犯罪行為の終了時刻)を特定し、犯罪行為を検出する処理を実行し、当該検出結果を含むデータDoutを出力する。 The criminal act detection unit Post4 receives the data D2B output from the data division unit 2B. The criminal act detection unit Post4 identifies the boundary (the start time of the criminal act or the end time of the criminal act) of the data D1B from the data D2B, executes the process of detecting the criminal act, and generates the data Dout containing the detection result. to output

上記により、映像識別システム3000Bでは、時間的に連続するデータから、特定の区切り(本実施形態では、犯罪行為の開始時刻、あるいは、犯罪行為の終了時刻)を検出する処理を実行することができる。そして、映像識別システム3000Bでは、第1実施形態と同様の手法を用いているので、検出結果を取得するまでの時間が短く、その結果、リアルタイムで検出処理を実行することができる。 As described above, the video identification system 3000B can execute a process of detecting a specific delimiter (in this embodiment, the start time of a criminal act or the end time of a criminal act) from temporally continuous data. . Since the video identification system 3000B uses the same method as in the first embodiment, it takes a short time to obtain the detection result, and as a result, the detection process can be executed in real time.

[他の実施形態]
上記実施形態(変形例を含む)で説明した同時通訳システムの各機能部は、1つの装置(システム)により実現されてもよいし、複数の装置により実現されてもよい。
[Other embodiments]
Each functional unit of the simultaneous interpretation system described in the above embodiments (including modifications) may be realized by one device (system) or may be realized by a plurality of devices.

また、上記実施形態において、入力言語が英語である場合について説明したが、入力言語は英語に限定されることはなく、他の言語であってもよい。つまり、上記実施形態(変形例を含む)の同時通訳システムにおいて、翻訳元言語および翻訳先言語は、任意の言語であってよい。 Also, in the above embodiment, the case where the input language is English has been described, but the input language is not limited to English and may be another language. That is, in the simultaneous interpretation system of the above-described embodiments (including modifications), the source language and the destination language may be arbitrary languages.

また上記実施形態で説明した同時通訳システム1000において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部または全部を含むように1チップ化されても良い。 Further, in the simultaneous interpretation system 1000 described in the above embodiment, each block may be individually integrated into one chip by a semiconductor device such as LSI, or may be integrated into one chip so as to include part or all of them.

なおここではLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Although LSI is used here, it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。 Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.

また上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。 Also, part or all of the processing of each functional block in each of the above embodiments may be implemented by a program. Part or all of the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in a computer. A program for performing each process is stored in a storage device such as a hard disk or ROM, and is read from the ROM or RAM and executed.

また上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらにソフトウェアおよびハードウェアの混在処理により実現しても良い。 Further, each process of the above embodiments may be realized by hardware, or may be realized by software (including cases where it is realized together with an OS (operating system), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware.

例えば上記実施形態の各機能部をソフトウェアにより実現する場合、図13に示したハードウェア構成(例えばCPU、GPU、ROM、RAM、入力部、出力部、通信部、記憶部(例えば、HDD、SSD等により実現される記憶部)、外部メディア用ドライブ等をバスBusにより接続したハードウェア構成)を用いて各機能部をソフトウェア処理により実現するようにしてもよい。 For example, when each functional unit of the above embodiment is realized by software, the hardware configuration shown in FIG. 13 (eg, CPU, GPU, ROM, RAM, input unit, output unit, communication unit, storage unit (eg, HDD, SSD etc.) and a hardware configuration in which an external media drive and the like are connected via a bus), each functional unit may be realized by software processing.

また上記実施形態の各機能部をソフトウェアにより実現する場合、当該ソフトウェアは、図13に示したハードウェア構成を有する単独のコンピュータを用いて実現されるものであってもよいし、複数のコンピュータを用いて分散処理により実現されるものであってもよい。 Further, when the functional units of the above embodiments are implemented by software, the software may be implemented using a single computer having the hardware configuration shown in FIG. It may be realized by distributed processing using

また上記実施形態における処理方法の実行順序は、必ずしも上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。 Also, the execution order of the processing methods in the above embodiments is not necessarily limited to the description of the above embodiments, and the execution order can be changed without departing from the gist of the invention.

前述した方法をコンピュータに実行させるコンピュータプログラム、及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここでコンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。 A computer program that causes a computer to execute the method described above and a computer-readable recording medium that records the program are included in the scope of the present invention. Examples of computer-readable recording media include flexible disks, hard disks, CD-ROMs, MOs, DVDs, DVD-ROMs, DVD-RAMs, large-capacity DVDs, next-generation DVDs, and semiconductor memories.

上記コンピュータプログラムは、上記記録媒体に記録されたものに限らず、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。 The computer program is not limited to being recorded on the recording medium, and may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.

なお本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。 The specific configuration of the present invention is not limited to the above-described embodiments, and various changes and modifications are possible without departing from the scope of the invention.

本発明によれば、文章を構成する単語数に関係なく、リアルタイムで文章分割処理を実行することができる文章分割方法、センテンス・セグメンテーション装置を実現することができる。このため本発明は、自然言語処理関連産業分野において有用であり、当該分野において実施することができる。 According to the present invention, it is possible to realize a sentence segmentation method and a sentence segmentation apparatus capable of executing sentence segmentation processing in real time regardless of the number of words constituting a sentence. Therefore, the present invention is useful in the industrial field related to natural language processing and can be implemented in the field.

1000 同時通訳システム
100 文章分割装置(データ・セグメンテーション装置)
1 閾値ベクトル設定部
2 センテンス分割部
21 単語取得部
22 ニューラルネットワーク部
23 文章境界検出部
24 センテンス取得部
1000 simultaneous interpretation system 100 sentence segmentation device (data segmentation device)
1 threshold vector setting unit 2 sentence division unit 21 word acquisition unit 22 neural network unit 23 sentence boundary detection unit 24 sentence acquisition unit

Claims (6)

時系列に連続するデータであるシーケンスデータを構成する単位データを入力し、
各要素がシーケンスデータの境界位置である確率を示すデータであるm個(m:自然数)の要素と、もう1つの要素との合計m+1個の要素からなるm+1次元ベクトルデータを出力するニューラルネットワーク部と、
前記ニューラルネットワーク部から出力される前記m+1次元ベクトルデータに基づいて、シーケンスデータの境界位置を決定する境界検出部と、
を備えるデータ・セグメンテーション装置。
Enter the unit data that constitutes the sequence data, which is continuous data in time series,
A neural network unit that outputs m+1-dimensional vector data consisting of a total of m+1 elements consisting of m elements (m: natural number), which are data indicating the probability that each element is the boundary position of sequence data, and another element. When,
a boundary detection unit that determines boundary positions of sequence data based on the m+1 dimensional vector data output from the neural network unit;
A data segmentation device comprising:
前記ニューラルネットワーク部は、
再帰型ニューラルネットワークを含む、
請求項1に記載のデータ・セグメンテーション装置。
The neural network unit is
including recurrent neural networks,
A data segmentation apparatus according to claim 1.
m次元の閾値ベクトルを設定する閾値ベクトル設定部をさらに備え、
前記境界検出部は、
前記m次元の閾値ベクトルと前記m+1次元ベクトルデータとに基づいて、シーケンスデータの境界位置を決定する、
請求項1または2に記載のデータ・セグメンテーション装置。
Further comprising a threshold vector setting unit for setting an m-dimensional threshold vector,
The boundary detection unit is
determining a boundary position of sequence data based on the m-dimensional threshold vector and the m+1-dimensional vector data;
Data segmentation apparatus according to claim 1 or 2.
前記境界検出部は、
前記m次元の閾値ベクトルのm個の要素と、前記m+1次元ベクトルデータのシーケンスデータの境界位置である確率を示すデータであるm個の要素とを、それぞれ、比較することにより、シーケンスデータの境界位置を決定する、
請求項3に記載のデータ・セグメンテーション装置。
The boundary detection unit is
Boundary of sequence data by comparing m elements of the m-dimensional threshold vector and m elements that are data indicating the probability that the m+1-dimensional vector data is the boundary position of the sequence data. determine the position,
4. A data segmentation apparatus according to claim 3.
前記境界検出部は、
前記m次元の閾値ベクトルのm個の要素と、前記m+1次元ベクトルデータのシーケンスデータの境界位置である確率を示すデータであるm個の要素とを、検出する対象のシーケンスデータの境界位置が現時刻から時間的に近い順に、比較することで文章の境界位置を決定する処理を行い、文章の境界位置が決定されたとき、以降の比較処理を行わない、
請求項4に記載のデータ・セグメンテーション装置。
The boundary detection unit is
The boundary positions of the sequence data to be detected are the m elements of the m-dimensional threshold vector and the m elements of data indicating the probability of the boundary positions of the sequence data of the m+1-dimensional vector data. Perform processing to determine the boundary position of the sentence by comparing in order of temporal proximity from the time, and when the boundary position of the sentence is determined, the subsequent comparison processing is not performed.
5. A data segmentation apparatus according to claim 4.
前記閾値ベクトル設定部は、
値F
=2×Precision×Recall/(Precision+Recall)
Precision:正しいと予測したデータのうち、実際に正しいデータであった割合
Recall:実際に正しいデータであるもののうち、正しいと予測されたデータの割合
とし、
評価値scoreを
score=F-α×latency
latency:遅延時間(遅延量)
α:係数
としたとき、
閾値ベクトルθをチューニングするために用いるデータセットにおいて、前記評価値scoreが所定の値よりも大きな値となるように、閾値ベクトルθを設定する、
請求項3から5のいずれかに記載のデータ・セグメンテーション装置。
The threshold vector setting unit
The value F 1 is set to F 1 =2×Precision×Recall/(Precision+Recall)
Precision: The percentage of data that was actually correct out of the data predicted to be correct Recall: The percentage of data predicted to be correct out of the data that was actually correct,
The evaluation value score is score=F 1 −α×latency
latency: delay time (delay amount)
When α is a coefficient,
setting the threshold vector θ such that the evaluation value score is greater than a predetermined value in the data set used for tuning the threshold vector θ;
A data segmentation device according to any of claims 3-5.
JP2018148249A 2018-08-07 2018-08-07 data segmentation device Active JP7113474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018148249A JP7113474B2 (en) 2018-08-07 2018-08-07 data segmentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018148249A JP7113474B2 (en) 2018-08-07 2018-08-07 data segmentation device

Publications (2)

Publication Number Publication Date
JP2020024277A JP2020024277A (en) 2020-02-13
JP7113474B2 true JP7113474B2 (en) 2022-08-05

Family

ID=69618578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018148249A Active JP7113474B2 (en) 2018-08-07 2018-08-07 data segmentation device

Country Status (1)

Country Link
JP (1) JP7113474B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10817665B1 (en) * 2020-05-08 2020-10-27 Coupang Corp. Systems and methods for word segmentation based on a competing neural character language model
CN112699689B (en) * 2021-01-05 2024-07-19 虎博网络技术(上海)有限公司 Audio segmentation method and device and electronic equipment
CN112733927A (en) * 2021-01-05 2021-04-30 福州数据技术研究院有限公司 Fan blade sound boundary positioning method based on one-dimensional convolutional neural network and storage device
JP7488002B2 (en) 2021-01-20 2024-05-21 Tvs Regza株式会社 Image processing device, operation method of image processing device, and image processing program
WO2023135963A1 (en) * 2022-01-13 2023-07-20 株式会社Nttドコモ Translation device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4117560B2 (en) 2001-11-09 2008-07-16 エスケー エナジー 株式会社 Method for separating normal paraffin from hydrocarbon and use of the separated hydrocarbon

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2764343B2 (en) * 1990-09-07 1998-06-11 富士通株式会社 Clause / phrase boundary extraction method
JP6495792B2 (en) * 2015-09-16 2019-04-03 日本電信電話株式会社 Speech recognition apparatus, speech recognition method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4117560B2 (en) 2001-11-09 2008-07-16 エスケー エナジー 株式会社 Method for separating normal paraffin from hydrocarbon and use of the separated hydrocarbon

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chenglin Xu et al.,A Bidirectional LSTM Approach with Word Embeddings for Sentence Boundary Detection,Journal of Signal Processing systems[online],2017年09月,[令和4年6月17日検索],インターネット<URL:http://www.nwpu-aslp.org/lxie/papers/2017JSPS-XCL.pdf>
帖佐克己他,同時音声翻訳のための構文情報を用いた文分割に基づく機械翻訳,情報処理学会研究報告,2016年12月,Vol.2016-NL-229, No.6,pp.1-4

Also Published As

Publication number Publication date
JP2020024277A (en) 2020-02-13

Similar Documents

Publication Publication Date Title
JP7113474B2 (en) data segmentation device
JP7005099B2 (en) Voice keyword recognition methods, devices, computer-readable storage media, and computer devices
CN110389996B (en) Implementing a full sentence recurrent neural network language model for natural language processing
JP6980119B2 (en) Speech recognition methods and their devices, devices, storage media and programs
JP5459214B2 (en) Language model creation device, language model creation method, speech recognition device, speech recognition method, program, and recording medium
JP5241379B2 (en) Method and system for optimal selection strategy for statistical classification in dialogue systems
JP4215418B2 (en) Word prediction method, speech recognition method, speech recognition apparatus and program using the method
JP2010537321A (en) Method and system for optimal selection strategy for statistical classification
JP6019604B2 (en) Speech recognition apparatus, speech recognition method, and program
JP2014521115A (en) Method and apparatus for reliability calculation
JP4515054B2 (en) Method for speech recognition and method for decoding speech signals
JP2008203469A (en) Speech recognition device and method
CN109800427B (en) Word segmentation method, device, terminal and computer readable storage medium
KR102345625B1 (en) Caption generation method and apparatus for performing the same
JP7209330B2 (en) classifier, trained model, learning method
KR20190032868A (en) Method and apparatus for voice recognition
JP6230987B2 (en) Language model creation device, language model creation method, program, and recording medium
JP2019219827A (en) Language model learning device and program thereof and word estimation device and program thereof
JP5740368B2 (en) Discriminative speech recognition accuracy estimation apparatus, discriminative speech recognition accuracy estimation method, and program
JP6910002B2 (en) Dialogue estimation method, dialogue activity estimation device and program
US20090222266A1 (en) Apparatus, method, and recording medium for clustering phoneme models
WO2016152132A1 (en) Speech processing device, speech processing system, speech processing method, and recording medium
JP5067777B2 (en) Translation apparatus, cluster generation apparatus, cluster manufacturing method, and program
KR20240089301A (en) Language-agnostic multilingual end-to-end streaming on-device ASR system
CN114756662A (en) Task-specific text generation based on multimodal input

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220715

R150 Certificate of patent or registration of utility model

Ref document number: 7113474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150