JP6911785B2 - 判定装置、判定方法及び判定プログラム - Google Patents
判定装置、判定方法及び判定プログラム Download PDFInfo
- Publication number
- JP6911785B2 JP6911785B2 JP2018017225A JP2018017225A JP6911785B2 JP 6911785 B2 JP6911785 B2 JP 6911785B2 JP 2018017225 A JP2018017225 A JP 2018017225A JP 2018017225 A JP2018017225 A JP 2018017225A JP 6911785 B2 JP6911785 B2 JP 6911785B2
- Authority
- JP
- Japan
- Prior art keywords
- hypothesis
- series
- model
- hypotheses
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 76
- 239000013598 vector Substances 0.000 claims description 49
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 description 36
- 230000006870 function Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 14
- 238000000605 extraction Methods 0.000 description 11
- 238000010276 construction Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 8
- 239000010410 layer Substances 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Description
[リランキング装置]
次に、実施の形態に係るリランキング装置について説明する。このリランキング装置は、音声認識結果であるNベスト仮説のうちの二つの仮説に対する、NNで表されるNベストリランキングモデルを用いた音声認識精度の高低の判定を繰り返し実行して、最も音声認識精度の高い仮説を最終的な音声認識結果として出力する。
if acc(W(u))≧acc(W(v)) ・・・(1−1)
P(0|X(u),X(v))<P(1|X(u),X(v))
otherwise ・・・(1−2)
図2は、Nベストリランキングモデルの構築例を示す図である。なお、図2では、簡単のため、単語の埋め込み処理embed(・)を行うNNは省略されている。以下、その詳細について説明する。
P(y|X(u),X(v))=softmax(z{(u,v)})y
・・・(5)
なお、図2に示すエンコーダRNN111のLSTMユニットは、1層単方向のLSTMユニットとしたが、複数層または双方向(bidirectional)のLSTMユニットであってもよい。
また、LSTMユニットの代わりに、単純な(下記のsigmoid関数等を活性化関数として持つ。)RNNや、Gated Recurrent Unit(GRU)を用いてもよい。
さらに、Nベストリランキングモデルは、図2の構築例では、2クラス分類NNとして、1層のフィードフォワード型NNを用いたが、複数層のフィードフォワード型NNを用いてもよい。Nベストリランキングモデルは、複数層のフィードフォワード型NNを用いる場合、活性化関数として、sigmoid関数、tanh関数、Rectified Linear Unit(ReLU)関数、Parametric ReLU(PReLU)関数などを用いることができる。なお、Nベストリランキングモデルの他の構築例1〜3の用語の詳細については、例えば、参考文献1を参照いただきたい。
また、Nベストリランキングモデルは、従来のNベストリスコアリングモデル(例えばRNN言語モデル)により計算されたスコアを、特徴量ベクトルにおける新たな次元として追加して利用することも可能である。
次に、図1に示すリランキング装置10が実行するリランキング処理の処理手順について説明する。図3は、図1に示すリランキング装置10が実行するリランキング処理の処理手順を示すフローチャートである。
次に、リランキング装置10が用いるNベストリランキングモデルを学習する学習装置について説明する。図4は、実施の形態に係る学習装置の機能構成の一例を示す図である。実施の形態1に係る学習装置20は、例えば、ROM、RAM、CPU等を含むコンピュータ等に所定のプログラムが読み込まれて、CPUが所定のプログラムを実行することで実現される。図4に示すように、Nベストリランキングモデル記憶部21、学習装置20は、仮説入力部22及び学習部23を有する。
次に、図4に示す学習装置20が実行する学習処理の処理手順について説明する。図5は、図4に示す学習装置が実行する学習処理の処理手順を示すフローチャートである。図5では、Nベスト仮説から二つの仮説としてW(u),W(v)(u<v≦N)が与えられ、かつ、acc(W(u))≧acc(W(v))であるときの学習処理の処理手順を示す。
図5に示す学習処理の処理手順は、計算コストが高い。例えば、Eをエポック数、Mを学習データ中の発話数とすると、上記の学習手順におけるモデルパラメータの更新回数は、最大で、E×M×N×2×NC2になる。通常、Eは数十程度、Mは少なくとも数万、Nは上記の通り100〜1000程度であるので、モデルパラメータの更新回数は、膨大な数に達する。このため、本実施の形態では、学習の効率化を図ることが好ましい。そこで、以下に、学習の効率化例1について述べる。
次に、学習の効率化例2について説明する。学習の効率化例1では、Nベスト仮説が与えられたとき、その中に含まれるオラクル仮説とその他のN−1個の仮説とを比較していた。学習処理の効率化例2では、オラクル仮説と比較するその他の仮説の個数を絞り込む。
仮説1は、オラクル仮説の次に高い音声認識精度を持つ仮説である。
仮説2は、音声認識スコアが最も高い仮説である。
仮説3は、最も低い音声認識精度を持つ仮説である。
仮説4は、音声認識スコアが最も低い仮説である。
実際に、本実施の形態におけるNベストリスコアリングと、従来のRNN言語モデルとの比較評価を行った。Nベストリランキングモデルを使用する際(評価時)、モデルは、(1−1)式及び(1−2)式にしたがい、2クラスの事後確率P(y|X(u),X(v)),y={0,1}を推定する。リランキング装置10は、これらの事後確率をそのまま用いてNベストリランキングを行ってもよい。また、リランキング装置10は、従来のNベストリランキングモデルと同様に、(6)式を用いて、元々の音声認識スコアとNベストリランキングモデルによるスコア(事後確率の対数値)とを重み付け加算し、その値を基に、Nベストリランキングを行ってもよい。
図6は、Nベストリランキングの評価結果を示す図である。図6では、Nベストリランキングの評価結果の例として、日本語話し言葉コーパスを用いて、従来のRNN言語モデル、本実施の形態のリランキング装置10が用いるNベストリランキングモデル、及び、RNN言語モデルのスコアを特徴量ベクトルの一次元として加えたNベストリランキングモデル(他の構築例4)を比較評価した結果を示す。評価は、(6)式に従い、音声認識スコアとNベストリランキングモデルによるスコアとを重み加算したスコアを用いてNベストリランキングを行っている。
本実施の形態に係るリランキング装置10では、音声認識結果であるNベスト仮説の入力を受け付け、Nベスト仮説中の二つの仮説に対し、NNで表されるNベストリランキングモデルを用いて、いずれの仮説がより高い音声認識精度を有しているかを判定する。
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。例えば、リランキング装置10及び学習装置20は、一体の装置であってもよい。さらに、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図7は、プログラムが実行されることにより、リランキング装置10或いは学習装置20が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
10 リランキング装置
11,21 Nベストリランキングモデル記憶部
12 仮説入力部
13 仮説選択部
14 特徴量抽出部
15 判定部
16 実行制御部
17 出力部
20 学習装置
22 仮説入力部
23 学習部
231 教師ラベル付与部
232 入替部
Claims (7)
- ある一つの入力に対する解の候補として挙げられた複数の系列の入力を受け付ける入力部と、
前記複数の系列のうちの二つの系列に対し、ニューラルネットワークで表されるモデルを用いて、前記二つの系列のうちより精度が高い系列を判定する判定部と、
を有し、
前記モデルは、二つの系列を、再帰的ニューラルネットワークを用いて隠れ状態ベクトルに変換し、ニューラルネットワークを用いて、前記隠れ状態ベクトルを基に二つの系列の精度の高低の並びが正しいことを示す第1の事後確率及び二つの系列の精度の高低の並びが誤りであることを示す第2の事後確率を出力することを特徴とする判定装置。 - 前記判定部は、前記二つの系列のうち、より精度が高いと判定した系列を比較対象として残し、他方の系列を比較対象から外すことを特徴とする請求項1に記載の判定装置。
- 前記判定部によって精度が高いと判定された系列を二つの系列の一方の仮説として選択し、前記複数の系列のうち、前記判定部による判定が行われていない系列のいずれかを他方の仮説として選択する選択部と、
前記判定部における判定処理と前記選択部における選択処理とを、所定条件に達するまで順次実行させる実行制御部と、
前記所定条件に達した場合、比較対象として残っている系列を、最も精度が高い系列として出力する出力部と、
をさらに有することを特徴とする請求項2に記載の判定装置。 - 前記入力部は、音声認識結果であるN(N≧2)ベスト仮説の入力を受け付け、
前記判定部は、前記Nベスト仮説中の二つの仮説に対し、ニューラルネットワークで表される前記モデルを用いて、いずれの仮説がより高い音声認識精度を有しているかを判定し、精度が高いと判定した仮説を比較対象として残し、他方の仮説を比較対象から外し、
前記選択部は、前記判定部が残した仮説を二つの仮説の一方の仮説として選択し、前記Nベスト仮説のうち、前回比較対象となった仮説の順位の次の順位の仮説を二つの仮説の他方の仮説として選択し、
前記実行制御部は、前記Nベスト仮説に対し、前記判定部における判定処理と前記選択部による選択処理とを、所定条件に達するまで繰り返す制御を行い、
前記出力部は、前記所定条件に達した場合、最後の判定処理で精度が高いと判定された仮説を最終的な音声認識結果として出力することを特徴とする請求項3に記載の判定装置。 - 前記モデルは、u位の仮説及びv(u<v≦N)位の仮説が入力されると、u位の仮説がv位の仮説よりも音声認識精度が高いことを示す第1の事後確率と、v位の仮説がu位の仮説よりも音声認識精度が高いことを示す第2の事後確率とを出力し、
前記判定部は、前記第1の事後確率が前記第2の事後確率よりも高い場合には、u位の仮説がv位の仮説よりも音声認識精度が高いと判定し、前記第1の事後確率が前記第2の事後確率よりも低い場合には、v位の仮説がu位の仮説よりも音声認識精度が高いと判定することを特徴とする請求項4に記載の判定装置。 - 判定装置が実行する判定方法であって、
ある正解に対する候補として挙げられた複数の系列の入力を受け付ける工程と、
前記複数の系列のうちの二つの系列に対し、ニューラルネットワークで表されるモデルを用いて、前記二つの系列のうちより誤りが少ない系列を判定する工程と、
を含み、
前記モデルは、二つの系列を、再帰的ニューラルネットワークを用いて隠れ状態ベクトルに変換し、ニューラルネットワークを用いて、前記隠れ状態ベクトルを基に二つの系列の精度の高低の並びが正しいことを示す第1の事後確率及び二つの系列の精度の高低の並びが誤りであることを示す第2の事後確率を出力することを特徴とする判定方法。 - ある正解に対する候補として挙げられた複数の系列の入力を受け付けるステップと、
前記複数の系列のうちの二つの系列に対し、ニューラルネットワークで表されるモデルを用いて、前記二つの系列のうちより誤りが少ない系列を判定するステップと、
をコンピュータに実行させ、
前記モデルは、二つの系列を、再帰的ニューラルネットワークを用いて隠れ状態ベクトルに変換し、ニューラルネットワークを用いて、前記隠れ状態ベクトルを基に二つの系列の精度の高低の並びが正しいことを示す第1の事後確率及び二つの系列の精度の高低の並びが誤りであることを示す第2の事後確率を出力する判定プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018017225A JP6911785B2 (ja) | 2018-02-02 | 2018-02-02 | 判定装置、判定方法及び判定プログラム |
US16/966,096 US11837222B2 (en) | 2018-02-02 | 2019-02-01 | Determination device, determination method, and determination program |
PCT/JP2019/003726 WO2019151503A1 (ja) | 2018-02-02 | 2019-02-01 | 判定装置、判定方法及び判定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018017225A JP6911785B2 (ja) | 2018-02-02 | 2018-02-02 | 判定装置、判定方法及び判定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019133085A JP2019133085A (ja) | 2019-08-08 |
JP6911785B2 true JP6911785B2 (ja) | 2021-07-28 |
Family
ID=67479391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018017225A Active JP6911785B2 (ja) | 2018-02-02 | 2018-02-02 | 判定装置、判定方法及び判定プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11837222B2 (ja) |
JP (1) | JP6911785B2 (ja) |
WO (1) | WO2019151503A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6849621B2 (ja) * | 2018-02-02 | 2021-03-24 | 日本電信電話株式会社 | 学習装置、学習方法及び学習プログラム |
US11158307B1 (en) * | 2019-03-25 | 2021-10-26 | Amazon Technologies, Inc. | Alternate utterance generation |
JP7192995B2 (ja) * | 2019-08-08 | 2022-12-20 | 日本電信電話株式会社 | 判定装置、学習装置、判定方法及び判定プログラム |
US11640527B2 (en) * | 2019-09-25 | 2023-05-02 | Salesforce.Com, Inc. | Near-zero-cost differentially private deep learning with teacher ensembles |
CN111738169B (zh) * | 2020-06-24 | 2023-05-23 | 北方工业大学 | 一种基于端对端网络模型的手写公式识别方法 |
CN112699218A (zh) * | 2020-12-30 | 2021-04-23 | 成都数之联科技有限公司 | 模型建立方法及***及段落标签获得方法及介质 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070282621A1 (en) * | 2006-06-01 | 2007-12-06 | Flipt, Inc | Mobile dating system incorporating user location information |
US10169646B2 (en) * | 2007-12-31 | 2019-01-01 | Applied Recognition Inc. | Face authentication to mitigate spoofing |
WO2013109966A1 (en) * | 2012-01-20 | 2013-07-25 | The Trustees Of Dartmouth College | Method and apparatus for quantitative hyperspectral fluorescence and reflectance imaging for surgical guidance |
KR101379140B1 (ko) * | 2009-10-05 | 2014-03-28 | 후지쯔 가부시끼가이샤 | 생체 정보 처리 장치, 생체 정보 처리 방법 및 생체 정보 처리용 컴퓨터 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체 |
JP5650440B2 (ja) * | 2010-05-21 | 2015-01-07 | 日本電信電話株式会社 | 素性重み学習装置、N−bestスコアリング装置、N−bestリランキング装置、それらの方法およびプログラム |
US11510600B2 (en) * | 2012-01-04 | 2022-11-29 | The Trustees Of Dartmouth College | Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance |
GB201211147D0 (en) * | 2012-06-22 | 2012-08-08 | Sony Dadc Austria Ag | Method of manufacturing sample containers |
US20160224837A1 (en) * | 2013-10-25 | 2016-08-04 | Hyperlayer, Inc. | Method And System For Facial And Object Recognition Using Metadata Heuristic Search |
JP6645063B2 (ja) * | 2014-07-29 | 2020-02-12 | ヤマハ株式会社 | ターゲット文字列の推定 |
CN104731776B (zh) * | 2015-03-27 | 2017-12-26 | 百度在线网络技术(北京)有限公司 | 翻译信息的提供方法及*** |
DE102016201389A1 (de) * | 2016-01-29 | 2017-08-03 | Robert Bosch Gmbh | Verfahren zu einer Erkennung von Objekten, insbesondere von dreidimensionalen Objekten |
DE102016201373A1 (de) * | 2016-01-29 | 2017-08-03 | Robert Bosch Gmbh | Verfahren zu einer Erkennung von Objekten, insbesondere von dreidimensionalen Objekten |
JP2017157039A (ja) * | 2016-03-02 | 2017-09-07 | 株式会社東芝 | 紙葉類処理装置およびプログラム |
CN106443297B (zh) * | 2016-09-07 | 2018-05-22 | 江南大学 | 光伏二极管箝位型三电平逆变器的决策树svm故障诊断方法 |
EP3339914B1 (en) * | 2016-12-21 | 2022-02-02 | Cable Detection Limited | Underground utility line detection |
US20180330718A1 (en) * | 2017-05-11 | 2018-11-15 | Mitsubishi Electric Research Laboratories, Inc. | System and Method for End-to-End speech recognition |
US10672388B2 (en) * | 2017-12-15 | 2020-06-02 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for open-vocabulary end-to-end speech recognition |
CN108305617B (zh) * | 2018-01-31 | 2020-09-08 | 腾讯科技(深圳)有限公司 | 语音关键词的识别方法和装置 |
US10811000B2 (en) * | 2018-04-13 | 2020-10-20 | Mitsubishi Electric Research Laboratories, Inc. | Methods and systems for recognizing simultaneous speech by multiple speakers |
-
2018
- 2018-02-02 JP JP2018017225A patent/JP6911785B2/ja active Active
-
2019
- 2019-02-01 US US16/966,096 patent/US11837222B2/en active Active
- 2019-02-01 WO PCT/JP2019/003726 patent/WO2019151503A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2019133085A (ja) | 2019-08-08 |
US20210035564A1 (en) | 2021-02-04 |
US11837222B2 (en) | 2023-12-05 |
WO2019151503A1 (ja) | 2019-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6849621B2 (ja) | 学習装置、学習方法及び学習プログラム | |
JP6911785B2 (ja) | 判定装置、判定方法及び判定プログラム | |
US11604956B2 (en) | Sequence-to-sequence prediction using a neural network model | |
CN109215637B (zh) | 语音识别方法 | |
CN105654946B (zh) | 用于语音识别的设备和方法 | |
US11158305B2 (en) | Online verification of custom wake word | |
JP6831343B2 (ja) | 学習装置、学習方法及び学習プログラム | |
CN110517693B (zh) | 语音识别方法、装置、电子设备和计算机可读存储介质 | |
CN108073574A (zh) | 用于处理自然语言以及训练自然语言模型的方法和设备 | |
US20210035556A1 (en) | Fine-tuning language models for supervised learning tasks via dataset preprocessing | |
US11003993B1 (en) | Training recurrent neural networks to generate sequences | |
CN116127952A (zh) | 一种多粒度中文文本纠错方法和装置 | |
CN110275928B (zh) | 迭代式实体关系抽取方法 | |
CN113223506B (zh) | 语音识别模型训练方法及语音识别方法 | |
CN112560485B (zh) | 一种实体链接方法、装置、电子设备及存储介质 | |
Kim et al. | Sequential labeling for tracking dynamic dialog states | |
CN113591462A (zh) | 弹幕回复生成方法、装置及电子设备 | |
CN113505225A (zh) | 一种基于多层注意力机制的小样本医疗关系分类方法 | |
CN110837730B (zh) | 一种未知实体词汇的确定方法及装置 | |
JP5975938B2 (ja) | 音声認識装置、音声認識方法及びプログラム | |
JP6577900B2 (ja) | 音素誤り獲得装置、音素誤り獲得方法、およびプログラム | |
WO2021024491A1 (ja) | 判定装置、学習装置、判定方法及び判定プログラム | |
JP6158105B2 (ja) | 言語モデル作成装置、音声認識装置、その方法及びプログラム | |
JP6235922B2 (ja) | 重み付き有限状態オートマトン作成装置、記号列変換装置、音声認識装置、それらの方法、及びプログラム | |
KR102554626B1 (ko) | 점진적 학습을 위한 기계 학습 방법 및 이를 수행하기 위한 컴퓨팅 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210621 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6911785 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |