JP2015158582A - 音声認識装置、及びプログラム - Google Patents
音声認識装置、及びプログラム Download PDFInfo
- Publication number
- JP2015158582A JP2015158582A JP2014033024A JP2014033024A JP2015158582A JP 2015158582 A JP2015158582 A JP 2015158582A JP 2014033024 A JP2014033024 A JP 2014033024A JP 2014033024 A JP2014033024 A JP 2014033024A JP 2015158582 A JP2015158582 A JP 2015158582A
- Authority
- JP
- Japan
- Prior art keywords
- acoustic event
- character string
- acoustic
- unit
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
【解決手段】音声認識装置1の音声認識部13は、音声データを音声認識し、発話内容を示す文字列のデータを出力する。音響イベント認識部15は、音声認識されたものと同じ音声データから得られた音響特徴量に基づいて音響イベントの事後確率を計算し、計算された事後確率に基づいて検出した音響イベントを表す文字列のデータを出力する。認識結果修正部16は、発話内容の文字列のデータと音響イベントを表す文字列のデータとを修正端末5に表示させ、表示させた中から指定された発話内容の文字列における注釈挿入位置と、表示させた中から選択された音響イベントを表す文字列とを示す注釈挿入指示を受信し、受信した注釈挿入指示に従って発話内容を示す文字列のデータに音響イベントを表す文字列のデータを挿入して注釈付き字幕データを生成する。
【選択図】図2
Description
この発明によれば、音声認識装置は、音声データを音声認識して得た発話内容を示す文字列と、当該音声データについて検出された音響イベントを表す文字列とを修正端末に表示させる。音声認識装置は、修正者が修正端末において指定した発話内容の文字列における注釈挿入位置と、挿入する注釈として選択した音響イベントを表わす文字列とに従って、発話内容に音響イベントを表す文字列を挿入して注釈付き字幕を生成する。
これにより、音声認識装置は、修正者が修正端末の表示を見ながら、注釈を挿入したい発話内容の位置と、注釈として挿入したい音響イベントを表す文字列を選択する簡易な操作によって、音響イベントの情報を付加した字幕を生成することができる。
この発明によれば、音声認識装置は、音声データから音響イベントを含んだ区間を検出し、検出した区間の音声データを対象に音響イベント認識を行う。
これにより、音声認識装置は、音響イベントが含まれている区間のみを音響イベント認識の対象とするため、音響イベント認識の精度を良くすることができる。
この発明によれば、音声認識装置は、音声データを音響イベント認識における音響特徴量の処理単位であるフレームに分割し、分割した各フレームの音響特徴量を、対応するフレームの時刻順に並べて畳み込みニューラルネットワークに入力することにより、各音響イベントの事後確率を算出する。
これにより、音声認識装置は、音声データから得られた各フレームの音響特徴量を用いて、各音響イベントの事後確率を得ることができる。
この発明によれば、音声認識装置は、音声データの時間周波数領域の特徴量を用いて音響イベントを認識する。
これにより、音声認識装置は、周波数領域の特徴量を所定時間分以上連結して音響イベントを認識することができるため、音響イベントの認識の精度を良くすることができる。
字幕制作を目的とした音声認識では、遅延のない認識結果文字列の出力が重要視されている。従来は、視聴者への情報伝達に重要な音声言語のみが音声から文字列へと変換する字幕化の対象であり、音響イベントのような非言語音は字幕化の対象外であった。これは、特に生放送の番組では、音声認識誤りの修正のための時間が十分に取れず、音声言語以外の情報を字幕化することが困難であったためである。
この一連の手続きは、音声区間が切り出されるたびに逐次的に行われ、低遅延で字幕制作を行うことができる。
本実施形態の音声認識装置は、このような問題を解決し、音響イベントに関する情報伝達を視聴者に行うための字幕制作を行う。
同図に示すように、本実施形態の音声認識装置による字幕制作手法においては、従来の音声区間検出処理及び音声認識処理に併せて、音響イベント区間検出処理及び音響イベント認識処理を並列で実行する。音響イベント区間検出処理では、入力音声から音響イベントを含む音声区間を検出し、該当区間を切り出す。音響イベント認識処理では、切り出された音響イベント区間の音響イベントを認識し、認識した音響イベントを表す単語列のテキストデータを出力する。音声認識処理と音響イベント認識処理の並列動作により、本実施形態の音声認識装置は、個々の認識処理に対して独立に最適なアルゴリズムを実装することが可能となる。また、音響イベントの認識が不要であれば、音響イベント認識処理の実行プログラムを動作させないように本実施形態の音声認識装置に設定すればよい。これにより、字幕制作者のニーズに合わせた字幕制作手法を選択することも可能である。
まず、音声認識装置1は、音声区間検出用、音響イベント区間検出用それぞれの統計的音響モデルと、音声認識用の統計的音響モデル及び統計的言語モデルと、音響イベント認識用のニューラルネットワークを記憶部10に格納する。音声区間検出用の統計的音響モデルや、音声認識用の統計的音響モデル及び統計的言語モデルは、従来と同様のものを用いることができる。本実施形態では、音響イベント区間検出用の統計的音響モデルとして、HMM(Hidden Markov Model、隠れマルコフモデル)及びGMM(Gaussian Mixture Model、ガウス混合分布)を用いる。この音響イベント区間検出用のHMM及びGMMは、音声、音響イベント、及び無音の3つのクラスそれぞれのラベルがつけられた音声データを学習データとして用い、従来技術と同様の学習方法により学習される。なお、音声のラベルは、音声言語の音声データにつけられる。例えば、音響イベントのGMMの場合、混合されるガウス分布のそれぞれが、異なる種類の音響イベントの特徴を表すようにする。また、音響イベント認識用のニューラルネットワークの学習には、各音響イベントのラベルが付けられた音声データを学習データとして用い、従来技術と同様の学習方法により学習される。音響イベント区間検出用のHMMについては図4を用いて、音響イベント認識用のニューラルネットワークについては図6を用いて後述する。
音声認識装置1に放送番組の音声データD1が入力されると、音声分岐部11は、入力された音声データD1を、音声認識及び音響イベント認識それぞれの入力とするために2つに分岐する。これは、音声言語と音響イベントに重なりがあるためである。音声認識処理と音響イベント認識処理を分割することにより、それぞれ独立に最適な認識アルゴリズムを適用できるようにする。音声分岐部11は、2つに分岐した音声データD1のうち一方を、音声認識の前処理を行う音声区間検出部12に出力し、もう一方を、音響イベント認識の前処理を行う音響イベント区間検出部14に出力する(ステップS1)。
音声区間検出部12は、さらに発話開始時刻検出後の入力フレームについて、上記と同様に処理開始の入力フレームからの現在の入力フレームまでの各状態系列の累積の音響スコアを算出する。音声区間検出部12は、各状態系列の中で最大の累積の音響スコアと、各状態系列のうち音声言語から非音声言語の終端に至る状態系列の中で最大の累積の音響スコアとの差が閾値を超えたかを判断する。音声区間検出部12は、閾値を超えた状態が所定時間経過した場合、その経過した時刻から所定時間遡った時刻を発話終了時刻とする。
音声区間検出部12は、発話開始時刻から発話終了時刻までの区間の入力フレームをまとめた音声言語区間データD2を出力する。
なお、本実施形態では、プーリング層と出力層を連結しているが、この間には任意の数の隠れ層及びプーリング層を挿入可能である。
音響イベント認識部15は、畳み込みニューラルネットワークの入力特徴量が十分な長さとなるよう、音響イベント区間検出部14からの出力である音響イベント区間データD4のフレーム列を時刻順にフレーム連結し、入力フレーム列を生成する(ステップS61)。入力フレーム列の長さがNに達していない場合(ステップS62:NO)、音響イベント認識部15は、ステップS61に戻り、Nフレーム以上の入力フレーム列が得られるまで新たな音響イベント区間データD4のフレーム列をフレーム連結する。入力フレーム列の長さが音響イベント認識に必要なN以上となった場合(ステップS62:YES)、音響イベント認識部15は、記憶部10に記憶されている畳み込みニューラルネットワークにより音響イベント認識を行う(ステップS63)。音響イベント認識部15は、入力フレーム列を構成する各フレームの音響特徴量を計算する。音響イベント認識部15は、入力フレーム列の各フレームについて計算した音響特徴量を、図6に示す畳み込みニューラルネットワークの入力層の入力とし、隠れ層、プーリング層、出力層の各ユニットの値を計算する。
音声認識結果表示ウィンドウ80は、音声認識結果と、音声認識結果に修正や注釈文字列の挿入を行った文字列とを表示する。音響イベント認識結果表示ウィンドウ83は、注釈文字列を表示する。音響イベント認識結果表示ウィンドウ83に表示される注釈文字列は、音響イベント認識結果データD5に設定されている順位が最も高い注釈文字列である。音響イベント認識結果候補ウィンドウ86は、注釈文字列の候補を表示する。注釈文字列の候補は、音響イベント認識結果データD5に設定されている順位が2番目以下の注釈文字列である。履歴表示ウィンドウ87は、音声認識結果に対する修正文字列を表示する。
例えば、文字列81が示す音声認識結果(あるいは修正済み音声認識結果)「お料理が上手ですね。」の直後に、音響イベント認識結果表示ウィンドウ83に表示されている注釈文字列84「(笑い)」を挿入する場合、修正者は次の操作を行う。修正者は、注釈文字列を挿入したい文字列81の最後の文字「。」に触れる。入力部53は、接触を検知した画面位置の情報を制御部51に出力する。制御部51は、接触を検知した画面位置に表示させていた文字が含まれる単語「。」を選択し、選択された単語を特定する指摘情報を音声認識装置1に送信する。つまり、このときの指摘情報は、注釈挿入位置を示す。音声認識装置1の認識結果修正部16は、修正端末5−1からの指摘情報を最も早く受信したとする。認識結果修正部16は、修正端末5−1から受信した指摘情報により示される文字列の表示を赤色等の選択色に変更するよう各修正端末5に指示する。各修正端末5の制御部51は、音声認識装置1からの指示に基づき、選択された文字列の表示を選択色に変更する。さらに、認識結果修正部16は、修正端末5−2に、選択色への変更に併せて修正ガードを指示する。
また、例えば、音声認識結果表示ウィンドウ80に表示されている文字列82が示す修正済みの認識結果「○○さんの趣味はなんですか。」の直後に、注釈文字列を挿入する場合、文字列82の最後の文字「。」に触れればよい。
例えば、文字列82が示す修正済みの音声認識結果「○○さんの趣味はなんですか。」の直後に、注釈文字列84「(笑い)」を挿入する場合、修正者は、キーボード上の「挿入(Insert)」キーを押下し、さらに、文字列82の最後の文字「。」に触れる。入力部53は、「挿入(Insert)」キーの押下と、接触を検知した画面位置の情報を制御部51に出力する。制御部51は、接触を検知した画面位置に表示させていた文字が含まれる単語を選択し、選択された単語を特定する注釈挿入位置情報を生成する。さらに、修正者は、注釈文字列84「(笑い)」のいずれかの文字に触れる。入力部53は、接触を検知した画面位置の情報を制御部51に出力する。制御部51は、接触を検知した画面位置に表示させていた文字が含まれ注釈文字列を判断すると、その注釈文字列を特定する情報、あるいは、注釈文字列を設定した挿入注釈情報を生成する。制御部51は、注釈挿入位置情報と挿入注釈情報を設定した注釈挿入指示を音声認識装置1に送信する。音声認識装置1の認識結果修正部16は、注釈挿入位置情報により、作業中字幕における注釈挿入対象の単語「。」を特定する。認識結果修正部16は、挿入注釈情報により特定される、あるいは、挿入注釈情報が示す注釈文字列を、作業中字幕における注釈挿入対象の単語「。」の直後に挿入し、新たな作業中字幕を生成する。認識結果修正部16は、新たな作業中字幕を各修正端末5に送信する。各修正端末5の制御部51は、音声認識装置1から受信した作業中字幕により、音声認識結果表示ウィンドウ80に表示されている修正済みの音声認識結果の表示を置き代える。
また、認識結果修正部16は、音響イベント認識結果が変わったタイミングで、音響イベント認識結果データD5を修正端末5に出力して表示させるようにしてもよい。これにより、音響イベント認識結果表示ウィンドウ83に、同じ注釈文字列が連続して表示されないようにすることができる。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Claims (5)
- 音声データを音声認識し、音声認識結果の発話内容を示す文字列のデータを出力する音声認識部と、
前記音声データから得られた音響特徴量に基づいて音響イベントの事後確率を計算し、計算された前記事後確率に基づいて検出した音響イベントを表す文字列のデータを出力する音響イベント認識部と、
前記音声認識部が出力した前記発話内容の文字列のデータと、前記音響イベント認識部が出力した前記音響イベントを表す文字列のデータとを修正端末に表示させ、表示させた中から指定された前記発話内容の文字列における注釈挿入位置と、表示させた中から選択された前記音響イベントを表す文字列とを示す注釈挿入指示を前記修正端末から受信し、受信した前記注釈挿入指示に従って前記発話内容を示す文字列のデータに前記音響イベントを表す文字列のデータを挿入した注釈付き字幕データを生成する認識結果修正部と、
を備えることを特徴とする音声認識装置。 - 前記音声データをフレームに分割し、各フレームの音響特徴量と、無音、音響イベント、及び音声言語それぞれの音響特徴量とを照合して音響イベントを含んだ区間を検出する音響イベント区間検出部を備え、
前記音響イベント認識部は、前記音響イベント区間検出部が検出した前記区間の前記音声データから得られた音響特徴量に基づいて音響イベントの事後確率を計算し、計算された前記事後確率に基づいて検出した音響イベントを表す文字列のデータを出力する、
ことを特徴とする請求項1に記載の音声認識装置。 - 前記音響イベント認識部は、前記音声データを分割した時刻順のフレームそれぞれの音響特徴量を並べて畳み込みニューラルネットワークに入力して音響イベントの事後確率を算出し、
前記畳み込みニューラルネットワークは、入力層、隠れ層、プーリング層、及び出力層を有し、
前記入力層は、時刻順に並べた前記フレームそれぞれの音響特徴量を入力とし、
前記隠れ層の各ユニットは、所定フレーム数分のシフトを保ちながら前記入力層の所定数のフレームと結合しており、結合している前記入力層のフレームの音響特徴量を畳み込み演算した結果を示し、
前記プーリング層の各ユニットは、当該プーリング層のユニット数に応じた数の前記隠れ層のユニットと結合しており、結合している前記隠れ層のユニットのうち最大値が伝搬され、
前記出力層の各ユニットは、異なる種類の音響イベントに対応しており、前記プーリング層の全てのユニットと、対応する前記音響イベントの事後確率を算出するためのそれぞれの重みにより結合している、
ことを特徴とする請求項1または請求項2のいずれか1項に記載の音声認識装置。 - 前記音響特徴量は、時間周波数領域の特徴量である、
ことを特徴とする請求項1から請求項3のいずれか1項に記載の音声認識装置。 - コンピュータを、
音声データを音声認識し、音声認識結果の発話内容を示す文字列のデータを出力する音声認識手段と、
前記音声データから得られた音響特徴量に基づいて音響イベントの事後確率を計算し、計算された前記事後確率に基づいて検出した音響イベントを表す文字列のデータを出力する音響イベント認識手段と、
前記音声認識手段が出力した前記発話内容の文字列のデータと、前記音響イベント認識手段が出力した前記音響イベントを表す文字列のデータとを修正端末に表示させ、表示させた中から指定された前記発話内容の文字列における注釈挿入位置と、表示させた中から選択された前記音響イベントを表す文字列とを示す注釈挿入指示を前記修正端末から受信し、受信した前記注釈挿入指示に従って前記発話内容を示す文字列のデータに前記音響イベントを表す文字列のデータを挿入した注釈付き字幕データを生成する認識結果修正手段と、
を具備する音声認識装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014033024A JP6327745B2 (ja) | 2014-02-24 | 2014-02-24 | 音声認識装置、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014033024A JP6327745B2 (ja) | 2014-02-24 | 2014-02-24 | 音声認識装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015158582A true JP2015158582A (ja) | 2015-09-03 |
JP6327745B2 JP6327745B2 (ja) | 2018-05-23 |
Family
ID=54182614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014033024A Active JP6327745B2 (ja) | 2014-02-24 | 2014-02-24 | 音声認識装置、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6327745B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015212731A (ja) * | 2014-05-01 | 2015-11-26 | 日本放送協会 | 音響イベント認識装置、及びプログラム |
KR20180106619A (ko) * | 2017-03-21 | 2018-10-01 | 한국전자통신연구원 | 호출어 검출을 위한 심층 신경망 구축 방법 |
CN112349298A (zh) * | 2019-08-09 | 2021-02-09 | 阿里巴巴集团控股有限公司 | 声音事件识别方法、装置、设备和存储介质 |
US11003954B2 (en) | 2016-01-19 | 2021-05-11 | Nec Corporation | Information processing device, information processing method, and recording medium |
US11176943B2 (en) | 2017-09-21 | 2021-11-16 | Kabushiki Kaisha Toshiba | Voice recognition device, voice recognition method, and computer program product |
WO2022254909A1 (ja) * | 2021-06-01 | 2022-12-08 | 株式会社Nttドコモ | 音声認識装置 |
JP7516900B2 (ja) | 2019-09-02 | 2024-07-17 | 富士通株式会社 | 音声イベントの認識装置及び方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03111898A (ja) * | 1989-09-26 | 1991-05-13 | Sekisui Chem Co Ltd | 音声検出方式 |
JP2001060192A (ja) * | 1999-08-20 | 2001-03-06 | Nippon Hoso Kyokai <Nhk> | 文字データ修正装置および記憶媒体 |
JP2003018462A (ja) * | 2001-06-28 | 2003-01-17 | Canon Inc | 文字挿入装置および文字挿入方法 |
JP2004226910A (ja) * | 2003-01-27 | 2004-08-12 | Nippon Hoso Kyokai <Nhk> | 音声認識誤り修正装置、音声認識誤り修正方法および音声認識誤り修正プログラム |
JP2005123984A (ja) * | 2003-10-17 | 2005-05-12 | Sony Corp | 情報処理装置、プログラム、および情報処理方法 |
JP2010055030A (ja) * | 2008-08-29 | 2010-03-11 | Nippon Hoso Kyokai <Nhk> | 音響処理装置およびプログラム |
JP2012226220A (ja) * | 2011-04-21 | 2012-11-15 | Ntt Docomo Inc | 音声認識装置、音声認識方法及び音声認識プログラム |
-
2014
- 2014-02-24 JP JP2014033024A patent/JP6327745B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03111898A (ja) * | 1989-09-26 | 1991-05-13 | Sekisui Chem Co Ltd | 音声検出方式 |
JP2001060192A (ja) * | 1999-08-20 | 2001-03-06 | Nippon Hoso Kyokai <Nhk> | 文字データ修正装置および記憶媒体 |
JP2003018462A (ja) * | 2001-06-28 | 2003-01-17 | Canon Inc | 文字挿入装置および文字挿入方法 |
JP2004226910A (ja) * | 2003-01-27 | 2004-08-12 | Nippon Hoso Kyokai <Nhk> | 音声認識誤り修正装置、音声認識誤り修正方法および音声認識誤り修正プログラム |
JP2005123984A (ja) * | 2003-10-17 | 2005-05-12 | Sony Corp | 情報処理装置、プログラム、および情報処理方法 |
JP2010055030A (ja) * | 2008-08-29 | 2010-03-11 | Nippon Hoso Kyokai <Nhk> | 音響処理装置およびプログラム |
JP2012226220A (ja) * | 2011-04-21 | 2012-11-15 | Ntt Docomo Inc | 音声認識装置、音声認識方法及び音声認識プログラム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015212731A (ja) * | 2014-05-01 | 2015-11-26 | 日本放送協会 | 音響イベント認識装置、及びプログラム |
US11003954B2 (en) | 2016-01-19 | 2021-05-11 | Nec Corporation | Information processing device, information processing method, and recording medium |
KR20180106619A (ko) * | 2017-03-21 | 2018-10-01 | 한국전자통신연구원 | 호출어 검출을 위한 심층 신경망 구축 방법 |
KR102158766B1 (ko) * | 2017-03-21 | 2020-09-22 | 한국전자통신연구원 | 호출어 검출을 위한 심층 신경망 구축 방법 |
US11176943B2 (en) | 2017-09-21 | 2021-11-16 | Kabushiki Kaisha Toshiba | Voice recognition device, voice recognition method, and computer program product |
CN112349298A (zh) * | 2019-08-09 | 2021-02-09 | 阿里巴巴集团控股有限公司 | 声音事件识别方法、装置、设备和存储介质 |
JP7516900B2 (ja) | 2019-09-02 | 2024-07-17 | 富士通株式会社 | 音声イベントの認識装置及び方法 |
WO2022254909A1 (ja) * | 2021-06-01 | 2022-12-08 | 株式会社Nttドコモ | 音声認識装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6327745B2 (ja) | 2018-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6327745B2 (ja) | 音声認識装置、及びプログラム | |
EP3469592B1 (en) | Emotional text-to-speech learning system | |
JP3724649B2 (ja) | 音声認識用辞書作成装置および音声認識装置 | |
JP5104762B2 (ja) | コンテンツ要約システムと方法とプログラム | |
US20120016671A1 (en) | Tool and method for enhanced human machine collaboration for rapid and accurate transcriptions | |
JP4757599B2 (ja) | 音声認識システムと音声認識方法およびプログラム | |
US7054817B2 (en) | User interface for speech model generation and testing | |
CN110740275B (zh) | 一种非线性编辑*** | |
US20170287465A1 (en) | Speech Recognition and Text-to-Speech Learning System | |
WO2006054724A1 (ja) | 音声認識装置及び方法ならびにプログラム | |
US10553206B2 (en) | Voice keyword detection apparatus and voice keyword detection method | |
JP6122792B2 (ja) | ロボット制御装置、ロボット制御方法及びロボット制御プログラム | |
KR20120038198A (ko) | 음성 인식 장치 및 방법 | |
JP2012043000A (ja) | 検索装置、検索方法、及び、プログラム | |
JP2012181358A (ja) | テキスト表示時間決定装置、テキスト表示システム、方法およびプログラム | |
CN110781649A (zh) | 一种字幕编辑方法、装置及计算机存储介质、电子设备 | |
JP7101057B2 (ja) | 言語モデル学習装置およびそのプログラム、ならびに、単語推定装置およびそのプログラム | |
JP2011186143A (ja) | ユーザ挙動を学習する音声合成装置、音声合成方法およびそのためのプログラム | |
JP5396530B2 (ja) | 音声認識装置および音声認識方法 | |
JP5160594B2 (ja) | 音声認識装置および音声認識方法 | |
JP5273844B2 (ja) | 字幕ずれ推定装置、字幕ずれ補正装置、再生装置および放送装置 | |
JP7326931B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP2013050605A (ja) | 言語モデル切替装置およびそのプログラム | |
JP4839291B2 (ja) | 音声認識装置およびコンピュータプログラム | |
JP2013088488A (ja) | 音声検索装置、音声検索方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180320 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6327745 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |