JP7495220B2 - 音声認識装置、音声認識方法、および、音声認識プログラム - Google Patents

音声認識装置、音声認識方法、および、音声認識プログラム Download PDF

Info

Publication number
JP7495220B2
JP7495220B2 JP2019207512A JP2019207512A JP7495220B2 JP 7495220 B2 JP7495220 B2 JP 7495220B2 JP 2019207512 A JP2019207512 A JP 2019207512A JP 2019207512 A JP2019207512 A JP 2019207512A JP 7495220 B2 JP7495220 B2 JP 7495220B2
Authority
JP
Japan
Prior art keywords
speech
information
utterance
user
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019207512A
Other languages
English (en)
Other versions
JP2021081527A (ja
Inventor
光洋 高波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2019207512A priority Critical patent/JP7495220B2/ja
Publication of JP2021081527A publication Critical patent/JP2021081527A/ja
Application granted granted Critical
Publication of JP7495220B2 publication Critical patent/JP7495220B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、音声認識装置、音声認識方法、および、音声認識プログラムに関する。
技術革新の進歩により、入力された音声をテキストに変換する技術等の精度も向上し、コミュニケーション手段の拡張性が高まっている。
特表2012-510088号公報 特開2019-60921号公報 特開2012-003162号公報
しかし、音声入力については、入力する際の環境への依存度が高く、必要なコミュニケーションに支障をきたす場合がある。例えば、1.公共の場所等、ユーザが大きな声を出せない環境下での音声入力、2.風邪等の体調不良時や聞き取りにくい声質のユーザによる音声入力、3.幹線道路、イベント会場等、周囲の音が大きい場所での音声入力、4.発声障がい等を持つユーザによる音声入力等が行われると、入力された音声を精度よく認識できない場合がある。その結果、高度なコミュニケーションツールを活用できないケースが存在する。
そこで、本発明は、前記した問題を解決し、音声の認識精度を向上させることを課題とする。
前記した課題を解決するため、本発明は、ユーザがささやき声で発話するときの前記ユーザの口の動きを示す情報および前記ユーザの音声情報を含む発話情報を取得する第1の取得部と、前記第1の取得部により取得された発話情報と当該発話情報の示す発話内容とを用いた学習により作成されたモデルを用いて、認識の対象となる発話情報を入力として、前記発話情報の示す発話内容の認識結果を出力する出力部と、を備えることを特徴とする。
本発明によれば、音声の認識精度を向上させることができる。
図1は、読話装置を含むシステムの構成例を示す図である。 図2は、システムの概要を説明する図である。 図3は、読話装置の構成例を示す図である。 図4は、端末装置の構成例を示す図である。 図5は、読話装置の処理手順の例を示すフローチャートである。 図6は、システムの処理手順の例を示すシーケンス図である。 図7は、音声認識プログラムを実行するコンピュータの例を示す図である。
以下、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。本発明は、以下に説明する実施形態に限定されない。
図1および図2を用いて本実施形態の読話装置(音声認識装置)10を含むシステムの概要を説明する。システムは、例えば、図1に示すように、読話装置10とユーザの端末装置20とを備える。読話装置10は、端末装置20から取得した、ユーザがささやき声で発話するときの口の動きと音声とに基づき、ユーザがどのような発話をしたかを認識する。そして、読話装置10は、その認識結果(例えば、テキスト情報)を端末装置20へ送信する。なお、以下の説明において、ささやき声とは、ユーザが声帯を振動させずに発した音声(無声音)であるものとする。
端末装置20は、携帯電話機や、スマートフォン、タブレット端末、パーソナルコンピュータ等である。端末装置20と読話装置10とは、インターネット等のネットワークを介して通信可能に接続される。なお、システムに設置される端末装置20および読話装置10の数は、図2に示す数に限定されない。
次に、図2を用いてシステムの概要を説明する。例えば、まず、端末装置20は、カメラ等によりユーザがささやき声で発話するときの口の輪郭の各座標間の変化を取得し、また、マイク等によりささやき声の音声波形を取得する。次に、端末装置20は、例えば、取得した口の輪郭の変化を示す情報(読話情報)と、ささやき声の音声波形を示す情報(音声情報)とを多重化した多重化デジタル信号を作成し、読話装置10へ送信する。読話装置10は、端末装置20から送信された多重化デジタル信号に基づき、ユーザの発話内容を識別する。これにより、読話装置10は、読話情報のみ、あるいは音声情報のみではユーザの発話内容が識別(認識)できないような場合であっても、ユーザの発話内容を識別しやすくすることができる。例えば、読話装置10は、上記の音声情報を用いることにより、読話情報のみでは識別が困難である、発話における子音、単語、文節等の区切りを識別できる。その結果、読話装置10は、ユーザの発話内容の識別精度を向上させることができる。
また、読話装置10は、ユーザがささやき声で発話するときの読話情報および音声情報の学習を行い、その学習結果を用いて、ユーザの発話内容を識別する。これにより、ユーザの発話内容の識別精度をさらに向上させることができる。例えば、読話情報と音声情報との組み合わせによってもユーザの発話内容が識別できないような場合であっても、上記の学習結果を用いることで、ユーザの発話内容を識別しやすくすることができる。
[読話装置]
次に、図3を用いて、読話装置10の構成例を説明する。図3に示すように、読話装置10は、通信部11と、記憶部12と、制御部13とを有する。
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークと有線または無線で接続され、端末装置20との間で情報の送受信を行う。
記憶部12は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、制御部13が各種処理を行う際に参照する情報や、各種処理により作成された情報を記憶する。例えば、記憶部12は、学習部134により学習(作成)されたモデルを記憶する。このモデルは、端末装置20のユーザごとに作成される。モデルの詳細については後記する。
制御部13は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、読話装置10内部の記憶装置に記憶されている各種プログラム(音声認識プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。
制御部13は、読話処理部131と、音声テキスト変換部(テキスト変換部)132とを備える。
読話処理部131は、ユーザの発話時におけるユーザの口の動きを示す情報および当該ユーザのささやき声の音声情報(これらの情報をまとめて、「発話情報」と呼ぶ)に基づき、当該ユーザの発話内容を認識する。例えば、読話処理部131は、ユーザの発話情報に基づき当該ユーザの発話内容を示す音声データを生成する。そして、読話処理部131は、生成した音声データを音声テキスト変換部132へ出力する。音声テキスト変換部132は、読話処理部131から出力された音声データをテキスト情報に変換する。
読話処理部131について詳細に説明する。読話処理部131は、発話情報取得部(第1の取得部)133と、学習部134と、出力処理部(出力部)135と、修正情報取得部(第2の取得部)136とを備える。
発話情報取得部133は、端末装置20からユーザの発話情報を取得する。例えば、発話情報取得部133は、端末装置20からユーザが初回設定用のテキストを発話したときの発話情報や、認識の対象となるユーザの発話情報を取得する。
学習部134は、発話情報取得部133により取得されたユーザの発話情報と、当該発話情報の示す発話内容とを用いた学習を行う。例えば、学習部134は、ユーザの発話情報と当該発話情報の示す発話内容とを学習し、当該ユーザの発話情報の示す発話内容の認識結果を出力するためのモデルを作成する。
一例を挙げる。例えば、学習部134は、まず、発話情報取得部133からユーザが初回設定用のテキストを読み上げたときの発話情報と、当該初回設定用のテキストの内容とを対応付けた情報をモデルの初期情報として登録する。
その後、修正情報取得部136(後記)が、端末装置20から初期情報の登録後のモデルを用いた発話内容の認識結果に関する修正情報を受信した場合、学習部134はその修正情報に基づき当該ユーザのモデルを修正する。また、修正情報取得部136が、端末装置20から、上記の修正後のユーザのモデルを用いた発話内容の認識結果に関する修正情報を受信した場合、学習部134はその修正情報に基づき当該ユーザのモデルを修正する。このような処理を繰り返すことにより、学習部134は、ユーザの発話内容を精度よく認識可能なモデルを作成することができる。
なお、学習部134が、ユーザの発話情報に基づく学習を行う際、着目している語の前後の語および音声を用いて同音異義語を学習する。例えば、「ツール」、「ルーツ」、「クール」という語を発音するときのユーザの口の動きはほぼ同じである。よって、例えば、学習部134は、以下の文における「ツール」、「ルーツ」、「クール」という語の前後の言葉および音声を用いて同音異義語を学習する。
・日本人が発明するツールは優れもの
・日本人のルーツは縄文人と弥生人
・日本人の使うものはどれもクールだ
このようにすることで学習部134は、ユーザが発話する語のうち同音異義語についても精度よく認識可能なモデルを作成することができる。
出力処理部135は、認識の対象となるユーザの発話情報を入力として、学習部134による学習結果(例えば、上記のモデル)を用いて当該ユーザの発話情報の示す発話内容の認識結果を出力する。例えば、出力処理部135は、認識の対象となるユーザの発話情報を入力として、上記のモデルを用いて当該ユーザの発話内容を示す音声データを生成し、音声テキスト変換部132へ出力する。その後、出力処理部135は、音声テキスト変換部132から当該音声データのテキスト情報を受け取ると、当該テキスト情報を当該ユーザの端末装置20へ送信する。
修正情報取得部136は、端末装置20から、ユーザの発話内容の認識結果に関する修正情報を取得する。例えば、修正情報取得部136は、端末装置20から、ユーザの発話内容を示すテキストデータに関する修正情報を受信する。そして、修正情報取得部136は、当該修正情報を学習部134へ出力する。
[端末装置]
次に、図4を用いて、端末装置20の構成例を説明する。図4に示すように、端末装置20は、通信部21と、記憶部22と、マイク23と、カメラ24と、入力部25と、出力部26と、制御部27とを有する。
通信部21は、ネットワークに通信可能に接続された読話装置10との間で通信するNICなどのインターフェイスである。
記憶部22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
マイク23は、音声を取得する。例えば、マイク23は、ユーザのささやき声で発話する際の音声を取得する。カメラ24は、画像(動画または静止画)を撮影する。例えば、カメラ24は、ユーザがささやき声で発話する際の口の動きの画像を撮影する。
入力部25は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部25は、キーボードやマウスや操作キー等によって実現される。出力部26は、各種情報を表示するための表示装置である。例えば、出力部26は、液晶ディスプレイ等によって実現される。なお、端末装置20にタッチパネルが採用された場合には、入力部25と出力部26とは一体化される。
制御部27は、コントローラであり、例えば、CPUやMPU等によって、端末装置20内部の記憶装置に記憶されている各種プログラム(読話プログラム)がRAMを作業領域として実行されることにより実現される。
制御部27は、発話受付部271と、発話情報送信部272と、テキスト受信部273と、表示部274と、修正情報送信部275とを有する。
発話受付部271は、カメラ24により発話時におけるユーザの口の動きを示す情報を取得し、また、マイク23により発話時におけるユーザの音声情報を取得する。
発話情報送信部272は、発話受付部271により取得された、発話時におけるユーザの口の動きを示す情報および当該ユーザの音声情報を含む発話情報を作成し、読話装置10へ送信する。例えば、発話情報送信部272は、発話受付部271により取得された、発話時におけるユーザの口の動きを示す情報および当該ユーザの音声情報をデジタル信号に変換し、当該デジタル信号を発話情報として読話装置10へ送信する。
テキスト受信部273は、読話装置10から、ユーザの発話内容を示すテキスト情報を受信する。表示部274は、種々の情報を出力部26に表示する。例えば、表示部274は、初回設定用のテキスト情報を出力部26に表示したり、テキスト受信部273が受信したテキスト情報を出力部26に表示したりする。
例えば、端末装置20の読話プログラムが起動されると、表示部274は、ユーザに初回設定用のテキスト情報をささやき声で読み上げるよう促すメッセージを出力部26に表示する。そして、ユーザが当該テキスト情報をささやき声で読み上げると、発話受付部271は、カメラ24により読み上げ時におけるユーザの口の動きを示す情報を取得し、また、マイク23により読み上げ時における音声情報を取得する。そして、発話情報送信部272は、発話受付部271により取得された、初回設定用のテキストの読み上げ時におけるユーザの口の動きを示す情報および音声情報を含む発話情報を作成し、読話装置10へ送信する。
修正情報送信部275は、読話装置10から受信したテキスト情報の修正情報を読話装置10へ送信する。例えば、表示部274が、読話装置10から受信したテキスト情報を出力部26に表示した後、入力部25から当該テキスト情報の修正情報を受け付けた場合、修正情報送信部275は当該修正情報を読話装置10へ送信する。
[処理手順]
次に、図5を用いて、読話装置10の処理手順の例を説明する。
なお、図5において説明を省略しているが、読話装置10は、例えば、端末装置20に対しユーザ認証等を行うことにより、アクセス元の端末装置20がどのユーザの端末装置20かを識別するものとする。これにより、読話装置10は、ユーザごとにモデルを管理することができる。
まず、読話装置10の発話情報取得部133は、端末装置20から初回設定用のユーザの発話情報を取得する(S1)。例えば、発話情報取得部133は、ユーザが初回設定用のテキストをささやき声で読み上げたときの発話情報を取得する。そして、学習部134は、S1で取得した初回設定用のユーザの発話情報をモデルの初期情報として登録する(S2:初回設定用のユーザの発話情報の登録)。例えば、学習部134は、ユーザが初回設定用のテキストをささやき声で読み上げたときの発話情報と、初回設定用のテキストの内容とを対応付けた情報をモデルの初期情報として登録する。
S2の後、読話装置10の発話情報取得部133が、端末装置20から発話内容の認識の対象となるユーザの発話情報を取得すると(S3)、出力処理部135は当該ユーザのモデルを用いて当該発話情報の示す発話内容の認識結果を出力する(S4)。例えば、出力処理部135は、端末装置20から発話内容の認識の対象となるユーザの発話情報を取得すると、当該ユーザのモデルを用いて当該発話情報の示す発話内容を示す音声データを生成する。そして、出力処理部135は、生成した音声データを音声テキスト変換部132へ出力する。その後、出力処理部135は、音声テキスト変換部132から当該音声データのテキスト情報を受け取る。そして、出力処理部135は、受け取ったテキスト情報を当該ユーザの端末装置20へ送信する。
その後、修正情報取得部136が、当該ユーザの端末装置20から、S4で出力した認識結果の修正情報を取得した場合(S5でYes)、学習部134は、当該修正情報に基づき、当該ユーザのモデルの修正を行い(S6)、S3へ戻る。一方、修正情報取得部136が、当該ユーザの端末装置20から、S4で出力した認識結果の修正情報を取得しなかった場合(S5でNo)、S3へ戻る。
読話装置10が上記のS3~S6の処理を繰り返すことにより、ユーザがささやき声で発話するときに口の動きおよび音声の特徴を学習することができる。その結果、読話装置10は、ユーザのささやき声による発話の発話内容を精度よく認識することができる。
[処理手順の例]
次に、図6を用いて、読話装置10を含むシステムの処理手順の例を説明する。処理手順は、例えば、(1)初期情報登録、(2)音声認識サービス利用、(3)認識結果の活用のフェーズに分けられる。
(1)初期情報登録
例えば、端末装置20の読話アプリケーションが起動されると、端末装置20は初回設定用のテキスト文を出力部26に表示する。そして、端末装置20のユーザは、当該端末装置20に向かって初回設定用のテキスト文をささやき声で読み上げる(S11)。このとき発話受付部271は、カメラ24により初回設定用のテキスト文の読み上げ時におけるユーザの口の動きを示す情報を取得し、また、マイク23により初回設定用のテキスト文の読み上げ時におけるユーザの音声情報を取得する。その後、発話情報送信部272は、取得した口の動きを示す情報および音声情報をデジタル信号に変換して、読話装置10へ送信する(S12)。
S12の後、読話装置10の発話情報取得部133が、端末装置20からデジタル信号を受信すると、学習部134は、受信したデジタル信号を初回設定用のテキストと照合し、モデルに登録する(S13)。つまり、学習部134は、ユーザの発話の初期情報をモエルに登録する。
(2)音声認識サービス利用
次に、ユーザは端末装置20に向けてささやき声で発話を行う(S21)。そして、発話受付部271は、カメラ24により当該発話におけるユーザの口の動きを示す情報を取得し、また、マイク23により当該発話におけるユーザの音声情報を取得する。その後、発話情報送信部272は、取得した口の動きを示す情報および音声情報をデジタル信号に変換して、読話装置10へ送信する(S22)。
S22の後、読話装置10の発話情報取得部133が、ユーザの端末装置20から上記のデジタル信号を受信すると、出力処理部135は、当該ユーザの初期情報が登録されたモデルを用いて、受信したデジタル信号を音声信号に変換し、音声テキスト変換部132へ出力する(S23)。そして、音声テキスト変換部132は、出力された音声信号をテキスト情報に変換し、出力処理部135へ出力する(S24:音声→テキスト変換)。出力処理部135は、S24で変換されたテキスト情報を当該ユーザの端末装置20へ送信する(S25)。
S25の後、端末装置20のテキスト受信部273が、読話装置10からテキスト情報を受信すると、表示部274は、受信したテキスト情報を出力部26に表示する(S26:テキスト表示)。次に、ユーザは、端末装置20に表示されたテキスト情報を確認し(S27)、当該テキスト情報に修正が必要な部分があれば、入力部25等によりテキスト情報の修正情報を入力する。そして、修正情報送信部275は、入力されたテキスト情報の修正情報を読話装置10へ送信する(S28:テキスト修正)。その後、読話装置10の修正情報取得部136が、ユーザの端末装置20からテキスト情報の修正情報を受信すると、学習部134は当該修正情報を用いて、当該ユーザのモデルの修正を行う(S29:修正情報を用いたモデルの修正)。
なお、ここでは説明を省略しているが、S29の後、システムが再度当該ユーザの発話を受け付けた場合、読話装置10は、修正後の当該ユーザのモデルに基づき、再度S23以降の処理を実行する。上記の処理を繰り返すことで、読話装置10は、ユーザにカスタマイズされた精度の高い変換を実現するモデルを作成することができる。
なお、S27においてユーザが端末装置20に表示されたテキスト情報を確認し、修正の必要な部分がなければ、修正の必要がない旨を端末装置20に入力してもよい。その場合、端末装置20は、当該テキスト情報に修正の必要がない旨の情報を読話装置10へ送信する。
(3)認識結果の活用
また、端末装置20は、読話装置10から受信したテキスト情報(発話内容の認識結果)を他のアプリケーションやサービスに活用してもよい。例えば、端末装置20は、受信したテキスト情報を用いてメール、チャット等のコミュニケーションアプリへのテキスト連携を行ってもよい。
[その他]
また、上記の実施形態において読話装置10は、ユーザの発話内容をテキスト情報に変換したものを端末装置20へ送信することとしたが、これに限定されない。例えば、読話装置10はユーザの発話内容を示す音声データを端末装置20へ送信してもよい。
また、上記の実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、読話装置10の機能を端末装置20に装備してもよい。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
[プログラム]
また、上記の実施形態で述べた読話装置10の機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置を読話装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータ、ラック搭載型のサーバコンピュータ等が含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)等がその範疇に含まれる。また、読話装置10を、クラウドサーバに実装してもよい。
図7を用いて、上記のプログラム(音声認識プログラム)を実行するコンピュータの一例を説明する。図7に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図7に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、上記の音声認識プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 読話装置
11,21 通信部
12,22 記憶部
13,27 制御部
20 端末装置
23 マイク
24 カメラ
25 入力部
26 出力部
131 読話処理部
132 音声テキスト変換部
133 発話情報取得部
134 学習部
135 出力処理部
136 修正情報取得部
271 発話受付部
272 発話情報送信部
273 テキスト受信部
274 表示部
275 修正情報送信部

Claims (6)

  1. ユーザに所定の発話内容をささやき声で発話するよう促すメッセージを出力する第1の出力部と
    前記ユーザがささやき声で前記所定の発話内容を発話するときの前記ユーザの口の動きを示す情報および前記ユーザの音声情報を含む発話情報を取得する第1の取得部と、
    前記第1の取得部により取得された発話情報と当該発話情報の示す発話内容とを用いた学習により、前記発話情報の示す発話内容の認識結果を出力するモデルを作成する学習部と
    前記作成されたモデルを用いて、認識の対象となる発話情報を入力として、前記発話情報の示す発話内容の認識結果を出力する第2の出力部と、を備え
    前記学習部は、前記所定の発話内容に同音異義語が含まれる場合には、前記発話情報と前記発話内容とを用いた学習の際に、前記同音異義語の前後の言葉と音声情報とを用いた、前記所定の発話内容に含まれる前記同音異義語の学習により、前記モデルを作成する
    ことを特徴とする音声認識装置。
  2. 前記発話内容の認識結果をテキスト情報に変換するテキスト変換部をさらに備え、
    前記第2の出力部は、
    前記テキスト変換部により変換された前記発話内容の認識結果のテキスト情報を出力する
    ことを特徴とする請求項1に記載の音声認識装置。
  3. 前記発話内容の認識結果は、
    前記発話内容の音声データであり、
    前記テキスト変換部は、
    前記発話内容の音声データをテキスト情報に変換する
    ことを特徴とする請求項2に記載の音声認識装置。
  4. 前記音声認識装置は、
    前記ユーザにより入力された、前記発話内容の認識結果のテキスト情報の修正情報を取得する第2の取得部をさらに備え、
    前記学習部は、
    前記第2の取得部により取得された、前記発話内容の認識結果のテキスト情報の修正情報を用いて前記モデルを修正する
    ことを特徴とする請求項2に記載の音声認識装置。
  5. 音声認識装置により実行される音声認識方法であって、
    ユーザに所定の発話内容をささやき声で発話するよう促すメッセージを出力するステップと、
    前記ユーザがささやき声で前記所定の発話内容を発話するときの前記ユーザの口の動きを示す情報および前記ユーザの音声情報を含む発話情報を取得するステップと、
    前記取得した発話情報と当該発話情報の示す発話内容とを用いた学習により、前記発話情報の示す発話内容の認識結果を出力するモデルを作成するステップと、
    前記作成したモデルを用いて、認識の対象となる発話情報を入力として、前記発話情報の示す発話内容の認識結果を出力するステップと、を含み、
    前記作成するステップは、前記所定の発話内容に同音異義語が含まれる場合には、前記発話情報と前記発話内容とを用いた学習の際に、前記同音異義語の前後の言葉と音声情報とを用いた、前記所定の発話内容に含まれる前記同音異義語の学習により、前記モデルを作成する
    ことを特徴とする音声認識方法。
  6. ユーザに所定の発話内容をささやき声で発話するよう促すメッセージを出力するステップと、
    前記ユーザがささやき声で前記所定の発話内容を発話するときの前記ユーザの口の動きを示す情報および前記ユーザの音声情報を含む発話情報を取得するステップと、
    前記取得した発話情報と当該発話情報の示す発話内容とを用いた学習により、前記発話情報の示す発話内容の認識結果を出力するモデルを作成するステップと、
    前記作成したモデルを用いて、認識の対象となる発話情報を入力として、前記発話情報の示す発話内容の認識結果を出力するステップと、をコンピュータに実行させ、
    前記作成するステップは、前記所定の発話内容に同音異義語が含まれる場合には、前記発話情報と前記発話内容とを用いた学習の際に、前記同音異義語の前後の言葉と音声情報とを用いた、前記所定の発話内容に含まれる前記同音異義語の学習により、前記モデルを作成する
    ことを特徴とする音声認識プログラム。
JP2019207512A 2019-11-15 2019-11-15 音声認識装置、音声認識方法、および、音声認識プログラム Active JP7495220B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019207512A JP7495220B2 (ja) 2019-11-15 2019-11-15 音声認識装置、音声認識方法、および、音声認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019207512A JP7495220B2 (ja) 2019-11-15 2019-11-15 音声認識装置、音声認識方法、および、音声認識プログラム

Publications (2)

Publication Number Publication Date
JP2021081527A JP2021081527A (ja) 2021-05-27
JP7495220B2 true JP7495220B2 (ja) 2024-06-04

Family

ID=75965003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019207512A Active JP7495220B2 (ja) 2019-11-15 2019-11-15 音声認識装置、音声認識方法、および、音声認識プログラム

Country Status (1)

Country Link
JP (1) JP7495220B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142477A (ja) 1999-11-12 2001-05-25 Matsushita Electric Ind Co Ltd 有声音形成装置とそれを用いた音声認識装置
JP2003255993A (ja) 2002-03-04 2003-09-10 Ntt Docomo Inc 音声認識システム、音声認識方法、音声認識プログラム、音声合成システム、音声合成方法、音声合成プログラム
JP2009506386A (ja) 2005-08-31 2009-02-12 マイクロソフト コーポレーション 対話式ユーザチュートリアルへの、音声エンジン訓練の組込み
CN108520741A (zh) 2018-04-12 2018-09-11 科大讯飞股份有限公司 一种耳语音恢复方法、装置、设备及可读存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3893763B2 (ja) * 1998-08-17 2007-03-14 富士ゼロックス株式会社 音声検出装置
JP2010048890A (ja) * 2008-08-19 2010-03-04 Ntt Docomo Inc クライアント装置、認識結果フィードバック方法、認識結果フィードバックプログラム、サーバ装置、音声認識のモデル更新方法、音声認識のモデル更新プログラム、音声認識システム、音声認識方法、音声認識プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142477A (ja) 1999-11-12 2001-05-25 Matsushita Electric Ind Co Ltd 有声音形成装置とそれを用いた音声認識装置
JP2003255993A (ja) 2002-03-04 2003-09-10 Ntt Docomo Inc 音声認識システム、音声認識方法、音声認識プログラム、音声合成システム、音声合成方法、音声合成プログラム
JP2009506386A (ja) 2005-08-31 2009-02-12 マイクロソフト コーポレーション 対話式ユーザチュートリアルへの、音声エンジン訓練の組込み
CN108520741A (zh) 2018-04-12 2018-09-11 科大讯飞股份有限公司 一种耳语音恢复方法、装置、设备及可读存储介质

Also Published As

Publication number Publication date
JP2021081527A (ja) 2021-05-27

Similar Documents

Publication Publication Date Title
CN111369971B (zh) 语音合成方法、装置、存储介质和电子设备
JP4271224B2 (ja) 音声翻訳装置、音声翻訳方法、音声翻訳プログラムおよびシステム
US8306819B2 (en) Enhanced automatic speech recognition using mapping between unsupervised and supervised speech model parameters trained on same acoustic training data
CN111899719A (zh) 用于生成音频的方法、装置、设备和介质
US10811005B2 (en) Adapting voice input processing based on voice input characteristics
EP3824462B1 (en) Electronic apparatus for processing user utterance and controlling method thereof
JP2017058673A (ja) 対話処理装置及び方法と知能型対話処理システム
EP2485212A1 (en) Speech translation system, first terminal device, speech recognition server device, translation server device, and speech synthesis server device
KR20210103002A (ko) 감정 정보 기반의 음성 합성 방법 및 장치
CN110197655B (zh) 用于合成语音的方法和装置
US20230206897A1 (en) Electronic apparatus and method for controlling thereof
KR20200080400A (ko) 페르소나에 기반하여 문장을 제공하는 방법 및 이를 지원하는 전자 장치
US20200194003A1 (en) Meeting minute output apparatus, and control program of meeting minute output apparatus
CN112513984A (zh) 电子设备及其控制方法
CN113205793B (zh) 音频生成方法、装置、存储介质及电子设备
CN111785247A (zh) 语音生成方法、装置、设备和计算机可读介质
US10866948B2 (en) Address book management apparatus using speech recognition, vehicle, system and method thereof
JP2020027132A (ja) 情報処理装置およびプログラム
EP1899955B1 (en) Speech dialog method and system
CN114495901A (zh) 语音合成方法、装置、存储介质及电子设备
US10529324B1 (en) Geographical based voice transcription
JP7495220B2 (ja) 音声認識装置、音声認識方法、および、音声認識プログラム
US20190304457A1 (en) Interaction device and program
KR20200056754A (ko) 개인화 립 리딩 모델 생성 방법 및 장치
CN113421571B (zh) 一种语音转换方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240523

R150 Certificate of patent or registration of utility model

Ref document number: 7495220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150