JP2010128015A - 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム - Google Patents

音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム Download PDF

Info

Publication number
JP2010128015A
JP2010128015A JP2008300021A JP2008300021A JP2010128015A JP 2010128015 A JP2010128015 A JP 2010128015A JP 2008300021 A JP2008300021 A JP 2008300021A JP 2008300021 A JP2008300021 A JP 2008300021A JP 2010128015 A JP2010128015 A JP 2010128015A
Authority
JP
Japan
Prior art keywords
recognition
utterance
voice
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008300021A
Other languages
English (en)
Inventor
Iko Terasawa
位好 寺澤
Kinichi Wada
錦一 和田
Hiroaki Sekiyama
博昭 関山
Toshiyuki Nanba
利行 難波
Keisuke Okamoto
圭介 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2008300021A priority Critical patent/JP2010128015A/ja
Publication of JP2010128015A publication Critical patent/JP2010128015A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】音声認識結果が誤認識か否かを判定する音声認識の誤認識判定装置を提供する。
【解決手段】音声認識の誤認識判定装置は、音声データと音声コマンド辞書21とに基いて音声コマンドを認識する音声認識部12と、音声認識部12による認識結果に対する応答処理を実行する認識結果応答部と、応答処理後一定時間内にユーザの顔画像データを取得する顔画像取得部15と、発声データを取得する発声データ取得部16と、顔画像取得部15により取得された顔画像データに基いて予め定めた表情及び頭部動作を画像認識する顔画像認識部17と、発声データ取得部16により取得された発声データと無意識発話辞書22とに基いて無意識発話を認識する無意識発話認識部18と、顔画像認識部17により予め定めた表情か頭部動作が認識された場合又は無意識発話認識部18により無意識発話が認識された場合に認識結果が誤認識と判定する誤認識判定部19とを備えている。
【選択図】図1

Description

本発明は、ユーザが発声した音声の認識が誤認識か否かを判定する音声認識の誤認識判定装置及び音声認識の誤認識判定プログラムに関する。
従来、様々な分野において、ユーザが発声した音声を認識し、その認識結果に応じて機器を動作させる音声認識装置が用いられている。このような音声認識装置では、音声認識が正しく行われないと、ユーザが意図していない誤認識による機器動作が行われ、ユーザは不快感を覚える場合がある。
このような場合に、音声認識が正しく行われなかったことを、誤認識による機器動作を取り消すための機器動作などのユーザの応答によって判定し、その際にユーザに不快感を与えない処置を講ずる音声認識装置(例えば、特許文献1参照。)が提案されている。
また、コマンド間違いなど、ユーザが誤操作を行った場合の無意識発話から誤操作を認識し、適切な応答を返す無意識発話による制御装置(例えば、特許文献2参照。)も提案されている。
特開2001−228894号公報 特開平5−165600号公報
しかしながら、特許文献1の音声認識装置では、音声認識の誤りをユーザの機器操作の反応によって判定している。従って、ユーザによる機器操作が行われた後に判定を行うため、取り消し作業などが煩わしくなる。さらに、ユーザによる取り消し機器操作が行われるまで判定を待つ必要があり、時間がかるという問題点もある。
また、特許文献2の無意識発話による制御装置では、ユーザ自身のエラーを対象としており、装置側のエラーへの対応は不十分である。また、無意識発話という音声だけを対象としており、エラーの検出精度にも問題点がある。
このように音声認識装置では、誤認識は避けることができない。通常ユーザは、自分が入力した音声と異なる結果が出力された場合(例えば、入力「アバトン」に対して、出力「甘党(あまとう)」)、無意識に何らかの反応を見せる。具体的には、入力と著しく結果が異なった場合の「笑い(苦笑)」や「驚き」、何度も誤認識して目的が達成できないときの「怒り」、「落胆」、「あきれ」、「悲しみ」などの表情を見せたりする。さらに、首をかしげたり、首を振ったり、のけぞったりする頭部のジェスチャ動作をしたり、「えっ」、「うそ」、「何で」などの発声を無意識にしてしまうことがある
本発明は、上記問題点を解決するために成されたものであり、ユーザ発話の音声認識結果が誤りである場合のユーザの反応に着目し、誤認識か否かを精度よく判定する音声認識の誤認識判定装置及び音声認識の誤認識判定プログラムを提供することを目的とする。
上記目的を達成するために、請求項1記載の音声認識の誤認識判定装置は、ユーザにより入力された音声データと、音声データに対応する音声コマンドを登録した音声コマンド辞書とに基づいて、入力された音声データに対応する音声コマンドを認識する音声コマンド認識手段と、前記音声コマンド認識手段による認識結果に対する応答処理を実行する認識結果応答手段と、前記認識結果応答手段による応答処理を実行した後、予め定めた時間内において、前記ユーザの顔画像データを取得する顔画像取得手段と、前記予め定めた時間内において、前記ユーザの発声データを取得する発声データ取得手段と、前記顔画像取得手段により取得された顔画像データに基づいて、予め定めた表情及び予め定めた頭部動作を画像認識する画像認識手段と、前記発声データ取得手段により取得された発声データと、発声データに対応する無意識発話を登録した無意識発話辞書とに基づいて、取得された発声データに対応する無意識発話を認識する無意識発話認識手段と、前記画像認識手段により前記予め定めた表情又は前記予め定めた頭部動作が認識された場合、又は、前記無意識発話認識手段により無意識発話が認識された場合に、前記音声コマンド認識手段による認識結果が誤認識と判定する誤認識判定手段と、を備えている。
請求項1記載の発明によれば、ユーザ発話の認識結果に対応した応答処理に対してユーザが見せる表情や頭部動作又は無意識発話に基づいて、音声認識結果の誤認識を判定することができる。
請求項2記載の音声認識の誤認識判定装置は、請求項1記載の音声認識の誤認識判定装置において、前記認識結果応答手段は、前記音声コマンド認識手段による認識結果を出力する認識結果出力手段、及び、前記音声コマンド認識手段による認識結果に対応して機器を動作させる機器動作手段の少なくとも何れか一方である。
請求項2記載の発明によれば、ユーザ発話の認識結果に対応した認識結果の出力又は機器動作に対してユーザが見せる反応に基づいて、音声認識結果の誤認識を判定することができる。
請求項3記載の音声認識の誤認識判定装置は、請求項1又は請求項2記載の音声認識の誤認識判定装置において、前記誤認識判定手段により前記音声コマンド認識手段による認識結果が誤認識と判定された場合に、前記機器動作手段による機器の動作を停止する機器動作制御手段を、更に備えている。
請求項3記載の発明によれば、ユーザ発話の認識結果が誤認識と判定された場合に、誤認識に基づく機器動作を停止することができる。
請求項4記載の音声認識の誤認識判定装置は、請求項1から請求項3の何れか1項記載の音声認識の誤認識判定装置において、前記予め定めた表情は笑い、驚き、怒り、落胆、あきれ、悲しみなどの前記音声コマンド認識手段が誤認識したときに前記ユーザが示す表情であり、前記予め定めた頭部動作は首かしげ、首振り、のけぞりなどの前記音声コマンド認識手段が誤認識したときに前記ユーザが示す動作である。
請求項4記載の発明によれば、ユーザ発話の認識結果に対応した応答処理に対して、ユーザが見せる表情及び頭部動作については、笑い、驚き、怒り、落胆、あきれ、悲しみなどの表情を見せたとき、又は首かしげ、首振り、のけぞりなどの頭部動作をしたときに認識結果が誤認識と判定することができる。
請求項5記載の音声認識の誤認識判定プログラムは、コンピュータを、請求項1から請求項4の何れか1項記載の音声認識の誤認識判定装置を構成する各手段として機能させる。
請求項5記載の発明によれば、ユーザ発話の認識結果に対応した応答処理に対してユーザが見せる表情や頭部動作又は無意識発話に基づいて、音声認識結果の誤認識を判定することができる。
請求項6記載の音声認識の誤認識判定プログラムは、コンピュータを、ユーザにより入力された音声データと、音声データに対応する音声コマンドを登録した音声コマンド辞書とに基づいて、入力された音声データに対応する音声コマンドを認識する音声コマンド認識手段、前記音声コマンド認識手段による認識結果に対する応答処理を実行する認識結果応答手段、前記認識結果応答手段による応答処理を実行した後、予め定めた時間内において、前記ユーザの顔画像データを取得する顔画像取得手段、前記予め定めた時間内において、前記ユーザの発声データを取得する発声データ取得手段、前記顔画像取得手段により取得された顔画像データに基づいて、予め定めた表情及び予め定めた頭部動作を画像認識する画像認識手段、前記発声データ取得手段により取得された発声データと、発声データに対応する無意識発話を登録した無意識発話辞書とに基づいて、取得された発声データに対応する無意識発話を認識する無意識発話認識手段、及び前記画像認識手段により前記予め定めた表情又は前記予め定めた頭部動作が認識された場合、又は、前記無意識発話認識手段により無意識発話が認識された場合に、前記音声コマンド認識手段による認識結果が誤認識と判定する誤認識判定手段、として機能させる。
請求項6記載の発明によれば、ユーザ発話の認識結果に対応した応答処理に対してユーザが見せる表情や頭部動作又は無意識発話に基づいて、音声認識結果の誤認識を判定することができる。
以上説明したように、本発明によれば、ユーザ発話の音声認識結果が誤りであるか否かを精度よく判定することができるという効果が得られる。
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。本実施の形態では、音声認識機能を持つ車両用カーナビゲーションシステム(以下、「ナビ」という。)に本発明に係る音声認識の誤認識判定装置を用いた場合の機器操作に関して説明する。なお、本発明は、上述の実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能である。
図1は、本発明の実施の形態に係る音声認識の誤認識判定装置の構成を示すブロック図である。同図に示すように、音声認識の誤認識判定装置は、音声データ入力部11と、音声認識部12と、コマンド実行部13と、認識結果出力部14と、顔画像取得部15と、発声データ取得部16と、顔画像認識部17と、無意識発話認識部18と、音声コマンド辞書21と、無意識発話辞書22と、を備えている。
音声データ入力部11は、マイクを含んで構成され、音声コマンド実行のために入力されるユーザの音声データを受理する。
音声認識部12は、音声データ入力部11により入力された音声データを音声コマンド辞書21を用いて音声認識する。
コマンド実行部13は、音声認識部12により認識された音声コマンドを実行して機器操作を行う。
認識結果出力部14は、スピーカを含んで構成され、音声認識部12により認識された音声コマンドに基づくメッセージをスピーカから音声出力する。また、認識結果出力部14は、メッセージを音声出力ではなく、ナビの地図表示画面に文字表示しても、或いは、両方同時に行ってもよい。
顔画像取得部15は、CCDカメラを含んで構成され、コマンド実行部13による音声コマンドの実行および認識結果出力部14によるメッセージの出力が行われた後の一定時間、ユーザの顔画像データを取得する。
発声データ取得部16は、マイクを含んで構成され、コマンド実行部13による音声コマンドの実行および認識結果出力部14によるメッセージの出力が行われた後の一定時間、ユーザが発声する音声データを取得する。
顔画像認識部17は、顔画像取得部15により取得されたユーザの顔画像データに対して画像認識を行い、「笑い」、「驚き」、「怒り」、「落胆」、「あきれ」、「悲しみ」などの表情、及び、「首かしげ」、「首振り」、「のけぞり」などの頭部ジェスチャの何れかが認識された場合に誤認識と判定する。
無意識発話認識部18は、発声データ取得部16により取得された発声データを音声コマンド辞書21及び無意識発話辞書22を用いて音声認識し、無意識発話辞書22に登録された単語が1つ以上認識された場合に誤認識と判定する。
誤認識判定部19は、顔画像認識部17及び無意識発話認識部18の判定結果に基づいて、音声認識部12による認識結果が誤認識であったか否かを判定する。本実施の形態では、誤認識判定部19は、顔画像認識部17及び無意識発話認識部18の何れか一方でも誤認識と判定した場合には誤認識と判定する。
音声コマンド辞書21は、ナビの音声コマンドとその読みとが対で登録された辞書である。図2は、音声コマンド辞書21の一例を示す。
無意識発話辞書22は、ユーザが発した音声コマンドが誤認識されたと分かったときに無意識に発すると考えられる発話とその読みとが対で登録された辞書である。無意識発話辞書22は、別途実施する音声認識実験などで音声入力に対し誤認識をわざと生じさせ、誤認識直後のユーザの発話を収集するなどして予め作成しておけばよい。図3は、無意識発話辞書22の一例を示す。
以上のように構成された音声認識の誤認識判定装置は、ユーザにより入力された音声コマンドの認識結果に対するユーザの反応に基づいて、認識結果が誤認識か否かを判定する。図4は、音声認識の誤認識判定装置の作用の流れを示すフローチャートである。
ステップ100では、音声データ入力部11が、ユーザがナビの操作のために発したコマンド発話を受理する。本実施例では、ナビの地図画面にコンビニエンスストアのアイコンを表示するために「コンビニ表示」と入力されたとする。
ステップ102では、音声認識部12が、音声データ入力部11が受理した音声データを音声コマンド辞書21を用いて音声認識する。本実施例では、音声認識部12が、入力された音声データに対し、音声コマンド辞書21に登録された音声コマンドの中から「2画面表示」と誤認識したとする。
ステップ104では、コマンド実行部13が音声認識部12により認識された音声コマンドを実行すると共に、認識結果出力部14が認識された音声コマンドに基づいてメッセージを出力する。本実施例では、コマンド実行部13は、認識結果に基づいて、ナビの地図画面表示を2画面分割する機器操作コマンドを実行する。また、認識結果出力部14は、認識結果に基づいて、「2画面表示にします」とスピーカを用いて音声出力する。認識結果出力部14による出力は、音声出力に限らず、ナビの画面に文字出力してもよい。
ステップ106では、コマンド実行部13による機器操作コマンドの実行及び認識結果出力部14にいる認識結果に基づくメッセージ出力がなされた後の一定時間において、顔画像取得部15がユーザの顔画像データを取得すると共に、発声データ取得部16がユーザが発声する音声データを取得する。顔画像データ及び音声データを取得する時間は、コマンド実行及びメッセージ出力により認識結果が誤認識と分かったときの反応を捉えるための時間として、本実施の形態では5秒とする。また、本実施例では、ユーザは「驚き」の表情をみせ、「何で」と発声したとする。
ステップ108では、顔画像認識部17が、顔画像取得部15が取得した顔画像データに対して画像認識を行い、「笑い」、「驚き」、「怒り」、「落胆」、「あきれ」「悲しみ」などの表情、及び、「首かしげ」、「首振り」、「のけぞり」などの頭部ジェスチャの何れか1つ以上が認識された場合に誤認識と判定する。本実施例では、驚きの表情が認識され、音声認識部12による認識結果が誤認識と判定される。
ここで、表情の認識方法は、公知の如何なる方法でもよいが、例えば文献1(特開2008−146318号「感情推定装置」)にあるような方法で行う。具体的には、予め認識対象とする各表情(笑い、驚き、怒り、落胆、あきれ、悲しみ、通常状態)をニューラルネットワークによって各表情の特徴量(表情マップ)を学習しておく。次に、ユーザ反応データとして顔画像取得部15により取得された顔画像を加工処理したデータと上記表情マップとの類似度を算出し、最も類似度の高いものを表情認識結果として採用する。
また、頭部ジェスチャの認識方法も公知の如何なる方法でもよいが、例えば文献2(「対話ロボットの動作に頑健な頭部ジェスチャ認識」、電子情報通信学会論文誌D Vol.J89-D No.7 pp.1514-1522)にあるような方法で行う。具体的には、予め対象とする頭部ジェスチャ(首かしげ、首振り、のけぞり、通常状態)の顔画像データを多数収集しておき、各ジェスチャに対する顔画像の特徴点(目尻位置、鼻位置など)をHMM(Hidden Marcov Model)を用いてモデル化する。次に、ユーザ反応データとして顔画像取得部15により取得された顔画像と前記HMMによるモデルとのマッチング度合いによって、頭部ジェスチャを決定する。
ステップ110では、無意識発話認識部18が、発声データ取得部16によりユーザの発声データが取得されたか否かを判定し、発声データが取得された場合にはステップ112に進み、発声データが取得されなかった場合にはステップ114に進む。
ステップ112では、無意識発話認識部18が、発声データ取得部16により取得されたユーザの発声データを音声コマンド辞書21及び無意識発話辞書22を用いて音声認識し、無意識発話辞書22に登録された単語が1つ以上認識された場合に誤認識と判定する。本実施例では、無意識発話認識部18が、上述の「何で」の発声に対し、音声コマンド「拡大」と認識したものとする。この場合、無意識発話は認識されなかったので、音声認識部12による認識結果が正しいと判定される。
ステップ114では、誤認識判定部19が、顔画像認識部17及び無意識発話認識部18の判定結果に基づいて、音声認識部12による認識結果が誤認識であったか否かを判定する。本実施例では、顔画像認識部17では誤認識と判定され、無意識発話認識部18では正しいと判定されたため、音声認識部12による認識結果は誤認識と判定される。
以上のように、本実施の形態に係る音声認識の誤認識判定装置は、音声入力に対する音声認識結果出力直後のユーザの反応から、認識結果が誤認識であるか否かを精度よく判定することができる。また、誤認識と判定した場合には、その後の対話処理をスムーズに進めることができる。
なお、本発明は、上述の実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能である。
例えば、本実施の形態では、顔画像取得部15及び顔画像認識部17と、発声データ取得部16及び無意識発話認識部18との両方を用いているが、何れか一方のみを用いて判定してもよい。
また、誤認識判定部19によりユーザのコマンド発話が誤認識されたと判定された場合には、誤認識に基づくコマンド操作を停止するように機器動作を制御する構成としてもよい。
本発明の実施の形態に係る音声認識の誤認識判定装置の構成を示すブロック図である 音声コマンド辞書の構成例を示す図である。 無意識発話辞書の構成例を示す図である。 本発明の実施の形態に係る音声認識の誤認識判定装置の作用の流れを示すフローチャートである。
符号の説明
11 音声データ入力部
12 音声認識部
13 コマンド実行部
14 認識結果出力部
15 顔画像取得部
16 発声データ取得部
17 顔画像認識部
18 無意識発話認識部
19 誤認識判定部
21 音声コマンド辞書
22 無意識発話辞書

Claims (6)

  1. ユーザにより入力された音声データと、音声データに対応する音声コマンドを登録した音声コマンド辞書とに基づいて、入力された音声データに対応する音声コマンドを認識する音声コマンド認識手段と、
    前記音声コマンド認識手段による認識結果に対する応答処理を実行する認識結果応答手段と、
    前記認識結果応答手段による応答処理を実行した後、予め定めた時間内において、前記ユーザの顔画像データを取得する顔画像取得手段と、
    前記予め定めた時間内において、前記ユーザの発声データを取得する発声データ取得手段と、
    前記顔画像取得手段により取得された顔画像データに基づいて、予め定めた表情及び予め定めた頭部動作を画像認識する画像認識手段と、
    前記発声データ取得手段により取得された発声データと、発声データに対応する無意識発話を登録した無意識発話辞書とに基づいて、取得された発声データに対応する無意識発話を認識する無意識発話認識手段と、
    前記画像認識手段により前記予め定めた表情又は前記予め定めた頭部動作が認識された場合、又は、前記無意識発話認識手段により無意識発話が認識された場合に、前記音声コマンド認識手段による認識結果が誤認識と判定する誤認識判定手段と、
    を備えた音声認識の誤認識判定装置。
  2. 前記認識結果応答手段は、前記音声コマンド認識手段による認識結果を出力する認識結果出力手段、及び、前記音声コマンド認識手段による認識結果に対応して機器を動作させる機器動作手段の少なくとも何れか一方である請求項1記載の誤認識判定装置。
  3. 前記誤認識判定手段により前記音声コマンド認識手段による認識結果が誤認識と判定された場合に、前記機器動作手段による機器の動作を停止する機器動作制御手段を、更に備えた請求項1又は請求項2記載の音声認識の誤認識判定装置。
  4. 前記予め定めた表情は笑い、驚き、怒り、落胆、あきれ、悲しみなどの前記音声コマンド認識手段が誤認識したときに前記ユーザが示す表情であり、前記予め定めた頭部動作は首かしげ、首振り、のけぞりなどの前記音声コマンド認識手段が誤認識したときに前記ユーザが示す動作である請求項1から請求項3の何れか1項記載の音声認識の誤認識判定装置。
  5. コンピュータを、請求項1から請求項4の何れか1項記載の音声認識の誤認識判定装置を構成する各手段として機能させるための音声認識の誤認識判定プログラム。
  6. コンピュータを、
    ユーザにより入力された音声データと、音声データに対応する音声コマンドを登録した音声コマンド辞書とに基づいて、入力された音声データに対応する音声コマンドを認識する音声コマンド認識手段、
    前記音声コマンド認識手段による認識結果に対する応答処理を実行する認識結果応答手段、
    前記認識結果応答手段による応答処理を実行した後、予め定めた時間内において、前記ユーザの顔画像データを取得する顔画像取得手段、
    前記予め定めた時間内において、前記ユーザの発声データを取得する発声データ取得手段、
    前記顔画像取得手段により取得された顔画像データに基づいて、予め定めた表情及び予め定めた頭部動作を画像認識する画像認識手段、
    前記発声データ取得手段により取得された発声データと、発声データに対応する無意識発話を登録した無意識発話辞書とに基づいて、取得された発声データに対応する無意識発話を認識する無意識発話認識手段、及び
    前記画像認識手段により前記予め定めた表情又は前記予め定めた頭部動作が認識された場合、又は、前記無意識発話認識手段により無意識発話が認識された場合に、前記音声コマンド認識手段による認識結果が誤認識と判定する誤認識判定手段、
    として機能させるための音声認識の誤認識判定プログラム。
JP2008300021A 2008-11-25 2008-11-25 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム Pending JP2010128015A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008300021A JP2010128015A (ja) 2008-11-25 2008-11-25 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008300021A JP2010128015A (ja) 2008-11-25 2008-11-25 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム

Publications (1)

Publication Number Publication Date
JP2010128015A true JP2010128015A (ja) 2010-06-10

Family

ID=42328479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008300021A Pending JP2010128015A (ja) 2008-11-25 2008-11-25 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム

Country Status (1)

Country Link
JP (1) JP2010128015A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088406A (ja) * 2010-10-15 2012-05-10 Kyocera Corp 電子機器及び制御方法
CN107832720A (zh) * 2017-11-16 2018-03-23 北京百度网讯科技有限公司 基于人工智能的信息处理方法和装置
JP2018060248A (ja) * 2016-09-30 2018-04-12 本田技研工業株式会社 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
US10276151B2 (en) 2016-06-29 2019-04-30 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling the electronic apparatus
WO2019142418A1 (ja) * 2018-01-22 2019-07-25 ソニー株式会社 情報処理装置および情報処理方法
WO2019222043A1 (en) * 2018-05-17 2019-11-21 Qualcomm Incorporated User experience evaluation
KR20200010455A (ko) * 2017-05-24 2020-01-30 로비 가이드스, 인크. 자동 음성 인식을 사용하여 생성되는 입력을 음성에 기초하여 정정하기 위한 방법 및 시스템
WO2021017332A1 (zh) * 2019-07-30 2021-02-04 广东美的制冷设备有限公司 语音控制报错方法、电器及计算机可读存储介质
US11488033B2 (en) 2017-03-23 2022-11-01 ROVl GUIDES, INC. Systems and methods for calculating a predicted time when a user will be exposed to a spoiler of a media asset
US11507618B2 (en) 2016-10-31 2022-11-22 Rovi Guides, Inc. Systems and methods for flexibly using trending topics as parameters for recommending media assets that are related to a viewed media asset

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034292A (ja) * 1999-07-26 2001-02-09 Denso Corp 単語列認識装置
JP2002182680A (ja) * 2000-12-19 2002-06-26 Alpine Electronics Inc 操作指示装置
WO2007118032A2 (en) * 2006-04-03 2007-10-18 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
JP2009069202A (ja) * 2007-09-10 2009-04-02 Teac Corp 音声処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034292A (ja) * 1999-07-26 2001-02-09 Denso Corp 単語列認識装置
JP2002182680A (ja) * 2000-12-19 2002-06-26 Alpine Electronics Inc 操作指示装置
WO2007118032A2 (en) * 2006-04-03 2007-10-18 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
JP2009069202A (ja) * 2007-09-10 2009-04-02 Teac Corp 音声処理装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088406A (ja) * 2010-10-15 2012-05-10 Kyocera Corp 電子機器及び制御方法
US10276151B2 (en) 2016-06-29 2019-04-30 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling the electronic apparatus
JP2018060248A (ja) * 2016-09-30 2018-04-12 本田技研工業株式会社 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
US10475470B2 (en) 2016-09-30 2019-11-12 Honda Motor Co., Ltd. Processing result error detection device, processing result error detection program, processing result error detection method, and moving entity
US11507618B2 (en) 2016-10-31 2022-11-22 Rovi Guides, Inc. Systems and methods for flexibly using trending topics as parameters for recommending media assets that are related to a viewed media asset
US11488033B2 (en) 2017-03-23 2022-11-01 ROVl GUIDES, INC. Systems and methods for calculating a predicted time when a user will be exposed to a spoiler of a media asset
JP7159400B2 (ja) 2017-05-24 2022-10-24 ロヴィ ガイズ, インコーポレイテッド 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム
JP7119008B2 (ja) 2017-05-24 2022-08-16 ロヴィ ガイズ, インコーポレイテッド 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム
JP2020522733A (ja) * 2017-05-24 2020-07-30 ロヴィ ガイズ, インコーポレイテッド 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム
US11521608B2 (en) 2017-05-24 2022-12-06 Rovi Guides, Inc. Methods and systems for correcting, based on speech, input generated using automatic speech recognition
KR20200010455A (ko) * 2017-05-24 2020-01-30 로비 가이드스, 인크. 자동 음성 인식을 사용하여 생성되는 입력을 음성에 기초하여 정정하기 위한 방법 및 시스템
JP2021144250A (ja) * 2017-05-24 2021-09-24 ロヴィ ガイズ, インコーポレイテッド 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム
KR102428911B1 (ko) * 2017-05-24 2022-08-03 로비 가이드스, 인크. 자동 음성 인식을 사용하여 생성되는 입력을 음성에 기초하여 정정하기 위한 방법 및 시스템
CN107832720A (zh) * 2017-11-16 2018-03-23 北京百度网讯科技有限公司 基于人工智能的信息处理方法和装置
WO2019142418A1 (ja) * 2018-01-22 2019-07-25 ソニー株式会社 情報処理装置および情報処理方法
WO2019222043A1 (en) * 2018-05-17 2019-11-21 Qualcomm Incorporated User experience evaluation
US10872604B2 (en) 2018-05-17 2020-12-22 Qualcomm Incorporated User experience evaluation
CN112106381A (zh) * 2018-05-17 2020-12-18 高通股份有限公司 用户体验评估
CN112106381B (zh) * 2018-05-17 2023-12-01 高通股份有限公司 用户体验评估的方法、装置及设备
WO2021017332A1 (zh) * 2019-07-30 2021-02-04 广东美的制冷设备有限公司 语音控制报错方法、电器及计算机可读存储介质

Similar Documents

Publication Publication Date Title
JP2010128015A (ja) 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム
CN108573701B (zh) 基于唇部检测的查询端点化
US20190172448A1 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
JP6230726B2 (ja) 音声認識装置および音声認識方法
US10019992B2 (en) Speech-controlled actions based on keywords and context thereof
US10109219B2 (en) System and method for automated sign language recognition
KR102133728B1 (ko) 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체
JP4557919B2 (ja) 音声処理装置、音声処理方法および音声処理プログラム
KR102290186B1 (ko) 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법
US10839800B2 (en) Information processing apparatus
JP6350903B2 (ja) 操作補助装置および操作補助方法
JP2009222969A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JP2007094104A5 (ja)
JP4730812B2 (ja) 個人認証装置、個人認証処理方法、そのためのプログラム及び記録媒体
JP2007199552A (ja) 音声認識装置と音声認識方法
JP2012242609A (ja) 音声認識装置、ロボット、及び音声認識方法
US20220013117A1 (en) Information processing apparatus and information processing method
JP6147198B2 (ja) ロボット
JP2008004050A (ja) 個人情報認証システム、個人情報認証方法、プログラム、及び記録媒体
US20230073265A1 (en) Information processing device and action mode setting method
US20140297257A1 (en) Motion sensor-based portable automatic interpretation apparatus and control method thereof
JP5342629B2 (ja) 男女声識別方法、男女声識別装置及びプログラム
JP2006313287A (ja) 音声対話装置
KR20140086302A (ko) 음성과 제스처를 이용한 명령어 인식 장치 및 그 방법
JP2004066367A (ja) 行動パターン生成装置、行動パターン生成方法、及び行動パターン生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120626