JP6866715B2 - 情報処理装置、感情認識方法、及び、プログラム - Google Patents

情報処理装置、感情認識方法、及び、プログラム Download PDF

Info

Publication number
JP6866715B2
JP6866715B2 JP2017056482A JP2017056482A JP6866715B2 JP 6866715 B2 JP6866715 B2 JP 6866715B2 JP 2017056482 A JP2017056482 A JP 2017056482A JP 2017056482 A JP2017056482 A JP 2017056482A JP 6866715 B2 JP6866715 B2 JP 6866715B2
Authority
JP
Japan
Prior art keywords
emotion
voice
score
phoneme string
phoneme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017056482A
Other languages
English (en)
Other versions
JP2018159788A5 (ja
JP2018159788A (ja
Inventor
崇史 山谷
崇史 山谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017056482A priority Critical patent/JP6866715B2/ja
Priority to US15/868,421 priority patent/US20180277145A1/en
Priority to CN201810092508.7A priority patent/CN108630231B/zh
Publication of JP2018159788A publication Critical patent/JP2018159788A/ja
Publication of JP2018159788A5 publication Critical patent/JP2018159788A5/ja
Priority to JP2021065068A priority patent/JP7143916B2/ja
Application granted granted Critical
Publication of JP6866715B2 publication Critical patent/JP6866715B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、情報処理装置、感情認識方法及びプログラムに関する。
音声を用い、話者の感情に応じた処理を実行する技術が知られている。
例えば、特許文献1は、音声の特徴を用い、音声がもっている話者の感情の度合いを示すレベルを出力する音声感情認識システムを開示している。
特開平11−119791号公報
同一の音声、例えば、口癖が、話者に応じて異なる感情に関連している場合がある。例えば、ある話者にとっては怒りを表す音声が他の話者にとっては喜びを表す音声であったり、ある話者にとっては悲しみを表す音声が他の話者にとっては怒りを表す音声であったりする場合がある。このような場合、特許文献1に記載された音声感情認識システムは、上述したような話者に固有の音声と感情との関連性を参酌していないため、話者の感情を誤って認識し、この誤った認識結果に応じた処理を実行してしまう虞があった。
本発明は、上記の事情に鑑みてなされたものであり、ユーザの感情に適合しない処理の実行を抑制する情報処理装置、感情認識方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明に係る情報処理装置は、
ユーザが発音した音声を取得する音声取得手段と、
感情毎に、前記音声を発音した際の前記ユーザの感情が当該感情である可能性の高さを示す当該感情に係る音声感情スコアを取得する音声感情スコア取得手段と、
前記音声が録音された際に撮像された前記ユーザの顔画像を取得する顔画像取得手段と、
感情毎に、前記顔画像が撮像された際の前記ユーザの感情が当該感情である可能性の高さを示す当該感情に係る顔感情スコアを取得する顔感情スコア取得手段と、
前記音声を音素列に変換する音素列変換手段と、
前記音声感情スコアと前記顔感情スコアとに基づいて、音素列のうち、前記ユーザの感情と関連度が高い音素列を感情音素列として抽出する抽出手段と、
前記抽出手段により抽出された感情音素列に基づいて、前記ユーザの感情認識に係る処理を実行する処理手段と、
を備えることを特徴とする。
本発明によれば、ユーザの感情に適合しない処理の実行を抑制する情報処理装置、感情認識方法及びプログラムを提供することができる。
本発明の第1実施形態に係る情報処理装置の物理的構成を示す図である。 本発明の第1実施形態に係る情報処理装置の機能的構成を示す図である。 頻度データの構成例を示す図である。 感情音素列データの構成例を示す図である。 本発明の第1実施形態に係る情報処理装置が実行する学習処理を説明するためのフローチャートである。 本発明の第1実施形態に係る情報処理装置が実行する感情認識処理を説明するためのフローチャートである。 本発明の第2実施形態に係る情報処理装置の機能的構成を示す図である。 本発明の第2実施形態に係る情報処理装置が実行する更新処理を説明するためのフローチャートである。
(第1実施形態)
以下、本発明の第1実施形態に係る情報処理装置について、図面を参照しながら説明する。図中、互いに同一又は同等の構成には、互いに同一の符号を付す。
図1に示す情報処理装置1は、動作モードとして、学習モードと感情認識モードとを備えている。詳細は後述するものの、情報処理装置1は、学習モードに従って動作することにより、音声から生成された音素列のうち、ユーザの感情との関連度が高い音素列を感情音素列として学習する。また、情報処理装置1は、感情認識モードに従って動作することにより、学習モードにおける学習の結果に従ってユーザの感情を認識し、認識結果を表す感情画像及び又は感情音声を出力する。感情画像は、認識されたユーザの感情に応じた画像である。感情音声は、認識されたユーザの感情に応じた音声である。以下、情報処理装置1が、ユーザの感情が、喜び等のポジティブな感情と、怒りや悲しみ等のネガティブな感情と、ポジティブな感情ともネガティブな感情とも異なるニュートラルな感情と、の3種類の感情の何れであるかを認識する場合を例に用いて説明する。
情報処理装置1は、CPU(Central Processing Unit)100と、RAM(Random Access Memory)101と、ROM(Read Only Memory)102と、入力部103と、出力部104と、外部インタフェース105と、を備えている。
CPU100は、ROM102に記憶されたプログラム及びデータに従って、後述する学習処理及び感情認識処理を含む各種処理を実行する。CPU100は、コマンド及びデータの伝送経路である図示しないシステムバスを介して情報処理装置1の各部に接続されており、情報処理装置1全体を統括制御する。
RAM101は、CPU100が各種処理を実行することによって生成又は取得したデータを記憶する。また、RAM101は、CPU100のワークエリアとして機能する。すなわち、CPU100は、プログラム及びデータをRAM101へ読み出し、読み出されたプログラム及びデータを適宜参照することによって、各種処理を実行する。
ROM102は、CPU100が各種処理を実行するために用いるプログラム及びデータを記憶する。具体的に、ROM102は、CPU100が実行する制御プログラム102aを記憶する。また、ROM102は、複数の音声データ102bと、複数の顔画像データ102cと、第1パラメータ102dと、第2パラメータ102eと、頻度データ102fと、感情音素列データ102gと、を記憶する。第1パラメータ102d、第2パラメータ102e、頻度データ102f及び感情音素列データ102gについては、後述する。
音声データ102bは、ユーザが発音した音声を表すデータである。顔画像データ102cは、ユーザの顔画像を表すデータである。後述するように、情報処理装置1は、学習モードにおいて、音声データ102b及び顔画像データ102cを用いて上述した感情音素列を学習する。また、情報処理装置1は、感情認識モードにおいて、音声データ102b及び顔画像データ102cを用いてユーザの感情を認識する。音声データ102bは、ユーザが発音した音声を録音することにより外部の録音装置によって生成される。情報処理装置1は、音声データ102bを当該録音装置から後述する外部インタフェース105を介して取得し、ROM102に予め記憶している。顔画像データ102cは、ユーザの顔画像を撮像することにより外部の撮像装置によって生成される。情報処理装置1は、顔画像データ102cを当該撮像装置から後述する外部インタフェース105を介して取得し、ROM102に予め記憶している。
ROM102は、音声データ102bと、当該音声データ102bが表す音声が録音された際に撮像された顔画像を表す顔画像データ102cと、を互いに対応付けて記憶している。すなわち、互いに対応付けられた音声データ102b及び顔画像データ102cは、同一時点において録音された音声と撮像された顔画像とをそれぞれ表しており、同一時点におけるユーザの感情を表す情報を含んでいる。
入力部103は、キーボードやマウス、タッチパネル等の入力装置を備え、ユーザから入力された各種の操作指示を受け付け、受け付けた操作指示をCPU100へ供給する。具体的に、入力部103は、ユーザによる操作に従って、情報処理装置1の動作モードの選択や、音声データ102bの選択を受け付ける。
出力部104は、CPU100による制御に従って各種の情報を出力する。具体的に、出力部104は、液晶パネル等の表示装置を備え、上述した感情画像を当該表示装置に表示する。また、出力部104は、スピーカ等の発音装置を備え、上述した感情音声を当該発音装置から発音する。
外部インタフェース105は、無線通信モジュール及び有線通信モジュールを備え、外部装置との間で無線通信又は有線通信を行うことによりデータを送受信する。具体的に、情報処理装置1は、上述した音声データ102b、顔画像データ102c、第1パラメータ102d及び第2パラメータ102eを、外部インタフェース105を介して外部装置から取得し、ROM102に予め記憶している。
上述の物理的構成を備える情報処理装置1は、CPU100の機能として、図2に示すように、音声入力部10と、音声感情スコア計算部11と、画像入力部12と、顔感情スコア計算部13と、学習部14と、処理部15と、を備えている。CPU100は、制御プログラム102aを実行して情報処理装置1を制御することにより、これらの各部として機能する。
音声入力部10は、ROM102に記憶された複数の音声データ102bのうち、ユーザが入力部103を操作することにより指定した音声データ102bを取得する。音声入力部10は、学習モードにおいて、取得した音声データ102bを音声感情スコア計算部11及び学習部14へ供給する。また、音声入力部10は、感情認識モードにおいて、取得した音声データ102bを音声感情スコア計算部11及び処理部15へ供給する。
音声感情スコア計算部11は、音声入力部10から供給された音声データ102bが表す音声に従って、上述した3種類の感情それぞれに係る音声感情スコアを計算する。音声感情スコアは、音声を発音した際のユーザの感情が当該音声感情スコアに係る感情である可能性の高さを示す数値である。例えば、ポジティブな感情に係る音声感情スコアは、音声を発音した際のユーザの感情がポジティブな感情である可能性の高さを示している。音声感情スコアが大きいほど、ユーザの感情が当該音声感情スコアに係る感情である可能性が高いものとする。
具体的に、音声感情スコア計算部11は、ROM102に記憶された第1パラメータ102dに従って識別器として機能することにより、音声データ102bに含まれた、音声の大きさやかすれ、上ずり等の音声の非言語的特徴を示す特徴量に応じて音声感情スコアを計算する。第1パラメータ102dは、外部の情報処理装置において、複数の話者が発音した音声の特徴量と当該音声を発音した際の話者の感情を表す情報とを互いに対応付けて含む汎用データを教師データとして用いた機械学習を行うことにより生成される。情報処理装置1は、第1パラメータ102dを当該外部の情報処理装置から外部インタフェース105を介して取得し、ROM102に予め記憶している。
音声感情スコア計算部11は、学習モードにおいて、計算した音声感情スコアを、学習部14へ供給する。また、音声感情スコア計算部11は、感情認識モードにおいて、計算した音声感情スコアを、処理部15へ供給する。
画像入力部12は、ROM102に記憶された複数の顔画像データ102cのうち、音声入力部10が取得した音声データ102bに対応付けて記憶されている顔画像データ102cを取得する。画像入力部12は、取得した顔画像データ102cを、顔感情スコア計算部13へ供給する。
顔感情スコア計算部13は、画像入力部12から供給された顔画像データ102cが表す顔画像に従って、上述した3種類の感情それぞれに係る顔感情スコアを計算する。顔感情スコアは、顔画像が撮像された際のユーザの感情が当該顔感情スコアに係る感情である可能性の高さを示す数値である。例えば、ポジティブな感情に係る顔感情スコアは、顔画像が撮像された際のユーザの感情がポジティブな感情である可能性の高さを示している。顔感情スコアが大きいほど、ユーザの感情が当該顔感情スコアに係る感情である可能性が高いものとする。
具体的に、顔感情スコア計算部13は、ROM102に記憶された第2パラメータ102eに従って識別器として機能することにより、顔画像データ102cが表す顔画像の特徴量に応じて顔感情スコアを計算する。第2パラメータ102eは、外部の情報処理装置において、複数の被写体の顔画像の特徴量と当該顔画像が撮像された際の被写体の感情を表す情報とを互いに対応付けて含む汎用データを教師データとして用いた機械学習を行うことにより生成される。情報処理装置1は、第2パラメータ102eを当該外部の情報処理装置から外部インタフェース105を介して取得し、ROM102に予め記憶している。
顔感情スコア計算部13は、学習モードにおいて、計算した顔感情スコアを、学習部14へ供給する。また、顔感情スコア計算部13は、感情認識モードにおいて、計算した顔感情スコアを、処理部15へ供給する。
上述したように、互いに対応付けられた音声データ102b及び顔画像データ102cがそれぞれ表す音声及び顔画像は、同一時点に取得され、同一時点におけるユーザの感情を表している。従って、顔画像データ102cに従って計算された顔感情スコアは、当該顔画像データ102cに対応付けられた音声データ102bが表す音声を発音した際のユーザの感情が当該顔感情スコアに係る感情である可能性の高さを示している。情報処理装置1は、音声感情スコアと顔感情スコアとを併用することにより、音声を発音した際のユーザの感情が音声と顔画像との一方のみに表れている場合であっても当該感情を認識し、学習精度を向上させることができる。
学習部14は、学習モードにおいて、ユーザの感情との関連度が高い音素列を感情音素列として学習する。また、学習部14は、感情音素列に対応付けて、当該感情音素列と感情との関連度に応じた調整スコアを学習する。具体的に、学習部14は、音素列変換部14aと、候補音素列抽出部14bと、頻度生成部14cと、頻度記録部14dと、感情音素列判定部14eと、調整スコア生成部14fと、感情音素列記録部14gと、を備えている。
音素列変換部14aは、音声入力部10から供給された音声データ102bが表す音声を、品詞情報が付された音素列に変換する。すなわち、音素列変換部14aは、音声から音素列を生成する。音素列変換部14aは、取得した音素列を、候補音素列抽出部14bへ供給する。具体的に、音素列変換部14aは、音声データ102bが表す音声に対して文章単位で音声認識を実行することにより、当該音声を音素列に変換する。音素列変換部14aは、音声データ102bが表す音声に対して形態素解析を行い、上述した音声認識によって得られた音素列を形態素毎に分割し、各音素列に品詞情報を付す。
候補音素列抽出部14bは、音素列変換部14aから供給された音素列のうち予め設定された抽出条件を満たす音素列を、感情音素列の候補である候補音素列として抽出する。抽出条件は、実験等の任意の手法によって設定される。候補音素列抽出部14bは、抽出した候補音素列を、頻度生成部14cへ供給する。具体的に、候補音素列抽出部14bは、連続する3形態素分の音素列であり、かつ、固有名詞以外の品詞情報が付された音素列を候補音素列として抽出する。
候補音素列抽出部14bは、連続する3形態素分の音素列を抽出することにより、未知語が誤って3形態素程度に分解されて認識されている場合であっても当該未知語を捕捉し、感情音素列の候補として抽出し、学習精度を向上させることができる。また、候補音素列抽出部14bは、ユーザの感情を表している可能性が低い地名や人名等の固有名詞を感情音素列の候補から除外することにより、学習精度を向上させると共に、処理負荷を軽減することができる。
頻度生成部14cは、候補音素列抽出部14bから供給された各候補音素列について、上述した3種類の感情毎に、候補音素列に対応する音声を発音した際のユーザの感情が当該感情である可能性が極めて高いか否かを判定する。頻度生成部14cは、判定結果を表す頻度情報を、頻度記録部14dへ供給する。
具体的に、頻度生成部14cは、各候補音素列について、感情毎に、当該候補音素列に対応する音声データ102bに従って計算された音声感情スコアと、当該音声データ102bに対応付けられた顔画像データ102cに従って計算された顔感情スコアと、を音声感情スコア計算部11及び顔感情スコア計算部13からそれぞれ取得する。頻度生成部14cは、取得した音声感情スコア及び顔感情スコアが検出条件を満たすか否かを判定することにより、感情毎に、候補音素列に対応する音声を発音した際のユーザの感情が当該感情である可能性が極めて高いか否かを判定する。上述したように、顔画像データ102cに従って計算された顔感情スコアは、当該顔画像データ102cに対応付けられた音声データ102bが表す音声を発音した際のユーザの感情が当該顔感情スコアに係る感情である可能性の高さを示している。すなわち、候補音素列に対応する音声データ102bに従って計算された音声感情スコアと、当該音声データ102bに対応付けられた顔画像データ102cに従って計算された顔感情スコアと、は何れも候補音素列に対応する音声を発音した際のユーザの感情が当該音声感情スコア及び顔感情スコアに係る感情である可能性の高さを示している。音声感情スコア及び顔感情スコアは感情スコアに相当し、頻度生成部14cは感情スコア取得手段に相当する。
より具体的に、頻度生成部14cは、取得した音声感情スコアと顔感情スコアとを感情毎に足し合わせることにより各感情に係る合計感情スコアを取得し、この合計感情スコアが検出閾値以上であるか否かを判定することにより、音声感情スコア及び顔感情スコアが検出条件を満たすか否かを判定する。検出閾値は、実験等の任意の手法により予め設定される。例えば、ある候補音素列に対応する音声データ102b及び顔画像データ102cに従ってそれぞれ計算されたポジティブな感情に係る音声感情スコアとポジティブな感情に係る顔感情スコアとの合計値であるポジティブな感情に係る合計感情スコアが検出閾値以上であると判定された場合、頻度生成部14cは、当該候補音素列に対応する音声を発音した際のユーザの感情がポジティブな感情である可能性が極めて高いと判定する。
頻度記録部14dは、ROM102に記憶された頻度データ102fを、頻度生成部14cから供給された頻度情報に従って更新する。頻度データ102fは、候補音素列に対応付けて、上述した3種類の感情毎に、当該候補音素列に対応する音声を発音した際のユーザの感情が当該感情である可能性が極めて高いと頻度生成部14cが判定した回数の累積値である当該感情に係る感情頻度を含むデータである。言い換えると、頻度データ102fは、候補音素列に対応付けて、感情毎に、候補音素列に対応する音声データ102b及び顔画像データ102cにそれぞれ従って計算された当該感情に係る音声感情スコア及び顔感情スコアが検出条件を満たすと判定された回数の累積値を含んでいる。
具体的に、頻度データ102fは、図3に示すように、候補音素列と、ポジティブな感情に係るポジティブ感情頻度と、ネガティブな感情に係るネガティブ感情頻度と、ニュートラルな感情に係るニュートラル感情頻度と、合計感情頻度と、を互いに対応付けて含んでいる。ポジティブ感情頻度は、候補音素列に対応する音声を発音した際のユーザの感情がポジティブな感情である可能性が極めて高いと頻度生成部14cが判定した回数の累積値、すなわち、候補音素列に対応する音声データ102b及び顔画像データ102cにそれぞれ従って計算されたポジティブな音声感情スコア及びポジティブな顔感情スコアが検出条件を満たすと頻度生成部14cが判定した回数の累積値である。ネガティブ感情頻度は、候補音素列に対応する音声を発音した際のユーザの感情がネガティブな感情である可能性が極めて高いと頻度生成部14cが判定した回数の累積値である。ニュートラル感情頻度は、候補音素列に対応する音声を発音した際のユーザの感情がニュートラルな感情である可能性が極めて高いと頻度生成部14cが判定した回数の累積値である。合計感情頻度は、ポジティブ感情頻度とネガティブ感情頻度とニュートラル感情頻度との合計値である。
図2に戻り、頻度記録部14dは、ある候補音素列に対応する音声を発音した際のユーザの感情がある感情である可能性が極めて高いと判定されたことを示す頻度情報が頻度生成部14cから供給されると、当該候補音素列に対応付けて頻度データ102fに含まれている当該感情に係る感情頻度に1を加算する。これにより、頻度データ102fが更新される。例えば、頻度記録部14dは、ある候補音素列に対応する音声を発音した際のユーザの感情がポジティブな感情である可能性が極めて高いと判定されたことを示す頻度情報が供給されると、当該候補音素列に対応付けて頻度データ102fに含まれているポジティブ感情頻度に1を加算する。
感情音素列判定部14eは、ROM102に記憶された頻度データ102fを取得し、候補音素列と感情との関連度を、感情毎に、取得した頻度データ102fに従って評価することにより、候補音素列が感情音素列であるか否かを判定する。感情音素列判定部14eは、頻度データ取得手段及び判定手段に相当する。感情音素列判定部14eは、判定結果を示すデータを、感情音素列記録部14gへ供給する。また、感情音素列判定部14eは、感情音素列と感情との関連度を示す情報を、調整スコア生成部14fへ供給する。
具体的に、感情音素列判定部14eは、候補音素列のうち、当該候補音素列と上述した3種類の感情の何れかとの関連度が有意に高く、かつ、当該候補音素列に対応付けて頻度データ102fに含まれている合計感情頻度に対する当該候補音素列に対応付けて頻度データ102fに含まれている当該感情に係る感情頻度の割合である感情頻度比率が学習閾値以上である候補音素列を、感情音素列であると判定する。学習閾値は、実験等の任意の手法により設定される。
感情音素列判定部14eは、候補音素列とある感情との関連度が有意に高いか否かを、「当該感情と候補音素列との関連度が有意に高くない、すなわち、当該感情に係る感情頻度が他の2つの感情に係る感情頻度に等しい」とする帰無仮説をカイ二乗検定法により検定することで判定する。具体的に、感情音素列判定部14eは、各感情に係る感情頻度の合計値である感情合計頻度を感情の数である3で除算した値を期待値として取得する。感情音素列判定部14eは、この期待値と判定対象の候補音素列に対応付けて頻度データ102fに含まれた判定対象の感情に係る感情頻度とに従ってカイ二乗を計算する。感情音素列判定部14eは、計算したカイ二乗を、感情の数である3から1を減算した数である2を自由度とするカイ二乗分布で検定する。感情音素列判定部14eは、カイ二乗の確率が有意水準を下回った場合、上述した帰無仮説が棄却されると判定し、判定対象の候補音素列と判定対象の感情との関連度が有意に高いと判定する。有意水準は、実験等の任意の手法により予め設定される。
感情音素列判定部14eは、上述した関連度を示す情報として、上述した感情頻度比率と共に、上述した有意性の判定に用いたカイ二乗の確率を調整スコア生成部14fへ供給する。感情頻度比率が大きいほど、感情音素列と感情との関連度は高い。また、カイ二乗の確率が小さいほど、感情音素列と感情との関連度は高い。
調整スコア生成部14fは、各感情音素列について、感情毎に、感情音素列と当該感情との関連度に応じた数値である、当該感情に係る調整スコアを生成する。調整スコア生成部14fは、生成した調整スコアを、感情音素列記録部14gへ供給する。具体的に、調整スコア生成部14fは、感情音素列判定部14eから供給された情報が示す感情音素列と感情との関連度が高いほど、調整スコアの値を大きく設定する。後述するように、処理部15は、調整スコアに応じてユーザの感情を認識する。調整スコアの値が大きいほど、当該調整スコアに係る感情がユーザの感情として決定されやすくなる。すなわち、調整スコア生成部14fは、感情音素列と感情との関連度が高いほど調整スコアの値を大きく設定することにより、感情音素列と関連度が高い感情がユーザの感情として決定されやすくする。より具体的に、調整スコア生成部14fは、関連度を示す情報として供給された感情頻度比率が大きいほど調整スコアの値を大きく設定すると共に、同じく関連度を示す情報として供給されたカイ二乗の確率が小さいほど調整スコアの値を大きく設定する。
感情音素列記録部14gは、ROM102に記憶された感情音素列データ102gを、感情音素列判定部14eから供給された感情音素列の判定結果と、調整スコア生成部14fから供給された調整スコアと、に従って更新する。感情音素列データ102gは、感情音素列と、当該感情音素列に応じて生成された各感情に係る調整スコアと、を互いに対応付けて含むデータである。具体的に、感情音素列データ102gは、図4に示すように、感情音素列と、ポジティブ調整スコアと、ネガティブ調整スコアと、ニュートラル調整スコアと、を互いに対応付けて含んでいる。ポジティブ調整スコアは、ポジティブな感情に係る調整スコアである。ネガティブ調整スコアは、ネガティブな感情に係る調整スコアである。ニュートラル感情スコアは、ニュートラルな感情に係る調整スコアである。
図2に戻り、感情音素列記録部14gは、感情音素列データ102gに未だ感情音素列として格納されていない候補音素列が感情音素列であると感情音素列判定部14eによって判定されたことに応答し、当該感情音素列を、調整スコア生成部14fから供給された調整スコアに対応付けて格納する。また、感情音素列記録部14gは、感情音素列データ102gに感情音素列として格納済みの候補音素列が感情音素列であると感情音素列判定部14eによって判定されたことに応答し、当該感情音素列に対応付けて格納された調整スコアを、調整スコア生成部14fから供給された調整スコアで置換することにより更新する。また、感情音素列記録部14gは、感情音素列データ102gに感情音素列として格納済みの候補音素列が感情音素列ではないと感情音素列判定部14eによって判定されたことに応答し、当該感情音素列を感情音素列データ102gから削除する。すなわち、感情音素列判定部14eによって感情音素列であると判定されて感情音素列データ102gに一旦格納された候補音素列が、その後の学習処理によって、感情音素列ではないと感情音素列判定部14eに判定されると、感情音素列記録部14gが当該候補音素列を感情音素列データ102gから削除する。これにより、記憶負荷が軽減されると共に、学習精度が向上する。
処理部15は、感情認識モードにおいて、学習部14による学習の結果に従い、ユーザの感情を認識し、認識結果を表す感情画像及び又は感情音声を出力する。具体的に、処理部15は、感情音素列検出部15aと、感情スコア調整部15bと、感情決定部15cと、を備えている。
感情音素列検出部15aは、音声入力部10から音声データ102bが供給されたことに応答し、当該音声データ102bが表す音声に感情音素列が含まれているか否かを判定する。感情音素列検出部15aは、判定結果を、感情スコア調整部15bへ供給する。また、感情音素列検出部15aは、音声に感情音素列が含まれていると判定すると、当該感情音素列に対応付けて感情音素列データ102gに格納されている各感情に係る調整スコアを取得し、判定結果と共に感情スコア調整部15bへ供給する。
具体的に、感情音素列検出部15aは、感情音素列から音響特徴量を生成し、この音響特徴量と音声データ102bから生成した音響特徴量とを比較照合することによって、当該音声データ102bが表す音声に感情音素列が含まれているか否かを判定する。なお、音声データ102bが表す音声を、当該音声に対して音声認識を行うことにより音素列に変換し、この音素列と感情音素列とを比較照合することによって、当該音声に感情音素列が含まれているか否かを判定してもよい。本実施形態では、音響特徴量を用いた比較照合により感情音素列の有無を判定することにより、音声認識における誤認識が原因で判定精度が低下することを抑制し、感情認識の精度を向上させている。
感情スコア調整部15bは、音声感情スコア計算部11から供給された音声感情スコアと、顔感情スコア計算部13から供給された顔感情スコアと、感情音素列検出部15aから供給された判定結果と、に従って各感情に係る合計感情スコアを取得する。感情スコア調整部15bは、取得した合計感情スコアを、感情決定部15cへ供給する。
具体的に、感情スコア調整部15bは、音声データ102bが表す音声に感情音素列が含まれていると感情音素列検出部15aが判定したことに応答し、音声感情スコアと、顔感情スコアと、感情音素列検出部15aから供給された調整スコアと、を感情毎に足し合わせることによって、当該感情に係る合計感情スコアを取得する。例えば、感情スコア調整部15bは、ポジティブな感情に係る音声感情スコアと、ポジティブな感情に係る顔感情スコアと、ポジティブ調整スコアと、を足し合わせることによって、ポジティブな感情に係る合計感情スコアを取得する。また、感情スコア調整部15bは、音声に感情音素列が含まれていないと感情音素列検出部15aが判定したことに応答し、音声感情スコアと顔感情スコアとを感情毎に足し合わせることによって当該感情に係る合計感情スコアを取得する。
感情決定部15cは、感情スコア調整部15bから供給された各感情に係る合計感情スコアに従って、ユーザの感情が上述した3種類の感情の何れであるかを決定する。感情決定部15cは、決定した感情を表す感情画像及び又は感情音声を生成し、出力部104へ供給して出力させる。具体的に、感情決定部15cは、各感情に係る合計感情スコアのうち最も大きい合計感情スコアに対応する感情をユーザの感情として決定する。すなわち、合計感情スコアが大きいほど、当該合計感情スコアに係る感情がユーザの感情として決定されやすい。上述したとおり、音声に感情音素列が含まれている場合、合計感情スコアは、調整スコアを加算することによって取得される。また、調整スコアは、対応する感情と感情音素列との関連度が高いほど大きな値に設定される。従って、音声に感情音素列が含まれている場合、当該感情音素列と関連度が高い感情が当該音声を発音した際のユーザの感情として決定されやすい。すなわち、感情決定部15cは、感情音素列とユーザの感情との関連度を参酌して感情認識を行うことにより、感情認識の精度を向上させることができる。特に、各感情に係る音声感情スコア及び顔感情スコアの間に有意な差が無く、当該音声感情スコア及び顔感情スコアのみに従ってユーザの感情を決定するとユーザの感情を誤認識してしまう虞がある場合、調整スコアが表す感情音素列とユーザの感情との関連度を参酌することにより、感情認識の精度を高めることができる。
以下、上述の物理的・機能的構成を備える情報処理装置1が実行する学習処理及び感情認識処理について、図5及び図6のフローチャートを参照して説明する。
まず、図5のフローチャートを参照して、情報処理装置1が学習モードにおいて実行する学習処理について説明する。情報処理装置1は、複数の音声データ102b、複数の顔画像データ102c、第1パラメータ102d及び第2パラメータ102eを、外部インタフェース105を介して外部装置から取得し、ROM102に予め記憶している。この状態において、ユーザが、入力部103を操作することにより、情報処理装置1の動作モードとして学習モードを選択した後、複数の音声データ102bのうち何れかを指定すると、CPU100が、図5のフローチャートに示す学習処理を開始する。
まず、音声入力部10が、ユーザによって指定された音声データ102bをROM102から取得し(ステップS101)、音声感情スコア計算部11及び学習部14へ供給する。音声感情スコア計算部11は、ステップS101の処理で取得された音声データ102bに従って音声感情スコアを計算し(ステップS102)、学習部14へ供給する。画像入力部12は、ステップS101の処理で取得された音声データ102bに対応付けて格納された顔画像データ102cをROM102から取得し(ステップS103)、顔感情スコア計算部13へ供給する。顔感情スコア計算部13は、ステップS103の処理で取得された顔画像データ102cに従って顔感情スコアを計算し(ステップS104)、学習部14へ供給する。
次に、音素列変換部14aが、ステップS101で取得された音声データ102bを音素列に変換し(ステップS105)、候補音素列抽出部14bへ供給する。候補音素列抽出部14bは、ステップS105の処理で生成された音素列のうち、上述した抽出条件を満たす音素列を候補音素列として抽出し(ステップS106)、頻度生成部14cへ供給する。頻度生成部14cは、ステップS106の処理で抽出された各候補音素列について、上述した3種類の感情毎に、当該候補音素列に対応する音声を発音した際のユーザの感情が当該感情である可能性が極めて高いか否かを、ステップS102及びステップS104の処理で計算された、当該音声に対応する音声感情スコア及び顔感情スコアに従って判定し、判定結果を表す頻度情報を生成する(ステップS107)。頻度生成部14cは、生成した頻度情報を、頻度記録部14dへ供給する。頻度記録部14dは、ステップS107の処理で生成された頻度情報に従って、ROM102に記憶された頻度データ102fを更新する(ステップS108)。感情音素列判定部14eは、候補音素列毎に各感情との関連度を、ステップS108の処理で更新された頻度データ102fに従って取得し、この関連度を評価することにより、各候補音素列が感情音素列であるか否かを判定する(ステップS109)。感情音素列判定部14eは、判定結果を感情音素列記録部14gへ供給すると共に、取得した関連度を調整スコア生成部14fへ供給する。調整スコア生成部14fは、ステップS109の処理で取得された関連度に応じた調整スコアを生成する(ステップS110)。感情音素列記録部14gは、ステップS109の処理における判定結果と、ステップS110の処理で生成された調整スコアと、に従って感情音素列データ102gを更新し(ステップS111)、学習処理を終了する。
次に、図6のフローチャートを参照して、情報処理装置1が感情認識モードにおいて実行する感情認識処理について説明する。情報処理装置1は、感情認識処理の実行に先立って、上述した学習処理を実行することにより感情音素列を学習し、感情音素列と調整スコアとを互いに対応付けて含む感情音素列データ102gをROM102に記憶している。また、情報処理装置1は、複数の音声データ102b、複数の顔画像データ102c、第1パラメータ102d及び第2パラメータ102eを、外部インタフェース105を介して外部装置から取得し、ROM102に予め記憶している。この状態において、ユーザが、入力部103を操作することにより、情報処理装置1の動作モードとして感情認識モードを選択した後、複数の音声データ102bのうち何れかを指定すると、CPU100が、図6のフローチャートに示す感情認識処理を開始する。
まず、音声入力部10が、指定された音声データ102bをROM102から取得し(ステップS201)、音声感情スコア計算部11へ供給する。音声感情スコア計算部11は、ステップS201の処理で取得された音声データ102bに従って音声感情スコアを計算し(ステップS202)、処理部15へ供給する。画像入力部12は、ステップS201の処理で取得された音声データ102bに対応付けて格納された顔画像データ102cをROM102から取得し(ステップS203)、顔感情スコア計算部13へ供給する。顔感情スコア計算部13は、ステップS203の処理で取得された顔画像データ102cに従って顔感情スコアを計算し(ステップS204)、処理部15へ供給する。
次に、感情音素列検出部15aが、ステップS201の処理で取得された音声データ102bが表す音声に感情音素列が含まれているか否かを判定する(ステップS205)。感情音素列検出部15aは、判定結果を感情スコア調整部15bへ供給すると共に、感情音素列が含まれていると判定した場合には当該感情音素列に対応付けて感情音素列データ102gに含まれている調整スコアを取得し、感情スコア調整部15bへ供給する。感情スコア調整部15bは、ステップS205の処理における判定結果に応じて各感情に係る合計感情スコアを取得し(ステップS206)、感情決定部15cへ供給する。具体的に、感情スコア調整部15bは、ステップS205の処理で音声に感情音素列が含まれていると判定された場合、ステップS202の処理で計算された音声感情スコアと、ステップS204の処理で計算された顔感情スコアと、感情音素列検出部15aから供給された、感情音素列に対応する調整スコアと、を感情毎に足し合わせることによって、当該感情に係る合計感情スコアを取得する。また、感情スコア調整部15bは、ステップS205の処理で音声に感情音素列が含まれていないと判定された場合、ステップS202の処理で計算された音声感情スコアと、ステップS204の処理で計算された顔感情スコアと、を感情毎に足し合わせることによって当該感情に係る合計感情スコアを取得する。次に、感情決定部15cは、ステップS206の処理で取得された各感情に係る合計感情スコアのうち最大の合計感情スコアに対応する感情が、ステップS201の処理で取得された音声データ102bが表す音声を発音した際のユーザの感情であると決定する(ステップS207)。感情決定部15cは、ステップS207の処理で決定された感情を表す感情画像及び又は感情音声を生成して出力部104に出力させ(ステップS208)、感情認識処理を終了する。
以上説明したように、情報処理装置1は、学習モードにおいて、ユーザの感情との関連度が高い音素列を感情音素列として学習し、感情認識モードにおいて、感情音素列との関連度が高い感情が当該感情音素列を含む音声を発音した際のユーザの感情として決定されやすくする。これにより、情報処理装置1は、ユーザの感情を誤認識する可能性を低下させ、感情認識の精度を向上させることができる。言い換えると、情報処理装置1は、学習モードにおける学習の結果を参酌することにより、ユーザの感情に適合しない処理の実行を抑制できる。すなわち、情報処理装置1は、ユーザに固有の情報である感情音素列と感情との関連度を参酌することにより、汎用データのみを用いた感情認識よりも精度良く当該ユーザの感情を認識できる。また、情報処理装置1は、上述した学習処理を実行してユーザに固有の情報である感情音素列と感情との関連度を学習することにより、個人適応を進め、感情認識の精度を累積的に向上させることができる。
(第2実施形態)
上記第1実施形態では、情報処理装置1が、感情認識モードにおいて、学習モードにおける学習の結果に応じてユーザの感情を認識し、認識結果を表す感情画像及び又は感情音声を出力するものとして説明した。しかし、これは一例に過ぎず、情報処理装置1は、学習モードにおける学習の結果に応じて任意の処理を実行することができる。以下、動作モードとして上述した学習モード及び感情認識モードと共に更新モードをさらに備え、当該更新モードに従って動作することにより、学習モードにおける学習の結果に応じて音声感情スコア及び顔感情スコアの計算に用いる第1パラメータ102d及び第2パラメータ102eを更新する情報処理装置1’について図7及び図8を参照して説明する。
情報処理装置1’は、情報処理装置1と概ね同様の構成を備えるものの、処理部15’の構成の一部が異なっている。以下、情報処理装置1’の構成について、情報処理装置1の構成との相違点を中心に説明する。
情報処理装置1’は、図7に示すように、CPU100の機能として、パラメータ候補生成部15dと、パラメータ候補評価部15eと、パラメータ更新部15fと、を備えている。CPU100は、ROM102に記憶された制御プログラム102aを実行して情報処理装置1’を制御することにより、これらの各部として機能する。パラメータ候補生成部15dは、新たな第1パラメータ102d及び第2パラメータ102eの候補であるパラメータ候補を予め設定された個数だけ生成し、パラメータ候補評価部15eへ供給する。パラメータ候補評価部15eは、各パラメータ候補をROM102に記憶された感情音素列データ102gに従って評価し、評価結果をパラメータ更新部15fへ供給する。評価方法の詳細については、後述する。パラメータ更新部15fは、パラメータ候補のうち何れかをパラメータ候補評価部15eによる評価の結果に従って決定し、決定したパラメータ候補でROM102に現在記憶されている第1パラメータ102d及び第2パラメータ102eを置換することにより第1パラメータ102d及び第2パラメータ102eを更新する。
以下、上述の情報処理装置1’が実行する更新処理について、図8のフローチャートを参照して説明する。情報処理装置1’は、更新処理の実行に先立って、上記第1実施形態で説明した学習処理を実行することにより感情音素列を学習し、感情音素列と調整スコアとを互いに対応付けて含む感情音素列データ102gをROM102に記憶している。また、情報処理装置1’は、複数の音声データ102b、複数の顔画像データ102c、第1パラメータ102d及び第2パラメータ102eを、外部インタフェース105を介して外部装置から取得し、ROM102に予め記憶している。この状態において、ユーザが、入力部103を操作することにより、情報処理装置1’の動作モードとして更新モードを選択すると、CPU100が、図8のフローチャートに示す更新処理を開始する。
まず、パラメータ候補生成部15dが、予め設定された個数のパラメータ候補を生成する(ステップS301)。パラメータ候補評価部15eは、ROM102に記憶された複数の音声データ102bのうち予め設定された個数の音声データ102bを指定する(ステップS302)。パラメータ候補評価部15eは、ステップS301の処理で生成されたパラメータ候補のうち一つを評価対象として選択する(ステップS303)。パラメータ候補評価部15eは、ステップS302の処理で指定された複数の音声データ102bのうち一つを選択する(ステップS304)。
パラメータ候補評価部15eは、ステップS304の処理で選択された音声データ102bと、当該音声データに対応付けてROM102に格納されている顔画像データ102cと、を取得する(ステップS305)。パラメータ候補評価部15eは、音声感情スコア計算部11及び顔感情スコア計算部13に、ステップS303の処理で選択したパラメータ候補に従い、ステップS305の処理で取得した音声データ102b及び顔画像データ102cにそれぞれ応じた音声感情スコア及び顔感情スコアを計算させる(ステップS306)。パラメータ候補評価部15eは、ステップS306の処理で計算した音声感情スコア及び顔感情スコアを感情毎に足し合わせることにより合計感情スコアを取得する(ステップS307)。
次に、パラメータ候補評価部15eは、音声感情スコア計算部11及び顔感情スコア計算部13に、ROM102に現在記憶されている第1パラメータ102d及び第2パラメータ102eに従い、ステップS305の処理で取得した音声データ102b及び顔画像データ102cにそれぞれ応じた音声感情スコア及び顔感情スコアを計算させる(ステップS308)。感情音素列検出部15aは、ステップS305の処理で取得された音声データ102bが表す音声に感情音素列が含まれているか否かを判定する(ステップS309)。感情音素列検出部15aは、判定結果を感情スコア調整部15bへ供給すると共に、感情音素列が含まれていると判定した場合には当該感情音素列に対応付けて感情音素列データ102gに含まれている調整スコアを取得し、感情スコア調整部15bへ供給する。感情スコア調整部15bは、ステップS309の処理における判定結果と、供給された調整スコアと、に応じて合計感情スコアを取得する(ステップS310)。
パラメータ候補評価部15eは、ステップS307の処理で取得された合計感情スコアと、ステップS310の処理で取得された合計感情スコアと、の差の二乗値を計算する(ステップS311)。計算された差の二乗値は、ステップS304の処理で選択された音声データ102bに従って評価された、ステップS303の処理で選択されたパラメータ候補と学習モードにおける学習結果との適合度を示している。差の二乗値が小さいほど、パラメータ候補と学習結果との適合度は高い。パラメータ候補評価部15eは、ステップS302の処理で指定された複数の音声データ102bを全て選択したか否かを判定する(ステップS312)。ステップS302の処理で指定された音声データ102bのうち未だ選択されていないものがあると判定すると(ステップS312;No)、処理はステップS304へ戻り、未だ選択されていない音声データ102bのうち何れか一つが選択される。
ステップS302の処理で指定された音声データ102bが全て選択されたと判定すると(ステップS312;Yes)、パラメータ候補評価部15eは、各音声データ102bに対応するステップS311の処理で計算された差の二乗値の合計値を計算する(ステップS313)。計算された差の二乗値の合計値は、ステップS302の処理で指定された音声データ102b全てに従って評価された、ステップS303の処理で選択されたパラメータ候補と学習モードにおける学習結果との適合度を示している。差の二乗値の合計値が小さいほど、パラメータ候補と学習結果との適合度は高い。パラメータ候補評価部15eは、ステップS301の処理で生成された複数のパラメータ候補を全て選択したか否かを判定する(ステップS314)。ステップS301の処理で生成されたパラメータ候補のうち未だ選択されていないものがあると判定すると(ステップS314;No)、処理はステップS303へ戻り、未だ選択されていないパラメータ候補のうち何れか一つが選択される。CPU100は、ステップS314の処理でYesと判定されるまでステップS303〜ステップS314の処理を繰り返すことにより、ステップS301の処理で生成された全てのパラメータ候補について、学習モードにおける学習の結果との適合度を、ステップS302で指定された複数の音声データ102bに従って評価する。
ステップS301の処理で生成されたパラメータ候補を全て選択したと判定すると(ステップS314;Yes)、パラメータ更新部15fは、パラメータ候補のうち、対応するステップS313の処理で計算した差の二乗値の合計値が最も小さいパラメータ候補を新しい第1パラメータ102d及び第2パラメータ102eとして決定する(ステップS315)。言い換えると、パラメータ更新部15fは、ステップS315の処理において、パラメータ候補のうち、学習モードにおける学習の結果との適合度が最も高いパラメータ候補を新しい第1パラメータ102d及び第2パラメータ102eとして決定する。パラメータ更新部15fは、ROM102に現在記憶されている第1パラメータ102d及び第2パラメータ102eを、ステップS315の処理で決定されたパラメータ候補で置換することにより第1パラメータ102d及び第2パラメータ102eを更新し(ステップS316)、更新処理を終了する。
情報処理装置1’は、感情認識モードにおいて、更新モードで更新された第1パラメータ102d及び第2パラメータ102eを用いて音声感情スコア及び顔感情スコアを計算して上述した図6のフローチャートに示す感情認識処理を実行する。これにより、感情認識の精度が向上する。
以上説明したように、情報処理装置1’は、更新モードにおいて、学習モードにおける学習の結果に適合するように第1パラメータ102d及び第2パラメータ102eを更新し、感情認識モードにおいて、更新した第1パラメータ102d及び第2パラメータ102eを用いて感情認識を実行する。これにより、情報処理装置1’は、感情認識の精度を向上させることができる。音声感情スコア及び顔感情スコアの計算に用いるパラメータ自体を学習結果に応じて更新することにより、音声に感情音素列が含まれていない場合でも感情認識の精度を向上させることができる。
以上に本発明の実施形態について説明したが、上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
例えば、上記第1,第2実施形態では、情報処理装置1,1’が、音声感情スコア及び顔感情スコアに従って、感情音素列の学習、ユーザの感情の認識及びパラメータの更新を行うものとして説明した。しかし、これは一例に過ぎず、情報処理装置1,1’は、音素列に対応する音声を発音した際のユーザの感情がある感情である可能性の高さを示す任意の感情スコアを用いて上述の各処理を実行できる。例えば、情報処理装置1,1’は、音声感情スコアのみを用いて上述の各処理を実行してもよいし、音声感情スコアと共に顔感情スコア以外の感情スコアを用いて上述の各処理を実行してもよい。
上記第1,第2実施形態では、頻度生成部14cが、音声感情スコアと顔感情スコアとを感情毎に足し合わせることにより取得した各感情に係る合計感情スコアが検出閾値以上であるか否かを判定することにより、音声感情スコア及び顔感情スコアが検出条件を満たすか否かを判定するものとして説明した。しかし、これは一例に過ぎず、任意の条件を検出条件として設定することができる。例えば、頻度生成部14cは、音声感情スコアと顔感情スコアとを感情毎に予め設定した重みを付けて足し合わせることにより各感情に係る合計感情スコアを取得し、この合計感情スコアが検出閾値以上であるか否かを判定することにより、音声感情スコア及び顔感情スコアが検出条件を満たすか否かを判定してもよい。この場合、重みは、実験等の任意の手法により設定すればよい。
上記第1,第2実施形態では、感情音素列判定部14eが、候補音素列のうち、当該候補音素列と上述した3種類の感情の何れかとの関連度が有意に高く、かつ、感情頻度比率が学習閾値以上である候補音素列を、感情音素列であると判定するものとして説明した。しかし、これは一例に過ぎず、感情音素列判定部14eは、頻度データ102fに従い、任意の方法により感情音素列を判定することができる。例えば、感情音素列判定部14eは、候補音素列のうち、当該候補音素列と3種類の感情の何れかとの関連度が有意に高い候補音素列を、感情頻度比率に関わらず、感情音素列であると判定してもよい。あるいは、感情音素列判定部14eは、候補音素列のうち、3種類の感情の何れかに係る感情頻度の感情頻度比率が学習閾値以上である候補音素列を、当該候補音素列と当該感情との関連度が有意に高いか否かに関わらず、感情音素列であると判定してもよい。
上記第1実施形態では、感情決定部15cが、学習部14が学習した調整スコアと、音声感情スコア計算部11及び顔感情スコア計算部13から供給された音声感情スコア及び顔感情スコアと、に従ってユーザの感情を決定するものとして説明した。しかし、これは一例に過ぎず、感情決定部15cは、調整スコアのみに従ってユーザの感情を決定してもよい。この場合、感情音素列検出部15aは、音声データ102bが表す音声に感情音素列が含まれていると判定したことに応答し、当該感情音素列に対応付けて感情音素列データ102gに格納されている調整スコアを取得し、感情決定部15cへ供給する。感情決定部15cは、取得された調整スコアのうち最も大きい調整スコアに対応する感情をユーザの感情として決定する。
上記第1,第2実施形態では、音素列変換部14aが、音声データ102bが表す音声に対して文章単位で音声認識を行い、品詞情報が付された音素列に変換するものとして説明した。しかし、これは一例に過ぎない。音素列変換部14aは、単語単位や1文字単位、音素単位で音声認識を行ってもよい。なお、音素列変換部14aは、言語を表す音声を音素列に変換できるのみならず、適切な音素辞書又は単語辞書を用いて音声認識を行うことにより、舌打ちやしゃっくり、生あくび等の動作に伴う音声も音素列に変換できる。この形態によれば、情報処理装置1,1’は、舌打ちやしゃっくり、生あくび等の動作に伴う音声に対応する音素列を感情音素列として学習し、この学習結果に応じて処理を実行することができる。
例えば、上記第1実施形態では、情報処理装置1が、学習モードにおける学習の結果に応じてユーザの感情を認識し、認識結果を表す感情画像及び又は感情音声を出力するものとして説明した。また、上記第2実施形態では、情報処理装置1’が、学習モードにおける学習の結果に応じて音声感情スコア及び顔感情スコアの計算に用いるパラメータを更新するものとして説明した。しかし、これらは例に過ぎず、情報処理装置1,1’は、学習モードにおける学習の結果に応じて任意の処理を実行することができる。例えば、情報処理装置1,1’は、外部の感情認識装置から音声データが供給されたことに応答し、当該音声データに学習された感情音素列が含まれているか否かを判定し、この判定結果に応じた調整スコアを取得してこの感情認識装置へ供給してもよい。すなわち、この場合、情報処理装置1,1’は、学習モードにおける学習の結果に従って、調整スコアを外部の感情認識装置へ供給する処理を実行する。なお、この場合、上記第1,第2実施形態では情報処理装置1,1’が実行するものとして説明した処理の一部を、当該外部の感情認識装置が実行することとしてもよい。例えば、音声感情スコア及び顔感情スコアの計算を、当該外部の感情認識装置が行えばよい。
上記第1,第2実施形態では、情報処理装置1,1’は、ユーザの感情が、ポジティブな感情、ネガティブな感情及びニュートラルな感情の3種類の感情の何れであるかを認識するものとして説明した。しかし、これは一例に過ぎず、情報処理装置1,1’は、2以上の任意の数のユーザの感情を識別できる。また、ユーザの感情は、任意の方法で区分できる。
上記第1,第2実施形態では、音声データ102b及び顔画像データ102cは、それぞれ外部の録音装置及び撮像装置によって生成されるものとして説明したが、これは一例に過ぎず、情報処理装置1,1’が自ら音声データ102b及び顔画像データ102cを生成してもよい。この場合、情報処理装置1,1’は、録音手段及び撮像手段を備え、ユーザが発音した音声を当該録音手段により録音することによって音声データ102bを生成すると共に、ユーザの顔画像を当該撮像手段により撮像することによって顔画像データ102cを生成すればよい。この際、当該情報処理装置1,1’が感情認識モードを実行する場合、録音手段により取得されるユーザの発話音声を音声データ102b、前記ユーザが発話した際に撮像手段により取得される前記ユーザの顔画像を顔画像データ102c、として取得し、リアルタイムで前記ユーザの感情認識を行なってもよい。
なお、本発明に係る機能を実現するための構成を予め備えた情報処理装置を本発明に係る情報処理装置として提供できることはもとより、プログラムの適用により、PC(Personal Computer)やスマートフォン、タブレット端末等の既存の情報処理装置を、本発明に係る情報処理装置として機能させることもできる。すなわち、本発明に係る情報処理装置の各機能構成を実現させるためのプログラムを、既存の情報処理装置を制御するコンピュータが実行できるように適用することで、当該既存の情報処理装置を本発明に係る情報処理装置として機能させることができる。なお、このようなプログラムは任意の方法で適用できる。プログラムは、例えば、フレキシブルディスク、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)−ROM、メモリカード等のコンピュータが読み取り可能な記憶媒体に記憶して適用できる。さらに、プログラムを搬送波に重畳し、インターネット等の通信ネットワークを介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operation System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
音声から生成された音素列を、当該音素列とユーザの感情との関連度に従って感情音素列として学習する学習手段と、
前記学習手段による学習の結果に従って感情認識に係る処理を実行する処理手段と、
を備えることを特徴とする情報処理装置。
(付記2)
音素列に応じて、感情毎に、当該音素列に対応する音声を発音した際のユーザの感情が当該感情である可能性の高さを示す当該感情に係る感情スコアを取得する感情スコア取得手段と、
音素列に対応付けて、感情毎に、当該音素列に対応する音声に応じた当該感情に係る前記感情スコアが検出条件を満たすと判定された回数の累積値である、当該感情に係る感情頻度を含む頻度データを取得する頻度データ取得手段と、
音素列と感情との関連度を前記頻度データに従って評価することにより、当該音素列が前記感情音素列であるか否かを判定する判定手段と、
をさらに備え、
前記学習手段は、前記判定手段による判定に従って前記感情音素列を学習することを特徴とする付記1に記載の情報処理装置。
(付記3)
前記判定手段は、音素列のうち、当該音素列と感情との関連度が有意に高いことと、当該音素列に対応付けて前記頻度データに含まれている各感情に係る前記感情頻度の合計値に対する当該音素列に対応付けて前記頻度データに含まれている当該感情に係る前記感情頻度の割合が学習閾値以上であることと、のうち少なくとも何れか一方の条件を満たす音素列を感情音素列であると判定することを特徴とする付記2に記載の情報処理装置。
(付記4)
前記感情音素列と感情との関連度に応じた調整スコアを生成する調整スコア生成手段をさらに備え、
前記学習手段は、前記感情音素列に対応付けて前記調整スコアを学習することを特徴とする付記2又は3に記載の情報処理装置。
(付記5)
前記処理手段は、前記調整スコアに従ってユーザの感情を認識することを特徴とする付記4に記載の情報処理装置。
(付記6)
前記処理手段は、前記調整スコアに従って前記感情スコアの計算に用いるパラメータを更新することを特徴とする付記4又は5に記載の情報処理装置。
(付記7)
音声から生成された音素列を、当該音素列とユーザの感情との関連度に従って感情音素列として学習する学習ステップと、
前記学習ステップによる学習の結果に従って感情認識に係る処理を実行する処理ステップと、
を含むことを特徴とする方法。
(付記8)
コンピュータを、
音声から生成された音素列を、当該音素列とユーザの感情との関連度に従って感情音素列として学習する学習手段、
前記学習手段による学習の結果に従って感情認識に係る処理を実行する処理手段、
として機能させることを特徴とするプログラム。
1,1’…情報処理装置、10…音声入力部、11…音声感情スコア計算部、12…画像入力部、13…顔感情スコア計算部、14…学習部、14a…音素列変換部、14b…候補音素列抽出部、14c…頻度生成部、14d…頻度記録部、14e…感情音素列判定部、14f…調整スコア生成部、14g…感情音素列記録部、15,15’…処理部、15a…感情音素列検出部、15b…感情スコア調整部、15c…感情決定部、15d…パラメータ候補生成部、15e…パラメータ候補評価部、15f…パラメータ更新部、100…CPU、101…RAM、102…ROM、102a…制御プログラム、102b…音声データ、102c…顔画像データ、102d…第1パラメータ、102e…第2パラメータ、102f…頻度データ、102g…感情音素列データ、103…入力部、104…出力部、105…外部インタフェース

Claims (8)

  1. ユーザが発音した音声を取得する音声取得手段と、
    感情毎に、前記音声を発音した際の前記ユーザの感情が当該感情である可能性の高さを示す当該感情に係る音声感情スコアを取得する音声感情スコア取得手段と、
    前記音声が録音された際に撮像された前記ユーザの顔画像を取得する顔画像取得手段と、
    感情毎に、前記顔画像が撮像された際の前記ユーザの感情が当該感情である可能性の高さを示す当該感情に係る顔感情スコアを取得する顔感情スコア取得手段と、
    前記音声を音素列に変換する音素列変換手段と、
    前記音声感情スコアと前記顔感情スコアとに基づいて、音素列のうち、前記ユーザの感情と関連度が高い音素列を感情音素列として抽出する抽出手段と、
    前記抽出手段により抽出された感情音素列に基づいて、前記ユーザの感情認識に係る処理を実行する処理手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記音声感情スコア取得手段は、前記音声の非言語的特徴を示す特徴量に応じて、感情毎に、前記音声を発音した際の前記ユーザの感情が当該感情である可能性の高さを示す当該感情に係る音声感情スコアを取得し、
    音素列に対応付けて、感情毎に、当該音素列に対応する音声に応じた当該感情に係る前記音声感情スコア及び前記顔感情スコアが検出条件を満たすと判定された回数の累積値である、当該感情に係る感情頻度を含む頻度データを取得する頻度データ取得手段と、
    音素列と感情との関連度を前記頻度データに従って評価することにより、当該音素列が前記感情音素列であるか否かを判定する判定手段と、
    をさらに備え、
    前記抽出手段は、前記判定手段による判定に従って前記感情音素列を抽出することを特徴とする請求項1に記載の情報処理装置。
  3. 前記判定手段は、音素列のうち、当該音素列と感情との関連度が有意に高いことと、当該音素列に対応付けて前記頻度データに含まれている各感情に係る前記感情頻度の合計値に対する当該音素列に対応付けて前記頻度データに含まれている当該感情に係る前記感情頻度の割合が学習閾値以上であることと、のうち少なくとも何れか一方の条件を満たす音素列を感情音素列であると判定することを特徴とする請求項2に記載の情報処理装置。
  4. 前記感情音素列と感情との関連度に応じた調整スコアを生成する調整スコア生成手段をさらに備えることを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記処理手段は、前記調整スコアに従って前記ユーザの感情を認識することを特徴とする請求項4に記載の情報処理装置。
  6. 前記処理手段は、前記調整スコアに従って前記音声感情スコア及び前記顔感情スコアの計算に用いるパラメータを更新することを特徴とする請求項4又は5に記載の情報処理装置。
  7. 情報処理装置の感情認識方法であって、
    ユーザが発音した音声を取得する音声取得ステップと、
    感情毎に、前記音声を発音した際の前記ユーザの感情が当該感情である可能性の高さを示す当該感情に係る音声感情スコアを取得する音声感情スコア取得ステップと、
    前記音声が録音された際に撮像された前記ユーザの顔画像を取得する顔画像取得ステップと、
    感情毎に、前記顔画像が撮像された際の前記ユーザの感情が当該感情である可能性の高さを示す当該感情に係る顔感情スコアを取得する顔感情スコア取得ステップと、
    前記音声を音素列に変換する音素列変換ステップと、
    前記音声感情スコアと前記顔感情スコアとに基づいて、音素列のうち、前記ユーザの感情と関連度が高い音素列を感情音素列として抽出する抽出ステップと、
    前記抽出ステップにより抽出された感情音素列に基づいて、前記ユーザの感情認識に係る処理を実行する処理ステップと、
    を含むことを特徴とする感情認識方法。
  8. 情報処理装置のコンピュータを、
    ユーザが発音した音声を取得する音声取得手段、
    感情毎に、前記音声を発音した際の前記ユーザの感情が当該感情である可能性の高さを示す当該感情に係る音声感情スコアを取得する音声感情スコア取得手段、
    前記音声が録音された際に撮像された前記ユーザの顔画像を取得する顔画像取得手段、
    感情毎に、前記顔画像が撮像された際の前記ユーザの感情が当該感情である可能性の高さを示す当該感情に係る顔感情スコアを取得する顔感情スコア取得手段、
    前記音声を音素列に変換する音素列変換手段、
    前記音声感情スコアと前記顔感情スコアとに基づいて、音素列のうち、前記ユーザの感情と関連度が高い音素列を感情音素列として抽出する抽出手段、
    前記抽出手段により抽出された感情音素列に基づいて、前記ユーザの感情認識に係る処理を実行する処理手段、
    として機能させることを特徴とするプログラム。
JP2017056482A 2017-03-22 2017-03-22 情報処理装置、感情認識方法、及び、プログラム Active JP6866715B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017056482A JP6866715B2 (ja) 2017-03-22 2017-03-22 情報処理装置、感情認識方法、及び、プログラム
US15/868,421 US20180277145A1 (en) 2017-03-22 2018-01-11 Information processing apparatus for executing emotion recognition
CN201810092508.7A CN108630231B (zh) 2017-03-22 2018-01-30 信息处理装置、感情识别方法以及存储介质
JP2021065068A JP7143916B2 (ja) 2017-03-22 2021-04-07 情報処理装置、情報処理方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017056482A JP6866715B2 (ja) 2017-03-22 2017-03-22 情報処理装置、感情認識方法、及び、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021065068A Division JP7143916B2 (ja) 2017-03-22 2021-04-07 情報処理装置、情報処理方法、及び、プログラム

Publications (3)

Publication Number Publication Date
JP2018159788A JP2018159788A (ja) 2018-10-11
JP2018159788A5 JP2018159788A5 (ja) 2020-03-26
JP6866715B2 true JP6866715B2 (ja) 2021-04-28

Family

ID=63583528

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017056482A Active JP6866715B2 (ja) 2017-03-22 2017-03-22 情報処理装置、感情認識方法、及び、プログラム
JP2021065068A Active JP7143916B2 (ja) 2017-03-22 2021-04-07 情報処理装置、情報処理方法、及び、プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021065068A Active JP7143916B2 (ja) 2017-03-22 2021-04-07 情報処理装置、情報処理方法、及び、プログラム

Country Status (3)

Country Link
US (1) US20180277145A1 (ja)
JP (2) JP6866715B2 (ja)
CN (1) CN108630231B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017239B2 (en) * 2018-02-12 2021-05-25 Positive Iq, Llc Emotive recognition and feedback system
JP7192222B2 (ja) * 2018-03-08 2022-12-20 トヨタ自動車株式会社 発話システム
US11127181B2 (en) * 2018-09-19 2021-09-21 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation
CN111145871A (zh) * 2018-11-02 2020-05-12 京东方科技集团股份有限公司 情绪干预方法、装置和***,以及计算机可读存储介质
AU2020211809A1 (en) * 2019-01-25 2021-07-29 Soul Machines Limited Real-time generation of speech animation
US20220392625A1 (en) * 2019-10-30 2022-12-08 Lululemon Athletica Canada Inc. Method and system for an interface to provide activity recommendations
CN110910903B (zh) * 2019-12-04 2023-03-21 深圳前海微众银行股份有限公司 语音情绪识别方法、装置、设备及计算机可读存储介质
CN113126951B (zh) * 2021-04-16 2024-05-17 深圳地平线机器人科技有限公司 音频播放方法、装置、计算机可读存储介质及电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157976A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP2003248841A (ja) * 2001-12-20 2003-09-05 Matsushita Electric Ind Co Ltd バーチャルテレビ通話装置
JP2004310034A (ja) * 2003-03-24 2004-11-04 Matsushita Electric Works Ltd 対話エージェントシステム
JP4403859B2 (ja) * 2004-03-30 2010-01-27 セイコーエプソン株式会社 感情マッチング装置
JP4456537B2 (ja) * 2004-09-14 2010-04-28 本田技研工業株式会社 情報伝達装置
US7983910B2 (en) * 2006-03-03 2011-07-19 International Business Machines Corporation Communicating across voice and text channels with emotion preservation
WO2007148493A1 (ja) * 2006-06-23 2007-12-27 Panasonic Corporation 感情認識装置
US20080096533A1 (en) * 2006-10-24 2008-04-24 Kallideas Spa Virtual Assistant With Real-Time Emotions
JP5326843B2 (ja) * 2009-06-11 2013-10-30 日産自動車株式会社 感情推定装置及び感情推定方法
TWI395201B (zh) * 2010-05-10 2013-05-01 Univ Nat Cheng Kung 情緒語音辨識方法及系統
JP5496863B2 (ja) * 2010-11-25 2014-05-21 日本電信電話株式会社 感情推定装置、その方法、プログラム及びその記録媒体
JP5694976B2 (ja) * 2012-02-27 2015-04-01 日本電信電話株式会社 分散補正パラメータ推定装置、音声認識システム、分散補正パラメータ推定方法、音声認識方法及びプログラム
US9031293B2 (en) * 2012-10-19 2015-05-12 Sony Computer Entertainment Inc. Multi-modal sensor based emotion recognition and emotional interface
US9020822B2 (en) * 2012-10-19 2015-04-28 Sony Computer Entertainment Inc. Emotion recognition using auditory attention cues extracted from users voice
CN103903627B (zh) * 2012-12-27 2018-06-19 中兴通讯股份有限公司 一种语音数据的传输方法及装置
JP6033136B2 (ja) * 2013-03-18 2016-11-30 三菱電機株式会社 情報処理装置およびナビゲーション装置
WO2015107681A1 (ja) * 2014-01-17 2015-07-23 任天堂株式会社 情報処理システム、情報処理サーバ、情報処理プログラム、および情報提供方法
US10884503B2 (en) * 2015-12-07 2021-01-05 Sri International VPA with integrated object recognition and facial expression recognition
WO2017112813A1 (en) * 2015-12-22 2017-06-29 Sri International Multi-lingual virtual personal assistant

Also Published As

Publication number Publication date
JP2021105736A (ja) 2021-07-26
JP7143916B2 (ja) 2022-09-29
JP2018159788A (ja) 2018-10-11
CN108630231B (zh) 2024-01-05
US20180277145A1 (en) 2018-09-27
CN108630231A (zh) 2018-10-09

Similar Documents

Publication Publication Date Title
JP6866715B2 (ja) 情報処理装置、感情認識方法、及び、プログラム
US10438586B2 (en) Voice dialog device and voice dialog method
JP6251958B2 (ja) 発話解析装置、音声対話制御装置、方法、及びプログラム
JP6754184B2 (ja) 音声認識装置及び音声認識方法
US11705105B2 (en) Speech synthesizer for evaluating quality of synthesized speech using artificial intelligence and method of operating the same
CN106503646B (zh) 多模态情感辨识***及方法
KR102191425B1 (ko) 인터랙티브 캐릭터 기반 외국어 학습 장치 및 방법
EP2562746A1 (en) Apparatus and method for recognizing voice by using lip image
JP4867804B2 (ja) 音声認識装置及び会議システム
JP5200712B2 (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
CN110706714B (zh) 说话者模型制作***
US20200184958A1 (en) System and method for detection and correction of incorrectly pronounced words
KR20100019596A (ko) 음성인식을 이용한 언어 번역 방법 및 장치
KR20080086791A (ko) 음성 기반 감정 인식 시스템
US10839800B2 (en) Information processing apparatus
JP5105943B2 (ja) 発話評価装置及び発話評価プログラム
JP2013205842A (ja) プロミネンスを使用した音声対話システム
CN111145748B (zh) 音频识别置信度确定方法、装置、设备及存储介质
CN117636872A (zh) 音频处理方法、装置、电子设备和可读存储介质
KR102333029B1 (ko) 발음 평가 방법 및 이를 이용한 디바이스
CN110930988B (zh) 一种音素评分的确定方法及***
KR102113879B1 (ko) 참조 데이터베이스를 활용한 화자 음성 인식 방법 및 그 장치
JP4610451B2 (ja) 音声認識装置及びプログラム
US20220262363A1 (en) Speech processing device, speech processing method, and recording medium
JP2010204442A (ja) 音声認識装置、音声認識方法、音声認識プログラムおよびプログラム記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210322

R150 Certificate of patent or registration of utility model

Ref document number: 6866715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150