JP7379788B2 - 感情推定装置、及び、感情推定システム - Google Patents

感情推定装置、及び、感情推定システム Download PDF

Info

Publication number
JP7379788B2
JP7379788B2 JP2019126106A JP2019126106A JP7379788B2 JP 7379788 B2 JP7379788 B2 JP 7379788B2 JP 2019126106 A JP2019126106 A JP 2019126106A JP 2019126106 A JP2019126106 A JP 2019126106A JP 7379788 B2 JP7379788 B2 JP 7379788B2
Authority
JP
Japan
Prior art keywords
evaluation value
voice
user
character
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019126106A
Other languages
English (en)
Other versions
JP2021012285A (ja
Inventor
秀行 窪田
博子 進藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2019126106A priority Critical patent/JP7379788B2/ja
Publication of JP2021012285A publication Critical patent/JP2021012285A/ja
Application granted granted Critical
Publication of JP7379788B2 publication Critical patent/JP7379788B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、感情推定装置、及び、感情推定システムに関する。
近年、喜び、怒り、悲しみ、及び、平常等のユーザが抱く感情を、ユーザの状況を考慮して推定する技術が知られている。例えば、特許文献1には、ユーザの音声情報の特徴量と感情との関係を学習済みの学習モデルに、ユーザの状況に応じて補正された特徴量を入力して、学習モデルからユーザが抱く感情を出力させる技術が開示されている。
特開2018-072876号公報
しかしながら、ユーザの音声について感情の発露が乏しい状況では、感情を音声に発露しにくい状況なのか、又は、そもそもユーザが感情を込めて発露していない状況なのかが判断することが困難であるため、ユーザが抱く感情を精度良く判断することが困難である。
本発明の好適な態様にかかる感情推定装置は、ユーザの音声情報に基づいて、前記ユーザの音声について特徴量を生成する生成部と、前記特徴量に基づいて、前記ユーザが第1感情を抱く強度を示す第1音声評価値と、前記ユーザが第2感情を抱く強度を示す第2音声評価値とを生成する第1評価部と、前記音声情報に基づいて、前記ユーザの発話内容を示す認識文字列を生成する認識部と、前記認識文字列に基づいて、前記ユーザが前記第1感情を抱く強度を示す第1文字評価値と、前記ユーザが前記第2感情を抱く強度を示す第2文字評価値とを生成する第2評価部と、前記ユーザの状況を示す状況情報に基づいて、前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値を補正する補正部と、前記補正部の補正結果に基づいて、前記ユーザが抱く1つ以上の感情を推定する推定部と、を備える。
本発明の好適な態様にかかる感情推定システムは、上述の感情推定装置と、前記感情推定装置と通信可能な端末装置とを備える感情推定システムであって、前記端末装置は、前記ユーザの音声を集音する集音装置と、前記ユーザの状況を示す状況情報を生成する状況情報生成部と、前記ユーザの音声を示す前記音声情報及び前記状況情報を前記感情推定装置に送信し、前記感情推定装置から、前記認識文字列、及び、前記推定部が推定した前記ユーザが抱く1つ以上の感情を示す感情情報を受信する通信装置と、前記感情情報が示す感情に応じた処理を前記認識文字列に対して実行することにより得られる情報を出力する出力部と、を備える。
本発明によれば、ユーザの音声について感情の発露が乏しい状況であっても、ユーザが抱く感情を精度良く推定できる。
ユーザ装置1の概要を示す図。 第1実施形態にかかるユーザ装置1の構成を示すブロック図。 解析用辞書情報31の記憶内容の一例を示す図。 感情分類情報33の記憶内容の一例を示す図。 スケジュール情報35の記憶内容の一例を示す図。 ユーザ装置1の機能の概要を示す図。 状況関係情報37の記憶内容の一例を示す図。 ユーザ装置1の動作を示すフローチャート。 第2実施形態にかかるユーザ装置1aを示すブロック図。 第2実施形態におけるユーザ装置1aの機能の概要を示す図。 文字列関係情報38の記憶内容の一例を示す図。 ユーザ装置1aの動作を示すフローチャート。 感情推定システムSYSの全体構成を示す図。 ユーザ装置1bの構成を示すブロック図。 サーバ装置10の構成を示すブロック図。
1.第1実施形態
図1は、ユーザ装置1の概要を示す図である。ユーザ装置1は、スマートフォンを想定する。ユーザ装置1が、「感情推定装置」の一例である。ただし、ユーザ装置1としては、任意の情報処理装置を採用することができ、例えば、パーソナルコンピュータ等の端末型の情報機器であってもよいし、ノートパソコン、ウェアラブル端末及びタブレット端末等の可搬型の情報端末であってもよい。
ユーザ装置1は、ユーザ装置1を所持するユーザUの音声を含む音を示す音声情報に対して音声認識処理を実行して得られた認識文字列を、他者が利用する装置に送信する機能、又は、ユーザUの付近に位置する他者に聞かせるために、認識文字列を示す音を放音する機能を有する。さらに、ユーザ装置1は、ユーザUの音声に基づいてユーザUが抱く感情を推定し、認識文字列に対して、推定した感情に応じた図形を認識文字列に付加する、又は、推定した感情に応じた抑揚で認識文字列を示す音を放音することにより、コミュニケーションに必要な感情表現を付加できる。
図1の例では、ユーザUが「こんにちは」と発声し、ユーザ装置1が、推定した感情に応じた図形PIを、認識文字列を表す画像に付加している。
図2は、第1実施形態にかかるユーザ装置1の構成を示すブロック図である。ユーザ装置1は、処理装置2、記憶装置3、入力装置4、出力装置5、通信装置6、慣性センサ7、及び、GPS(Global Positioning System)装置8を具備するコンピュータシステムにより実現される。ユーザ装置1の各要素は、情報を通信するための単体又は複数のバス9で相互に接続される。なお、本明細書における「装置」という用語は、回路、デバイス又はユニット等の他の用語に読替えてもよい。また、ユーザ装置1の各要素は、単数又は複数の機器で構成され、ユーザ装置1の一部の要素は省略されてもよい。
処理装置2は、ユーザ装置1の全体を制御するプロセッサであり、例えば、単数又は複数のチップで構成される。処理装置2は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)で構成される。なお、処理装置2の機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアによって実現してもよい。処理装置2は、各種の処理を並列的又は逐次的に実行する。
記憶装置3は、処理装置2が読取可能な記録媒体であり、処理装置2が実行する制御プログラムPRを含む複数のプログラム、解析用辞書情報31、感情分類情報33、スケジュール情報35、状況関係情報37、及び、学習モデルLMを記憶する。記憶装置3は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等の記憶回路の1種類以上で構成される。
図3は、解析用辞書情報31の記憶内容の一例を示す図である。解析用辞書情報31は、形態素ごとに、品詞、品詞細分類、及び、原形情報を互いに対応付けた情報である。形態素は、意味を有する表現要素の最小単位の文字列である。品詞は、文法的性質によって分類された単語の種別であり、名詞、動詞、及び形容詞等である。品詞細分類は、品詞をさらに細分類した項目である。原形情報は、該当の形態素が活用する単語である場合、単語の原形を示す文字列であり、該当の形態素が活用しない単語である場合、該当の形態素と同一の文字列である。
図4は、感情分類情報33の記憶内容の一例を示す図である。感情分類情報33は、文字列を、喜び、怒り、悲しみ、及び、平常の何れかに分類した情報である。図4の例では、喜びに分類された文字列群331は、「嬉しい」、「合格」、「勝つ」、及び、「勝っ」等を含む。同様に、怒りに分類された文字列群332は、「イライラ」、及び、「むかっ腹」等を含む。同様に、悲しみに分類された文字列群333は、「悲しい」、及び、「敗ける」等を含む。同様に、平常に分類された文字列群334は、「安心」等を含む。
図5は、スケジュール情報35の記憶内容の一例を示す図である。スケジュール情報35は、ユーザUのスケジュールを示す。図5に示すスケジュール情報35は、レコード35_1~35_3を有する。レコード35_1は、2019年4月10日の10時から11時までのユーザUの予定が、クライアントと打合せであることを示す。レコード35_2は、2019年4月12日の15時から16時までのユーザUの予定が、部内会議への出席であることを示す。レコード35_3は、2019年4月15日の18時から20時までのユーザUの予定が、同窓会への出席であることを示す。
説明を図2に戻す。状況関係情報37は、感情を推定する際に用いられる。学習モデルLMは、人間の音声に応じた特徴量と、複数の感情の各々に対する強度との関係を学習済みである。また、学習モデルLMは、複数の人間について、人間の音声に応じた特徴量と、複数の感情の各々に対する強度との関係を学習済みであることが好ましい。
入力装置4は、ユーザ装置1が使用する情報を処理装置2に入力するための機器である。入力装置4は、集音装置41と、タッチパネル43とを含む。出力装置5は、情報を出力するための機器である。出力装置5は、表示装置51と、放音装置53とを含む。
集音装置41は、例えばマイクロフォン及びAD変換器で構成され、処理装置2による制御のもとで、ユーザUの音声を含む音を集音する。マイクロフォンは、集音した音声を電気信号に変換する。AD変換器は、マイクロフォンが変換した電気信号をAD変換して、図6に示す音声情報VIに変換する。音声情報VIが示す音には、発話者の音声に加えて、発話者の周囲から発せられた雑音が含まれ得る。タッチパネル43は、表示装置51の表示面に対する接触を検出する。なお、ユーザUが操作可能な複数の操作子をタッチパネル43が含んでもよい。
表示装置51は、処理装置2による制御のもとで各種の画像を表示する。例えば液晶表示パネル、有機EL(electro-luminescence)表示パネル等の各種の表示パネルが、表示装置51として好適に利用される。放音装置53は、例えばスピーカで構成され、処理装置2による制御のもとで、音を放音する。
通信装置6は、ネットワークを介して他の装置と通信を行うためのハードウェア(送受信デバイス)である。通信装置6は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。
慣性センサ7は、ユーザ装置1にかかる慣性力を測定し、測定結果から得られる、図6に示す慣性情報IFIを出力する。例えば、慣性センサ7は、加速度センサ及び角速度センサの一方又は両方である。
GPS装置8は、複数の衛星からの電波を受信し、図6に示す位置情報PoIを生成する。位置情報PoIは、位置を特定できるのであれば、どのような形式であってもよい。位置情報PoIは、例えば、ユーザ装置1の緯度と経度とを示す。また、本実施形態では、位置情報PoIはGPS装置8から得られることを例示するが、ユーザ装置1は、どのような方法で位置情報PoIを取得してもよい。例えば、ユーザ装置1は、ユーザ装置1の通信先となる基地局に割り当てられたセルID(IDentifier)を位置情報PoIとして取得する。セルIDは基地局を一意に識別する識別情報である。さらに、ユーザ装置1が無線LAN(Local Area Network)のアクセスポイントと通信する場合には、アクセスポイントに割り当てられたネットワーク上の識別アドレス(MAC(Media Access Control)アドレス)と実際の住所(位置)とを対応付けたデータベースを参照して位置情報PoIを取得してもよい。
1.1.第1実施形態の機能
処理装置2は、記憶装置3から制御プログラムPRを読み取り実行することによって、取得部21、状況情報生成部23、感情情報生成部25、及び、出力部27として機能する。
図6を用いて、処理装置2によって実現される機能について説明する。
図6は、ユーザ装置1の機能の概要を示す図である。取得部21は、集音装置41が出力する音声情報VIを取得する。
状況情報生成部23は、GPS装置8から得られる位置情報PoI、慣性センサ7から得られる慣性情報IFI、及び、スケジュール情報35に基づいて、ユーザUの状況を示す状況情報SiIを生成する。より詳細には、状況情報生成部23は、位置情報PoIに基づいて、ユーザUの場所を特定する。場所には、例えば、ユーザUの自宅、ユーザUの会社、及び、ユーザUの自宅から会社までの通勤経路内等がある。また、状況情報生成部23は、慣性情報IFIに基づいて、ユーザUが停止しているか、ユーザUが歩行しているか、又は、ユーザUが車両に乗り移動中か、を判定する。そして、状況情報生成部23は、特定した場所が自宅である場合、状況情報SiIとして、ユーザUが自宅にいる状況を示す識別情報を生成する。また、特定した場所が通勤経路内であり、且つ、ユーザUが車両に乗り移動中である場合、状況情報生成部23は、状況情報SiIとして、ユーザUが電車を利用している状況を示す識別情報を生成する。電車を利用している状況は、「公共の交通機関を利用している状況」の一例である。また、スケジュール情報35が、現在の時間におけるユーザUの予定について、スケジュール情報35が打合せ又は会議を示す場合、状況情報生成部23は、状況情報SiIとして、ユーザUが会議中である状況を示す識別情報を生成する。
感情情報生成部25は、ユーザUが抱く複数の感情の中から、ユーザUが抱く1つ以上の感情を推定する。第1実施形態において、ユーザUが抱く複数の感情は、喜び、怒り、悲しみ、及び、平常の4つであるとして説明する。以下、喜び、怒り、悲しみ、及び、平常は複数の感情の一例である。
感情情報生成部25は、特徴量生成部251、第1評価部252、認識部254、第2評価部255、補正部257、及び、推定部258を含む。特徴量生成部251は、「生成部」の一例である。
特徴量生成部251は、音声情報VIから、ユーザUの音声について特徴量を生成する。特徴量は、例えば、MFCC(Mel-Frequency Cepstrum Coefficients)12次元、ラウドネス、基本周波数(F0)、音声確率、ゼロ交差率、HNR(Harmonics-to-Noise-Ratio)、及びこれらの一次微分、MFCC及びラウドネスの二次微分の計47個の一部又は全部である。ラウドネスは、音の大きさであり、人間の聴覚が感じる音の強さを示す。音声確率は、音声情報VIが示す音に音声が含まれる確率を示す。ゼロ交差率は、音圧がゼロとなった回数である。また、特徴量生成部251は、音声情報VIに対して補正処理を実行し、補正処理の実行により得られた補正後音声情報から、特徴量を抽出してもよい。補正処理は、例えば、音声情報VIから無音部分のデータを除去する処理、及び、音声情報VIが示す音に含まれるノイズを除去する処理の一方又は両方である。
第1評価部252は、特徴量に基づいて、複数の感情の各々に対応する音声評価値EV1~EV4を生成する。より詳細には、第1評価部252は、喜びに対応する音声評価値EV1、怒りに対応する音声評価値EV2、悲しみに対応する音声評価値EV3、及び、平常に対応する音声評価値EV4を生成する。音声評価値EVは、ユーザUが感情を抱く強度を示す。
以下の説明では、同種の要素を区別する場合には、喜びに対応する音声評価値EV1、怒りに対応する音声評価値EV2のように参照符号を使用する。一方、同種の要素を区別しない場合には、音声評価値EVのように、参照符号のうちの共通番号だけを使用する。
なお、喜び、怒り、悲しみ、及び、平常の各々が、「第1感情」の一例である。「第2感情」は、喜び、怒り、悲しみ、及び、平常のうち「第1感情」とは異なる感情のうち任意の1つの感情である。喜びに対応する音声評価値EV1、怒りに対応する音声評価値EV2、悲しみに対応する音声評価値EV3、平常に対応する音声評価値EV4が、「第1音声評価値」の一例である。第1感情とは異なる第2感情に対応する音声評価値が、「第2音声評価値」の一例である。
例えば、第1評価部252は、以下に示す2つの態様のいずれか一方によって、音声評価値EV1~EV4を生成する。
第1の態様において、第1評価部252は、特徴量と所定値とを比較することにより、音声評価値EV1~EV4を生成する。例えば、喜び又は怒りが音声に発露する場合、喜び又は怒りが音声に発露しない場合と比較して、基本周波数が高くなり、且つ、ラウドネスが大きくなる傾向がある。例えば、第1評価部252は、基本周波数が所定値より大きく、かつ、ラウドネスが所定値より大きい場合に、基本周波数が所定値より小さく、かつ、ラウドネスが所定値より小さい場合と比較して、音声評価値EV1及び音声評価値EV2を大きい値に設定する。
第2の態様において、第1評価部252は、音声評価値EV1~EV4を生成するために、学習モデルLMに、特徴量生成部251が生成した特徴量を入力し、音声評価値EV1~EV4を学習モデルLMから取得する。
認識部254は、音声情報VIに基づいて、ユーザUの発話内容を示す認識文字列RTを生成する。より詳細には、認識部254は、例えば、予め用意された音響モデル及び言語モデルを用いて、音声から文字列を認識する手法を含む音声認識処理を実行して、認識文字列RTを出力する。
第2評価部255は、認識文字列RTに基づいて、複数の感情の各々に対応する文字評価値ETを生成する。より詳細には、第2評価部255は、喜びに対応する文字評価値ET1、怒りに対応する文字評価値ET2、悲しみに対応する文字評価値ET3、及び、平常に対応する文字評価値ET4を生成する。文字評価値ETは、ユーザUが感情を抱く強度を示す。
なお、喜びに対応する文字評価値ET1、怒りに対応する文字評価値ET2、悲しみの文字評価値ET3、及び、平常に対応する文字評価値ET4が、「第1文字評価値」の一例である。第1感情とは異なる第2感情に対応する文字評価値が、「第2文字評価値」の一例である。
より詳細には、第2評価部255は、解析部2552と、算出部2554とを含む。解析部2552は、解析用辞書情報31を参照して、認識文字列RTに対して形態素解析処理を実行して、補正後認識文字列CRTを出力する。形態素解析処理は、認識文字列RTを形態素ごとに分解する処理である。形態素解析処理において、解析用辞書情報31の品詞及び品詞細分類が利用される。補正後認識文字列CRTは、フィラー等といった、ユーザUが抱く感情を推定するためには不要な文字列を除いた文字列である。フィラーは、「ええと」、「あの」、及び、「まあ」といった、発話の合間に挟み込む言葉である。
算出部2554は、感情分類情報33に含まれる文字列と、補正後認識文字列CRTとを比較することにより各感情の文字評価値ETを算出する。各感情の文字評価値ETの算出について、算出部2554は、補正後認識文字列CRTが、感情分類情報33に含まれる文字列を含む場合に、この補正後認識文字列CRTに含まれる文字列に対応する感情の文字評価値ETを増加させる。
例えば、補正後認識文字列CRTが「今日試合に勝った」であれば、算出部2554は、以下のような各感情の文字評価値ETを出力する。
喜びに対応する文字評価値ET1 1
怒りに対応する文字評価値ET2 0
悲しみに対応する文字評価値ET3 0
平常に対応する文字評価値ET4 0
上述の例では、補正後認識文字列CRTに、感情分類情報33に含まれる「勝っ」が含まれているため、算出部2554は、「勝っ」に対応する喜びの文字評価値ET1を1増加させる。増加させる文字評価値ETの増加量は、1に限らなく、感情分類情報33に含まれる文字列ごとに異なってもよい。例えば、より喜びを強く示す文字列に対する文字評価値ETの増加量を2としてもよい。さらに、補正後認識文字列CRTに、感情分類情報33に含まれる文字列、及び、内容を強調する文字列が含まれる場合、算出部2554は、文字評価値ETの増加量を大きくしてもよい。例えば、補正後認識文字列CRTが「今日試合に勝ててとても嬉しい」であれば、補正後認識文字列CRTに感情分類情報33に含まれる「嬉しい」が含まれており、かつ、「とても」という内容を強調する文字列が含まれるため、算出部2554は、例えば、喜びの文字評価値ET1を2増加させる。補正後認識文字列CRTのうち、どの文字列が、内容を強調する文字列であるか否かは、形態素解析処理によって得られる形態素によって判定することができる。以下の例では、説明を容易にするため、増加させる文字評価値ETの増加量が1であるとする。
さらに、補正後認識文字列CRTに、感情分類情報33に含まれる文字列、及び、内容を否定する文字列が含まれる場合、算出部2554は、この補正後認識文字列CRTに含まれる文字列に対応する文字評価値ETを増加させる処理とは異なる処理を実行してもよい。例えば、補正後認識文字列CRTが「今日試合に勝つことができなかった」であれば、補正後認識文字列CRTに感情分類情報33に含まれる「勝つ」が含まれるが、「なかっ」という内容を否定する文字列が含まれるため、算出部2554は、例えば、悲しみの文字評価値ET3を1増加させる。補正後認識文字列CRTのうち、どの文字列が、内容を否定する文字列であるか否かは、形態素解析処理によって得られる形態素によって判定することができる。このように、形態素解析処理によって、補正後認識文字列CRTが肯定的な内容なのか否定的な内容かを推定することが可能である。以下の例では、説明を容易にするため、補正後認識文字列CRTに、感情分類情報33に含まれる文字列が含まれれば、この補正後認識文字列CRTに含まれる文字列に対応する文字評価値ETを増加させることとして説明を行う。
補正部257は、状況情報SiIに基づいて、音声評価値EV1~EV4、及び、文字評価値ET1~ET4を補正する。より詳細には、補正部257は、音声評価値EV1、音声評価値EV2、音声評価値EV3、音声評価値EV4を補正して、補正後の音声評価値CEV1、補正後の音声評価値CEV2、補正後の音声評価値CEV3、補正後の音声評価値CEV4を出力する。同様に、補正部257は、文字評価値ET1、文字評価値ET2、文字評価値ET3、文字評価値ET4を補正して、補正後の文字評価値CET1、補正後の文字評価値CET2、補正後の文字評価値CET3、補正後の文字評価値CET4を出力する。
より詳細には、補正部257は、下記演算を実行することにより、補正後の音声評価値CEV1~CEV4、及び、補正後の文字評価値CET1~CET4を出力する。
CEV1=kv1×EV1
CEV2=kv2×EV2
CEV3=kv3×EV3
CEV4=kv4×EV4
CET1=kt1×ET1
CET2=kt2×ET2
CET3=kt3×ET3
CET4=kt4×ET4
ただし、重み付け係数kv1~kv4、及び、重み付け係数kt1~kt4は、0以上1以下の実数である。さらに、重み付け係数kv1~kv4、及び、重み付け係数kt1~kt4には、以下の条件がある。
kv1+kt1=kv2+kt2=kv3+kt3=kv4+kt4
補正部257は、例えば、状況関係情報37を参照して、重み付け係数kv1~kv4、及び、重み付け係数kt1~kt4を設定する。
図7は、状況関係情報37の記憶内容の一例を示す図である。状況関係情報37は、人間が取り得る状況を示す識別情報と、当該状況に応じて設定された複数の音声評価値EVの各々、及び、複数の文字評価値ETの各々との関係を示す。
人間が取り得る状況には、ユーザの許可なく立ち入りが禁止されるプライベート空間内に当該ユーザがいる状況と、ユーザの許可なく立ち入りが可能な非プライベート空間に当該ユーザがいる状況とが含まれる。プライベート空間は、例えば、自宅の中である。非プライベート空間は、例えば、公共の交通機関内、及び、職場の中である。
図7に示す状況関係情報37には、人間が取り得る状況を示す識別情報として、「自宅」、「電車」、及び、「会議」が登録されている。識別情報「自宅」は、ユーザUが自宅にいる状況を示す。識別情報「電車」は、ユーザUが電車を利用している状況を示す。識別情報「会議」は、ユーザUが職場の会議中である状況を示す。
状況関係情報37は、識別情報「自宅」に関係する重み付け係数について、重み付け係数kv1が重み付け係数kt1より大きいことを示す。同様に、状況関係情報37は、重み付け係数kv2が重み付け係数kt2よりも大きく、かつ、重み付け係数kv3が重み付け係数kt3よりも大きく、かつ、重み付け係数kv4が重み付け係数kt4より大きいことを示す。具体的には、図7に示す識別情報「自宅」に関係する重み付け係数は、以下の通りである。
重み付け係数kv1=0.7
重み付け係数kt1=0.3
重み付け係数kv2=0.8
重み付け係数kt2=0.2
重み付け係数kv3=0.7
重み付け係数kt3=0.3
重み付け係数kv4=0.8
重み付け係数kt4=0.2
また、状況関係情報37は、識別情報「電車」に関係する重み付け係数について、重み付け係数kt1が重み付け係数kv1より大きいことを示す。同様に、状況関係情報37は、重み付け係数kt2が重み付け係数kv2より大きく、かつ、重み付け係数kt3が重み付け係数kv3より大きく、かつ、重み付け係数kt4が重み付け係数kv4より大きいことを示す。具体的には、図7に示す識別情報「電車」に関係する重み付け係数は、以下の通りである。
重み付け係数kv1=重み付け係数kv2=重み付け係数kv3=重み付け係数kv4=0.1
重み付け係数kt1=重み付け係数kt2=重み付け係数kt3=重み付け係数kt4=0.9
また、状況関係情報37は、識別情報「会議」に関係する重み付け係数について、重み付け係数kt1が重み付け係数kv1より大きいことを示す。同様に、状況関係情報37は、重み付け係数kt2が重み付け係数kv2より大きく、かつ、重み付け係数kt3が重み付け係数kv3より大きく、かつ、重み付け係数kt4が重み付け係数kv4より大きいことを示す。具体的には、図7に示す識別情報「会議」に関係する重み付け係数は、以下の通りである。
重み付け係数kv1=0.4
重み付け係数kt1=0.6
重み付け係数kv2=0.2
重み付け係数kt2=0.8
重み付け係数kv3=0.3
重み付け係数kt3=0.7
重み付け係数kv4=0.2
重み付け係数kt4=0.8
説明を図6に戻す。推定部258は、補正部257の補正結果、即ち、補正後の音声評価値CEV1~CEV4、及び、補正後の文字評価値CET1~CET4に基づいて、ユーザUが抱く1つ以上の感情を推定する。例えば、推定部258は、以下の演算を実行して、喜びに対応する評価値E1、怒りに対応する評価値E2、悲しみに対応する評価値E3、及び、平常に対応する評価値E4を生成する。
E1=CEV1+CET1
E2=CEV2+CET2
E3=CEV3+CET3
E4=CEV4+CET4
そして、推定部258は、例えば、以下に示す2つの態様のいずれか一方に従って、ユーザUが抱く感情を推定する。第1の態様において、推定部258は、評価値E1、評価値E2、評価値E3、及び、評価値E4のうち、最も大きい評価値Eに対応する感情を示す感情情報EIを出力する。第2の態様において、推定部258は、評価値E1~E4の各々と閾値と比較して、閾値を上回る評価値Eに対応する感情を示す感情情報EIを出力する。第2の態様では、感情情報EIが、怒り及び悲しみを示すという様に、複数の感情を示すことがある。
感情情報EIは、例えば、以下に示す2つの態様がある。感情情報EIの第1の態様は、推定したユーザUが抱く1以上の感情を示す識別子である。感情を示す識別子には、喜びを示す識別子、怒りを示す識別子、悲しみを示す識別子、及び、平常を示す識別子がある。感情情報EIの第2の態様は、推定したユーザUが抱く1以上の感情を示す識別子と、推定したユーザUが抱く感情の評価値Eとである。
出力部27は、認識部254によって得られた認識文字列RTに対して、感情情報EIが示す1つ以上の感情に応じた処理を実行して得られた情報を出力する。感情に応じた処理は、例えば、下記に示す2つの態様がある。
感情に応じた処理の第1の態様は、認識文字列RTに対して、感情を具象化した図形を付加する処理である。感情を具象化した図形は、例えば、感情を具象化した絵文字、及び、感情を具象化した顔文字である。絵文字は、文字コードに対応付けられた画像である。文字コードは、例えば、Unicodeである。顔文字は、記号及び文字を組み合わせて顔を表現した文字列である。以下の説明では、感情を具象化した図形は、感情を具象化した絵文字であるとして説明する。喜びを具象化した絵文字は、例えば、笑顔を示す絵文字である。怒りを具象化した絵文字は、例えば、怒りの顔を示す絵文字である。悲しみを具象化した絵文字は、例えば、泣き顔を示す絵文字である。さらに、感情情報EIが第2の態様である場合、出力部27は、感情情報EIが示す感情であって、感情情報EIに含まれる評価値Eに応じた強度を有する感情を具象化した絵文字を、認識文字列RTに付加する絵文字として決定してもよい。例えば、感情情報EIが示す感情が悲しみであり、かつ、感情情報EIに含まれる評価値Eが所定の閾値以下である場合、出力部27は、涙をこぼす顔を示す絵文字を認識文字列RTに付加する絵文字として決定する。一方、感情情報EIが示す感情が悲しみであり、かつ、感情情報EIに含まれる評価値Eが所定の閾値より大きい場合、出力部27は、号泣した顔を示す絵文字を認識文字列RTに付加する絵文字として決定する。号泣した顔を示す絵文字は、涙をこぼす顔を示す絵文字と比較して、より高い強度の悲しみを具象化している。
出力部27は、認識文字列RTに絵文字を付加して得られた絵文字付き文字列を出力する。絵文字を付加する位置は、例えば、以下に示す2つがある。第1の位置は、認識文字列RTの末尾である。第2の位置は、認識文字列RT内における、感情分類情報33に含まれる文字列の次である。表示装置51は、出力部27が出力した絵文字付き文字列に基づく画像を表示する。
感情に応じた処理の第2の態様は、感情に基づく抑揚を付加して読み上げた合成音声を生成する処理である。抑揚は、例えば、読み上げ速度を速くするもしくは遅くする、又は、音量を大きくするもしくは小さくすることである。喜びに基づく抑揚は、例えば、読み上げ速度を上げることである。怒りに基づく抑揚は、例えば、音量を大きくすることである。悲しみに基づく抑揚は、例えば、音量を小さくすることである。出力部27は、感情に基づく抑揚を付加して読み上げた合成音声を示す情報を出力する。そして、出力部27は、生成したデータが示す合成音声に、感情に基づく抑揚を付加して、感情に基づく抑揚を付加して読み上げた合成音声を示す情報を出力する。放音装置53は、出力部27が出力したデータが示す合成音声を放音する。
1.2.第1実施形態の動作
次に、ユーザ装置1の動作について、図8を用いて説明する。
図8は、ユーザ装置1の動作を示すフローチャートである。取得部21は、音声情報VIを取得する(ステップS1)。特徴量生成部251は、音声情報VIから、特徴量を生成する(ステップS2)。そして、第1評価部252は、特徴量を学習モデルLMに入力し、各感情の音声評価値EVを取得する(ステップS3)。
一方、認識部254は、音声情報VIに基づいて、認識文字列RTを出力する(ステップS4)。次に、解析部2552は、形態素解析処理を実行して、補正後認識文字列CRTを出力する(ステップS5)。そして、算出部2554は、補正後認識文字列CRTから、各感情の文字評価値ET1~ET4を生成する(ステップS6)。
状況情報生成部23は、GPS装置8から得られる位置情報PoI、慣性センサ7から得られる慣性情報IFI、及び、スケジュール情報35に基づいて、状況情報SiIを生成する(ステップS7)。そして、補正部257は、状況情報SiIが示す状況に応じた重み付け係数kv1~kv4、kt1~kt4に基づいて、音声評価値EV1~EV4と文字評価値ET1~ET4とを補正する(ステップS8)。
推定部258は、補正後の音声評価値CEV1~CEV4と、補正後の文字評価値CET1~CET4とに基づいて、ユーザUが抱く1つ以上の感情を推定し、感情情報EIを出力する(ステップS9)。出力部27は、感情情報EIが示す感情に応じた処理を認識文字列RTに対して実行することにより得られる情報を出力する(ステップS10)。ステップS10の処理終了後、ユーザ装置1は、図8に示す一連の処理を終了する。
1.3.第1実施形態の効果
以上の説明によれば、ユーザ装置1は、状況情報SiIに基づいて、音声評価値EV1~EV4、文字評価値ET1~ET4を補正する。状況情報SiIが、感情を音声に発露しにくい状況を示す場合、音声評価値EV1~EV4の精度が低下していると言える。従って、状況情報SiIが、感情を音声に発露しにくい状況を示す場合、音声評価値EV1~EV4を低くする方式で、音声評価値EV1~EV4、及び、文字評価値ET1~ET4を補正することにより、ユーザUが抱く感情を精度良く補正できる。
また、ユーザ装置1は、人間の音声に応じた複数の特徴量と音声を発した人間が抱く複数の感情の各々に対する強度との関係を学習済みの学習モデルLMに、特徴量生成部251が生成した特徴量を入力し、音声評価値EV1~EV4を学習モデルLMから取得する。学習モデルLMを用いることにより、ユーザ装置1は、精度の良い音声評価値EV1~EV4を取得できる。
また、学習モデルLMは、複数の人間について、人間の音声に応じた複数の特徴量と当該音声を発した人間が抱く複数の感情の各々に対する強度との関係を学習済みである。言い換えれば、学習モデルLMは、複数のユーザの音声情報VIに基づく教師データによって生成されている。従って、学習モデルLMは、特定の個人向けに調整されていない、汎用的なモデルである。第1実施形態において、汎用的な学習モデルLMを利用できるため、特定の個人向けに調整された学習モデルを用いる場合と比較して、導入が容易である。
また、補正部257は、状況関係情報37を参照して、状況情報SiIが示す状況に応じた音声評価値EV1~EV4、及び文字評価値ET1~ET4の各々に対する重み付け係数を設定する。状況関係情報37を参照することにより、感情を発露しにくい状況にユーザUが置かれている状況か否かを精度良く特定できる。
状況関係情報37は、プライベート空間にユーザUがいる状況を示す識別情報に関係する重み付け係数について、重み付け係数kv1が重み付け係数kt1より大きいことを示す。さらに、状況関係情報37は、重み付け係数kv2が重み付け係数kt2より大きく、かつ、重み付け係数kv3が重み付け係数kt3より大きく、重み付け係数kv4が重み付け係数kt4より大きいことを示す。
ユーザUが自宅等のプライベート空間にいる状況では、他者の目を引くこともないので、感情を音声に発露しやすい。従って、重み付け係数kv1が重み付け係数kt1より大きく、重み付け係数kv2が重み付け係数kt2より大きく、重み付け係数kv3が重み付け係数kt3より大きく、かつ、重み付け係数kv4が重み付け係数kt4より大きいことにより、ユーザ装置1は、喜び、怒り、悲しみ、及び、平常を精度良く推定できる。
状況関係情報37は、非プライベート空間にユーザUがいる状況を示す識別情報に関係する重み付け係数について、重み付け係数kt1が重み付け係数kv1より大きいことを示す。さらに、状況関係情報37は、重み付け係数kt2が重み付け係数kv2より大きく、重み付け係数kt3が重み付け係数kv3より大きく、かつ、重み付け係数kt4が重み付け係数kv4より大きいことを示す。
非プライベート空間にユーザUがいる一例として、ユーザUが電車を利用している状況では、感情を込めて発声すると他者の注目を浴びてしまうので、感情を込めずに発声することが一般的と言える。ユーザUが電車を利用している状況は、ユーザUが感情を音声に発露しにくい状況の一つである。非プライベート空間にユーザUがいる他の例として、ユーザUが会議中である状況では、感情を込めて発声することは少ないと言える。ユーザUが会議中である状況は、ユーザUが感情を音声に発露しにくい状況の一つである。
従って、非プライベート空間にユーザUがいる場合には、重み付け係数kt1が重み付け係数kv1より大きく、重み付け係数kt2が重み付け係数kv2より大きく、重み付け係数kt3が重み付け係数kv3より大きく、かつ、重み付け係数kt4が重み付け係数kv4より大きいことにより、ユーザ装置1は、喜び、怒り、悲しみ、及び、平常を精度良く推定できる。
2.第2実施形態
第2実施形態にかかるユーザ装置1aは、認識文字列RTに応じて音声に感情が発露される度合いに基づいて、音声評価値CEV1~CEV4、及び、文字評価値CET1~CET4を補正する点で、第1実施形態にかかるユーザ装置1と相違する。なお、以下に例示する第2実施形態において作用又は機能が第1実施形態と同等である要素については、以上の説明で参照の符号を流用して各々の詳細な説明を適宜に省略する。
2.1.第2実施形態の機能
図9は、第2実施形態にかかるユーザ装置1aを示すブロック図である。ユーザ装置1aは、処理装置2a、記憶装置3a、入力装置4、出力装置5、通信装置6、慣性センサ7、及び、GPS装置8を具備するコンピュータシステムにより実現される。記憶装置3aは、処理装置2aが読取可能な記録媒体であり、処理装置2aが実行する制御プログラムPRaを含む複数のプログラム、解析用辞書情報31、感情分類情報33、スケジュール情報35、状況関係情報37、文字列関係情報38、及び、学習モデルLMを記憶する。
文字列関係情報38は、認識文字列RTに応じて音声に感情が発露される度合いを判定するために用いられる。処理装置2aは、記憶装置3aから制御プログラムPRaを読み取り実行することによって、取得部21、状況情報生成部23、感情情報生成部25a、及び、出力部27として機能する。
図10は、第2実施形態におけるユーザ装置1aの機能の概要を示す図である。感情情報生成部25aは、特徴量生成部251、第1評価部252、認識部254、第2評価部255、補正部257a、及び、推定部258を含む。
補正部257aは、ユーザUが認識文字列RTを発声した場合にユーザUの音声に感情が発露される度合いと、状況情報SiIとに基づいて、音声評価値EV1~EV4、及び、文字評価値ET1~ET4を補正する。例えば、補正部257aは、以下に示す2つの態様のいずれか一方に従って、音声評価値EV1~EV4、及び、文字評価値ET1~ET4を補正する。
第1の態様における補正部257aは、発声した場合にユーザUの音声に感情が発露される度合いの低い文字列と、高い文字列とに分類する。そして、補正部257aは、感情が発露される度合いの低い文字列が認識文字列RTに含まれる場合、認識文字列RTを発声した場合にユーザUの音声に感情が発露される度合いが低いと判定する。一方、感情が発露される度合いの低い文字列が認識文字列RTに含まれていない場合、補正部257aは、認識文字列RTを発声した場合にユーザUの音声に感情が発露される度合いが高いと判定する。そして、補正部257aは、認識文字列RTを発声した場合にユーザUの音声に感情が発露される度合いが低い場合、認識文字列RTを発声した場合にユーザUの音声に感情が発露される度合いが高い場合と比較して、音声評価値EV1~EV4に対応する重み付け係数kv1~kv4を低下させる。
例えば、「ありがとう」は、汎用的な感謝の意味を有する。ユーザUが「ありがとう」と発声する場合、ユーザUが抱く感情は喜びが強くなる。しかしながら、汎用的に使用される文字列は、言い慣れているので起伏なく発声する場合が多く、音声に感情が発露される度合いが低いと言える。従って、補正部257aは、認識文字列RTに「ありがとう」が含まれる場合、音声評価値EV1~EV4に対応する重み付け係数kv1~kv4を低下させる。例えば、補正部257aは、音声評価値EV1~EV4に対応する重み付け係数kv1~kv4から所定値を減算し、文字評価値ET1~ET4に対応する重み付け係数kt1~kt4に所定値を加算する。
第2の態様における補正部257aは、文字列関係情報38及び状況関係情報37に基づいて、音声評価値EV1~EV4、及び、文字評価値ET1~ET4の各々に対する、認識文字列RTに含まれる文字列及び状況情報SiIが示す状況に応じた重み付け係数kv1~kv4、kt1~kt4を設定する。そして、補正部257aは、認識文字列RT及び状況情報SiIが示す状況に応じた重み付け係数に基づいて、音声評価値EV1~EV4、及び、文字評価値ET1~ET4を補正する。
図11は、文字列関係情報38の記憶内容の一例を示す図である。文字列関係情報38は、人間が発声する文字列と、この文字列を発声した場合において人間の音声に感情が発露される度合いに基づき設定された音声評価値EV1~EV4、及び文字評価値ET1~ET4に対する重み付け係数kv1~kv4、kt1~kv4の増減値Δkv1~Δkv4、Δkt1~Δkt4との関係を示す。
増減値Δkv1~Δkv4、及び、増減値Δkt1~Δkt4は、以下の条件がある。
Δkv1+Δkt1=Δkv2+Δkt2=Δkv3+Δkt3=Δkv4+Δkt4=0
図10に示す文字列関係情報38は、文字列「ありがとう」を人間が発声した場合において、以下に示すように、増減値Δkv1~Δkv4、Δkt1~Δkt4を設定することを示す。
増減値Δkv1=-0.2
増減値Δkt1=0.2
増減値Δkv2=-0.2
増減値Δkt2=0.2
増減値Δkv3=-0.2
増減値Δkt3=0.2
増減値Δkv4=-0.1
増減値Δkt4=0.1
なお、増減値Δkv1~Δkv4、Δkt1~Δkt4のうち、0である値が含まれていてもよい。例えば、文字列「ありがとう」に対する増減値Δkv1及びΔkt1は、上述の値であり、増減値Δkv2~Δkv4、Δkt2~Δkt4は、0であってもよい。
補正部257aは、文字列関係情報38に含まれる文字列が認識文字列RTに含まれる場合、下記演算を実行することにより、補正後の音声評価値CEV1~CEV4、及び、補正後の文字評価値CET1~CET4を出力する。
CEV1=(kv1+Δkv1)×EV1
CEV2=(kv2+Δkv2)×EV2
CEV3=(kv3+Δkv3)×EV3
CEV4=(kv4+Δkv4)×EV4
CET1=(kt1+Δkt1)×ET1
CET2=(kt2+Δkt2)×ET2
CET3=(kt3+Δkt3)×ET3
CET4=(kt4+Δkt4)×ET4
増減値Δkv1~Δkv4、及び、増減値Δkt1~Δkt4は、文字列関係情報38において、認識文字列RTに含まれる文字列に対応する値である。また、重み付け係数kvxと増減値Δkvxとの和が0未満である場合、補正部257aは、補正後の音声評価値CEVxを0として出力し、重み付け係数kvxと増減値Δkvxとの和が1より大きい場合、補正後の音声評価値CEVxを音声評価値EVxと同一の値として出力する。同様に、重み付け係数ktxと増減値Δktxとの和が0未満である場合、補正部257aは、補正後の文字評価値CETxを0として出力し、重み付け係数ktxと増減値Δktxとの和が1より大きい場合、補正後の文字評価値CETxを文字評価値ETxと同一の値として出力する。xは、1から4までの整数である。
以下の記載では、補正部257aは、第2の態様であるとして説明する。
2.2.第2実施形態の動作
次に、ユーザ装置1aの動作について、図12を用いて説明する。
図12は、ユーザ装置1aの動作を示すフローチャートである。図12に示すステップS21~ステップS27の処理は、それぞれ、図8に示すステップS1~ステップS7の処理と同一であるため、説明を省略する。
ステップS27の処理終了後、補正部257aは、文字列関係情報38内の文字列が認識文字列RTに含まれるか否かを判定する(ステップS28)。ステップS28の判定結果が肯定の場合、補正部257aは、認識文字列RTに含まれる文字列及び状況情報SiIが示す状況に応じた重み付け係数kv1~kv4に基づいて、音声評価値EV1~EV4と文字評価値ET1~ET4とを補正する(ステップS29)。一方、ステップS28の判定結果が否定の場合、補正部257aは、状況情報SiIが示す状況に応じた重み付け係数kv1~kv4に基づいて、音声評価値EV1~EV4と文字評価値ET1~ET4とを補正する(ステップS30)。
ステップS29の処理又はステップS30の処理終了後、推定部258は、補正後の音声評価値CEV1~CEV4と、補正後の文字評価値CET1~CET4とに基づいて、ユーザUが抱く1つ以上の感情を推定し、感情情報EIを出力する(ステップS31)。出力部27は、感情情報EIが示す感情に応じた処理を認識文字列RTに対して実行することにより得られる情報を出力する(ステップS32)。ステップS10の処理終了後、ユーザ装置1は、図12に示す一連の処理を終了する。
2.3.第2実施形態の効果
以上の説明によれば、ユーザ装置1aは、ユーザUが認識文字列RTを発声した場合にユーザUの音声に感情が発露される度合いと、状況情報SiIとに基づいて、音声評価値EV1~EV4、及び、文字評価値ET1~ET4を補正する。一般的に、発声した場合に感情が発露される度合いが高い文字列と、発声した場合に感情が発露される度合いが低い文字列とが存在するため、発声した場合に感情が発露される度合いに応じて音声評価値EV1~EV4、及び、文字評価値ET1~ET4を補正することにより、ユーザUが抱く感情を精度良く推定できる。
また、ユーザ装置1aは、状況関係情報37と文字列関係情報38とを参照して、音声評価値EV1~EV4、及び、文字評価値ET1~ET4の各々に対する、認識文字列RTに含まれる文字列及び状況情報SiIが示す状況に応じた重み付け係数kv1~kv4、kt1~kt4を設定する。認識文字列RTに含まれる文字列及び状況情報SiIが示す状況に応じた重み付け係数kv1~kv4、kt1~kt4を設定することにより、ユーザUが抱く感情を精度良く推定できる。
3.変形例
本発明は、以上に例示した各実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
(1)上述の各態様では、ユーザ装置1の処理装置2が、取得部21、状況情報生成部23、感情情報生成部25、及び、出力部27として機能したが、これに限らない。第1変形例では、取得部21、状況情報生成部23、感情情報生成部25、及び、出力部27を、ユーザ装置1bと、サーバ装置10とで分散させる。
図13は、感情推定システムSYSの全体構成を示す図である。感情推定システムSYSは、ユーザUが所持するユーザ装置1bと、ネットワークNWと、サーバ装置10とを備える。ユーザ装置1bが、「端末装置」の一例である。サーバ装置10が、第1変形例における「感情推定装置」の一例である。
図14は、ユーザ装置1bの構成を示すブロック図である。ユーザ装置1bは、処理装置2b、記憶装置3b、入力装置4、出力装置5、通信装置6、慣性センサ7、及び、GPS装置8を具備するコンピュータシステムにより実現される。記憶装置3bは、処理装置2bが読取可能な記録媒体であり、処理装置2bが実行する制御プログラムPRbを含む複数のプログラム、及び、スケジュール情報35を記憶する。
処理装置2bは、記憶装置3bから制御プログラムPRbを読み取り実行することによって、取得部21、状況情報生成部23、及び、出力部27として機能する。
通信装置6は、音声情報VI及び状況情報SiIをサーバ装置10に送信し、サーバ装置10から、認識文字列RT及び感情情報EIを受信する。
図15は、サーバ装置10の構成を示すブロック図である。サーバ装置10は、処理装置2B、記憶装置3B、通信装置6Bを具備するコンピュータシステムにより実現される。サーバ装置10の各要素は、情報を通信するための単体又は複数のバス9Bで相互に接続される。記憶装置3Bは、処理装置2Bが読取可能な記録媒体であり、処理装置2Bが実行する制御プログラムPRBを含む複数のプログラム、解析用辞書情報31、感情分類情報33、状況関係情報37、及び、学習モデルLMを記憶する。
処理装置2Bは、記憶装置3Bから制御プログラムPRBを読み取り実行することによって、感情情報生成部25として機能する。
通信装置6Bは、音声情報VI及び状況情報SiIをユーザ装置1bから受信し、認識文字列RT及び感情情報EIをユーザ装置1bに送信する。
以上、第1変形例によれば、取得部21、状況情報生成部23、感情情報生成部25、及び、出力部27を、ユーザ装置1と、サーバ装置10とで分散することができる。
(2)第2実施形態では、補正部257aは、ユーザUが認識文字列RTを発声した場合にユーザUの音声に感情が発露される度合いと、状況情報SiIとに基づいて、音声評価値EV1~EV4、及び、文字評価値ET1~ET4を補正したが、これに限らない。例えば、補正部257aは、ユーザUが認識文字列RTを発声した場合にユーザUの音声に感情が発露される度合いに基づいて、音声評価値EV1~EV4、及び、文字評価値ET1~ET4を補正してもよい。
(3)プライベート空間の一例が、自宅の中であると記載したが、これに限らない。例えば、プライベート空間は、ユーザUが宿泊するホテルの部屋の中でもよい。例えば、ユーザ装置1が、ホテルの部屋のドアの施錠及び開錠を制御できる機能を有すると前提する。この前提の基、ユーザ装置1がホテルの部屋のドアの開錠を指示し、かつ、開錠を指示した時刻から所定時間が経過するまでの間で、ユーザUの移動範囲が所定範囲内である場合には、ユーザ装置1は、ユーザUが宿泊するホテルの部屋の中にいると判定する。
(4)非プライベート空間は、公共の交通機関内、及び、職場の中と記載したが、これらに限らない。例えば、非プライベート空間は、学校の中、病院の中、及び、図書館の中等がある。
(5)公共の交通機関を利用する状況の一例として、電車を利用する状況を挙げたが、公共の交通機関を利用している状況は、電車を利用する状況に限られない。例えば、公共の交通機関を利用している状況として、駅構内にいる状況を含めてもよい。例えば、ユーザ装置1が、交通系IC(Integrated Circuit)カード機能を有する場合、交通系ICカード機能によって駅構内にユーザUが入った場合に、ユーザUが公共の交通機関を利用する状況であると判断してもよい。また、公共の交通機関には、電車に限らず、路線バス、タクシー、フェリー、及び、旅客機等も含まれる。
(6)出力部27は、感情情報EIが示す感情に応じた処理を認識文字列RTに対して実行することにより得られる情報を出力するが、この限りではない。例えば、出力部27は、感情情報EIが示す感情を示す文字列を、表示装置51に出力してもよいし、感情情報EIが示す絵文字を、表示装置51に出力する。
(7)ユーザ装置1は、集音装置41を有さなくてもよい。集音装置41を有さない場合、ユーザ装置1は、通信装置6を介して音声情報VIを取得してもよいし、記憶装置3に記憶された音声情報VIを取得してもよい。
(8)ユーザ装置1は、放音装置53を有さなくてもよい。
(9)ユーザ装置1は、スマートスピーカでもよい。ユーザ装置1がスマートスピーカである場合、ユーザ装置1は、タッチパネル43及び表示装置51を有さなくてもよい。
(10)感情分類情報33は、図4に示すように、「勝つ」、「勝っ」のように、ある単語が活用した複数の形態素のそれぞれを、喜び、怒り、悲しみ、及び、平常の何れかに分類したが、これに限らない。例えば、感情分類情報33は、解析用辞書情報31の原形データに登録された文字列を、喜び、怒り、悲しみ、及び、平常の何れかに分類してもよい。例えば、感情分類情報33は、解析用辞書情報31の原形データに登録された文字列「嬉しい」、「合格」、及び「勝つ」を、喜びに分類する。算出部2554は、補正後認識文字列CRTを形態素ごとに分解し、分解した形態素を、解析用辞書情報31の原形データに登録された文字列に変換する。そして、算出部2554は、変換して得られた文字列と、感情分類情報33に含まれる文字列とが一致する場合に、この補正後認識文字列CRTに含まれる文字列に対応する感情の文字評価値ETを増加させる。
(11)算出部2554は、補正後認識文字列CRTに対して、感情ごとの文字評価値ETを算出したが、認識文字列RTに対して感情ごとの文字評価値ETを算出してもよい。しかしながら、認識文字列RTには、感情を推定するためには不要な文字列が含まれる。従って、補正後認識文字列CRTに対して感情ごとの文字評価値ETを算出することにより、認識文字列RTに対して感情ごとの文字評価値ETを算出する場合と比較して、感情の推定精度を向上できる。
(12)ユーザUが日本語を話す例を用いたが、ユーザが如何なる言語を話しても上述の各態様を適用することが可能である。例えば、ユーザUが、日本語以外の英語、フランス語、又は中国語等を話す場合であっても上述の各態様を適用できる。例えば、ユーザUが英語を話す場合、解析用辞書情報31は、英語の形態素に関する情報であり、感情分類情報33は、英単語を喜び、怒り、悲しみ、及び、平常の何れかに分類した情報であればよい。
(13)上述した各態様の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。
(14)上述した各態様における処理手順、シーケンス、フローチャートなどは、矛盾のない限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(15)上述した各態様において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(16)上述した各態様において、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(17)上述した各態様では、スマートフォン等の可搬型の情報処理装置をユーザ装置1として例示したが、ユーザ装置1の具体的な形態は任意であり、前述の各形態の例示には限定されない。例えば、可搬型又は据置型のパーソナルコンピュータをユーザ装置1として利用してもよい。
(18)上述した各態様では、記憶装置3は、処理装置2が読取可能な記録媒体であり、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、ネットワークから送信されても良い。また、プログラムは、電気通信回線を介して通信網から送信されても良い。
(19)上述した各態様は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
(20)上述した各態様において、説明した情報及び信号などは、様々な異なる技術の何れかを使用して表されてもよい。例えば、上述の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
(21)図2、図6、図9、図10、図14、及び、図15に例示された各機能は、ハードウェア及びソフトウェアの任意の組み合わせによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体で構成された2個以上の装置によって実現されてもよい。
(22)上述した各実施形態で例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
(23)上述した各実施形態において、情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。
(24)上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。
(25)上述した各実施形態において、ユーザ装置1は、移動局である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
(26)上述した各実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(27)本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。従って、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
(28)上述した各実施形態において「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(29)本願の全体において、例えば、英語におけるa、an及びtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。
(30)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。従って、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
1、1a、1b…ユーザ装置、6…通信装置、10…サーバ装置、21…取得部、23…状況情報生成部、25、25a…感情情報生成部、27…出力部、37…状況関係情報、38…文字列関係情報、41…集音装置、251…特徴量生成部、252…第1評価部
254…認識部、255…第2評価部、257、257a…補正部、258…推定部、CET1…補正後の文字評価値、CET2…補正後の文字評価値、CET3…補正後の文字評価値、CET4…補正後の文字評価値、CEV1…補正後の音声評価値、CEV2…補正後の音声評価値、CEV3…補正後の音声評価値、CEV4…補正後の音声評価値、EI…感情情報、ET1…文字評価値、ET2…文字評価値、ET3…文字評価値、ET4…文字評価値、EV1…音声評価値、EV2…音声評価値、EV3…音声評価値、EV4…音声評価値、kt1…重み付け係数、kt2…重み付け係数、kt3…重み付け係数、kt4…重み付け係数、kv1…重み付け係数、kv2…重み付け係数、kv3…重み付け係数、kv4…重み付け係数。

Claims (7)

  1. ユーザの音声情報に基づいて、前記ユーザの音声について特徴量を生成する生成部と、
    前記特徴量に基づいて、前記ユーザが第1感情を抱く強度を示す第1音声評価値と、前記ユーザが第2感情を抱く強度を示す第2音声評価値とを生成する第1評価部と、
    前記音声情報に基づいて、前記ユーザの発話内容を示す認識文字列を生成する認識部と、
    前記認識文字列に基づいて、前記ユーザが前記第1感情を抱く強度を示す第1文字評価値と、前記ユーザが前記第2感情を抱く強度を示す第2文字評価値とを生成する第2評価部と、
    前記ユーザの状況を示す状況情報に基づいて、前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値を補正する補正部と、
    前記補正部の補正結果に基づいて、前記ユーザが抱く1つ以上の感情を推定する推定部と、
    を備え、
    前記補正部は、
    人間が取り得る状況を示す識別情報と、当該状況に応じて設定された前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値の各々に対する重み付け係数との関係を示す状況関係情報を参照して、
    前記状況情報が示す状況に応じた前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値の各々に対する重み付け係数を設定し、
    前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値の各々に対する重み付け係数に基づいて、前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値を補正し、
    前記状況関係情報は、
    前記ユーザの許可なく立ち入りが禁止されるプライベート空間内に前記ユーザがいる状況を示す識別情報に関係する重み付け係数について、前記第1音声評価値に対する重み付け係数が前記第1文字評価値に対する重み付け係数より大きく、かつ、前記第2音声評価値に対する重み付け係数が前記第2文字評価値に対する重み付け係数より大きい、
    ことを示す、
    感情推定装置。
  2. ユーザの音声情報に基づいて、前記ユーザの音声について特徴量を生成する生成部と、
    前記特徴量に基づいて、前記ユーザが第1感情を抱く強度を示す第1音声評価値と、前記ユーザが第2感情を抱く強度を示す第2音声評価値とを生成する第1評価部と、
    前記音声情報に基づいて、前記ユーザの発話内容を示す認識文字列を生成する認識部と、
    前記認識文字列に基づいて、前記ユーザが前記第1感情を抱く強度を示す第1文字評価値と、前記ユーザが前記第2感情を抱く強度を示す第2文字評価値とを生成する第2評価部と、
    前記ユーザの状況を示す状況情報に基づいて、前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値を補正する補正部と、
    前記補正部の補正結果に基づいて、前記ユーザが抱く1つ以上の感情を推定する推定部と、
    を備え、
    前記補正部は、
    人間が取り得る状況を示す識別情報と、当該状況に応じて設定された前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値の各々に対する重み付け係数との関係を示す状況関係情報を参照して、
    前記状況情報が示す状況に応じた前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値の各々に対する重み付け係数を設定し、
    前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値の各々に対する重み付け係数に基づいて、前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値を補正し、
    前記状況関係情報は、
    前記ユーザの許可なく立ち入りが可能な非プライベート空間内に前記ユーザがいる状況を示す識別情報に関係する重み付け係数について、前記第1文字評価値に対する重み付け係数が前記第1音声評価値に対する重み付け係数より大きく、かつ、前記第2文字評価値に対する重み付け係数が前記第2音声評価値に対する重み付け係数より大きい、
    ことを示す、
    感情推定装置。
  3. ユーザの音声情報に基づいて、前記ユーザの音声について特徴量を生成する生成部と、
    前記特徴量に基づいて、前記ユーザが第1感情を抱く強度を示す第1音声評価値と、前記ユーザが第2感情を抱く強度を示す第2音声評価値とを生成する第1評価部と、
    前記音声情報に基づいて、前記ユーザの発話内容を示す認識文字列を生成する認識部と、
    前記認識文字列に基づいて、前記ユーザが前記第1感情を抱く強度を示す第1文字評価値と、前記ユーザが前記第2感情を抱く強度を示す第2文字評価値とを生成する第2評価部と、
    前記ユーザの状況を示す状況情報に基づいて、前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値を補正する補正部と、
    前記補正部の補正結果に基づいて、前記ユーザが抱く1つ以上の感情を推定する推定部と、
    を備え、
    前記補正部は、
    前記ユーザが前記認識文字列を発声した場合に前記ユーザの音声に感情が発露される度合いと、前記状況情報とに基づいて、前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値を補正する、
    感情推定装置。
  4. ユーザの音声情報に基づいて、前記ユーザの音声について特徴量を生成する生成部と、
    前記特徴量に基づいて、前記ユーザが第1感情を抱く強度を示す第1音声評価値と、前記ユーザが第2感情を抱く強度を示す第2音声評価値とを生成する第1評価部と、
    前記音声情報に基づいて、前記ユーザの発話内容を示す認識文字列を生成する認識部と、
    前記認識文字列に基づいて、前記ユーザが前記第1感情を抱く強度を示す第1文字評価値と、前記ユーザが前記第2感情を抱く強度を示す第2文字評価値とを生成する第2評価部と、
    前記ユーザの状況を示す状況情報に基づいて、前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値を補正する補正部と、
    前記補正部の補正結果に基づいて、前記ユーザが抱く1つ以上の感情を推定する推定部と、
    を備え、
    前記補正部は、
    間が取り得る状況を示す識別情報と、当該状況に応じて設定された前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値の各々に対する重み付け係数との関係を示す状況関係情報と、
    前記人間が発声する文字列と、前記文字列を発声した場合において前記人間の音声に感情が発露される度合いに基づき設定された前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値の各々に対する重み付け係数の増減値との関係を示す文字列関係情報と、
    を参照し、
    前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値の各々に対する、前記認識文字列に含まれる文字列及び前記状況情報が示す状況に応じた重み付け係数を設定し、
    前記認識文字列に含まれる文字列及び前記状況情報が示す状況に応じた重み付け係数に基づいて、前記第1音声評価値、前記第2音声評価値、前記第1文字評価値、及び、前記第2文字評価値を補正する、
    感情推定装置。
  5. 前記第1評価部は、
    人間の音声に応じた特徴量と当該音声を発した人間が抱く前記第1感情及び前記第2感情の各々に対する強度との関係を学習済みの学習モデルに、前記生成部が生成した特徴量を入力し、前記第1音声評価値と前記第2音声評価値とを前記学習モデルから取得する、
    請求項1から4のいずれか1項に記載の感情推定装置。
  6. 前記学習モデルは、複数の人間について、前記人間の音声に応じた複数の特徴量と当該音声を発した人間が抱く前記第1感情及び前記第2感情の各々に対する強度との関係を学習済みである、
    請求項5に記載の感情推定装置。
  7. 請求項1から6までの何れか1項に記載の感情推定装置と、前記感情推定装置と通信可能な端末装置とを備える感情推定システムであって、
    前記端末装置は、
    前記ユーザの音声を集音する集音装置と、
    前記状況情報を生成する状況情報生成部と、
    前記ユーザの音声を示す前記音声情報及び前記状況情報を前記感情推定装置に送信し、前記感情推定装置から、前記認識文字列、及び、前記推定部が推定した前記ユーザが抱く1つ以上の感情を示す感情情報を受信する通信装置と、
    前記感情情報が示す感情に応じた処理を前記認識文字列に対して実行することにより得られる情報を出力する出力部と、
    を備える感情推定システム。
JP2019126106A 2019-07-05 2019-07-05 感情推定装置、及び、感情推定システム Active JP7379788B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019126106A JP7379788B2 (ja) 2019-07-05 2019-07-05 感情推定装置、及び、感情推定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019126106A JP7379788B2 (ja) 2019-07-05 2019-07-05 感情推定装置、及び、感情推定システム

Publications (2)

Publication Number Publication Date
JP2021012285A JP2021012285A (ja) 2021-02-04
JP7379788B2 true JP7379788B2 (ja) 2023-11-15

Family

ID=74227962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019126106A Active JP7379788B2 (ja) 2019-07-05 2019-07-05 感情推定装置、及び、感情推定システム

Country Status (1)

Country Link
JP (1) JP7379788B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277567A (ja) 2005-03-30 2006-10-12 Nec Corp 音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法
JP2010054568A (ja) 2008-08-26 2010-03-11 Oki Electric Ind Co Ltd 感情識別装置、感情識別方法およびプログラム
JP2018072876A (ja) 2016-10-24 2018-05-10 富士ゼロックス株式会社 感情推定システム、感情推定モデル生成システム
JP2018132704A (ja) 2017-02-16 2018-08-23 トヨタ自動車株式会社 対話装置
CN108564942A (zh) 2018-04-04 2018-09-21 南京师范大学 一种基于敏感度可调的语音情感识别方法及***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277567A (ja) 2005-03-30 2006-10-12 Nec Corp 音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法
JP2010054568A (ja) 2008-08-26 2010-03-11 Oki Electric Ind Co Ltd 感情識別装置、感情識別方法およびプログラム
JP2018072876A (ja) 2016-10-24 2018-05-10 富士ゼロックス株式会社 感情推定システム、感情推定モデル生成システム
JP2018132704A (ja) 2017-02-16 2018-08-23 トヨタ自動車株式会社 対話装置
CN108564942A (zh) 2018-04-04 2018-09-21 南京师范大学 一种基于敏感度可调的语音情感识别方法及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
松井 辰哉,対話システムに向けたマルチモーダル感情推定及び知識獲得手法,情報処理学会第78回全国大会,日本,一般社団法人情報処理学会,2016年03月10日,4-203~4-204

Also Published As

Publication number Publication date
JP2021012285A (ja) 2021-02-04

Similar Documents

Publication Publication Date Title
EP3438972B1 (en) Information processing system and method for generating speech
US9558743B2 (en) Integration of semantic context information
CN106503646B (zh) 多模态情感辨识***及方法
EP2801091B1 (en) Method, apparatus and computer program product for joint use of speech and text-based features for sentiment detection
US11380351B2 (en) System and method for pulmonary condition monitoring and analysis
US20200012724A1 (en) Bidirectional speech translation system, bidirectional speech translation method and program
US20140025381A1 (en) Evaluating text-to-speech intelligibility using template constrained generalized posterior probability
US20130173264A1 (en) Methods, apparatuses and computer program products for implementing automatic speech recognition and sentiment detection on a device
CN108922521A (zh) 一种语音关键词检索方法、装置、设备及存储介质
US20220122596A1 (en) Method and system of automatic context-bound domain-specific speech recognition
US11823669B2 (en) Information processing apparatus and information processing method
US20200286479A1 (en) Agent device, method for controlling agent device, and storage medium
Peerzade et al. A review: Speech emotion recognition
US20180357269A1 (en) Address Book Management Apparatus Using Speech Recognition, Vehicle, System and Method Thereof
US20220035840A1 (en) Data management device, data management method, and program
JP7379788B2 (ja) 感情推定装置、及び、感情推定システム
JP6373621B2 (ja) 話し方評価装置、話し方評価方法、プログラム
Valsaraj et al. Alzheimer’s dementia detection using acoustic & linguistic features and pre-trained BERT
Dahanayaka et al. A multi-modular approach for sign language and speech recognition for deaf-mute people
US20220036381A1 (en) Data disclosure device, data disclosure method, and program
CN111862946A (zh) 一种订单处理方法、装置、电子设备及存储介质
KR101765154B1 (ko) 음성을 사이버 수화로 제공하는 방법
JP7279287B2 (ja) 感情推定装置、及び、感情推定システム
JP5672175B2 (ja) 話者判別装置、話者判別プログラム及び話者判別方法
CN111731323A (zh) 智能体装置、智能体装置的控制方法及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231012

R150 Certificate of patent or registration of utility model

Ref document number: 7379788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150