JP2012059107A - Emotion estimation device, emotion estimation method and program - Google Patents

Emotion estimation device, emotion estimation method and program Download PDF

Info

Publication number
JP2012059107A
JP2012059107A JP2010202899A JP2010202899A JP2012059107A JP 2012059107 A JP2012059107 A JP 2012059107A JP 2010202899 A JP2010202899 A JP 2010202899A JP 2010202899 A JP2010202899 A JP 2010202899A JP 2012059107 A JP2012059107 A JP 2012059107A
Authority
JP
Japan
Prior art keywords
emotion
subject
emotion estimation
estimation result
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010202899A
Other languages
Japanese (ja)
Inventor
Yosuke Sakao
要祐 坂尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010202899A priority Critical patent/JP2012059107A/en
Publication of JP2012059107A publication Critical patent/JP2012059107A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an emotion estimation device, an emotion estimation method and a program thereof also capable of dealing with mixed emotions that cannot be classified by emotion estimation with one measure.SOLUTION: A camera 11 photographs an image of a subject. A facial expression recognition unit 12 performs emotion estimation of the subject by performing facial expression recognition from the image of the subject photographed with the camera 11. A biological information acquisition unit 13 acquires biological information such as body temperature, heart rate and brain waves of the subject from a biological sensor 2. A biological information analysis unit 14 performs emotion estimation of the subject by analyzing the biological information of the subject acquired by the biological information acquisition unit 13. Based on weighting coefficients input by a user and received from a coefficient acquisition unit 15, an estimation result adjustment unit 16 calculates an adjusted emotion estimation result obtained by combining two kinds of emotion estimation results obtained by the facial expression recognition unit 12 and the biological information analysis unit 14. An estimation result output unit 17 outputs the adjusted emotion estimation result calculated by the estimation result adjustment unit 16.

Description

本発明は被験者の感情を推定する技術に関する。   The present invention relates to a technique for estimating a subject's emotion.

被験者の状態から、被験者の感情を推定する技術が存在する。   There is a technique for estimating the emotion of a subject from the state of the subject.

たとえば、特許文献1は、不特定人物の表情を認識してその人物の感情を推定する感情推定装置を開示している。特許文献1の技術では、所定の感情に関連付けられた特定人物の表情画像を学習することによりニューラルネットワークによる表情マップを生成し、生成した特定人物のそれぞれに対応する表情マップを所定の感情に基づいて複数の領域に区分する。そして、不特定人物の表情画像と区分された領域を有する複数の表情マップとに基づいて不特定人物の感情を推定する。また、複数の表情マップのそれぞれで対応する領域を共通化し、不特定人物の表情画像と共通化された領域を有する複数の表情マップとに基づいて不特定人物の感情を推定する。   For example, Patent Document 1 discloses an emotion estimation device that recognizes the facial expression of an unspecified person and estimates the emotion of the person. In the technique of Patent Document 1, a facial expression map by a neural network is generated by learning a facial expression image of a specific person associated with a predetermined emotion, and the facial expression map corresponding to each of the generated specific persons is based on the predetermined emotion. Into multiple areas. Then, the emotion of the unspecified person is estimated based on the expression image of the unspecified person and a plurality of expression maps having a segmented area. In addition, the corresponding areas of each of the plurality of facial expression maps are shared, and the emotion of the unspecified person is estimated based on the facial expression image of the unspecified person and the plurality of facial expression maps having the shared area.

特許文献2は、適正でかつ使用されている時間が長くなればなるほど正しい判断ができ、かつ、患者の状態に応じた正確な感情判断を可能にした生体情報に基づく感情認識システムを開示している。特許文献2の技術では、患者の身体に着脱が可能なセンサを用いて、当該患者の身体から発せられる生体信号を取り込み、ファジー関数処理を行うことによって当該生体の現在の感情を認識させてその認識結果を出力する。   Patent Document 2 discloses an emotion recognition system based on biological information that is capable of making a correct determination as the time is appropriate and used longer, and that enables accurate emotion determination according to the patient's condition. Yes. In the technology of Patent Document 2, a sensor that can be attached to and detached from a patient's body is used to capture a biological signal emitted from the patient's body and perform fuzzy function processing to recognize the current emotion of the living body. Output the recognition result.

特許文献3は、ユーザの感情状態をより精度良く推定する感情推定装置を開示している。特許文献3の技術では、音声入力装置により、ユーザからの入力となる入力文を示す入力文データを取得し、取得した入力文と、ハードディスクに予め記憶された所定の事例を示す文と当該文により示される感情状態を示す感情状態情報を各々対応付けた事例感情情報の各事例を示す文との類似度を導出し、導出された類似度に基づいてユーザの感情状態を推定する。   Patent Document 3 discloses an emotion estimation device that estimates a user's emotional state with higher accuracy. In the technique of Patent Document 3, input sentence data indicating an input sentence to be input from a user is acquired by a voice input device, the acquired input sentence, a sentence indicating a predetermined case stored in advance on a hard disk, and the sentence The degree of similarity with the sentence indicating each case of the case emotion information in which the emotion state information indicating the emotion state indicated by each is associated is derived, and the emotion state of the user is estimated based on the derived similarity.

特許文献4は、ユーザの感情の状態によって、バリエーションに富んだ対話を行う対話処理装置を開示している。特許文献4の技術では、ユーザからの音声を認識してその音声の韻律情報を抽出し、音声認識結果に含まれる語句の概念情報を抽出する。また、ユーザの顔を撮像して顔画像情報を出力し、ユーザの脈拍数等の生理情報を感知する。そして、上述の韻律情報や、概念情報、顔画像情報、生理情報に基づいて、ユーザの感情を推定し、その感情の推定結果に基づいて、ユーザに出力する出力文を生成する。   Patent Document 4 discloses a dialogue processing apparatus that performs a dialogue rich in variations depending on the emotional state of a user. In the technique of Patent Document 4, speech from a user is recognized, prosodic information of the speech is extracted, and concept information of a phrase included in the speech recognition result is extracted. The user's face is imaged and face image information is output, and physiological information such as the user's pulse rate is sensed. Then, the user's emotion is estimated based on the above-mentioned prosodic information, concept information, face image information, and physiological information, and an output sentence to be output to the user is generated based on the emotion estimation result.

特許文献5は、利用者の発話単語が音声認識辞書にとって未登録語であるのか否か、また、認識誤りのため再発話するべきであるのか否かを、利用者に判り易く提示することができる音声認識装置を開示している。特許文献5の技術では、複数の未登録語検出のための尺度を統計的に組み合わせて判定することで、未登録語の判定精度を向上させる。   Japanese Patent Laid-Open No. 2004-26883 can present to the user easily whether or not the user's utterance word is an unregistered word in the speech recognition dictionary and whether or not to speak again due to a recognition error. A speech recognition device that can be used is disclosed. In the technique of Patent Document 5, the determination accuracy of unregistered words is improved by statistically combining a plurality of measures for detecting unregistered words.

特許文献6は、入力された文から感情および感情極性を推定する際に、複数の方法による推定結果を精度よく統合して誤りを削減する感情推定装置およびプグラムを開示している。特許文献6の技術では、辞書およびルールベースの判定結果と学習ベースの判定結果を、統合ルールに基づいて統合して感情を決定する。   Patent Document 6 discloses an emotion estimation device and a program for accurately integrating estimation results obtained by a plurality of methods and reducing errors when estimating emotion and emotion polarity from an input sentence. In the technique of Patent Literature 6, the dictionary and the rule-based determination result and the learning-based determination result are integrated based on the integration rule to determine the emotion.

特開2008−146318号公報JP 2008-146318 A 特開2006−130121号公報JP 2006-130121 A 特開2009−129405号公報JP 2009-129405 A 特開2001−215993号公報JP 2001-215993 A 国際公開第2005/122144号International Publication No. 2005/122144 特開2010−020390号公報JP 2010-020390 A

関連する技術は、1種類の観点によって感情の推定を行うので複雑な感情の分類ができないという問題点がある。   The related technology has a problem in that since emotions are estimated from one kind of viewpoint, complicated emotions cannot be classified.

特許文献1のような対象者の表情を認識することで対象者の感情を推定する技術の問題点は、明るさが不十分な状況などの画像処理に問題が出る状況において、画像認識の技術を用いている表情認識の精度が低下してしまうため、感情推定の精度が低下してしまうことである。   The problem of the technique for estimating the emotion of the subject by recognizing the facial expression of the subject as in Patent Document 1 is that the image recognition technique is used in a situation where there is a problem in image processing such as a situation where the brightness is insufficient. Since the accuracy of facial expression recognition using the character is lowered, the accuracy of emotion estimation is lowered.

特許文献2のような対象者の生体情報を分析することで対象者の感情を推定する技術の問題点は、対象者の発汗の激しい状況や対象者の病気などで一時的に生体情報が変動している状況では、感情以外の要因による影響が生体情報に大きく現れており、生体情報を基にした感情の推定が困難になってしまうため感情推定の精度が低下してしまうことである。   The problem with the technique of estimating the subject's emotions by analyzing the subject's biological information as in Patent Document 2 is that the biological information temporarily fluctuates due to the subject's sweating situation or the subject's illness, etc. In such a situation, the influence of factors other than emotions appears greatly in the biological information, and it becomes difficult to estimate the emotion based on the biological information, so that the accuracy of the emotion estimation is reduced.

特許文献3のような対象者の音声を分析することで対象者の感情を推定する技術の問題点は、雑音が発生している状況などの音声収録に問題が出る状況においては、分析に用いる音声の質が低下し、正確な音声の分析ができなくなってしまうため、感情推定の精度が低下してしまうことである。   The problem of the technique for estimating the subject's emotion by analyzing the subject's voice as in Patent Document 3 is used for analysis in situations where there is a problem in voice recording such as a situation where noise is occurring. The voice quality is degraded, and accurate voice analysis cannot be performed, so that the accuracy of emotion estimation is lowered.

また、複数の情報を組み合わせて感情を推定する技術であっても、単純な感情モデルで感情の推定を行うので上記の問題点と同様に複雑な感情の分類ができないという問題点がある。たとえば、特許文献4に記載の技術は表情データと音声データと生体情報を組み合わせて、「悲しい」「怒っている」などのいくつかの感情に分類する技術だが、悲しみや怒りの度合いといった細かな感情情報の推定や「悲しみながら怒っている」という複数の感情が複合した感情状態の推定が不可能である。   In addition, even with a technique for estimating emotions by combining a plurality of information, since emotions are estimated using a simple emotion model, there is a problem that complex emotion classification cannot be performed as in the above-described problems. For example, the technique described in Patent Document 4 is a technique that combines facial expression data, voice data, and biological information, and classifies it into several emotions such as “sad” and “angry”. It is impossible to estimate emotion information or an emotional state in which a plurality of emotions “sad and angry” are combined.

特許文献5に記載の技術は、感情の推定を行うものではない。   The technique described in Patent Document 5 does not perform emotion estimation.

特許文献6に記載の技術は、画像、生体情報および音声などの複数の観点から感情の推定を行うものではない。   The technique described in Patent Document 6 does not estimate emotions from a plurality of viewpoints such as images, biological information, and voice.

本発明は、上述のような事情に鑑みてなされたものであり、1種類の尺度による感情の推定では分類できない複雑な感情も扱うことができる感情推定装置、感情推定方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the circumstances as described above, and provides an emotion estimation device, an emotion estimation method, and a program that can handle complex emotions that cannot be classified by emotion estimation based on one type of scale. With the goal.

本発明の第1の観点に係る感情推定装置は、
被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類の手段で感情を推定した感情推定結果を取得する推定手段と、
ユーザが入力した前記感情推定結果を組み合わせる重み付け係数を取得する第1取得手段と、
前記重み付け係数に従って、前記推定手段が取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出する調整手段と、
前記調整手段が算出した前記調整感情推定結果を出力する出力手段と、
を備えることを特徴とする。
The emotion estimation apparatus according to the first aspect of the present invention provides:
Emotion can be detected by at least two types of means: a means for recognizing a subject's facial expression to estimate emotion, a means for detecting biological information of the subject to estimate emotion, and a means for estimating emotion from the voice of the subject. An estimation means for acquiring an emotion estimation result obtained by estimating
First acquisition means for acquiring a weighting coefficient for combining the emotion estimation results input by the user;
Adjusting means for calculating an adjusted emotion estimation result obtained by combining at least two of the emotion estimation results acquired by the estimating means according to the weighting factor;
Output means for outputting the adjusted emotion estimation result calculated by the adjusting means;
It is characterized by providing.

本発明の第2の観点に係る感情推定方法は、
被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類のス手段で感情を推定した感情推定結果を取得する推定ステップと、
ユーザが入力した前記感情推定結果を組み合わせる重み付け係数を取得する第1取得ステップと、
前記重み付け係数に従って、前記推定ステップで取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出する調整ステップと、
前記調整ステップで算出した前記調整感情推定結果を出力する出力ステップと、
を備えることを特徴とする。
The emotion estimation method according to the second aspect of the present invention includes:
At least two types of means: a means for recognizing a subject's facial expression and estimating an emotion; a means for detecting a biological information of the subject to estimate an emotion; and a means for estimating an emotion from the voice of the subject. An estimation step for obtaining an emotion estimation result obtained by estimating an emotion;
A first acquisition step of acquiring a weighting coefficient that combines the emotion estimation results input by the user;
An adjustment step of calculating an adjusted emotion estimation result obtained by combining at least two of the emotion estimation results acquired in the estimation step according to the weighting factor;
An output step of outputting the adjustment emotion estimation result calculated in the adjustment step;
It is characterized by providing.

本発明の第3の観点に係るプログラムは、コンピュータに、
被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類のス手段で感情を推定した感情推定結果を取得する推定ステップと、
ユーザが入力した前記感情推定結果を組み合わせる重み付け係数を取得する第1取得ステップと、
前記重み付け係数に従って、前記推定ステップで取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出する調整ステップと、
前記調整ステップで算出した前記調整感情推定結果を出力する出力ステップと、
を実行させることを特徴とする。
A program according to the third aspect of the present invention is stored in a computer.
At least two types of means: a means for recognizing a subject's facial expression and estimating an emotion; a means for detecting a biological information of the subject to estimate an emotion; and a means for estimating an emotion from the voice of the subject. An estimation step for obtaining an emotion estimation result obtained by estimating an emotion;
A first acquisition step of acquiring a weighting coefficient that combines the emotion estimation results input by the user;
An adjustment step of calculating an adjusted emotion estimation result obtained by combining at least two of the emotion estimation results acquired in the estimation step according to the weighting factor;
An output step of outputting the adjustment emotion estimation result calculated in the adjustment step;
Is executed.

本発明によれば、2種類以上の観点の感情推定結果を用いることで、1種類の尺度による感情の推定では分類できない複雑な感情も扱うことができる。   According to the present invention, by using emotion estimation results from two or more viewpoints, it is possible to handle complex emotions that cannot be classified by emotion estimation using one type of scale.

本発明の実施の形態1に係る感情推定装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the emotion estimation apparatus which concerns on Embodiment 1 of this invention. 実施の形態1に係る感情推定装置をロボットに適用した例を示す図である。It is a figure which shows the example which applied the emotion estimation apparatus which concerns on Embodiment 1 to the robot. 実施の形態1に係る感情推定の動作の一例を示すフローチャートである。5 is a flowchart showing an example of emotion estimation operation according to the first embodiment. 本発明の実施の形態2に係る感情推定装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the emotion estimation apparatus which concerns on Embodiment 2 of this invention. 実施の形態2に係る感情推定装置をロボットに適用した例を示す図である。It is a figure which shows the example which applied the emotion estimation apparatus which concerns on Embodiment 2 to the robot. 実施の形態2に係る感情推定の動作の一例を示すフローチャートである。10 is a flowchart showing an example of emotion estimation operation according to the second embodiment. 本発明の実施の形態3に係る感情推定装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the emotion estimation apparatus which concerns on Embodiment 3 of this invention. 実施の形態3に係る感情推定装置をPCに適用した例を示す図である。It is a figure which shows the example which applied the emotion estimation apparatus which concerns on Embodiment 3 to PC. 実施の形態3に係る感情推定の動作の一例を示すフローチャートである。10 is a flowchart showing an example of emotion estimation operation according to the third embodiment. 本発明の実施の形態に係る感情推定装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the emotion estimation apparatus which concerns on embodiment of this invention.

本発明において、被験者とは、感情を推定する対象であって、感情推定装置を備えるロボットやPCに対し、対話や操作を行う人物である。ユーザとは、被験者の感情を推定するために感情推定装置を利用する人物であって、感情推定装置が出力する被験者の感情の推定結果を取得したり、感情推定装置に設定を入力したりする。重み付け係数とは、複数の感情推定結果を組み合わせる際に、感情推定結果の値にかける係数や優先順位を示す情報である。   In the present invention, a subject is a person who estimates an emotion, and is a person who interacts and operates with a robot or PC equipped with an emotion estimation device. The user is a person who uses the emotion estimation device to estimate the subject's emotion, and obtains the estimation result of the subject's emotion output by the emotion estimation device or inputs settings to the emotion estimation device . The weighting coefficient is information indicating a coefficient or priority applied to the value of the emotion estimation result when a plurality of emotion estimation results are combined.

以下に、発明を実施するための形態について図面を参照して詳細に説明する。なお、図中同一または相当する部分には同じ符号を付す。   EMBODIMENT OF THE INVENTION Below, the form for inventing is demonstrated in detail with reference to drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

(実施の形態1)
図1は、本発明の実施の形態1に係る感情推定装置の構成例を示すブロック図である。感情推定装置1は、カメラ11、表情認識部12、生体情報取得部13、生体情報分析部14、係数取得部15、推定結果調整部16および推定結果出力部17を備える。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of an emotion estimation apparatus according to Embodiment 1 of the present invention. The emotion estimation device 1 includes a camera 11, a facial expression recognition unit 12, a biological information acquisition unit 13, a biological information analysis unit 14, a coefficient acquisition unit 15, an estimation result adjustment unit 16, and an estimation result output unit 17.

カメラ11は、被験者Eの画像を撮影して表情認識部12に送る。   The camera 11 captures an image of the subject E and sends it to the facial expression recognition unit 12.

表情認識部12は、カメラ11から受け取った被験者Eの画像から表情認識を行うことで被験者Eの感情推定を行い、推定結果を推定結果調整部16に送る。表情認識による感情推定は、被験者Eの表情や顔色、視線の動きなどに基づいて行う。   The facial expression recognition unit 12 performs emotion estimation of the subject E by performing facial expression recognition from the image of the subject E received from the camera 11, and sends the estimation result to the estimation result adjustment unit 16. Emotion estimation by facial expression recognition is performed based on the facial expression, facial color, eye movement, etc. of the subject E.

生体情報取得部13は、被験者Eに装着された生体センサ2から被験者Eの体温や心拍数、脳波などの生体情報を取得して生体情報分析部14に送る。   The biological information acquisition unit 13 acquires biological information such as the body temperature, heart rate, and electroencephalogram of the subject E from the biological sensor 2 attached to the subject E and sends the biological information to the biological information analysis unit 14.

生体情報分析部14は、生体情報取得部13から受け取った被験者Eの生体情報を分析することで被験者Eの感情推定を行い、推定結果を推定結果調整部16に送る。   The biological information analysis unit 14 analyzes the biological information of the subject E received from the biological information acquisition unit 13 to estimate the emotion of the subject E, and sends the estimation result to the estimation result adjustment unit 16.

係数取得部15は、ユーザからの入力を受け付けて、表情認識部12および生体情報分析部14による2種類の感情推定結果を組み合わせる際の重み付け係数を推定結果調整部16に送る。   The coefficient acquisition unit 15 receives an input from the user, and sends a weighting coefficient for combining two types of emotion estimation results by the facial expression recognition unit 12 and the biological information analysis unit 14 to the estimation result adjustment unit 16.

推定結果調整部16は、係数取得部15から受け取った重み付け係数に基づいて、表情認識部12および生体情報分析部14による2種類の感情推定結果を組み合わせた調整感情推定結果を算出し、推定結果出力部17に送る。   Based on the weighting coefficient received from the coefficient acquisition unit 15, the estimation result adjustment unit 16 calculates an adjustment emotion estimation result obtained by combining two types of emotion estimation results by the facial expression recognition unit 12 and the biological information analysis unit 14, and the estimation result The data is sent to the output unit 17.

推定結果出力部17は、推定結果調整部16から受け取った調整感情推定結果を出力する。   The estimation result output unit 17 outputs the adjustment emotion estimation result received from the estimation result adjustment unit 16.

生体センサ2は、被験者Eの体温や心拍数、脳波などの生体情報を検出して生体情報取得部13に送る。生体センサ2は、被験者Eが装着する装着型であってもよいし、感情推定装置1の周囲に設置する形式のものであってもよい。非接触の方法の場合、たとえば、レーザによる心拍検出、赤外線カメラ等による体温検出を行う。   The biological sensor 2 detects biological information such as the body temperature, heart rate, and electroencephalogram of the subject E and sends it to the biological information acquisition unit 13. The biosensor 2 may be a wearable type worn by the subject E or may be of a type installed around the emotion estimation device 1. In the case of a non-contact method, for example, heart rate detection using a laser, body temperature detection using an infrared camera, or the like is performed.

図2は、実施の形態1に係る感情推定装置をロボットに適用した例を示す図である。図2の例では、カメラ11はロボットに目として埋め込まれている。また、生体情報取得部13は、生体情報の受信器であって、ロボットの体に埋め込まれている。表情認識部12、生体情報分析部14、係数取得部15、推定結果調整部16および推定結果出力部17は、ロボットの内部に備える。   FIG. 2 is a diagram illustrating an example in which the emotion estimation apparatus according to Embodiment 1 is applied to a robot. In the example of FIG. 2, the camera 11 is embedded in the robot as eyes. The biological information acquisition unit 13 is a biological information receiver and is embedded in the body of the robot. The facial expression recognition unit 12, the biological information analysis unit 14, the coefficient acquisition unit 15, the estimation result adjustment unit 16, and the estimation result output unit 17 are provided inside the robot.

カメラ11はロボット対話者(被験者E)の画像を撮影し、表情認識部12に送る。表情認識部12はカメラ11から受け取った画像のロボット対話者の表情に基づいて、たとえば「好意・嫌悪」の度合いを推定し、推定結果を推定結果調整部16に送る。生体センサ2はロボット対話者が身に付けることでロボット対話者の心拍数と体温とを検出するセンサであり、生体情報取得部13に検出した生体情報を送信する。生体情報取得部13は、生体センサ2から受信した生体情報を生体情報分析部14に送る。生体情報分析部14は生体情報取得部13から受け取ったロボット対話者の心拍数と体温から、たとえば「興奮・沈静」の度合いを推定し、推定結果を推定結果調整部16に送る。   The camera 11 captures an image of the robot talker (subject E) and sends it to the facial expression recognition unit 12. The facial expression recognition unit 12 estimates the degree of “favor / dislike”, for example, based on the facial expression of the robot talker in the image received from the camera 11, and sends the estimation result to the estimation result adjustment unit 16. The biological sensor 2 is a sensor that detects the heart rate and body temperature of the robot talker when worn by the robot talker, and transmits the detected biological information to the biological information acquisition unit 13. The biological information acquisition unit 13 sends the biological information received from the biological sensor 2 to the biological information analysis unit 14. The biological information analysis unit 14 estimates, for example, the degree of “excitement / sedation” from the heart rate and body temperature of the robot talker received from the biological information acquisition unit 13, and sends the estimation result to the estimation result adjustment unit 16.

ロボット設定者(ユーザ)は、ロボットとロボット対話者の対話開始前に、ロボットに備え付けられたスイッチで重み付け係数を入力する。係数取得部15は、ロボット設定者が入力した重み付け係数を推定結果調整部16に送る。推定結果調整部16は、係数取得部15から受け取った重み付け係数に基づいて、表情認識部12および生体情報分析部14による2種類の感情推定結果を組み合わせた調整感情推定結果を算出し、推定結果出力部17に送る。推定結果出力部17は、推定結果調整部16から受け取った調整推定結果をロボットを制御する制御部に出力する。   A robot setter (user) inputs a weighting coefficient with a switch provided in the robot before the conversation between the robot and the robot talker starts. The coefficient acquisition unit 15 sends the weighting coefficient input by the robot setter to the estimation result adjustment unit 16. Based on the weighting coefficient received from the coefficient acquisition unit 15, the estimation result adjustment unit 16 calculates an adjustment emotion estimation result obtained by combining two types of emotion estimation results by the facial expression recognition unit 12 and the biological information analysis unit 14, and the estimation result The data is sent to the output unit 17. The estimation result output unit 17 outputs the adjustment estimation result received from the estimation result adjustment unit 16 to the control unit that controls the robot.

生体情報取得部13が取得する生体情報の例としては、心拍数・脈拍、脳波・脳活動、体温、筋電位、瞬目頻度・速度、血圧、皮膚表面電気活動、分泌物内容物、瞳孔サイズなどが考えられる。表情認識部12、生体情報分析部14による感情の推定には、「興奮・沈静」などの2値分類する形式の他に、喜怒哀楽などの3種以上の感情へ分類する形式、感情を複数のパラメータで表現するモデルにおいてパラメータの値を推定する形式などが考えられる。   Examples of biological information acquired by the biological information acquisition unit 13 include heart rate / pulse, brain wave / brain activity, body temperature, myoelectric potential, blink frequency / velocity, blood pressure, skin surface electrical activity, secretion contents, pupil size And so on. In the estimation of emotions by the facial expression recognition unit 12 and the biometric information analysis unit 14, in addition to the binary classification format such as “excitement / sedation”, the classification and emotions classified into three or more emotions such as emotions are expressed. A model for estimating parameter values in a model expressed by a plurality of parameters is conceivable.

ユーザが入力する重み付け係数は、たとえば、以下のようなものがある。ユーザは、表情認識部12および生体情報分析部14についてどちらを優先させるかを判断し、優先させる方の値に重み付けを行う。推定結果調整部16がこの方法を用いた場合の例を説明する。推定結果調整部16は、「感情の種別:値」の形式の調整感情推定結果を算出することとする。また、推定結果調整部16が係数取得部15から受け取った重み付け係数によれば、ユーザは、表情認識部12が出した感情推定結果の係数を「2」、生体情報分析部14が出した感情推定結果の係数を「1」と設定していることとする。   Examples of weighting factors input by the user include the following. The user determines which of the facial expression recognition unit 12 and the biological information analysis unit 14 is prioritized, and weights the value to be prioritized. An example in which the estimation result adjustment unit 16 uses this method will be described. The estimation result adjustment unit 16 calculates an adjustment emotion estimation result in the form of “emotion type: value”. Further, according to the weighting coefficient received by the estimation result adjustment unit 16 from the coefficient acquisition unit 15, the user sets the coefficient of the emotion estimation result output by the facial expression recognition unit 12 to “2” and the emotion output from the biological information analysis unit 14. Assume that the coefficient of the estimation result is set to “1”.

表情認識部12が出した感情推定結果が「悲しんでいる」で値が40であって、生体情報分析部14が出した感情推定結果が「怒っている」で値が30であるとすると、推定結果調整部16は、「悲しみ:40 怒り:30」という調整感情推定結果を算出する。表情認識部12および生体情報分析部14が出した感情推定結果の感情の種別が同一であった場合は、合算することとしてもよいし、平均をとることとしてもよい。   If the emotion estimation result issued by the facial expression recognition unit 12 is “sad” and the value is 40, the emotion estimation result issued by the biometric information analysis unit 14 is “angry” and the value is 30, The estimation result adjustment unit 16 calculates an adjustment emotion estimation result of “sadness: 40 anger: 30”. When the emotion types of the emotion estimation results issued by the facial expression recognition unit 12 and the biometric information analysis unit 14 are the same, they may be added together or averaged.

表情認識部12および生体情報分析部14は、複数の情報(表情・顔色・視線の動きや心拍数・脳波・体温など)に基づいてそれぞれ感情推定結果を出してもよい。この場合、ユーザは、各情報に基づく感情推定結果に優先順位を付け、優先順位に合わせて重み付けを行う。推定結果調整部16は、感情推定結果の値にユーザが設定した重み付けを行い、組み合わせる。   The facial expression recognition unit 12 and the biological information analysis unit 14 may each output emotion estimation results based on a plurality of pieces of information (facial expressions, facial colors, line-of-sight movements, heart rate, brain waves, body temperature, etc.). In this case, the user gives priority to the emotion estimation result based on each information, and performs weighting according to the priority. The estimation result adjustment unit 16 performs weighting set by the user on the value of the emotion estimation result and combines them.

推定結果出力部17が、ディスプレイなどに調整推定結果を出力する場合、調整感情推定結果は単に「悲しんでいる」「喜んでいる」などの感情の種別を示す情報であってもよい。表情認識部12および生体情報分析部14が出した感情推定結果が感情の種別を示す情報である場合、推定結果調整部16は、2つの推定結果の感情の種別が異なるときはユーザが設定した優先順位の高い方の感情の種別を示す言葉を後ろに付けて結合する。推定結果調整部16がこの方法を用いた場合の例を説明する。推定結果調整部16が係数取得部15から受け取った重み付け係数によれば、ユーザは、表情認識部12の優先順位を上に設定していることとする。   When the estimation result output unit 17 outputs the adjustment estimation result to a display or the like, the adjustment emotion estimation result may simply be information indicating the type of emotion such as “sad” or “happy”. When the emotion estimation result issued by the facial expression recognition unit 12 and the biological information analysis unit 14 is information indicating the type of emotion, the estimation result adjustment unit 16 is set by the user when the emotion types of the two estimation results are different. The words that indicate the type of emotion with the higher priority are followed and combined. An example in which the estimation result adjustment unit 16 uses this method will be described. According to the weighting coefficient received by the estimation result adjustment unit 16 from the coefficient acquisition unit 15, it is assumed that the user has set the priority order of the facial expression recognition unit 12 upward.

表情認識部12が出した感情推定結果が「悲しんでいる」であって、生体情報分析部14が出した感情推定結果が「怒っている」であったとすると、推定結果調整部16は、「悲しみながら怒っている」という調整感情推定結果を算出する。あるいは、前述のように推定結果調整部16が重み付けした結果が「悲しみ:40 怒り:30」であった場合、値の大きい方の感情の種別を示す言葉を後ろに付けて結合し、「怒りながら悲しんでいる」という調整感情推定結果を算出してもよい。   If the emotion estimation result issued by the facial expression recognition unit 12 is “sad” and the emotion estimation result issued by the biological information analysis unit 14 is “angry”, the estimation result adjustment unit 16 The adjustment emotion estimation result of “sad and angry” is calculated. Alternatively, when the result of weighting by the estimation result adjustment unit 16 as described above is “sadness: 40 anger: 30”, the words indicating the type of emotion having the larger value are combined with the suffix, It is also possible to calculate an adjustment emotion estimation result of “sad while being sad”.

なお、これらの重み付けの方法は、2種類以上の感情推定結果を扱う場合でも同様である。   These weighting methods are the same even when two or more types of emotion estimation results are handled.

ロボットの制御部は、推定結果出力部17から送られたロボット対話者の感情の調整推定結果に応じてロボットのロボット対話者に対する振る舞いを変える。このようなロボットの制御の例として、「喜びながら興奮している状態」ではロボット対話者がロボットとの対話で盛り上がっていると判断して現状と同様の振る舞いを続行するよう制御し、「喜んでいるが落ち着いている状態」ではロボット対話者がロボットとの対話にひとまず満足したと判断して対話内容をまとめて対話を切り上げるよう制御し、「嫌悪しながら興奮している状態」ではロボット対話者が怒っていると判断してロボットに謝らせるよう制御し、「嫌悪しているが落ち着いている状態」ではロボット対話者がロボットとの対話内容に興味が持てていないと判断して話題を変えるよう制御するものなどがある。   The control unit of the robot changes the behavior of the robot with respect to the robot talker according to the adjustment estimation result of the emotion of the robot talker sent from the estimation result output unit 17. As an example of such a robot control, in the “excited state with joy”, the robot talker determines that the conversation with the robot is exciting and controls to continue the same behavior as the current situation. In the state of being calm but calm, the robot talker is judged to be satisfied with the dialogue with the robot for the time being, and the dialogue content is controlled to be rounded up and the dialogue is rounded up. It is determined that the person is angry and the robot is apologized to the robot, and in the "disgusted but calm" state, the robot talker judges that he is not interested in the conversation with the robot and There are things that control to change.

このように本実施の形態の感情推定装置1をロボットに適用すると、ロボットの制御部は、推定結果出力部17から受け取ったロボット対話者の感情の調整推定結果に応じてロボットのロボット対話者に対する振る舞いを変えるので、ロボット対話者に柔軟に対応することが可能となる。   As described above, when the emotion estimation apparatus 1 according to the present embodiment is applied to a robot, the control unit of the robot responds to the robot talker of the robot according to the adjustment estimation result of the emotion of the robot talker received from the estimation result output unit 17. Since the behavior is changed, it becomes possible to respond flexibly to the robot interlocutor.

図3は、実施の形態1に係る感情推定の動作の一例を示すフローチャートである。感情推定処理は、感情推定装置1の電源がONになったら開始することとしてもよいし、被験者Eを検知したら開始することとしてもよい。また、感情推定処理は、カメラ11が被験者Eの画像を撮影し、生体情報取得部13が生体情報を取得している間は、繰り返し実行される。   FIG. 3 is a flowchart showing an example of emotion estimation operation according to the first embodiment. The emotion estimation process may be started when the emotion estimation apparatus 1 is turned on, or may be started when the subject E is detected. The emotion estimation process is repeatedly executed while the camera 11 captures an image of the subject E and the biological information acquisition unit 13 acquires the biological information.

まず、カメラ11は、被験者Eの画像を撮影して(ステップS11)、表情認識部12に送る。表情認識部12は、カメラ11から受け取った被験者Eの画像から表情認識を行うことで被験者Eの感情推定を行い(ステップS12)、推定結果を推定結果調整部16に送る。   First, the camera 11 captures an image of the subject E (step S11) and sends it to the facial expression recognition unit 12. The facial expression recognition unit 12 estimates the emotion of the subject E by performing facial expression recognition from the image of the subject E received from the camera 11 (step S12), and sends the estimation result to the estimation result adjustment unit 16.

一方、生体情報取得部13は、被験者Eの心拍数と体温などの生体情報を取得して(ステップS13)、生体情報分析部14に送る。生体情報分析部14は、生体情報取得部13から受け取った被験者Eの生体情報を分析することで被験者Eの感情推定を行い(ステップS14)、推定結果を推定結果調整部16に送る。   On the other hand, the biological information acquisition unit 13 acquires biological information such as the heart rate and body temperature of the subject E (step S13) and sends the biological information to the biological information analysis unit 14. The biometric information analysis unit 14 estimates the emotion of the subject E by analyzing the biometric information of the subject E received from the biometric information acquisition unit 13 (step S14), and sends the estimation result to the estimation result adjustment unit 16.

推定結果調整部16は、係数取得部15から取得した(ステップS15)重み付け係数に基づいて、表情認識部12および生体情報分析部14による2種類の感情推定結果を組み合わせて調整推定結果を算出し(ステップS16)、調整推定結果を推定結果出力部17に送る。推定結果出力部17は、推定結果調整部16から受け取った調整推定結果を出力し(ステップS17)、処理を終了する。   The estimation result adjustment unit 16 calculates an adjustment estimation result by combining the two types of emotion estimation results by the facial expression recognition unit 12 and the biological information analysis unit 14 based on the weighting coefficient acquired from the coefficient acquisition unit 15 (step S15). (Step S16), the adjustment estimation result is sent to the estimation result output unit 17. The estimation result output unit 17 outputs the adjustment estimation result received from the estimation result adjustment unit 16 (step S17), and ends the process.

以上説明したように実施の形態1の感情推定装置1によれば、2種類以上の尺度を用いることで、1種類の尺度による感情の推定では分類できない複雑な感情も扱うことができる。   As described above, according to the emotion estimation apparatus 1 of the first embodiment, by using two or more types of scales, it is possible to handle complex emotions that cannot be classified by the estimation of emotions using one type of scale.

(実施の形態2)
図4は、本発明の実施の形態2に係る感情推定装置の構成例を示すブロック図である。実施の形態2の感情推定装置1には、実施の形態1の感情推定装置1にマイク18および音声分析部19が追加されている。マイク18は、被験者Eの音声を収録するためのマイクロフォンである。音声分析部19はマイク18が収録した被験者Eの音声の音量および発音を分析することで被験者Eの感情推定を行い、推定結果を推定結果調整部16に送る。
(Embodiment 2)
FIG. 4 is a block diagram showing a configuration example of the emotion estimation apparatus according to Embodiment 2 of the present invention. In the emotion estimation device 1 according to the second embodiment, a microphone 18 and a voice analysis unit 19 are added to the emotion estimation device 1 according to the first embodiment. The microphone 18 is a microphone for recording the voice of the subject E. The voice analysis unit 19 estimates the emotion of the subject E by analyzing the sound volume and pronunciation of the subject E recorded by the microphone 18, and sends the estimation result to the estimation result adjustment unit 16.

図5は、実施の形態2に係る感情推定装置をロボットに適用した例を示す図である。図2の例では、カメラ11はロボットの目の部分に埋め込まれている。生体情報取得部13は、生体情報の受信器であって、ロボットの体に埋め込まれている。また、マイク18は、ロボットの耳の部分に埋め込まれている。表情認識部12、生体情報分析部14、係数取得部15、推定結果調整部16、推定結果出力部17および音声分析部19は、ロボットの内部に備える。   FIG. 5 is a diagram illustrating an example in which the emotion estimation apparatus according to Embodiment 2 is applied to a robot. In the example of FIG. 2, the camera 11 is embedded in the eye part of the robot. The biological information acquisition unit 13 is a biological information receiver and is embedded in the body of the robot. The microphone 18 is embedded in the ear part of the robot. The facial expression recognition unit 12, the biological information analysis unit 14, the coefficient acquisition unit 15, the estimation result adjustment unit 16, the estimation result output unit 17, and the voice analysis unit 19 are provided inside the robot.

カメラ11はロボット対話者(被験者E)の画像を撮影し、表情認識部12に送る。表情認識部12はカメラ11から受け取った画像のロボット対話者の表情に基づいて、たとえば「好意・嫌悪」の度合いを推定し、推定結果を推定結果調整部16に送る。生体センサ2はロボット対話者が身に付けることでロボット対話者の心拍数と体温とを検出するセンサであり、生体情報取得部13に検出した生体情報を送信する。生体情報取得部13は、生体センサ2から受信した生体情報を生体情報分析部14に送る。生体情報分析部14は生体情報取得部13から受け取ったロボット対話者の心拍数と体温から、たとえば「興奮・沈静」の度合いを推定し、推定結果を推定結果調整部16に送る。マイク18は、ロボット対話者の音声を収録して音声分析部19に送る。音声分析部19は、マイク18から受け取ったロボット対話者の音声から、たとえば「喜び・悲しみ」の度合いを推定し、推定結果を推定結果調整部16に送る。   The camera 11 captures an image of the robot talker (subject E) and sends it to the facial expression recognition unit 12. The facial expression recognition unit 12 estimates the degree of “favor / dislike”, for example, based on the facial expression of the robot talker in the image received from the camera 11, and sends the estimation result to the estimation result adjustment unit 16. The biological sensor 2 is a sensor that detects the heart rate and body temperature of the robot talker when worn by the robot talker, and transmits the detected biological information to the biological information acquisition unit 13. The biological information acquisition unit 13 sends the biological information received from the biological sensor 2 to the biological information analysis unit 14. The biological information analysis unit 14 estimates, for example, the degree of “excitement / sedation” from the heart rate and body temperature of the robot talker received from the biological information acquisition unit 13, and sends the estimation result to the estimation result adjustment unit 16. The microphone 18 records the voice of the robot talker and sends it to the voice analysis unit 19. The voice analysis unit 19 estimates, for example, the degree of “joy / sadness” from the voice of the robot talker received from the microphone 18, and sends the estimation result to the estimation result adjustment unit 16.

ロボット設定者(ユーザ)は、ロボットとロボット対話者の対話開始前に、ロボットに備え付けられたスイッチで入力する。係数取得部15は、ロボット設定者が入力した重み付け係数を推定結果調整部16に送る。推定結果調整部16は、係数取得部15から受け取った重み付け係数に基づいて、表情認識部12、生体情報分析部14および音声分析部19よる3種類の感情推定結果を組み合わせた調整感情推定結果を算出し、推定結果出力部17に送る。推定結果出力部17は、推定結果調整部16から受け取った調整推定結果をロボットを制御する制御部に出力する。   A robot setter (user) performs input using a switch provided in the robot before the conversation between the robot and the robot talker starts. The coefficient acquisition unit 15 sends the weighting coefficient input by the robot setter to the estimation result adjustment unit 16. Based on the weighting coefficient received from the coefficient acquisition unit 15, the estimation result adjustment unit 16 generates an adjusted emotion estimation result obtained by combining three types of emotion estimation results obtained by the facial expression recognition unit 12, the biological information analysis unit 14, and the voice analysis unit 19. Calculate and send to the estimation result output unit 17. The estimation result output unit 17 outputs the adjustment estimation result received from the estimation result adjustment unit 16 to the control unit that controls the robot.

図6は、実施の形態2に係る感情推定の動作の一例を示すフローチャートである。感情推定処理は、感情推定装置1の電源がONになったら開始することとしてもよいし、被験者Eを検知したら開始することとしてもよい。また、感情推定処理は、カメラ11が被験者Eの画像を撮影し、生体情報取得部13が生体情報を取得し、マイク18が被験者Eの音声を収録している間は繰り返し実行される。   FIG. 6 is a flowchart showing an example of the emotion estimation operation according to the second embodiment. The emotion estimation process may be started when the emotion estimation apparatus 1 is turned on, or may be started when the subject E is detected. The emotion estimation process is repeatedly executed while the camera 11 captures an image of the subject E, the biological information acquisition unit 13 acquires the biological information, and the microphone 18 records the voice of the subject E.

まず、カメラ11は、被験者Eの画像を撮影して(ステップS21)、表情認識部12に送る。表情認識部12は、カメラ11から受け取った被験者Eの画像から表情認識を行うことで被験者Eの感情推定を行い(ステップS22)、推定結果を推定結果調整部16に送る。生体情報取得部13は、被験者Eの心拍数と体温などの生体情報を取得して(ステップS23)、生体情報分析部14に送る。生体情報分析部14は、生体情報取得部13から受け取った被験者Eの生体情報を分析することで被験者Eの感情推定を行い(ステップS24)、推定結果を推定結果調整部16に送る。また、マイク18は、被験者Eの音声を収録して(ステップS25)、音声分析部19に送る。音声分析部19、マイク18から受け取った被験者Eの音声を分析することで被験者Eの感情推定を行い(ステップS26)、推定結果を推定結果調整部16に送る。   First, the camera 11 captures an image of the subject E (step S21) and sends it to the facial expression recognition unit 12. The facial expression recognition unit 12 estimates the emotion of the subject E by performing facial expression recognition from the image of the subject E received from the camera 11 (step S22), and sends the estimation result to the estimation result adjustment unit 16. The biological information acquisition unit 13 acquires biological information such as the heart rate and body temperature of the subject E (step S23) and sends the biological information to the biological information analysis unit 14. The biometric information analysis unit 14 estimates the emotion of the subject E by analyzing the biometric information of the subject E received from the biometric information acquisition unit 13 (step S24), and sends the estimation result to the estimation result adjustment unit 16. The microphone 18 records the voice of the subject E (step S25) and sends it to the voice analysis unit 19. The voice analysis unit 19 analyzes the voice of the subject E received from the microphone 18 to estimate the emotion of the subject E (step S26), and sends the estimation result to the estimation result adjustment unit 16.

推定結果調整部16は、係数取得部15から取得した(ステップS27)重み付け係数に基づいて、表情認識部12、生体情報分析部14およびに音声分析部19よる3種類の感情推定結果を組み合わせて調整推定結果を算出し(ステップS28)、調整推定結果を推定結果出力部17に送る。推定結果出力部17は、推定結果調整部16から受け取った調整推定結果を出力し(ステップS29)、処理を終了する。   The estimation result adjustment unit 16 combines the three types of emotion estimation results by the facial expression recognition unit 12, the biological information analysis unit 14, and the voice analysis unit 19 based on the weighting coefficient acquired from the coefficient acquisition unit 15 (step S27). The adjustment estimation result is calculated (step S28), and the adjustment estimation result is sent to the estimation result output unit 17. The estimation result output unit 17 outputs the adjustment estimation result received from the estimation result adjustment unit 16 (step S29), and ends the process.

以上説明したように実施の形態2の感情推定装置1によれば、3種類の感情推定結果を組み合わせて調整推定結果を算出することで、より精度の高い調整推定結果を算出することができる。   As described above, according to the emotion estimation device 1 of the second embodiment, it is possible to calculate an adjustment estimation result with higher accuracy by calculating an adjustment estimation result by combining three types of emotion estimation results.

実施の形態1では、被験者の画像および生体情報の2つの観点の感情推定結果を採用し、実施の形態2では、被験者の画像、生体情報および音声の3つの観点の感情推定結果を採用した。本発明はこれに限らず、被験者の画像および音声の2つの観点の感情推定結果を採用してもよいし、被験者の生体情報および音声の2つの観点の感情推定結果を採用してもよい。   In the first embodiment, emotion estimation results from two viewpoints of the subject image and biological information are adopted, and in the second embodiment, emotion estimation results from three viewpoints of the subject image, biological information and voice are adopted. The present invention is not limited to this, and emotion estimation results from two viewpoints of the subject's image and voice may be adopted, or emotion estimation results from two viewpoints of the subject's biological information and voice may be adopted.

(実施の形態3)
図7は、本発明の実施の形態3に係る感情推定装置の構成例を示すブロック図である。実施の形態3の感情推定装置1には、実施の形態2の感情推定装置1の係数取得部15および推定結果調整部16に代えて、推定結果選択部20が追加されている。推定結果選択部20は、表情認識部12、生体情報分析部14および音声分析部19から受け取った画像、生体情報および音声に基づいて、感情の推定に関する状況を判定する。推定結果選択部20は、あらかじめ保持している選択条件に従って、画像、生体情報および音声からの3種類の感情推定結果から感情推定結果を選択する。推定結果選択部20は、選択した感情推定結果を感情推定結果出力部17に送る。また、カメラ11は、画像を取得するだけでなく、照度センサや測位センサを備え、照度や測位情報を取得する。
(Embodiment 3)
FIG. 7 is a block diagram showing a configuration example of the emotion estimation apparatus according to Embodiment 3 of the present invention. In the emotion estimation device 1 according to the third embodiment, an estimation result selection unit 20 is added instead of the coefficient acquisition unit 15 and the estimation result adjustment unit 16 of the emotion estimation device 1 according to the second embodiment. The estimation result selection unit 20 determines a situation related to emotion estimation based on images, biological information, and voice received from the facial expression recognition unit 12, the biological information analysis unit 14, and the voice analysis unit 19. The estimation result selection unit 20 selects an emotion estimation result from three types of emotion estimation results from images, biological information, and sound according to selection conditions that are stored in advance. The estimation result selection unit 20 sends the selected emotion estimation result to the emotion estimation result output unit 17. Moreover, the camera 11 includes not only an image but also an illuminance sensor and a positioning sensor, and acquires illuminance and positioning information.

図8は、実施の形態3に係る感情推定装置をPCに適用した例を示す図である。図8の例では、PC操作者(被験者E)の画像を撮影するカメラ11はPCのディスプレイ上に設置されている。マイク18は、PCの周囲に設置されている。表情認識部12、生体情報分析部14、推定結果出力部17、音声分析部19および推定結果選択部20は、PCの内部に備える。   FIG. 8 is a diagram illustrating an example in which the emotion estimation apparatus according to Embodiment 3 is applied to a PC. In the example of FIG. 8, the camera 11 that captures an image of the PC operator (subject E) is installed on the display of the PC. The microphone 18 is installed around the PC. The facial expression recognition unit 12, the biological information analysis unit 14, the estimation result output unit 17, the voice analysis unit 19, and the estimation result selection unit 20 are provided inside the PC.

カメラ11はPC操作者の画像を撮影し、表情認識部12に送る。表情認識部12はカメラ11から受け取った画像のPC操作者の表情に基づいて、たとえば「好意・嫌悪」の度合いを推定し、推定結果を推定結果選択部20に送る。生体センサ2はPC操作者が身に付けることでPC操作者の心拍数と体温とを検出するセンサであり、生体情報取得部13に検出した生体情報を送信する。生体情報取得部13は、生体センサ2から受信した生体情報を生体情報分析部14に送る。生体情報分析部14は生体情報取得部13から受け取ったPC操作者の心拍数と体温から、たとえば「興奮・沈静」の度合いを推定し、推定結果を推定結果選択部20に送る。マイク18は、PC操作者の音声を収録して音声分析部19に送る。音声分析部19は、マイク18から受け取ったPC操作者の音声から、たとえば「喜び・悲しみ」の度合いを推定し、推定結果を推定結果選択部20に送る。   The camera 11 captures an image of the PC operator and sends it to the facial expression recognition unit 12. The facial expression recognition unit 12 estimates the degree of “favor / dislike”, for example, based on the facial expression of the PC operator in the image received from the camera 11, and sends the estimation result to the estimation result selection unit 20. The biological sensor 2 is a sensor that detects the heart rate and body temperature of the PC operator when worn by the PC operator, and transmits the detected biological information to the biological information acquisition unit 13. The biological information acquisition unit 13 sends the biological information received from the biological sensor 2 to the biological information analysis unit 14. The biological information analysis unit 14 estimates the degree of “excitement / sedation”, for example, from the heart rate and body temperature of the PC operator received from the biological information acquisition unit 13, and sends the estimation result to the estimation result selection unit 20. The microphone 18 records the voice of the PC operator and sends it to the voice analysis unit 19. The voice analysis unit 19 estimates the degree of “joy / sadness”, for example, from the voice of the PC operator received from the microphone 18, and sends the estimation result to the estimation result selection unit 20.

推定結果選択部20は、表情認識部12、生体情報分析部14および音声分析部19から受け取った画像、生体情報および音声に基づいてPC周辺の状況を判定する。そして、推定結果選択部20は、PC周辺の状況を、あらかじめ保持している選択条件に照らす。推定結果選択部20は、表情認識部12、生体情報分析部14および音声分析部19による3種類の感情推定結果から、選択条件にあてはまる感情推定結果を選択する。推定結果選択部20は、選択した感情推定結果を推定結果出力部17に送る。推定結果出力部17は、推定結果選択部20から受け取った感情推定結果をシステム管理者(ユーザ)のディスプレイ3に出力する。   The estimation result selection unit 20 determines the situation around the PC based on the images, the biological information, and the voices received from the facial expression recognition unit 12, the biological information analysis unit 14, and the voice analysis unit 19. Then, the estimation result selection unit 20 illuminates the situation around the PC with the selection conditions held in advance. The estimation result selection unit 20 selects an emotion estimation result that satisfies the selection condition from the three types of emotion estimation results obtained by the facial expression recognition unit 12, the biological information analysis unit 14, and the voice analysis unit 19. The estimation result selection unit 20 sends the selected emotion estimation result to the estimation result output unit 17. The estimation result output unit 17 outputs the emotion estimation result received from the estimation result selection unit 20 to the display 3 of the system administrator (user).

推定結果選択部20は、PC周辺の状況を以下のような選択条件に照らして感情推定結果を選択する。表情認識に支障が出る場合は、表情認識部12以外の感情推定結果を選択する。表情認識に支障が出る場合とは、たとえば、明るさが足りない、PC操作者の顔とカメラの間に障害物がある、PC操作者が激しく動いている、PC操作者の顔がカメラの方を向いていない、PC操作者の位置がカメラの焦点位置から外れている、PC操作者の顔がカメラの撮影範囲外に存在するなどの場合である。   The estimation result selection unit 20 selects an emotion estimation result in light of the situation around the PC in the following selection conditions. When the facial expression recognition is hindered, an emotion estimation result other than the facial expression recognition unit 12 is selected. The case where facial expression recognition is hindered is, for example, insufficient brightness, an obstacle between the PC operator's face and the camera, the PC operator moving violently, or the PC operator's face This is the case when the PC operator is not facing away, the PC operator's position is out of the focus position of the camera, or the PC operator's face is outside the shooting range of the camera.

PC操作者の生体情報が感情以外の要素により変動している場合や、PC操作者の生体情報の計測に支障が出る場合は、生体情報分析部14以外の感情推定結果を選択する。PC操作者の生体情報が感情以外の要素により変動している場合とは、たとえばPC操作者が病気である、PC操作者が運動直後である、PC操作者が寝不足であるなどの場合である。   When the biometric information of the PC operator is fluctuating due to factors other than emotions, or when the measurement of the biometric information of the PC operator is hindered, an emotion estimation result other than the biometric information analysis unit 14 is selected. The case where the biometric information of the PC operator fluctuates due to factors other than emotion is, for example, the case where the PC operator is sick, the PC operator is immediately after exercising, or the PC operator is short of sleep. .

これらの判断は、それぞれの場合の所定の条件を示す情報をあらかじめ保持し、当該条件にあてはまるか否かで判断する。病気であるか否かの判断は、たとえば、PC操作者の体温と、顔画像から検出するPC操作者の顔色から判断する。PC操作者が運動直後であるか否かの判断は、たとえば、運動直後の発汗量や心拍数などのモデルにあてはまるか否かで判断する。PC操作者が寝不足であるか否かの判断は、たとえば、あくびをしたか否かや瞬きの回数をPC操作者の顔画像から検出して判断する。   These determinations are made based on whether information indicating a predetermined condition in each case is stored in advance and whether or not the condition is satisfied. The determination as to whether or not the patient is ill is made, for example, based on the body temperature of the PC operator and the face color of the PC operator detected from the face image. Whether or not the PC operator is immediately after the exercise is determined by whether or not the PC operator is applied to a model such as a sweat amount or a heart rate immediately after the exercise. The determination as to whether or not the PC operator is short of sleep is made, for example, by detecting whether or not yawning or the number of blinks is detected from the PC operator's face image.

あるいは、PC操作者自身が入力してもよい。たとえば、感情の推定を開始する前に、「体調はどうですか?」「昨日はよく眠れましたか?」などの質問を出力して、PC操作者に答えさせる。   Alternatively, the PC operator himself may input. For example, before starting the estimation of emotions, questions such as “How are you feeling?” And “Have you slept well yesterday?” Are output and the PC operator is made to answer.

PC操作者の生体情報の計測に支障が出る場合とは、PC操作者の発汗や皮膚の汚れにより通常と皮膚の電気状態が変化している(脳波、筋電位、皮膚表面電気活動などの皮膚表面から電気的に計測する生体情報を採用している場合)、電磁波による計測ノイズが発生しやすいなどの場合である。これらの判断は、たとえば、計測した値が正常の範囲を超えている、計測器が正常に動作していることを示す信号が受信できない、計測値をパケットで受信する場合にパケットが正常に受信できないなどの情報から判断する。   When the PC operator's measurement of biological information is hindered, the electrical condition of the skin changes due to the sweating of the PC operator or skin contamination (such as skin waves such as EEG, myoelectric potential, and skin surface electrical activity). This is the case where measurement noise due to electromagnetic waves is likely to occur). These judgments can be made when, for example, the measured value exceeds the normal range, the signal indicating that the measuring instrument is operating normally cannot be received, or when the measured value is received as a packet, the packet is received normally. Judgment based on information that cannot be done.

音声収録に支障が出る場合は、音声分析部19以外の感情推定結果を採用する。音声収録に支障が出る場合とは、雑音が大きい、PC操作者がマイク18から離れている、PC操作者の音声が感情以外の要素により変動している、PC操作者が風邪などの発音に影響が出る身体状態である、PC操作者が母国語ではない言語で話しているなどの場合である。なお、推定結果選択部20が感情推定結果を選択する選択条件は、ユーザが入力することとしてもよい。   If there is a problem with voice recording, an emotion estimation result other than the voice analysis unit 19 is employed. When the audio recording is hindered, the noise is large, the PC operator is away from the microphone 18, the voice of the PC operator fluctuates due to factors other than emotions, and the PC operator has a pronunciation such as a cold. This is the case when the PC operator is speaking in a language that is not his / her native language. Note that the selection condition for the estimation result selection unit 20 to select the emotion estimation result may be input by the user.

これら選択条件は、実施の形態1および実施の形態2の重み付け係数の決定に用いてもよい。たとえば、表情認識に支障が出る場合は、表情認識部12の感情推定結果の優先順位を低くする。被験者Eの生体情報が感情以外の要素により変動している場合は、生体情報分析部14の感情推定結果の優先順位を低くする。音声収録に支障が出る場合は、音声分析部19の感情推定結果の優先順位を低くする。これによれば、ユーザが重み付け係数を入力しなくても、推定結果調整部16は自動で感情推定結果を調整することができる。   These selection conditions may be used for determining the weighting coefficients in the first and second embodiments. For example, when the facial expression recognition is hindered, the priority of the emotion estimation result of the facial expression recognition unit 12 is lowered. When the biological information of the subject E is fluctuating due to factors other than emotion, the priority of the emotion estimation result of the biological information analysis unit 14 is lowered. When the sound recording is hindered, the priority of the emotion estimation result of the sound analysis unit 19 is lowered. According to this, even if a user does not input a weighting coefficient, the estimation result adjustment part 16 can adjust an emotion estimation result automatically.

図9は、実施の形態3に係る感情推定の動作の一例を示すフローチャートである。感情推定処理は、感情推定装置1の電源がONになったら開始することとしてもよいし、被験者Eを検知したら開始することとしてもよい。また、感情推定処理は、カメラ11が被験者Eの画像を撮影し、生体情報取得部13が生体情報を取得し、マイク18が被験者Eの音声を収録している間は、繰り返し実行される。   FIG. 9 is a flowchart showing an example of emotion estimation operation according to the third embodiment. The emotion estimation process may be started when the emotion estimation apparatus 1 is turned on, or may be started when the subject E is detected. The emotion estimation process is repeatedly executed while the camera 11 captures an image of the subject E, the biological information acquisition unit 13 acquires the biological information, and the microphone 18 records the voice of the subject E.

まず、カメラ11は、被験者Eの画像を撮影して(ステップS31)、表情認識部12に送る。表情認識部12は、カメラ11から受け取った被験者Eの画像から表情認識を行うことで被験者Eの感情推定を行い(ステップS32)、推定結果を推定結果選択部20に送る。生体情報取得部13は、被験者Eの心拍数と体温などの生体情報を取得して(ステップS33)、生体情報分析部14に送る。生体情報分析部14は、生体情報取得部13から受け取った被験者Eの生体情報を分析することで被験者Eの感情推定を行い(ステップS34)、推定結果を推定結果選択部20に送る。また、マイク18は、被験者Eの音声を収録して(ステップS35)、音声分析部19に送る。音声分析部19、マイク18から受け取った被験者Eの音声を分析することで被験者Eの感情推定を行い(ステップS36)、推定結果を推定結果選択部20に送る。   First, the camera 11 captures an image of the subject E (step S31) and sends it to the facial expression recognition unit 12. The facial expression recognition unit 12 estimates the emotion of the subject E by performing facial expression recognition from the image of the subject E received from the camera 11 (step S32), and sends the estimation result to the estimation result selection unit 20. The biological information acquisition unit 13 acquires biological information such as the heart rate and body temperature of the subject E (step S33) and sends the biological information to the biological information analysis unit 14. The biometric information analysis unit 14 estimates the emotion of the subject E by analyzing the biometric information of the subject E received from the biometric information acquisition unit 13 (step S34), and sends the estimation result to the estimation result selection unit 20. The microphone 18 records the voice of the subject E (step S35) and sends it to the voice analysis unit 19. The voice analysis unit 19 analyzes the voice of the subject E received from the microphone 18 to estimate the emotion of the subject E (step S36), and sends the estimation result to the estimation result selection unit 20.

推定結果選択部20は、表情認識部12、生体情報分析部14および音声分析部19から受け取った画像、生体情報および音声に基づいて状況を判定する。そして、推定結果選択部20は、判定した状況をあらかじめ保持している選択条件に照らす。推定結果選択部20は、画像、生体情報および音声からの3種類の感情推定結果から、選択条件にあてはまる感情推定結果を選択する(ステップS37)。推定結果選択部20は、選択した感情推定結果を推定結果出力部17に送る。推定結果出力部17は、推定結果選択部20から受け取った感情推定結果を出力し(ステップS38)、処理を終了する。   The estimation result selection unit 20 determines the situation based on the images, the biological information, and the voices received from the facial expression recognition unit 12, the biological information analysis unit 14, and the voice analysis unit 19. Then, the estimation result selection unit 20 illuminates the determined condition with a selection condition that is held in advance. The estimation result selection unit 20 selects an emotion estimation result that satisfies the selection condition from the three types of emotion estimation results from the image, the biological information, and the sound (step S37). The estimation result selection unit 20 sends the selected emotion estimation result to the estimation result output unit 17. The estimation result output unit 17 outputs the emotion estimation result received from the estimation result selection unit 20 (step S38), and ends the process.

本実施の形態では、3種類の感情推定結果から採用する感情推定結果を選択しているが、2種類の感情推定結果から採用する感情推定結果を選択してもよい。   In this embodiment, the emotion estimation result adopted from three types of emotion estimation results is selected, but the emotion estimation result adopted from two types of emotion estimation results may be selected.

以上説明したように実施の形態3の感情推定装置1によれば、状況に応じた感情推定を行うことができる。画像処理に問題が出る状況、一時的に生体情報が変動している状況または音声収録に問題が出る状況においても、推定結果選択部20が状況を判定し、状況に問題がない推定結果に基づいて調整推定結果を算出することで、状況による悪影響を取り除くことができる。   As described above, according to the emotion estimation apparatus 1 of the third embodiment, emotion estimation according to the situation can be performed. Even in a situation where there is a problem in image processing, a situation where biometric information is fluctuating temporarily, or a situation where there is a problem in audio recording, the estimation result selection unit 20 determines the situation, and based on the estimation result that there is no problem in the situation By calculating the adjustment estimation result, adverse effects due to the situation can be removed.

図10は、本発明の実施の形態に係る感情推定装置のハードウェア構成の一例を示すブロック図である。感情推定装置1は、図10に示すように、制御部31、主記憶部32、外部記憶部33、操作部34、表示部35、送受信部36および入出力部37を備える。主記憶部32、外部記憶部33、操作部34、表示部35、送受信部36および入出力部37はいずれも内部バス30を介して制御部31に接続されている。   FIG. 10 is a block diagram showing an example of a hardware configuration of the emotion estimation apparatus according to the embodiment of the present invention. As shown in FIG. 10, the emotion estimation device 1 includes a control unit 31, a main storage unit 32, an external storage unit 33, an operation unit 34, a display unit 35, a transmission / reception unit 36, and an input / output unit 37. The main storage unit 32, the external storage unit 33, the operation unit 34, the display unit 35, the transmission / reception unit 36, and the input / output unit 37 are all connected to the control unit 31 via the internal bus 30.

制御部31はCPU(Central Processing Unit)等から構成され、外部記憶部33に記憶されている制御プログラム39に従って、感情推定装置1の表情認識部12、生体情報分析部14、推定結果調整部16、音声分析部19および推定結果選択部20の各処理を実行する。   The control unit 31 includes a CPU (Central Processing Unit) and the like, and according to a control program 39 stored in the external storage unit 33, the facial expression recognition unit 12, the biological information analysis unit 14, and the estimation result adjustment unit 16 of the emotion estimation device 1. Each process of the voice analysis unit 19 and the estimation result selection unit 20 is executed.

主記憶部32はRAM(Random-Access Memory)等から構成され、外部記憶部33に記憶されている制御プログラム39をロードし、制御部31の作業領域として用いられる。   The main storage unit 32 is composed of a RAM (Random-Access Memory) or the like, loads a control program 39 stored in the external storage unit 33, and is used as a work area for the control unit 31.

外部記憶部33は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、感情推定装置1の処理を制御部31に行わせるためのプログラムをあらかじめ記憶し、また、制御部31の指示に従って、このプログラムが記憶するデータを制御部31に供給し、制御部31から供給されたデータを記憶する。係数取得部15が取得した重み付け係数を記憶する場合は、外部記憶部33に構成される。   The external storage unit 33 includes a nonvolatile memory such as a flash memory, a hard disk, a DVD-RAM (Digital Versatile Disc Random-Access Memory), a DVD-RW (Digital Versatile Disc ReWritable), and controls the processing of the emotion estimation apparatus 1. A program to be executed by the unit 31 is stored in advance, and data stored by the program is supplied to the control unit 31 in accordance with an instruction from the control unit 31, and the data supplied from the control unit 31 is stored. When the weighting coefficient acquired by the coefficient acquisition unit 15 is stored, the external storage unit 33 is configured.

操作部34はキーボードおよびマウスなどのポインティングデバイス等と、キーボードおよびポインティングデバイス等を内部バス30に接続するインタフェース装置から構成されている。ユーザが重み付け係数を入力する場合などは、操作部34を介して、指示が制御部31に供給される。   The operation unit 34 includes a pointing device such as a keyboard and a mouse, and an interface device that connects the keyboard and the pointing device to the internal bus 30. When the user inputs a weighting coefficient, an instruction is supplied to the control unit 31 via the operation unit 34.

表示部35は、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などから構成され、ユーザが重み付け係数を入力する場合などは、操作画面を表示する。   The display unit 35 is configured by a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display) or the like, and displays an operation screen when the user inputs a weighting coefficient.

送受信部36は、ネットワークに接続する網終端装置または無線通信装置、およびそれらと接続するシリアルインタフェースまたはLAN(Local Area Network)インタフェースから構成されている。送受信部36は、生体情報取得部13および推定結果出力部17として機能する。   The transmission / reception unit 36 includes a network termination device or a wireless communication device connected to the network, and a serial interface or a LAN (Local Area Network) interface connected thereto. The transmission / reception unit 36 functions as the biological information acquisition unit 13 and the estimation result output unit 17.

入出力部37は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部37は、カメラ11およびマイク18と接続する。あるいは、カメラ11およびマイク18は、内部バス30で接続されることとしてもよい。   The input / output unit 37 includes a serial interface or a parallel interface. The input / output unit 37 is connected to the camera 11 and the microphone 18. Alternatively, the camera 11 and the microphone 18 may be connected via the internal bus 30.

図1、図4または図7に示す感情推定装置1の表情認識部12、生体情報分析部14、係数取得部15、推定結果調整部16、推定結果出力部17、音声分析部19、および推定結果選択部20の処理は、制御プログラム39が、制御部31、主記憶部32、外部記憶部33、操作部34、表示部35、送受信部36および入出力部37を資源として用いて処理することによって実行する。   The facial expression recognition unit 12, the biological information analysis unit 14, the coefficient acquisition unit 15, the estimation result adjustment unit 16, the estimation result output unit 17, the speech analysis unit 19, and the estimation of the emotion estimation apparatus 1 illustrated in FIG. 1, FIG. 4, or FIG. The processing of the result selection unit 20 is processed by the control program 39 using the control unit 31, the main storage unit 32, the external storage unit 33, the operation unit 34, the display unit 35, the transmission / reception unit 36, and the input / output unit 37 as resources. Run by.

その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。   In addition, the hardware configuration and the flowchart described above are merely examples, and can be arbitrarily changed and modified.

制御部31、主記憶部32、外部記憶部33、内部バス30などから構成される制御処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する感情推定装置1を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで感情推定装置1を構成してもよい。   The central part that performs control processing including the control unit 31, the main storage unit 32, the external storage unit 33, the internal bus 30 and the like can be realized by using a normal computer system, not a dedicated system. . For example, a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. Thus, the emotion estimation apparatus 1 that executes the above-described processing may be configured. Further, the emotion estimation apparatus 1 may be configured by storing the computer program in a storage device included in a server device on a communication network such as the Internet and downloading the computer program from a normal computer system.

また、感情推定装置1の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   Further, when the function of the emotion estimation device 1 is realized by sharing of an OS (operating system) and an application program, or by cooperation between the OS and the application program, only the application program portion is stored in a recording medium or a storage device. May be.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS: Bulletin Board System) on a communication network, and the computer program may be distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。   A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)
被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類の手段で感情を推定した感情推定結果を取得する推定手段と、
ユーザが入力した前記感情推定結果を組み合わせる重み付け係数を取得する第1取得手段と、
前記重み付け係数に従って、前記推定手段が取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出する調整手段と、
前記調整手段が算出した前記調整感情推定結果を出力する出力手段と、
を備えることを特徴とする感情推定装置。
(Appendix 1)
Emotion can be detected by at least two types of means: a means for recognizing a subject's facial expression to estimate emotion, a means for detecting biological information of the subject to estimate emotion, and a means for estimating emotion from the voice of the subject. An estimation means for acquiring an emotion estimation result obtained by estimating
First acquisition means for acquiring a weighting coefficient for combining the emotion estimation results input by the user;
Adjusting means for calculating an adjusted emotion estimation result obtained by combining at least two of the emotion estimation results acquired by the estimating means according to the weighting factor;
Output means for outputting the adjusted emotion estimation result calculated by the adjusting means;
An emotion estimation apparatus comprising:

(付記2)
前記被験者の顔の画像、前記被験者の生体情報および前記被験者の音声の少なくとも1つの情報を取得する第2取得手段と、
前記被験者の顔の画像、前記被験者の生体情報または前記被験者の音声のいずれかが、所定の条件に適合するか否かを判断する判定手段と、
前記被験者の顔の画像、前記被験者の生体情報または前記被験者の音声のいずれかが前記所定の条件に適合する場合に、当該適合する情報に基づいて前記被験者の感情を推定する手段で感情を推定した前記感情推定結果を選択する選択手段と、をさらに備え、
前記出力手段は、前記選択手段が選択した前記感情推定結果を出力することを特徴とする付記1に記載の感情推定装置。
(Appendix 2)
Second acquisition means for acquiring at least one information of the face image of the subject, the biological information of the subject and the voice of the subject;
A determination unit that determines whether any one of the face image of the subject, the biological information of the subject, or the voice of the subject meets a predetermined condition;
When any one of the face image of the subject, the biological information of the subject, or the voice of the subject meets the predetermined condition, the emotion is estimated by means for estimating the subject's emotion based on the conforming information. And selecting means for selecting the emotion estimation result.
The emotion estimation apparatus according to appendix 1, wherein the output means outputs the emotion estimation result selected by the selection means.

(付記3)
前記選択手段は、前記所定の条件に適合しない情報に基づいて前記被験者の感情を推定する手段で感情を推定した前記感情推定結果を除外することを特徴とする付記2に記載の感情推定装置。
(Appendix 3)
The emotion estimation apparatus according to appendix 2, wherein the selection means excludes the emotion estimation result obtained by estimating an emotion by means for estimating an emotion of the subject based on information that does not meet the predetermined condition.

(付記4)
前記ユーザが入力した前記感情推定結果の選択条件を取得する第3取得手段をさらに備え、
前記選択手段は、前記選択条件に基づいて前記感情推定結果を選択することを特徴とする付記2または3に記載の感情推定装置。
(Appendix 4)
A third acquisition means for acquiring a selection condition of the emotion estimation result input by the user;
The emotion estimation apparatus according to appendix 2 or 3, wherein the selection means selects the emotion estimation result based on the selection condition.

(付記5)
前記被験者の顔の画像、前記被験者の生体情報および前記被験者の音声の少なくとも1つの情報を取得する第2取得手段と、
前記被験者の顔の画像、前記被験者の生体情報または前記被験者の音声のいずれかが、所定の条件に適合するか否かを判断する判定手段と、をさらに備え、
前記調整手段は、前記判定手段の判断に基づいて前記感情推定結果を組み合わせる重み付け係数を決定し、当該重み付け係数に従って、前記推定手段が取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出することを特徴とする付記1に記載の感情推定装置。
(Appendix 5)
Second acquisition means for acquiring at least one information of the face image of the subject, the biological information of the subject and the voice of the subject;
Determination means for determining whether any one of the face image of the subject, the biological information of the subject, or the voice of the subject meets a predetermined condition; and
The adjustment means determines a weighting coefficient that combines the emotion estimation results based on the determination of the determination means, and adjusts emotion estimation results obtained by combining at least two emotion estimation results acquired by the estimation means according to the weighting coefficients. The emotion estimation apparatus according to supplementary note 1, characterized in that:

(付記6)
被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類のス手段で感情を推定した感情推定結果を取得する推定ステップと、
ユーザが入力した前記感情推定結果を組み合わせる重み付け係数を取得する第1取得ステップと、
前記重み付け係数に従って、前記推定ステップで取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出する調整ステップと、
前記調整ステップで算出した前記調整感情推定結果を出力する出力ステップと、
を備えることを特徴とする感情推定方法。
(Appendix 6)
At least two types of means: a means for recognizing a subject's facial expression and estimating an emotion; a means for detecting a biological information of the subject to estimate an emotion; and a means for estimating an emotion from the voice of the subject. An estimation step for obtaining an emotion estimation result obtained by estimating an emotion;
A first acquisition step of acquiring a weighting coefficient that combines the emotion estimation results input by the user;
An adjustment step of calculating an adjusted emotion estimation result obtained by combining at least two of the emotion estimation results acquired in the estimation step according to the weighting factor;
An output step of outputting the adjustment emotion estimation result calculated in the adjustment step;
An emotion estimation method characterized by comprising:

(付記7)
前記被験者の顔の画像、前記被験者の生体情報および前記被験者の音声の少なくとも1つの情報を取得する第2取得ステップと、
前記被験者の顔の画像、前記被験者の生体情報または前記被験者の音声のいずれかが、所定の条件に適合するか否かを判断する判定ステップと、
前記被験者の顔の画像、被験者の生体情報または被験者の音声のいずれかが前記所定の条件に適合する場合に、当該適合する情報に基づいて前記被験者の感情を推定する手段が感情を推定した前記感情推定結果を選択する選択ステップと、をさらに備え、
前記出力ステップでは、前記選択ステップが選択した前記感情推定結果を出力することを特徴とする付記6に記載の感情推定方法。
(Appendix 7)
A second acquisition step of acquiring at least one information of the face image of the subject, the biological information of the subject and the voice of the subject;
A determination step of determining whether any one of the face image of the subject, the biological information of the subject or the voice of the subject meets a predetermined condition;
When any one of the face image of the subject, the biological information of the subject, or the voice of the subject meets the predetermined condition, the means for estimating the emotion of the subject based on the conforming information estimated the emotion A selection step of selecting an emotion estimation result,
The emotion estimation method according to appendix 6, wherein in the output step, the emotion estimation result selected in the selection step is output.

(付記8)
前記選択ステップでは、前記所定の条件に適合しない情報に基づいて前記被験者の感情を推定する手段が感情を推定した前記感情推定結果を除外することを特徴とする付記7に記載の感情推定方法。
(Appendix 8)
The emotion estimation method according to appendix 7, wherein in the selection step, the emotion estimation result obtained by estimating the emotion by the means for estimating the subject's emotion based on information that does not match the predetermined condition is excluded.

(付記9)
前記ユーザが入力した前記感情推定結果の選択条件を取得する第3取得ステップをさらに備え、
前記選択ステップでは、前記選択条件に基づいて前記感情推定結果を選択することを特徴とする付記7または8に記載の感情推定方法。
(Appendix 9)
A third acquisition step of acquiring a selection condition of the emotion estimation result input by the user;
The emotion estimation method according to appendix 7 or 8, wherein, in the selection step, the emotion estimation result is selected based on the selection condition.

(付記10)
前記被験者の顔の画像、前記被験者の生体情報および前記被験者の音声の少なくとも1つの情報を取得する第2取得ステップと、
前記被験者の顔の画像、前記被験者の生体情報または前記被験者の音声のいずれかが、所定の条件に適合するか否かを判断する判定ステップと、をさらに備え、
前記調整ステップでは、前記判定ステップでの判断に基づいて前記感情推定結果を組み合わせる重み付け係数を決定し、当該重み付け係数に従って、前記推定ステップで取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出することを特徴とする付記6に記載の感情推定方法。
(Appendix 10)
A second acquisition step of acquiring at least one information of the face image of the subject, the biological information of the subject and the voice of the subject;
A determination step of determining whether any one of the face image of the subject, the biological information of the subject, or the voice of the subject meets a predetermined condition, and
In the adjustment step, a weighting coefficient that combines the emotion estimation results is determined based on the determination in the determination step, and adjusted emotion estimation that combines at least two emotion estimation results acquired in the estimation step according to the weighting coefficient The emotion estimation method according to appendix 6, wherein a result is calculated.

(付記11)
コンピュータに、
被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類のス手段で感情を推定した感情推定結果を取得する推定ステップと、
ユーザが入力した前記感情推定結果を組み合わせる重み付け係数を取得する第1取得ステップと、
前記重み付け係数に従って、前記推定ステップで取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出する調整ステップと、
前記調整ステップで算出した前記調整感情推定結果を出力する出力ステップと、
を実行させることを特徴とするプログラム。
(Appendix 11)
On the computer,
At least two types of means: a means for recognizing a subject's facial expression and estimating an emotion; a means for detecting a biological information of the subject to estimate an emotion; and a means for estimating an emotion from the voice of the subject. An estimation step for obtaining an emotion estimation result obtained by estimating an emotion;
A first acquisition step of acquiring a weighting coefficient that combines the emotion estimation results input by the user;
An adjustment step of calculating an adjusted emotion estimation result obtained by combining at least two of the emotion estimation results acquired in the estimation step according to the weighting factor;
An output step of outputting the adjustment emotion estimation result calculated in the adjustment step;
A program characterized by having executed.

1 感情推定装置
2 生体センサ
3 ディスプレイ
11 カメラ
12 表情認識部
13 生体情報取得部
14 生体情報分析部
15 係数取得部
16 推定結果調整部
17 推定結果出力部
18 マイク
19 音声分析部
20 推定結果選択部
31 制御部
33 主記憶部
33 外部記憶部
34 操作部
35 表示部
36 送受信部
37 入出力部
39 制御プログラム
DESCRIPTION OF SYMBOLS 1 Emotion estimation apparatus 2 Biometric sensor 3 Display 11 Camera 12 Expression recognition part 13 Biometric information acquisition part 14 Biometric information analysis part 15 Coefficient acquisition part 16 Estimation result adjustment part 17 Estimation result output part 18 Microphone 19 Speech analysis part 20 Estimation result selection part 31 control unit 33 main storage unit 33 external storage unit 34 operation unit 35 display unit 36 transmission / reception unit 37 input / output unit 39 control program

Claims (10)

被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類の手段で感情を推定した感情推定結果を取得する推定手段と、
ユーザが入力した前記感情推定結果を組み合わせる重み付け係数を取得する第1取得手段と、
前記重み付け係数に従って、前記推定手段が取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出する調整手段と、
前記調整手段が算出した前記調整感情推定結果を出力する出力手段と、
を備えることを特徴とする感情推定装置。
Emotion can be detected by at least two types of means: a means for recognizing a subject's facial expression to estimate emotion, a means for detecting biological information of the subject to estimate emotion, and a means for estimating emotion from the voice of the subject. An estimation means for acquiring an emotion estimation result obtained by estimating
First acquisition means for acquiring a weighting coefficient for combining the emotion estimation results input by the user;
Adjusting means for calculating an adjusted emotion estimation result obtained by combining at least two of the emotion estimation results acquired by the estimating means according to the weighting factor;
Output means for outputting the adjusted emotion estimation result calculated by the adjusting means;
An emotion estimation apparatus comprising:
前記被験者の顔の画像、前記被験者の生体情報および前記被験者の音声の少なくとも1つの情報を取得する第2取得手段と、
前記被験者の顔の画像、前記被験者の生体情報または前記被験者の音声のいずれかが、所定の条件に適合するか否かを判断する判定手段と、
前記被験者の顔の画像、前記被験者の生体情報または前記被験者の音声のいずれかが前記所定の条件に適合する場合に、当該適合する情報に基づいて前記被験者の感情を推定する手段で感情を推定した前記感情推定結果を選択する選択手段と、をさらに備え、
前記出力手段は、前記選択手段が選択した前記感情推定結果を出力することを特徴とする請求項1に記載の感情推定装置。
Second acquisition means for acquiring at least one information of the face image of the subject, the biological information of the subject and the voice of the subject;
A determination unit that determines whether any one of the face image of the subject, the biological information of the subject, or the voice of the subject meets a predetermined condition;
When any one of the face image of the subject, the biological information of the subject, or the voice of the subject meets the predetermined condition, the emotion is estimated by means for estimating the subject's emotion based on the conforming information. And selecting means for selecting the emotion estimation result.
The emotion estimation apparatus according to claim 1, wherein the output unit outputs the emotion estimation result selected by the selection unit.
前記選択手段は、前記所定の条件に適合しない情報に基づいて前記被験者の感情を推定する手段で感情を推定した前記感情推定結果を除外することを特徴とする請求項2に記載の感情推定装置。   The emotion estimation apparatus according to claim 2, wherein the selection unit excludes the emotion estimation result obtained by estimating the emotion by the unit that estimates the subject's emotion based on information that does not meet the predetermined condition. . 前記ユーザが入力した前記感情推定結果の選択条件を取得する第3取得手段をさらに備え、
前記選択手段は、前記選択条件に基づいて前記感情推定結果を選択することを特徴とする請求項2または3に記載の感情推定装置。
A third acquisition means for acquiring a selection condition of the emotion estimation result input by the user;
The emotion estimation apparatus according to claim 2, wherein the selection unit selects the emotion estimation result based on the selection condition.
前記被験者の顔の画像、前記被験者の生体情報および前記被験者の音声の少なくとも1つの情報を取得する第2取得手段と、
前記被験者の顔の画像、前記被験者の生体情報または前記被験者の音声のいずれかが、所定の条件に適合するか否かを判断する判定手段と、をさらに備え、
前記調整手段は、前記判定手段の判断に基づいて前記感情推定結果を組み合わせる重み付け係数を決定し、当該重み付け係数に従って、前記推定手段が取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出することを特徴とする請求項1に記載の感情推定装置。
Second acquisition means for acquiring at least one information of the face image of the subject, the biological information of the subject and the voice of the subject;
Determination means for determining whether any one of the face image of the subject, the biological information of the subject, or the voice of the subject meets a predetermined condition; and
The adjustment means determines a weighting coefficient that combines the emotion estimation results based on the determination of the determination means, and adjusts emotion estimation results obtained by combining at least two emotion estimation results acquired by the estimation means according to the weighting coefficients. The emotion estimation apparatus according to claim 1, wherein:
被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類の手段で感情を推定した感情推定結果を取得する推定ステップと、
ユーザが入力した前記感情推定結果を組み合わせる重み付け係数を取得する第1取得ステップと、
前記重み付け係数に従って、前記推定ステップで取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出する調整ステップと、
前記調整ステップで算出した前記調整感情推定結果を出力する出力ステップと、
を備えることを特徴とする感情推定方法。
Emotion can be detected by at least two types of means: a means for recognizing a subject's facial expression to estimate emotion, a means for detecting biological information of the subject to estimate emotion, and a means for estimating emotion from the voice of the subject. An estimation step for obtaining an emotion estimation result obtained by estimating
A first acquisition step of acquiring a weighting coefficient that combines the emotion estimation results input by the user;
An adjustment step of calculating an adjusted emotion estimation result obtained by combining at least two of the emotion estimation results acquired in the estimation step according to the weighting factor;
An output step of outputting the adjustment emotion estimation result calculated in the adjustment step;
An emotion estimation method characterized by comprising:
前記被験者の顔の画像、前記被験者の生体情報および前記被験者の音声の少なくとも1つの情報を取得する第2取得ステップと、
前記被験者の顔の画像、前記被験者の生体情報または前記被験者の音声のいずれかが、所定の条件に適合するか否かを判断する判定ステップと、
前記被験者の顔の画像、前記被験者の生体情報または前記被験者の音声のいずれかが前記所定の条件に適合する場合に、当該適合する情報に基づいて前記被験者の感情を推定する手段が感情を推定した前記感情推定結果を選択する選択ステップと、をさらに備え、
前記出力ステップでは、前記選択ステップが選択した前記感情推定結果を出力することを特徴とする請求項6に記載の感情推定方法。
A second acquisition step of acquiring at least one information of the face image of the subject, the biological information of the subject and the voice of the subject;
A determination step of determining whether any one of the face image of the subject, the biological information of the subject or the voice of the subject meets a predetermined condition;
When any of the face image of the subject, the biological information of the subject, or the voice of the subject meets the predetermined condition, the means for estimating the subject's emotion based on the conforming information estimates the emotion And a selection step of selecting the emotion estimation result.
The emotion estimation method according to claim 6, wherein in the output step, the emotion estimation result selected in the selection step is output.
前記選択ステップでは、前記所定の条件に適合しない情報に基づいて前記被験者の感情を推定する手段が感情を推定した前記感情推定結果を除外することを特徴とする請求項7に記載の感情推定方法。   The emotion estimation method according to claim 7, wherein in the selection step, the emotion estimation result obtained by estimating the emotion by the means for estimating the subject's emotion based on information that does not meet the predetermined condition is excluded. . 前記ユーザが入力した前記感情推定結果の選択条件を取得する第3取得ステップをさらに備え、
前記選択ステップでは、前記選択条件に基づいて前記感情推定結果を選択することを特徴とする請求項7または8に記載の感情推定方法。
A third acquisition step of acquiring a selection condition of the emotion estimation result input by the user;
The emotion estimation method according to claim 7 or 8, wherein, in the selection step, the emotion estimation result is selected based on the selection condition.
コンピュータに、
被験者の表情を認識して感情を推定する手段、前記被験者の生体情報を検出して感情を推定する手段、および、前記被験者の音声から感情を推定する手段、のうち少なくとも2種類のス手段で感情を推定した感情推定結果を取得する推定ステップと、
ユーザが入力した前記感情推定結果を組み合わせる重み付け係数を取得する第1取得ステップと、
前記重み付け係数に従って、前記推定ステップで取得した少なくとも2つの前記感情推定結果を組み合わせた調整感情推定結果を算出する調整ステップと、
前記調整ステップで算出した前記調整感情推定結果を出力する出力ステップと、
を実行させることを特徴とするプログラム。
On the computer,
At least two types of means: a means for recognizing a subject's facial expression and estimating an emotion; a means for detecting a biological information of the subject to estimate an emotion; and a means for estimating an emotion from the voice of the subject. An estimation step for obtaining an emotion estimation result obtained by estimating an emotion;
A first acquisition step of acquiring a weighting coefficient that combines the emotion estimation results input by the user;
An adjustment step of calculating an adjusted emotion estimation result obtained by combining at least two of the emotion estimation results acquired in the estimation step according to the weighting factor;
An output step of outputting the adjustment emotion estimation result calculated in the adjustment step;
A program characterized by having executed.
JP2010202899A 2010-09-10 2010-09-10 Emotion estimation device, emotion estimation method and program Pending JP2012059107A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010202899A JP2012059107A (en) 2010-09-10 2010-09-10 Emotion estimation device, emotion estimation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010202899A JP2012059107A (en) 2010-09-10 2010-09-10 Emotion estimation device, emotion estimation method and program

Publications (1)

Publication Number Publication Date
JP2012059107A true JP2012059107A (en) 2012-03-22

Family

ID=46056107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010202899A Pending JP2012059107A (en) 2010-09-10 2010-09-10 Emotion estimation device, emotion estimation method and program

Country Status (1)

Country Link
JP (1) JP2012059107A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015050614A (en) * 2013-08-30 2015-03-16 株式会社ニコン Image processing device
JP2015054240A (en) * 2013-09-13 2015-03-23 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation Content evaluation system and content evaluation method using the same
EP3155961A1 (en) * 2015-10-14 2017-04-19 Panasonic Intellectual Property Corporation of America Emotion estimating method, emotion estimating apparatus, and recording medium storing program
JP2017119336A (en) * 2015-12-28 2017-07-06 ヴイストン株式会社 Robot, robot control method, and robot program
JP2018072876A (en) * 2016-10-24 2018-05-10 富士ゼロックス株式会社 Emotion estimation system and emotion estimation model generation system
WO2018203501A1 (en) * 2017-05-02 2018-11-08 株式会社ソニー・インタラクティブエンタテインメント Object control system and object control method
JP2018534641A (en) * 2016-07-07 2018-11-22 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. Robot emotion data update method and system
WO2019202351A1 (en) * 2018-04-20 2019-10-24 日産自動車株式会社 Device control apparatus, and control method for controlling devices
US10788235B2 (en) 2014-11-07 2020-09-29 Sony Corporation Control system, control method, and storage medium
CN112220479A (en) * 2020-09-04 2021-01-15 陈婉婷 Genetic algorithm-based examined individual emotion judgment method, device and equipment
JP2021033359A (en) * 2019-08-14 2021-03-01 沖電気工業株式会社 Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method and emotion estimation system
CN113143274A (en) * 2021-03-31 2021-07-23 北京晶栈信息技术有限公司 Emotion early warning method based on camera
WO2021261126A1 (en) * 2020-06-24 2021-12-30 オムロン株式会社 Emotion determination device and emotion determination method
WO2022065386A1 (en) * 2020-09-23 2022-03-31 国立大学法人愛媛大学 Thought inference system, inference model generation system, thought inference device, inference model generation method, computer program, and inference model
JP7160160B1 (en) 2021-08-19 2022-10-25 凸版印刷株式会社 Mental state estimation device, mental state estimation system, and mental state estimation program
WO2023074129A1 (en) * 2021-11-01 2023-05-04 ソニーグループ株式会社 Information processing device, communication assistance device, and communication assistance system
JP7442611B2 (en) 2021-10-13 2024-03-04 株式会社電通 Event support system, event support method, event support program

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015050614A (en) * 2013-08-30 2015-03-16 株式会社ニコン Image processing device
JP2015054240A (en) * 2013-09-13 2015-03-23 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation Content evaluation system and content evaluation method using the same
US10188338B2 (en) 2013-09-13 2019-01-29 Nhn Entertainment Corporation Content evaluation system and content evaluation method using the system
US10206615B2 (en) 2013-09-13 2019-02-19 Nhn Entertainment Corporation Content evaluation system and content evaluation method using the system
US11940170B2 (en) 2014-11-07 2024-03-26 Sony Corporation Control system, control method, and storage medium
US10788235B2 (en) 2014-11-07 2020-09-29 Sony Corporation Control system, control method, and storage medium
EP3155961A1 (en) * 2015-10-14 2017-04-19 Panasonic Intellectual Property Corporation of America Emotion estimating method, emotion estimating apparatus, and recording medium storing program
CN106580346A (en) * 2015-10-14 2017-04-26 松下电器(美国)知识产权公司 Emotion estimating method, and emotion estimating apparatus
JP2017144222A (en) * 2015-10-14 2017-08-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Emotion estimating method, emotion estimating apparatus, and recording medium storing program
US10863939B2 (en) 2015-10-14 2020-12-15 Panasonic Intellectual Property Corporation Of America Emotion estimating method, emotion estimating apparatus, and recording medium storing program
CN106580346B (en) * 2015-10-14 2021-09-14 松下电器(美国)知识产权公司 Emotion estimation method and emotion estimation device
JP2017119336A (en) * 2015-12-28 2017-07-06 ヴイストン株式会社 Robot, robot control method, and robot program
JP2018534641A (en) * 2016-07-07 2018-11-22 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. Robot emotion data update method and system
US10452982B2 (en) 2016-10-24 2019-10-22 Fuji Xerox Co., Ltd. Emotion estimating system
JP2018072876A (en) * 2016-10-24 2018-05-10 富士ゼロックス株式会社 Emotion estimation system and emotion estimation model generation system
JP2018187712A (en) * 2017-05-02 2018-11-29 株式会社ソニー・インタラクティブエンタテインメント Object control system and object control method
WO2018203501A1 (en) * 2017-05-02 2018-11-08 株式会社ソニー・インタラクティブエンタテインメント Object control system and object control method
US11759959B2 (en) 2017-05-02 2023-09-19 Sony Interactive Entertainment Inc. Object control system and object control method
JP7192858B2 (en) 2018-04-20 2022-12-20 日産自動車株式会社 Equipment control device and control method for controlling equipment
JPWO2019202351A1 (en) * 2018-04-20 2021-05-20 日産自動車株式会社 Equipment control device and control method to control the equipment
WO2019202351A1 (en) * 2018-04-20 2019-10-24 日産自動車株式会社 Device control apparatus, and control method for controlling devices
US11820394B2 (en) 2018-04-20 2023-11-21 Nissan Motor Co., Ltd. Device control apparatus, and control method for controlling devices
JP7306152B2 (en) 2019-08-14 2023-07-11 沖電気工業株式会社 Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method, and emotion estimation system
JP2021033359A (en) * 2019-08-14 2021-03-01 沖電気工業株式会社 Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method and emotion estimation system
WO2021261126A1 (en) * 2020-06-24 2021-12-30 オムロン株式会社 Emotion determination device and emotion determination method
DE112021003342T5 (en) 2020-06-24 2023-04-06 Omron Corporation DEVICE AND METHOD FOR DETERMINING EMOTIONS
CN112220479A (en) * 2020-09-04 2021-01-15 陈婉婷 Genetic algorithm-based examined individual emotion judgment method, device and equipment
WO2022065386A1 (en) * 2020-09-23 2022-03-31 国立大学法人愛媛大学 Thought inference system, inference model generation system, thought inference device, inference model generation method, computer program, and inference model
CN113143274B (en) * 2021-03-31 2023-11-10 中国科学院心理研究所 Emotion early warning method based on camera
CN113143274A (en) * 2021-03-31 2021-07-23 北京晶栈信息技术有限公司 Emotion early warning method based on camera
JP2023028552A (en) * 2021-08-19 2023-03-03 凸版印刷株式会社 Psychological state estimation device, psychological state estimation system, and psychological state estimation program
JP7160160B1 (en) 2021-08-19 2022-10-25 凸版印刷株式会社 Mental state estimation device, mental state estimation system, and mental state estimation program
JP7442611B2 (en) 2021-10-13 2024-03-04 株式会社電通 Event support system, event support method, event support program
WO2023074129A1 (en) * 2021-11-01 2023-05-04 ソニーグループ株式会社 Information processing device, communication assistance device, and communication assistance system

Similar Documents

Publication Publication Date Title
JP2012059107A (en) Emotion estimation device, emotion estimation method and program
CN106992013B (en) Speech emotion modification
US10433052B2 (en) System and method for identifying speech prosody
RU2613580C2 (en) Method and system for helping patient
JP6524049B2 (en) Emotion estimation device, emotion estimation method, emotion estimation program, and emotion counting system
US9329758B2 (en) Multiple sensory channel approach for translating human emotions in a computing environment
US9031293B2 (en) Multi-modal sensor based emotion recognition and emotional interface
JP2004310034A (en) Interactive agent system
JP2017156854A (en) Speech semantic analysis program, apparatus and method for improving comprehension accuracy of context semantic through emotion classification
KR102276415B1 (en) Apparatus and method for predicting/recognizing occurrence of personal concerned context
JP2018169506A (en) Conversation satisfaction degree estimation device, voice processing device and conversation satisfaction degree estimation method
US20210186370A1 (en) Automated and objective symptom severity score
JP2019096116A (en) Information processing device, information processing method, and program
CN111149172B (en) Emotion management method, device and computer-readable storage medium
KR20200029663A (en) Emotion recognition apparatus and control method THEREOF
JP2020190579A (en) System for evaluating presentation, method, learned model and program, information processing device and terminal device
KR20210100831A (en) System and method for providing sign language translation service based on artificial intelligence
EP3340240A1 (en) Information processing device, information processing method, and program
WO2020175969A1 (en) Emotion recognition apparatus and emotion recognition method
CN115171284B (en) Senior caring method and device
WO2022024194A1 (en) Emotion analysis system
EP3956748B1 (en) Headset signals to determine emotional states
JP2006136742A (en) Communication apparatus
WO2023075746A1 (en) Detecting emotional state of a user
KR20210100832A (en) System and method for providing sign language translation service based on artificial intelligence that judges emotional stats of the user