JP7082444B2 - 機械学習装置および機械学習プログラム - Google Patents
機械学習装置および機械学習プログラム Download PDFInfo
- Publication number
- JP7082444B2 JP7082444B2 JP2019505810A JP2019505810A JP7082444B2 JP 7082444 B2 JP7082444 B2 JP 7082444B2 JP 2019505810 A JP2019505810 A JP 2019505810A JP 2019505810 A JP2019505810 A JP 2019505810A JP 7082444 B2 JP7082444 B2 JP 7082444B2
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- label
- user
- voice
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 44
- 230000008451 emotion Effects 0.000 claims description 169
- 230000006870 function Effects 0.000 claims description 110
- 238000004364 calculation method Methods 0.000 claims description 70
- 238000000034 method Methods 0.000 claims description 70
- 230000001815 facial effect Effects 0.000 claims description 46
- 230000002996 emotional effect Effects 0.000 claims description 8
- 206010044565 Tremor Diseases 0.000 claims description 7
- 230000036772 blood pressure Effects 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 3
- 230000008909 emotion recognition Effects 0.000 description 9
- 230000037007 arousal Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000003745 diagnosis Methods 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 4
- 230000036760 body temperature Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 206010010904 Convulsion Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 210000000577 adipose tissue Anatomy 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 230000004622 sleep time Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N99/00—Subject matter not provided for in other groups of this subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
しかしながら、人の感情は本人ですら確実に認識できるとは限らず、感情を繰り返し回答するのは、利用者にとって非常に煩わしく、できる限り問い合わせを減らすことが望ましい。また、体調の認識については記載がない。
以下、本発明を実施するための形態を各図を参照して説明する。図1は、本実施形態に係る機械学習装置800のソフトウェア機能の構成を示す図である。ソフトウェア機能は、コンフィグ設定801、結果出力機能803、センシングデータ受信機能804、信号処理機能805、機械学習機能807、特徴量算出機能808、個人・感情推測機能809、体調推測機能810、故障診断機能811、キャリブレーション機能812を含む。
コンフィグ設定801は、人やモノを含めた外部環境をセンシングするセンサ820や機械学習装置800であるコンピュータのハードウェア環境に関するパラメータを設定する機能である。設定DB802は、コンフィグ設定801を用いて設定されたパラメータが格納されるデータベースである。結果出力機能803は、後述する個人・感情推測機能809、体調推測機能810などが推測した結果を出力する機能である。
機械学習機能807は、ニューラルネットワークや遺伝的プログラミング、サポートベクタマシンなど各種機械学習モデルを用いた汎用の機械学習の機能である。特徴量算出機能808は、センシングデータ受信機能804が受信したデータを信号処理機能805で処理して、特徴量を算出し、機械学習機能807に入力させる。音声の特徴量には声のピッチ・高さなどがあり、顔の特徴量には目や口の端点の位置関係などがある。
ラベルDB56には、個人特定や感情認識(推測)に用いられるラベルと特徴量の関係が含まれる。一時ラベルDB57には、推測された結果であるラベルが一時的に格納される。ラベル履歴DB58には、感情や体調の経年変化をモニタするために、推測されたラベルの履歴が格納される。上記3つのDBには、個人の情報が含まれるため、安全に記憶される必要がある。
以下で説明する個人特定や感情認識、体調推測の精度を向上させることができる機械学習装置800は、上記のソフトウェア機能を用いて実現される。
図2は、本実施形態に係る機械学習装置800の機能構成を例示する図である。機械学習装置800は、入出力部822、制御部823、記憶部824、ハイパーバイザ825、リアルタイムOS826、セキュアOS827、リッチOS828、特徴量算出機能808、機械学習機能807、キャリブレーション機能812、個人・感情・体調推測部52、ラベルDB56、一時ラベルDB57、ラベル履歴BD58を備える。また、機械学習装置800には、カメラ21、マイク22、心拍センサ23が接続される。
個人情報を扱うために、キャリブレーション機能812は、セキュアOS827上で動作し、ラベルDB56、一時ラベルDB57、ラベル履歴BD58は、セキュアOS827上に格納される。
音声特徴量算出部32は、マイク22が収音した利用者の音声の特徴量を算出する。音声特徴量算出部32が算出した特徴量は、音声感情分析部43と音声個人特定部44とに出力される。
心拍数取得部33は、心拍センサ23が検出した利用者の心拍数を取得して、心拍分析部45に出力する。
図3Aと図3Bは、本実施形態に係る感情種別を説明するための図である。図3Aは、感情を快適度・覚醒度・疲労度の3つの軸を用いて表すことを示している。例えば、「感情:1,-2,0」というラベルは、快適度が1、覚醒度が-2、疲労度が0の状態を示す感情ラベルである。図3Bは、感情を快適度・覚醒度の2軸で示している。「感情:1,2」というラベルは、快適度が1、覚醒度が2の状態を示す感情ラベルである。2つの数値の替わりに、図3Bに示した興奮や警戒などのラベルを用いてもよい。
図4は、本実施形態に係るラベルDB56のデータ構成を例示する図である。ラベルDB56はテーブル形式のデータベースであり、1つの行(レコード)は1つのラベルの関連情報を表している。ラベルDB56は、種別561と、特徴量562と、ラベル563と、個人ID564と、更新日時565との列(属性)から構成される。
特徴量562は、当該レコードを代表する特徴量である。特徴量562の形式や内容は、種別561によって変わる。例えば、種別561が顔感情ならば、特徴量562は、顔特徴量算出部31が算出した特徴量の形式をしている。例えば、種別561が心拍ならば、特徴量562は、心拍数取得部33が取得した心拍数である。
更新日時565は当該レコードが作成された日時を示す。
特徴量572は、当該レコードの特徴量を示し、例えば、当該レコードが、顔感情分析部41が出力したレコードならば、顔特徴量算出部31が出力した特徴量である。
ラベル573は、ラベルDB56のラベル563と同様に当該レコードのラベルを示す。
確度574は、当該レコードのラベル573の確からしさを示し、特徴量572とラベルDB56の検索されたレコードの特徴量562とが近いほど大きな値になる。
取得日時575は、当該レコードが作成された日時である。
音声感情分析部43は、音声特徴量算出部32が算出した特徴量から、ラベルDB56を検索し、感情を分析(推測)して、感情ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
心拍分析部45は、心拍数取得部33が出力した心拍数から、ラベルDB56を検索し、感情や体調を分析(推測)して、感情ラベルや体調ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
図6は、本実施形態に係るラベル履歴DB58のデータ構成を例示する図である。ラベル履歴DB58には、検出された感情や体調が分類され、履歴として記録される。ラベル履歴DB58はテーブル形式のデータベースであり、1つの行(レコード)は1つの感情が表れた時間を示している。ラベル履歴DB58は、個人ID581と、ラベル582と、取得日時583と、出現時間584との列から構成される。
個人・感情・体調推測部52は、個人・感情推測機能809(図1参照)と体調推測機能810とが組み合わされて実現され、顔感情分析部41と、顔個人特定部42と、音声感情分析部43と、音声個人特定部44と、心拍分析部45とが出力したラベルから総合的に個人を特定したり、感情や体調を分析したりする。個人・感情・体調推測部52が特定した個人は、後述するラベルDB更新処理(図8と図9参照)で参照される。
図7は、本実施形態に係る機械学習処理全体のフローチャートである。図7を参照して、特徴量算出機能808、機械学習機能807、キャリブレーション機能812の処理を説明する。ステップS111~S114の一連の処理とステップS121~S124の一連の処理とステップS131~S132の一連の処理との3つの一連の処理は、それぞれ非同期的に独立して処理される。例えば、ステップS131~S132の一連の処理が1回実行される間にステップS111~S114の一連の処理が数回実行されることもある。
ステップS112において、顔特徴量算出部31は、顔画像から顔の特徴量を算出して、顔感情分析部41と顔個人特定部42とに出力する。特徴量としては、目の両端と中点と上下点、口の両端と中点と上下点、鼻の先、鼻孔、眉の両端と中点などの点の相対位置関係がある。
ステップS113とS114の処理は、それぞれ非同期的に独立して処理される。
ステップS131において、心拍数取得部33は、心拍センサ23から利用者の心拍数を取得する。
ステップS132において、心拍分析部45は、ラベルDB56の中で心拍数の近いレコードを検索することで心拍数から感情や体調を分析(推測)して、感情ラベルまたは体調ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
ステップS151において、キャリブレーション機能812は、直近に追加された個人識別ラベルに示される特定された個人が既に特定されていた個人と同一であるか判断して、同一(Y)ならステップS154に進み、同一でない(N)ならステップS152に進む。
ステップS153において、キャリブレーション機能812は、一時ラベルDB57にあるレコードを全て削除する。
ステップS154において、キャリブレーション機能812は、前回のラベルDB更新処理から所定の時間が経過したか判断して、経過していないならば(N)、最初の処理であるステップS111、S121、S131に戻り、経過していれば(Y)、ステップS152に進む。
図8は、本実施形態に係るラベルDB更新処理の中で顔個人ラベル処理と音声個人ラベル処理と顔感情ラベル処理とのフローチャートである。図9は、本実施形態に係るラベルDB更新処理の中で音声感情ラベル処理と心拍ラベル処理、および、ラベル履歴DB更新処理のフローチャートである。図8と図9を参照して、ステップS152に当たる、キャリブレーション機能812がラベルDB56を更新する処理を説明する。
ステップS212において、キャリブレーション機能812は、一時ラベルDB57(図5参照)のレコードの中で、顔個人の確度が低下していないかを判断する。詳しくは、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔個人のレコードを検索し、確度574の平均値が所定の値より低いか判断する。キャリブレーション機能812は、所定の値より低い確度574のレコードが所定の比率より高ければ、確度が低下したと判断してもよい。
ステップS214において、キャリブレーション機能812は、新しい特徴量を算出してラベルDB56の当該個人識別ラベルのレコードを更新する。ラベルDB56の当該個人識別ラベルのレコードとは、ラベル563が特定済みの個人に当たる個人識別ラベルであり、種別561が顔個人であるレコードのことである。
ステップS217において、キャリブレーション機能812は、ラベルDB56の当該個人識別ラベルのレコードを更新する。更新の方法は、ステップS214と同様である。
ステップS222~S227は、ステップS212~S217の顔が音声に替わった同様の処理である。
ステップS231において、キャリブレーション機能812は、顔感情で特徴量が近いレコードであって所定の時間のあいだ連続したものがあるか、一時ラベルDB57を検索する。詳しくは、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔感情のレコードを検索し、特徴量572が近いレコードで、取得日時575が所定の時間のあいだ連続したレコードがあるか検索する。
ステップS233において、キャリブレーション機能812は、検索結果のレコードの特徴量572に近い特徴量562を含む顔感情のレコードをラベルDB56の中で検索する。詳しくは、キャリブレーション機能812は、ラベルDB56のレコードの中で、種別561が顔感情、特徴量562が検索結果の特徴量572に所定の値より近いレコードを検索する。
ステップS235において、キャリブレーション機能812は、ステップS233の検索であるラベルDB56のレコードの個人ID564が特定済みの個人の識別情報であれば、ラベルDB56に登録済みとして、ステップT1(図9のステップS241)に進む。個人ID564が特定済みの個人の識別情報でなければ、キャリブレーション機能812は、ラベルの内容が正しいかを利用者に確認した後に、当該ラベルをラベルDB56に登録する。
≪ラベルDB更新処理:心拍≫
ステップS251において、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が心拍のレコードを検索し、特徴量572の心拍数が所定の値より高いレコードまたは所定の値より低いレコードで、取得日時575が所定の時間のあいだ連続したレコードがあるか検索する。
ステップS253において、キャリブレーション機能812は、ステップS251での検索結果のレコードにある取得日時575当時の感情ラベルから、所定の心拍数より高くて感情が興奮状態(図3B参照)か、所定の心拍数より低くて感情が沈静状態かに分類されるか判断する。感情ラベルは、取得日時575がステップS251の検索結果のレコードにある取得日時575当時であり、種別571が顔感情または音声感情のレコードのラベル573から取得できる。
ステップS255において、キャリブレーション機能812は、ステップS253の顔感情または音声感情に示される感情に、取得日時575の当時の感情が近かったか、近くなかったらどのような感情だったかを図3Bの感情の図を提示して問い合わせる。次に、キャリブレーション機能812は、ラベルDB56にレコードを追加し、種別561を心拍に、特徴量562をステップS251の検索結果であるレコードの特徴量572の平均値に、ラベル563を問い合わせの結果のラベルに、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。なお、個人向けラベルとしてラベルDB56に登録済み(特徴量562が特徴量572の平均値に近く、個人ID564が特定済み個人の識別情報であるレコードが存在する)ならば、本処理は不要である。
ステップS257において、キャリブレーション機能812は、問い合わせの結果、体調が悪くなければ(N)、ステップS261に進み、悪ければ(Y)、ステップS258に進む。
ステップS258において、キャリブレーション機能812は、体調不良ラベルのレコードをラベルDB56に追加する。詳しくは、キャリブレーション機能812は、ラベルDB56にレコードを追加し、種別561を心拍に、特徴量562をステップS251の検索結果のレコードに含まれる特徴量572の平均値に、ラベル563を「体調:不良」に、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。
ステップS261において、キャリブレーション機能812は、検出された感情を分類して、検出された累積時間をラベル履歴DB58(図6参照)に格納する。感情の分類には、図3Bのグラフにおいて原点から所定の近さの領域またはそれ以外の興奮/沈静と快適/不快とで区分けされる4つの象限領域のどこに位置するかで分類される。詳しくは、キャリブレーション機能812は、種別571が顔感情または音声感情であって、ラベル573にある感情ラベルの2つの値が所定値より小さいならば、「感情:0,0」のラベルを付け、興奮で快適な感情と分析されれば「感情:1,1」とラベルを付けて分類する。他の象限も同様である。取得日時575の間隔を検出された時間として、5領域の感情ごとに累積時間を算出して、レコードを追加する。レコードの個人ID581は特定された個人の識別情報、ラベル582は上記に示した感情ラベル、取得日時583は現在時刻、出現時間584は上記の累積時間である。
上記の実施形態では、キャリブレーション機能812のラベルDB更新処理は、所定の時間が経過したときに実行される(図7のステップS154)。顔感情で所定の時間連続した近い特徴量を取得したとき(図8のステップ231)、音声感情で所定の時間連続した近い特徴量を取得したとき(図9のステップ241)、所定の心拍数より高い心拍数が連続したとき(図9のステップS251)、または、所定の心拍数より低い心拍数が連続したとき(ステップS251)に、ラベルDB更新処理を開始してもよい。感情や体調に関する問い合わせが発生する場合(ステップS235、S245、S255、S256)に、発生を検出したときに問い合わせることでより正確な感情や体調を得ることができる。
なお、他の生体状態情報として、体重、体脂肪率、会話量、睡眠時間、紫外線被爆量、呼吸数、運動量、発声量などを用いてもよい。また、温度、湿度、光量、照度、紫外線量、気圧、騒音などの環境情報を用いて感情や体調を推測し、経年変化をモニタしてもよい。
上記の実施形態では、個人を特定する特徴量が、ラベルDB56にある特徴量から変化した場合(図8のステップS212、ステップS222)や一定時間経過したとき(ステップS215、ステップS225)に、特徴量を更新している。これにより、経年変化が起きた場合でも、個人が特定できなくなることを防止することができる。また、この経年変化した個人特定の特徴量を用いて、より高精度に個人を特定することができる。
特定個人の特徴量562と、当該個人に問い合わせた感情のラベル563とを含んだレコードが登録されることで、個々の利用者の感情表現に合わせたラベルDB56を作成することができ、ついては、より精度の高い感情の推測が可能となる。
ラベル履歴DB58(図6参照)から、長期間にわたる利用者の感情の経年変化を把握することができる。例えば、「感情:-1,-1」というラベル582の出現時間584が増加傾向にあれば、利用者が鬱状態に変化していることが分かり、メンタル面で問題が生じている可能性があることを利用者に警告することができる。
22 マイク
23 心拍センサ
31 顔特徴量算出部
32 音声特徴量算出部
33 心拍数取得部
41 顔感情分析部
42 顔個人特定部
43 音声感情分析部
44 音声個人特定部
45 心拍分析部
52 個人・感情・体調推測部
56 ラベルDB
57 一時ラベルDB
58 ラベル履歴DB
800 機械学習装置
807 機械学習機能
808 特徴量算出機能
812 キャリブレーション機能
Claims (3)
- カメラとマイクが接続された機械学習装置であって、
前記カメラが撮影した前記機械学習装置の利用者の顔データから顔特徴量を算出する顔特徴量算出部と、
前記マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出部と、
前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを記憶する記憶部と、
前記ラベルデータベースを更新するキャリブレーション機能部と、
前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定部と、
前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定部とを備え、
前記キャリブレーション機能部は、
前記顔個人特定部が前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出部が算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出部が算出した顔特徴量に更新し、
前記音声個人特定部が前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出部が算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出部が算出した音声特徴量に更新し、
前記ラベルデータベースは、前記顔特徴量または前記音声特徴量、感情ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに格納し、
前記キャリブレーション機能部は、
所定の時間のあいだ前記顔特徴量算出部が算出する顔特徴量が所定の近さにあって、当該顔特徴量に近い顔特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記顔特徴量算出部が算出する顔特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加し、
所定の時間のあいだ前記音声特徴量算出部が算出する音声特徴量が所定の近さにあって、当該音声特徴量に近い音声特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記音声特徴量算出部が算出する音声特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する
ことを特徴とする機械学習装置。 - 心拍センサ、血圧センサまたは3次元加速度センサが接続され、
前記ラベルデータベースは、心拍数、血圧または体の震え量、感情ラベルまたは体調ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに記憶し、
前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを、前記ラベルデータベースで検索することで前記利用者の感情ラベルを出力する顔感情分析部と、
前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを、前記ラベルデータベースで検索することで前記利用者の感情ラベルを出力する音声感情分析部とをさらに備え、
前記キャリブレーション機能部は、
前記心拍センサが接続された場合には、所定の時間のあいだ心拍センサで計測された心拍数が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記心拍数と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加し、
前記血圧センサが接続された場合には、所定の時間のあいだ血圧センサで計測された血圧が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記血圧と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加し、
前記3次元加速度センサが接続された場合には、所定の時間のあいだ3次元加速度センサで計測された体の震え量が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記体の震え量と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加する
ことを特徴とする請求項1に記載の機械学習装置。 - カメラが撮影した利用者の顔データから顔特徴量を算出する顔特徴量算出手順と、
マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出手順と、
前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを操作する手順と、
前記顔特徴量算出手順で算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定手順と、
前記音声特徴量算出手順で算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定手順と、
前記顔個人特定手順で前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出手順で算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出手順で算出した顔特徴量に更新する手順と、
前記音声個人特定手順で前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出手順で算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出手順で算出した音声特徴量に更新する手順と
をコンピュータに実行させる機械学習プログラムであって、
前記ラベルデータベースは、前記顔特徴量または前記音声特徴量、感情ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに格納し、さらに、
所定の時間のあいだ前記顔特徴量算出手順が算出する顔特徴量が所定の近さにあって、当該顔特徴量に近い顔特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記顔特徴量算出手順が算出する顔特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する手順と、
所定の時間のあいだ前記音声特徴量算出手順が算出する音声特徴量が所定の近さにあって、当該音声特徴量に近い音声特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記音声特徴量算出手順が算出する音声特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する手順と
を前記コンピュータに実行させる機械学習プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017048259 | 2017-03-14 | ||
JP2017048259 | 2017-03-14 | ||
PCT/JP2018/006267 WO2018168369A1 (ja) | 2017-03-14 | 2018-02-21 | 機械学習装置および機械学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018168369A1 JPWO2018168369A1 (ja) | 2020-01-30 |
JP7082444B2 true JP7082444B2 (ja) | 2022-06-08 |
Family
ID=63521992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019505810A Active JP7082444B2 (ja) | 2017-03-14 | 2018-02-21 | 機械学習装置および機械学習プログラム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7082444B2 (ja) |
TW (1) | TW201833802A (ja) |
WO (1) | WO2018168369A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11664033B2 (en) | 2020-06-15 | 2023-05-30 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7276763B2 (ja) * | 2019-01-04 | 2023-05-18 | 株式会社DSi | 識別システム |
JP7086020B2 (ja) * | 2019-03-13 | 2022-06-17 | 株式会社日立ビルシステム | 作業支援装置、昇降機システム及び作業支援方法 |
KR20200141672A (ko) * | 2019-06-11 | 2020-12-21 | 주식회사 룩시드랩스 | 감정 인식 방법 및 이를 이용한 감정 인식용 디바이스 |
JP7453169B2 (ja) | 2021-02-24 | 2024-03-19 | Kddi株式会社 | 感情種別グループの識別を介して感情推定を行うモデル、装置及び方法 |
DE102021205970A1 (de) * | 2021-06-11 | 2022-12-15 | Volkswagen Aktiengesellschaft | Verfahren zur Diagnostizierung einer Krankheit, vorzugsweise einer Atemwegserkrankung |
JP7444820B2 (ja) * | 2021-08-05 | 2024-03-06 | Necパーソナルコンピュータ株式会社 | 感情判定装置、感情判定方法、及びプログラム |
JP7445933B2 (ja) | 2022-06-02 | 2024-03-08 | ソフトバンク株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004126813A (ja) | 2002-09-30 | 2004-04-22 | Toshiba Corp | 個人認証装置、個人認証方法、入退出管理装置及び入退出管理方法 |
JP2006017936A (ja) | 2004-06-30 | 2006-01-19 | Sharp Corp | 通話装置,中継処理装置,通信認証システム,通話装置の制御方法,通話装置の制御プログラム,および通話装置の制御プログラムを記録した記録媒体 |
JP2006113546A (ja) | 2004-09-14 | 2006-04-27 | Honda Motor Co Ltd | 情報伝達装置 |
JP2006263348A (ja) | 2005-03-25 | 2006-10-05 | Toshiba Corp | 利用者識別装置、利用者識別方法および利用者識別プログラム |
JP2011223173A (ja) | 2010-04-06 | 2011-11-04 | Olympus Imaging Corp | 撮影装置、顔画像合成装置、顔画像合成方法、およびプログラム |
-
2018
- 2018-02-07 TW TW107104306A patent/TW201833802A/zh unknown
- 2018-02-21 JP JP2019505810A patent/JP7082444B2/ja active Active
- 2018-02-21 WO PCT/JP2018/006267 patent/WO2018168369A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004126813A (ja) | 2002-09-30 | 2004-04-22 | Toshiba Corp | 個人認証装置、個人認証方法、入退出管理装置及び入退出管理方法 |
JP2006017936A (ja) | 2004-06-30 | 2006-01-19 | Sharp Corp | 通話装置,中継処理装置,通信認証システム,通話装置の制御方法,通話装置の制御プログラム,および通話装置の制御プログラムを記録した記録媒体 |
JP2006113546A (ja) | 2004-09-14 | 2006-04-27 | Honda Motor Co Ltd | 情報伝達装置 |
JP2006263348A (ja) | 2005-03-25 | 2006-10-05 | Toshiba Corp | 利用者識別装置、利用者識別方法および利用者識別プログラム |
JP2011223173A (ja) | 2010-04-06 | 2011-11-04 | Olympus Imaging Corp | 撮影装置、顔画像合成装置、顔画像合成方法、およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11664033B2 (en) | 2020-06-15 | 2023-05-30 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
Also Published As
Publication number | Publication date |
---|---|
TW201833802A (zh) | 2018-09-16 |
JPWO2018168369A1 (ja) | 2020-01-30 |
WO2018168369A1 (ja) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7082444B2 (ja) | 機械学習装置および機械学習プログラム | |
US11089985B2 (en) | Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders | |
CN107209807B (zh) | 疼痛管理可穿戴设备 | |
US8190544B2 (en) | Identifying and generating biometric cohorts based on biometric sensor input | |
EP3355761B1 (en) | Emotional/behavioural/psychological state estimation system | |
CN109765991A (zh) | 社交互动***、用于帮助用户进行社交互动的***及非暂时性计算机可读存储介质 | |
WO2019137538A1 (en) | Emotion representative image to derive health rating | |
WO2019086856A1 (en) | Systems and methods for combining and analysing human states | |
KR102453304B1 (ko) | 치매 예방 및 자가진단을 위한 가상현실콘텐츠를 제공하는 시스템 | |
US20200074361A1 (en) | Performance measurement device, performance measurement method and performance measurement program | |
JP2022546644A (ja) | 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法 | |
Sanchez et al. | Hidden markov models for activity recognition in ambient intelligence environments | |
Severin et al. | Head gesture recognition using a 6DOF inertial IMU | |
Aggelides et al. | A gesture recognition approach to classifying allergic rhinitis gestures using wrist-worn devices: a multidisciplinary case study | |
US20200305801A1 (en) | Determining health state of individuals | |
Nazlı et al. | Classification of Coronary Artery Disease Using Different Machine Learning Algorithms | |
NL1044171B1 (en) | A method performed by an information processing device, a program product and a system for processing context related operational and human mental brain activity data. | |
US10079074B1 (en) | System for monitoring disease progression | |
KR20220005945A (ko) | 얼굴 표정에 관한 데이터 세트를 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
WO2023199839A1 (ja) | 内面状態推定装置、内面状態推定方法及び記憶媒体 | |
US20230210503A1 (en) | Systems and Methods for Generating Menstrual Cycle Cohorts and Classifying Users into a Cohort | |
JP7464759B2 (ja) | 睡眠者タイプに基づくユーザ分類により睡眠データの測定を改善する方法およびシステム | |
US20240215882A1 (en) | Systems and Methods for Using Mobile and Wearable Video Capture and Feedback Plat-Forms for Therapy of Mental Disorders | |
Çokçetn et al. | Machine Learning-Based Biometric Authentication with Photoplethysmography Signal | |
Sohail et al. | A CNN-based Deep Learning Framework for Driver's Drowsiness Detection. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7082444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |