JP7082444B2 - 機械学習装置および機械学習プログラム - Google Patents

機械学習装置および機械学習プログラム Download PDF

Info

Publication number
JP7082444B2
JP7082444B2 JP2019505810A JP2019505810A JP7082444B2 JP 7082444 B2 JP7082444 B2 JP 7082444B2 JP 2019505810 A JP2019505810 A JP 2019505810A JP 2019505810 A JP2019505810 A JP 2019505810A JP 7082444 B2 JP7082444 B2 JP 7082444B2
Authority
JP
Japan
Prior art keywords
feature amount
label
user
voice
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019505810A
Other languages
English (en)
Other versions
JPWO2018168369A1 (ja
Inventor
清美 淺井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sekisui House Ltd
Original Assignee
Sekisui House Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sekisui House Ltd filed Critical Sekisui House Ltd
Publication of JPWO2018168369A1 publication Critical patent/JPWO2018168369A1/ja
Application granted granted Critical
Publication of JP7082444B2 publication Critical patent/JP7082444B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、個人特定や感情認識、体調推測に用いられる特徴量を蓄積する機械学習装置および機械学習プログラムに関する。
コンピューティングパワーの増大に伴い、顔や音声から個人の特定や感情の認識ができるようになってきている。また、ウェアラブル機器(スマートウォッチ、活動量計)の普及に伴い、体の動き・体温・心拍などの人の生体状態も取得できる。これに伴い、個人を特定して当該個人の感情まで認識することで、人とロボットの対話をスムーズにしたり、健康・運動管理の面からアドバイスするサービスが提供されたりしている。
個人特定や感情認識の実現には、機械学習という技術が用いられている。機械学習には、事物のデータ(訓練データ)からパターンをコンピュータが見つけ出す学習と、学習した後に未知の事物のデータから何の事物かを判断する推測との、2つの過程がある。訓練データには事物を示すラベルが付与されており、個人特定では個人識別情報のラベル、感情認識では喜び・怒りなどのラベルが付与される。通常は、学習した後に推測するが、推測の精度を上げるために、学習を繰り返し行うこと(再学習)もある。
特許文献1に記載の技術は、機械学習の1つであり、利用者の個性を認識して個人特定や感情認識の精度を向上することを目指している。
特開2001-83984号公報
特許文献1に記載の発明においては、感情認識精度、引いては個人特定精度を向上させるために、認識した感情の正否を利用者に問い合わせていた(特許文献1の図15と段落0063参照)。この問い合わせを行うタイミングは、感情を認識した後であり(特許文献1の図7のステップ102と段落0036参照)、繰り返し実行される。
しかしながら、人の感情は本人ですら確実に認識できるとは限らず、感情を繰り返し回答するのは、利用者にとって非常に煩わしく、できる限り問い合わせを減らすことが望ましい。また、体調の認識については記載がない。
そこで、本発明は、個人特定や感情認識、体調推測の精度を向上させることができる機械学習装置および機械学習プログラムを提供することを課題とする。
前記の課題を解決するため、本発明は、カメラとマイクが接続された機械学習装置であって、前記カメラが撮影した前記機械学習装置の利用者の顔データから顔特徴量を算出する顔特徴量算出部と、前記マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出部と、前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを記憶する記憶部と、前記ラベルデータベースを更新するキャリブレーション機能部と、前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定部と、前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定部とを備え、前記キャリブレーション機能部は、前記顔個人特定部が前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出部が算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出部が算出した顔特徴量に更新し、前記音声個人特定部が前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出部が算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出部が算出した音声特徴量に更新することを特徴とする機械学習装置とした。
本発明によれば、個人特定や感情認識、体調推測の精度を向上させることができる機械学習装置および機械学習プログラムを提供することが可能となる。
本実施形態に係る機械学習装置のソフトウェア機能の構成を示す図である。 本実施形態に係る機械学習装置の機能構成を例示する図である。 感情を快適度・覚醒度・疲労度の3つの軸を用いて表すことを示す図である。 感情を快適度・覚醒度の2軸で示した図である。 本実施形態に係るラベルDBのデータ構成を例示する図である。 本実施形態に係る一時ラベルDBのデータ構成を例示する図である。 本実施形態に係るラベル履歴DBのデータ構成を例示する図である。 本実施形態に係る機械学習処理全体のフローチャートである。 本実施形態に係るラベルDB更新処理の中で顔個人ラベル処理と音声個人ラベル処理と顔感情ラベル処理とのフローチャートである。 本実施形態に係るラベルDB更新処理の中で音声感情ラベル処理と心拍ラベル処理、および、ラベル履歴DB更新処理のフローチャートである。
≪ソフトウェア構成≫
以下、本発明を実施するための形態を各図を参照して説明する。図1は、本実施形態に係る機械学習装置800のソフトウェア機能の構成を示す図である。ソフトウェア機能は、コンフィグ設定801、結果出力機能803、センシングデータ受信機能804、信号処理機能805、機械学習機能807、特徴量算出機能808、個人・感情推測機能809、体調推測機能810、故障診断機能811、キャリブレーション機能812を含む。
機械学習装置800には、カメラ、マイク、心拍センサなどのセンサ820がケーブルや近距離無線通信などを用いて接続されていて、設定DB(Database)802とラベルDB56と一時ラベルDB57とラベル履歴DB58とを備える。
コンフィグ設定801は、人やモノを含めた外部環境をセンシングするセンサ820や機械学習装置800であるコンピュータのハードウェア環境に関するパラメータを設定する機能である。設定DB802は、コンフィグ設定801を用いて設定されたパラメータが格納されるデータベースである。結果出力機能803は、後述する個人・感情推測機能809、体調推測機能810などが推測した結果を出力する機能である。
センシングデータ受信機能804は、センサ820からのデータを受信する機能である。信号処理機能805は、センサ820から受信した画像、音声などのデータを処理する機能であり、フーリエ変換、画像処理、フィルタリングなどを行う。
機械学習機能807は、ニューラルネットワークや遺伝的プログラミング、サポートベクタマシンなど各種機械学習モデルを用いた汎用の機械学習の機能である。特徴量算出機能808は、センシングデータ受信機能804が受信したデータを信号処理機能805で処理して、特徴量を算出し、機械学習機能807に入力させる。音声の特徴量には声のピッチ・高さなどがあり、顔の特徴量には目や口の端点の位置関係などがある。
個人・感情推測機能809は、人(機械学習装置800の利用者)のセンシングデータから機械学習機能807を用いて個人を特定したり感情を推測したりする。体調推測機能810は、人のセンシングデータから機械学習機能807を用いて体調を推測する。故障診断機能811は、機器のセンシングデータから機械学習機能807を用いてその機器の故障原因を診断したり故障を予測したりする。個人・感情推測機能809、体調推測機能810、故障診断機能811が推測・診断した結果は、結果出力機能803を用いて出力される。
キャリブレーション機能812は、特徴量算出機能808が算出する特徴量と、個人・感情推測機能809、体調推測機能810、故障診断機能811が推測・診断した結果(個人識別情報のラベルや怒り・喜びなどの感情のラベルなど)との関係を更新する。
ラベルDB56には、個人特定や感情認識(推測)に用いられるラベルと特徴量の関係が含まれる。一時ラベルDB57には、推測された結果であるラベルが一時的に格納される。ラベル履歴DB58には、感情や体調の経年変化をモニタするために、推測されたラベルの履歴が格納される。上記3つのDBには、個人の情報が含まれるため、安全に記憶される必要がある。
以下で説明する個人特定や感情認識、体調推測の精度を向上させることができる機械学習装置800は、上記のソフトウェア機能を用いて実現される。
≪機械学習装置の機能構成≫
図2は、本実施形態に係る機械学習装置800の機能構成を例示する図である。機械学習装置800は、入出力部822、制御部823、記憶部824、ハイパーバイザ825、リアルタイムOS826、セキュアOS827、リッチOS828、特徴量算出機能808、機械学習機能807、キャリブレーション機能812、個人・感情・体調推測部52、ラベルDB56、一時ラベルDB57、ラベル履歴BD58を備える。また、機械学習装置800には、カメラ21、マイク22、心拍センサ23が接続される。
入出力部822は、通信ネットワークカード他から構成され、カメラ21やタッチパネル(不図示)などの装置・機器とのデータの送受信を行う。センシングデータ受信機能804は、入出力部822を経由してカメラ21、マイク22、心拍センサ23からのデータを受信する。記憶部824は、RAM(Random Access Memory)やROM(Read Only Memory)、ハードディスクから構成され、各種プログラムを記憶したり、ラベルDB56、一時ラベルDB57、ラベル履歴DB58を記憶したりする。制御部823は、CPU(Central Processing Unit)から構成され、記憶部824に記憶されている図1に記載の各種機能のプログラムやその他のプログラムを実行することで機械学習装置800を機能させる。
ハイパーバイザ825は、1つのコンピュータ上で複数のコンピュータ(OS(Operating System))を仮想的に動作させるプログラムである。リアルタイムOS826は、ハイパーバイザ825上で動作し、処理時間保証が求められるアプリケーションプログラムが動作するOSである。セキュアOS827は、ハイパーバイザ825上で動作し、高いセキュリティが求められるアプリケーションプログラムが動作したり、データが格納されたりするOSである。リッチOS828は、高度なGUI(Graphical User Interface)が必要なアプリケーションプログラムが動作するOSである。
特徴量算出機能808は、顔特徴量算出部31、音声特徴量算出部32、心拍数取得部33を備えていて、実時間処理が求められるのでリアルタイムOS826で動作する。機械学習機能807は、顔感情分析部41、顔個人特定部42、音声感情分析部43、音声個人特定部44、心拍分析部45を備えていて、実時間処理が求められるのでリアルタイムOS826で動作する。
個人情報を扱うために、キャリブレーション機能812は、セキュアOS827上で動作し、ラベルDB56、一時ラベルDB57、ラベル履歴BD58は、セキュアOS827上に格納される。
顔特徴量算出部31は、カメラ21が撮影した映像データから、利用者の顔の特徴量を算出する。顔特徴量算出部31が算出した特徴量は、顔感情分析部41と顔個人特定部42とに出力される。
音声特徴量算出部32は、マイク22が収音した利用者の音声の特徴量を算出する。音声特徴量算出部32が算出した特徴量は、音声感情分析部43と音声個人特定部44とに出力される。
心拍数取得部33は、心拍センサ23が検出した利用者の心拍数を取得して、心拍分析部45に出力する。
顔感情分析部41は、顔特徴量算出部31が算出した特徴量から、利用者の感情を分析(推測)して、感情ラベルを出力する。感情ラベルには、喜怒哀楽の感情ラベルの他に、後述する図3Aでの座標を示す数値パラメータまたは図3B記載の感情ラベルがある。
図3Aと図3Bは、本実施形態に係る感情種別を説明するための図である。図3Aは、感情を快適度・覚醒度・疲労度の3つの軸を用いて表すことを示している。例えば、「感情:1,-2,0」というラベルは、快適度が1、覚醒度が-2、疲労度が0の状態を示す感情ラベルである。図3Bは、感情を快適度・覚醒度の2軸で示している。「感情:1,2」というラベルは、快適度が1、覚醒度が2の状態を示す感情ラベルである。2つの数値の替わりに、図3Bに示した興奮や警戒などのラベルを用いてもよい。
図2の説明に戻り、顔感情分析部41は、顔特徴量算出部31が出力した特徴量に最も近い特徴量をもつレコードをラベルDB56の中で検索して、感情を分析(推測)する。
図4は、本実施形態に係るラベルDB56のデータ構成を例示する図である。ラベルDB56はテーブル形式のデータベースであり、1つの行(レコード)は1つのラベルの関連情報を表している。ラベルDB56は、種別561と、特徴量562と、ラベル563と、個人ID564と、更新日時565との列(属性)から構成される。
種別561は、当該レコードの種別を示す。種別には、顔特徴量と感情ラベルを含む顔感情、顔特徴量と個人識別ラベルを含む顔個人、音声特徴量と感情ラベルを含む声感情、音声特徴量と個人識別ラベルを含む声個人、心拍数を含む心拍がある。
特徴量562は、当該レコードを代表する特徴量である。特徴量562の形式や内容は、種別561によって変わる。例えば、種別561が顔感情ならば、特徴量562は、顔特徴量算出部31が算出した特徴量の形式をしている。例えば、種別561が心拍ならば、特徴量562は、心拍数取得部33が取得した心拍数である。
ラベル563は、当該レコードのラベルを示す。ラベルの形式は、種別561によって変わる。例えば、種別561が顔感情ならば、ラベル563は、図3Bで説明した快適度と覚醒度との2つのパラメータを用いて感情を表現したラベル(感情ラベル)である。種別561が顔個人ならば、ラベル563は、「個人164」といった個人識別情報を示すラベル(個人識別ラベル)である。他に「体調:不良」などの体調ラベルがある。
個人ID564は、当該レコードが特定個人か一般かを示し、特定個人ならばその個人識別情報であって、一般ならば「000」である。個人ID564が特定個人ならば、特徴量562は当該個人の特徴量を代表する特徴量である。個人ID564が「000」(一般)ならば、特徴量562は個人によらない平均的な特徴量を示す。
更新日時565は当該レコードが作成された日時を示す。
図2の説明に戻り、顔感情分析部41は、種別561が顔感情であって、顔特徴量算出部31が出力した特徴量に最も近い特徴量562をもつレコードをラベルDB56の中で検索して、当該レコードのラベル563を出力することで、感情を推測して、感情のラベル563を一時ラベルDB57と個人・感情・体調推測部52とに出力する。本処理の詳細は、図7を参照して、詳しく後述する。
図5は、本実施形態に係る一時ラベルDB57のデータ構成を例示する図である。一時ラベルDB57はテーブル形式のデータベースである。1つの行は、顔感情分析部41、顔個人特定部42、音声感情分析部43、音声個人特定部44、または、心拍分析部45が出力したラベルを含むレコードである。一時ラベルDB57は、種別571と、特徴量572と、ラベル573と、確度574と、取得日時575との列から構成される。
種別571は、ラベルDB56の種別561と同様に、当該レコードの種別を示す。
特徴量572は、当該レコードの特徴量を示し、例えば、当該レコードが、顔感情分析部41が出力したレコードならば、顔特徴量算出部31が出力した特徴量である。
ラベル573は、ラベルDB56のラベル563と同様に当該レコードのラベルを示す。
確度574は、当該レコードのラベル573の確からしさを示し、特徴量572とラベルDB56の検索されたレコードの特徴量562とが近いほど大きな値になる。
取得日時575は、当該レコードが作成された日時である。
図2の説明に戻って、顔個人特定部42は、顔特徴量算出部31が算出した特徴量から、ラベルDB56を検索し、個人を特定(推測)して、個人識別ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
音声感情分析部43は、音声特徴量算出部32が算出した特徴量から、ラベルDB56を検索し、感情を分析(推測)して、感情ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
音声個人特定部44は、音声特徴量算出部32が算出した特徴量から、ラベルDB56を検索し、個人を特定(推測)して、個人識別ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
心拍分析部45は、心拍数取得部33が出力した心拍数から、ラベルDB56を検索し、感情や体調を分析(推測)して、感情ラベルや体調ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
キャリブレーション機能812は、一時ラベルDB57から、レコードを取得して、ラベルDB56やラベル履歴DB58を更新する。個人のラベル(個人ID564が個人の識別情報)が追加されることで、感情分析の精度を上げることができる。キャリブレーション機能812の処理は、図8と図9を参照して、詳細に後述する。
図6は、本実施形態に係るラベル履歴DB58のデータ構成を例示する図である。ラベル履歴DB58には、検出された感情や体調が分類され、履歴として記録される。ラベル履歴DB58はテーブル形式のデータベースであり、1つの行(レコード)は1つの感情が表れた時間を示している。ラベル履歴DB58は、個人ID581と、ラベル582と、取得日時583と、出現時間584との列から構成される。
個人ID581は当該レコードの感情が推測された個人の識別情報である。ラベル582は当該レコードの感情ラベルである。取得日時583はラベル582の感情が推測された日時を示す。出現時間584は当該レコードの感情が推測された累積時間を示す。
個人・感情・体調推測部52は、個人・感情推測機能809(図1参照)と体調推測機能810とが組み合わされて実現され、顔感情分析部41と、顔個人特定部42と、音声感情分析部43と、音声個人特定部44と、心拍分析部45とが出力したラベルから総合的に個人を特定したり、感情や体調を分析したりする。個人・感情・体調推測部52が特定した個人は、後述するラベルDB更新処理(図8と図9参照)で参照される。
≪機械学習処理≫
図7は、本実施形態に係る機械学習処理全体のフローチャートである。図7を参照して、特徴量算出機能808、機械学習機能807、キャリブレーション機能812の処理を説明する。ステップS111~S114の一連の処理とステップS121~S124の一連の処理とステップS131~S132の一連の処理との3つの一連の処理は、それぞれ非同期的に独立して処理される。例えば、ステップS131~S132の一連の処理が1回実行される間にステップS111~S114の一連の処理が数回実行されることもある。
ステップS111において、顔特徴量算出部31は、カメラ21から利用者の顔画像を取得する。
ステップS112において、顔特徴量算出部31は、顔画像から顔の特徴量を算出して、顔感情分析部41と顔個人特定部42とに出力する。特徴量としては、目の両端と中点と上下点、口の両端と中点と上下点、鼻の先、鼻孔、眉の両端と中点などの点の相対位置関係がある。
ステップS113において、顔感情分析部41は、顔の特徴量から感情を分析(推測)して、感情ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。詳しくは、顔感情分析部41は、ラベルDB56(図4参照)の中で、種別561が顔感情であり、顔特徴量算出部31が出力した特徴量に最も近い特徴量562をもつレコードを検索して、当該レコードのラベル563を出力することで、感情を分析する。
但し、個人・感情・体調推測部52が利用者個人を特定済みならば、顔感情分析部41は、以下のように感情を分析して、感情ラベルを出力する。(1)個人ID564が当該個人の識別情報であるレコードの中で最も近い特徴量562を検索し、顔特徴量算出部31が出力した特徴量との距離を算出する。次に、(2)個人ID564が「000」であるレコードの中で最も近い特徴量562をもつレコードを検索し、顔特徴量算出部31が出力した特徴量との距離を算出する。(1)のレコードが存在して(1)の距離が(2)で算出した距離の所定の倍数より小さいならば、(1)のレコードのラベル563を出力し、そうでなければ(2)のレコードのラベル563を出力する。
なお、ラベルを一時ラベルDB57に出力するとは、一時ラベルDB57にレコードを追加し、種別571は顔感情、特徴量572は顔特徴量算出部31が出力した特徴量、ラベル573はラベル563、確度574は特徴量の近さ、取得日時575は現在時刻に更新することである。
ステップS114において、顔個人特定部42は、顔の特徴量から個人を特定(推測)して、個人識別ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。詳しくは、顔個人特定部42は、ラベルDB56の中で、種別561が顔個人であり、顔特徴量算出部31が出力した特徴量に所定の近さの特徴量562をもつレコードを検索して、当該レコードのラベル563を出力することで、個人を特定する。
所定の近さの特徴量562をもつレコードが存在しなければ、顔個人特定部42は、未登録の利用者としてラベルDB56に新規にレコードを追加する。当該レコードの種別561は顔個人、特徴量562は顔特徴量算出部31が出力した特徴量、ラベル563は新規の個人識別ラベル、個人ID564は新規の個人識別情報、更新日時565は現在時刻である。なお、個人が特定済みであり、ラベルDB56にある当該個人のレコードの特徴量562と、顔特徴量算出部31が出力した特徴量とが所定の近さであれば、個人特定済みの個人識別ラベルを出力する。
ステップS113とS114の処理は、それぞれ非同期的に独立して処理される。
ステップS121~S124の処理は、カメラ21がマイク22に替わり、顔が音声に替わったステップS111~S114と同様の処理である。音声の特徴量としては、ケプストラム分析によるフォルマトン周波数とピーク値、フーリエ変換しての周波数パワー分布、音素を抽出しての喋りの速度などがある。
ステップS131において、心拍数取得部33は、心拍センサ23から利用者の心拍数を取得する。
ステップS132において、心拍分析部45は、ラベルDB56の中で心拍数の近いレコードを検索することで心拍数から感情や体調を分析(推測)して、感情ラベルまたは体調ラベルを一時ラベルDB57と個人・感情・体調推測部52とに出力する。
ステップS113、S114、S123、S124またはS132において、一時ラベルDB57が更新されると、ステップS151以降のキャリブレーション機能812の処理が始まる。なお、個人・感情・体調推測部52は、出力されたラベルを参照して利用者の個人特定、感情推測、体調推測を行う。特定された利用者の個人識別情報は、後述するステップS151やラベルDB更新処理(ステップS152)で参照される。
ステップS151において、キャリブレーション機能812は、直近に追加された個人識別ラベルに示される特定された個人が既に特定されていた個人と同一であるか判断して、同一(Y)ならステップS154に進み、同一でない(N)ならステップS152に進む。
ステップS152において、キャリブレーション機能812はラベルDB更新処理を行う。本処理の詳細は、図8と図9を参照して、詳細に後述する。
ステップS153において、キャリブレーション機能812は、一時ラベルDB57にあるレコードを全て削除する。
ステップS154において、キャリブレーション機能812は、前回のラベルDB更新処理から所定の時間が経過したか判断して、経過していないならば(N)、最初の処理であるステップS111、S121、S131に戻り、経過していれば(Y)、ステップS152に進む。
≪ラベルDB更新処理≫
図8は、本実施形態に係るラベルDB更新処理の中で顔個人ラベル処理と音声個人ラベル処理と顔感情ラベル処理とのフローチャートである。図9は、本実施形態に係るラベルDB更新処理の中で音声感情ラベル処理と心拍ラベル処理、および、ラベル履歴DB更新処理のフローチャートである。図8と図9を参照して、ステップS152に当たる、キャリブレーション機能812がラベルDB56を更新する処理を説明する。
≪ラベルDB更新処理:顔個人と音声個人≫
ステップS212において、キャリブレーション機能812は、一時ラベルDB57(図5参照)のレコードの中で、顔個人の確度が低下していないかを判断する。詳しくは、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔個人のレコードを検索し、確度574の平均値が所定の値より低いか判断する。キャリブレーション機能812は、所定の値より低い確度574のレコードが所定の比率より高ければ、確度が低下したと判断してもよい。
ステップS213において、キャリブレーション機能812は、確度が低下した(Y)と判断したらステップS214に進み、低下していない(N)と判断したらステップS215に進む。
ステップS214において、キャリブレーション機能812は、新しい特徴量を算出してラベルDB56の当該個人識別ラベルのレコードを更新する。ラベルDB56の当該個人識別ラベルのレコードとは、ラベル563が特定済みの個人に当たる個人識別ラベルであり、種別561が顔個人であるレコードのことである。
キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔個人のレコードを検索し、当該レコードの特徴量572から新しい特徴量を算出して、ラベルDB56の当該個人識別ラベルのレコードの特徴量562を更新する。新しい特徴量を算出するには、一時ラベルDB57から抽出した特徴量572の平均的な特徴量を算出してもよいし、特徴量572が最も密集しているところから代表となる特徴量を選定してもよい。また、新しい特徴量でラベルDB56の特徴量562を更新してもよいし、新しい特徴量とラベルDB56の特徴量562との中間となる特徴量で更新してもよい。キャリブレーション機能812は、更新日時565を現在時刻に更新する。
ステップS215において、キャリブレーション機能812は、ラベルDB56の当該個人識別ラベルのレコードが前回更新から所定の期間が過ぎていないか判断する。詳しくは、キャリブレーション機能812は、ラベルDB56のレコードでラベル563が特定済みの個人に当たる個人識別ラベルであり、種別561が顔個人であるレコードの更新日時565が所定の期間より以前でないか判断する。
ステップS216において、キャリブレーション機能812は、所定の期間が過ぎた(Y)と判断したらステップS217に進み、過ぎていない(N)と判断したらステップS222に進む。
ステップS217において、キャリブレーション機能812は、ラベルDB56の当該個人識別ラベルのレコードを更新する。更新の方法は、ステップS214と同様である。
ステップS222~S227は、ステップS212~S217の顔が音声に替わった同様の処理である。
≪ラベルDB更新処理:顔感情と音声感情≫
ステップS231において、キャリブレーション機能812は、顔感情で特徴量が近いレコードであって所定の時間のあいだ連続したものがあるか、一時ラベルDB57を検索する。詳しくは、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が顔感情のレコードを検索し、特徴量572が近いレコードで、取得日時575が所定の時間のあいだ連続したレコードがあるか検索する。
ステップS232において、キャリブレーション機能812は、ステップS231の検索結果のレコードが存在すれば(Y)、ステップS233に進み、そのようなレコードが存在しなければ、ステップT1(図9のステップS241)に進む。
ステップS233において、キャリブレーション機能812は、検索結果のレコードの特徴量572に近い特徴量562を含む顔感情のレコードをラベルDB56の中で検索する。詳しくは、キャリブレーション機能812は、ラベルDB56のレコードの中で、種別561が顔感情、特徴量562が検索結果の特徴量572に所定の値より近いレコードを検索する。
ステップS234において、キャリブレーション機能812は、ステップS233の検索の結果、近いレコードが存在すれば(Y)、ステップS235に進み、そのようなレコードが存在しなければ、ステップT1(図9のステップS241)に進む。
ステップS235において、キャリブレーション機能812は、ステップS233の検索であるラベルDB56のレコードの個人ID564が特定済みの個人の識別情報であれば、ラベルDB56に登録済みとして、ステップT1(図9のステップS241)に進む。個人ID564が特定済みの個人の識別情報でなければ、キャリブレーション機能812は、ラベルの内容が正しいかを利用者に確認した後に、当該ラベルをラベルDB56に登録する。
詳しくは、キャリブレーション機能812は、ステップS233の検索結果であるレコードのラベル573に示される感情に、取得日時575の頃の感情が近かったか、近くなかったらどのような感情だったかを図3Bの図をタッチパネル(不図示)に表示して問い合わせる。次に、キャリブレーション機能812は、レコードを追加し、種別561を顔感情に、特徴量562をステップS233の検索結果のレコードにある特徴量572の平均値に、ラベル563を問い合わせの結果のラベルに、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。特徴量572の平均値の替わりに、ステップS214で説明した代表となる特徴量でもよい。
ステップS241~S245は、ステップS231~S235の顔感情が音声感情に替わった同様の処理である。
≪ラベルDB更新処理:心拍≫
ステップS251において、キャリブレーション機能812は、一時ラベルDB57のレコードで種別571が心拍のレコードを検索し、特徴量572の心拍数が所定の値より高いレコードまたは所定の値より低いレコードで、取得日時575が所定の時間のあいだ連続したレコードがあるか検索する。
ステップS252において、キャリブレーション機能812は、ステップS251の検索結果のレコードが存在すれば(Y)、ステップS253に進み、存在しなければ(N)、ステップS261に進む。
ステップS253において、キャリブレーション機能812は、ステップS251での検索結果のレコードにある取得日時575当時の感情ラベルから、所定の心拍数より高くて感情が興奮状態(図3B参照)か、所定の心拍数より低くて感情が沈静状態かに分類されるか判断する。感情ラベルは、取得日時575がステップS251の検索結果のレコードにある取得日時575当時であり、種別571が顔感情または音声感情のレコードのラベル573から取得できる。
ステップS254において、キャリブレーション機能812は、分類される(Y)のであればステップS255に進み、分類されない(N)のであればステップS256に進む。
ステップS255において、キャリブレーション機能812は、ステップS253の顔感情または音声感情に示される感情に、取得日時575の当時の感情が近かったか、近くなかったらどのような感情だったかを図3Bの感情の図を提示して問い合わせる。次に、キャリブレーション機能812は、ラベルDB56にレコードを追加し、種別561を心拍に、特徴量562をステップS251の検索結果であるレコードの特徴量572の平均値に、ラベル563を問い合わせの結果のラベルに、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。なお、個人向けラベルとしてラベルDB56に登録済み(特徴量562が特徴量572の平均値に近く、個人ID564が特定済み個人の識別情報であるレコードが存在する)ならば、本処理は不要である。
ステップS256において、キャリブレーション機能812は、取得日時575の頃に体調が悪かったか利用者に問い合わせる。
ステップS257において、キャリブレーション機能812は、問い合わせの結果、体調が悪くなければ(N)、ステップS261に進み、悪ければ(Y)、ステップS258に進む。
ステップS258において、キャリブレーション機能812は、体調不良ラベルのレコードをラベルDB56に追加する。詳しくは、キャリブレーション機能812は、ラベルDB56にレコードを追加し、種別561を心拍に、特徴量562をステップS251の検索結果のレコードに含まれる特徴量572の平均値に、ラベル563を「体調:不良」に、個人ID564を特定済み個人の識別情報に、更新日時565を現在時刻に更新する。
≪履歴DB更新処理≫
ステップS261において、キャリブレーション機能812は、検出された感情を分類して、検出された累積時間をラベル履歴DB58(図6参照)に格納する。感情の分類には、図3Bのグラフにおいて原点から所定の近さの領域またはそれ以外の興奮/沈静と快適/不快とで区分けされる4つの象限領域のどこに位置するかで分類される。詳しくは、キャリブレーション機能812は、種別571が顔感情または音声感情であって、ラベル573にある感情ラベルの2つの値が所定値より小さいならば、「感情:0,0」のラベルを付け、興奮で快適な感情と分析されれば「感情:1,1」とラベルを付けて分類する。他の象限も同様である。取得日時575の間隔を検出された時間として、5領域の感情ごとに累積時間を算出して、レコードを追加する。レコードの個人ID581は特定された個人の識別情報、ラベル582は上記に示した感情ラベル、取得日時583は現在時刻、出現時間584は上記の累積時間である。
≪変形例≫
上記の実施形態では、キャリブレーション機能812のラベルDB更新処理は、所定の時間が経過したときに実行される(図7のステップS154)。顔感情で所定の時間連続した近い特徴量を取得したとき(図8のステップ231)、音声感情で所定の時間連続した近い特徴量を取得したとき(図9のステップ241)、所定の心拍数より高い心拍数が連続したとき(図9のステップS251)、または、所定の心拍数より低い心拍数が連続したとき(ステップS251)に、ラベルDB更新処理を開始してもよい。感情や体調に関する問い合わせが発生する場合(ステップS235、S245、S255、S256)に、発生を検出したときに問い合わせることでより正確な感情や体調を得ることができる。
上記の実施形態では、生体状態取得のために、カメラやマイク、心拍センサを使っている。これに限らず、体温を取得するセンサや3次元加速度センサを用いて生体状態を取得してもよい。例えば、腕または脚に装着したウェアラブル機器を使って、心拍の他に体温や血圧、体の震えを取得することができる。また、カメラで取得した顔の特徴量から顔の向きや視線の向きを検出することができ、顔の向きや視線の向きの変化量、体の震え量(震えの大きさ、周波数、時間)から発作を含めた体調不良の特徴量を得ることができて、個人・感情・体調推測部52が体調不良を推測できる。
機械学習装置800が自動車に搭載されれば、体調不良を推測した時点、または、体調不良の特徴量より異常な心拍や体の震え量などを取得した時点で自動車を止める、または、減速することができ、事故を予防することができる。また、ステップS261において、感情の履歴の他に、体調不良のレコードを集計してラベル履歴DB58に格納することで、体調の経年変化を把握することができる。
なお、他の生体状態情報として、体重、体脂肪率、会話量、睡眠時間、紫外線被爆量、呼吸数、運動量、発声量などを用いてもよい。また、温度、湿度、光量、照度、紫外線量、気圧、騒音などの環境情報を用いて感情や体調を推測し、経年変化をモニタしてもよい。
キャリブレーション機能812は、ステップS151において特定された個人(利用者)が、それ以前に特定されていた個人と異なっていると判断すると、ラベルDB更新処理を実行していた。ただ1回の一時ラベルDB57の更新で異なる個人と判断するのではなく、所定の時間のあいだ異なる個人と判定されてからラベルDB更新処理を開始してもよい。こうすることで、カメラの写り具合や別人の音声混入などにより個人特定が不安定になっても、ラベルDB更新処理が無駄に頻繁に実行されてしまうことを防ぐことができる。
≪効果≫
上記の実施形態では、個人を特定する特徴量が、ラベルDB56にある特徴量から変化した場合(図8のステップS212、ステップS222)や一定時間経過したとき(ステップS215、ステップS225)に、特徴量を更新している。これにより、経年変化が起きた場合でも、個人が特定できなくなることを防止することができる。また、この経年変化した個人特定の特徴量を用いて、より高精度に個人を特定することができる。
上記の実施形態では、顔の特徴量や音声の特徴量に表れた感情は、感情が表れた直後ではなく、所定の時間あいだに連続して表れたのち(図8のステップS231、図9のステップS241)に利用者に問い合わせてラベルDB56に登録している。感情が所定の時間のあいだ連続しているので、利用者は当該感情を認識しやすく、正確な感情を得てラベルDB56に登録できる。引いては、個人・感情・体調推測部52が、感情をより正確に推測することができる。
また、問い合わせの前に、ラベルDB56に特定個人レコードとして未登録である(ステップS235、ステップS245)ことを確認している。このため、利用者への問い合わせ回数を削減することができ、回答する煩雑さを軽減することができる。
特定個人の特徴量562と、当該個人に問い合わせた感情のラベル563とを含んだレコードが登録されることで、個々の利用者の感情表現に合わせたラベルDB56を作成することができ、ついては、より精度の高い感情の推測が可能となる。
ラベル履歴DB58(図6参照)から、長期間にわたる利用者の感情の経年変化を把握することができる。例えば、「感情:-1,-1」というラベル582の出現時間584が増加傾向にあれば、利用者が鬱状態に変化していることが分かり、メンタル面で問題が生じている可能性があることを利用者に警告することができる。
21 カメラ
22 マイク
23 心拍センサ
31 顔特徴量算出部
32 音声特徴量算出部
33 心拍数取得部
41 顔感情分析部
42 顔個人特定部
43 音声感情分析部
44 音声個人特定部
45 心拍分析部
52 個人・感情・体調推測部
56 ラベルDB
57 一時ラベルDB
58 ラベル履歴DB
800 機械学習装置
807 機械学習機能
808 特徴量算出機能
812 キャリブレーション機能

Claims (3)

  1. カメラとマイクが接続された機械学習装置であって、
    前記カメラが撮影した前記機械学習装置の利用者の顔データから顔特徴量を算出する顔特徴量算出部と、
    前記マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出部と、
    前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを記憶する記憶部と、
    前記ラベルデータベースを更新するキャリブレーション機能部と、
    前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定部と、
    前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定部とを備え、
    前記キャリブレーション機能部は、
    前記顔個人特定部が前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出部が算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出部が算出した顔特徴量に更新し、
    前記音声個人特定部が前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出部が算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出部が算出した音声特徴量に更新し、
    前記ラベルデータベースは、前記顔特徴量または前記音声特徴量、感情ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに格納し、
    前記キャリブレーション機能部は、
    所定の時間のあいだ前記顔特徴量算出部が算出する顔特徴量が所定の近さにあって、当該顔特徴量に近い顔特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記顔特徴量算出部が算出する顔特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加し、
    所定の時間のあいだ前記音声特徴量算出部が算出する音声特徴量が所定の近さにあって、当該音声特徴量に近い音声特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記音声特徴量算出部が算出する音声特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する
    ことを特徴とする機械学習装置。
  2. 心拍センサ、血圧センサまたは3次元加速度センサが接続され、
    前記ラベルデータベースは、心拍数、血圧または体の震え量、感情ラベルまたは体調ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに記憶し、
    前記顔特徴量算出部が算出した顔特徴量に近い顔特徴量を含むレコードを、前記ラベルデータベースで検索することで前記利用者の感情ラベルを出力する顔感情分析部と、
    前記音声特徴量算出部が算出した音声特徴量に近い音声特徴量を含むレコードを、前記ラベルデータベースで検索することで前記利用者の感情ラベルを出力する音声感情分析部とをさらに備え、
    前記キャリブレーション機能部は、
    前記心拍センサが接続された場合には、所定の時間のあいだ心拍センサで計測された心拍数が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記心拍数と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加し、
    前記血圧センサが接続された場合には、所定の時間のあいだ血圧センサで計測された血圧が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記血圧と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加し、
    前記3次元加速度センサが接続された場合には、所定の時間のあいだ3次元加速度センサで計測された体の震え量が所定の範囲外であって、前記顔感情分析部または前記音声感情分析部が出力した感情ラベルが所定の条件を満たさないときに、前記体の震え量と、前記利用者の個人識別情報と、前記利用者に体調を問い合わせて得られた結果の体調を示す体調ラベルとを含むレコードを前記ラベルデータベースに追加する
    ことを特徴とする請求項に記載の機械学習装置。
  3. カメラが撮影した利用者の顔データから顔特徴量を算出する顔特徴量算出手順と、
    マイクが収音した前記利用者の音声データから音声特徴量を算出する音声特徴量算出手順と、
    前記顔特徴量または前記音声特徴量、前記利用者の個人識別ラベル、並びに、前記利用者の個人識別情報を含むレコードを格納するラベルデータベースを操作する手順と、
    前記顔特徴量算出手順で算出した顔特徴量に近い顔特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する顔個人特定手順と、
    前記音声特徴量算出手順で算出した音声特徴量に近い音声特徴量を含むレコードを前記ラベルデータベースで検索することで前記利用者の個人識別ラベルを出力する音声個人特定手順と、
    前記顔個人特定手順で前記利用者の個人識別ラベルを出力したときの前記顔特徴量算出手順で算出した顔特徴量と、前記ラベルデータベースにある前記利用者の顔特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の顔特徴量を前記顔特徴量算出手順で算出した顔特徴量に更新する手順と、
    前記音声個人特定手順で前記利用者の個人識別ラベルを出力したときの前記音声特徴量算出手順で算出した音声特徴量と、前記ラベルデータベースにある前記利用者の音声特徴量との差が所定の値より大きくなった場合に、前記ラベルデータベースにある前記利用者の音声特徴量を前記音声特徴量算出手順で算出した音声特徴量に更新する手順と
    をコンピュータに実行させる機械学習プログラムであって、
    前記ラベルデータベースは、前記顔特徴量または前記音声特徴量、感情ラベル、並びに、前記利用者の個人識別情報を含むレコードをさらに格納し、さらに、
    所定の時間のあいだ前記顔特徴量算出手順が算出する顔特徴量が所定の近さにあって、当該顔特徴量に近い顔特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記顔特徴量算出手順が算出する顔特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する手順と、
    所定の時間のあいだ前記音声特徴量算出手順が算出する音声特徴量が所定の近さにあって、当該音声特徴量に近い音声特徴量と前記利用者の個人識別情報とを含むレコードが前記ラベルデータベースに存在しない場合に、前記音声特徴量算出手順が算出する音声特徴量と、前記利用者の個人識別情報と、前記利用者に感情を問い合わせて得られた結果の感情の感情ラベルとを含むレコードを前記ラベルデータベースに追加する手順と
    前記コンピュータに実行させる機械学習プログラム。
JP2019505810A 2017-03-14 2018-02-21 機械学習装置および機械学習プログラム Active JP7082444B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017048259 2017-03-14
JP2017048259 2017-03-14
PCT/JP2018/006267 WO2018168369A1 (ja) 2017-03-14 2018-02-21 機械学習装置および機械学習プログラム

Publications (2)

Publication Number Publication Date
JPWO2018168369A1 JPWO2018168369A1 (ja) 2020-01-30
JP7082444B2 true JP7082444B2 (ja) 2022-06-08

Family

ID=63521992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019505810A Active JP7082444B2 (ja) 2017-03-14 2018-02-21 機械学習装置および機械学習プログラム

Country Status (3)

Country Link
JP (1) JP7082444B2 (ja)
TW (1) TW201833802A (ja)
WO (1) WO2018168369A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11664033B2 (en) 2020-06-15 2023-05-30 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7276763B2 (ja) * 2019-01-04 2023-05-18 株式会社DSi 識別システム
JP7086020B2 (ja) * 2019-03-13 2022-06-17 株式会社日立ビルシステム 作業支援装置、昇降機システム及び作業支援方法
KR20200141672A (ko) * 2019-06-11 2020-12-21 주식회사 룩시드랩스 감정 인식 방법 및 이를 이용한 감정 인식용 디바이스
JP7453169B2 (ja) 2021-02-24 2024-03-19 Kddi株式会社 感情種別グループの識別を介して感情推定を行うモデル、装置及び方法
DE102021205970A1 (de) * 2021-06-11 2022-12-15 Volkswagen Aktiengesellschaft Verfahren zur Diagnostizierung einer Krankheit, vorzugsweise einer Atemwegserkrankung
JP7444820B2 (ja) * 2021-08-05 2024-03-06 Necパーソナルコンピュータ株式会社 感情判定装置、感情判定方法、及びプログラム
JP7445933B2 (ja) 2022-06-02 2024-03-08 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126813A (ja) 2002-09-30 2004-04-22 Toshiba Corp 個人認証装置、個人認証方法、入退出管理装置及び入退出管理方法
JP2006017936A (ja) 2004-06-30 2006-01-19 Sharp Corp 通話装置,中継処理装置,通信認証システム,通話装置の制御方法,通話装置の制御プログラム,および通話装置の制御プログラムを記録した記録媒体
JP2006113546A (ja) 2004-09-14 2006-04-27 Honda Motor Co Ltd 情報伝達装置
JP2006263348A (ja) 2005-03-25 2006-10-05 Toshiba Corp 利用者識別装置、利用者識別方法および利用者識別プログラム
JP2011223173A (ja) 2010-04-06 2011-11-04 Olympus Imaging Corp 撮影装置、顔画像合成装置、顔画像合成方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126813A (ja) 2002-09-30 2004-04-22 Toshiba Corp 個人認証装置、個人認証方法、入退出管理装置及び入退出管理方法
JP2006017936A (ja) 2004-06-30 2006-01-19 Sharp Corp 通話装置,中継処理装置,通信認証システム,通話装置の制御方法,通話装置の制御プログラム,および通話装置の制御プログラムを記録した記録媒体
JP2006113546A (ja) 2004-09-14 2006-04-27 Honda Motor Co Ltd 情報伝達装置
JP2006263348A (ja) 2005-03-25 2006-10-05 Toshiba Corp 利用者識別装置、利用者識別方法および利用者識別プログラム
JP2011223173A (ja) 2010-04-06 2011-11-04 Olympus Imaging Corp 撮影装置、顔画像合成装置、顔画像合成方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11664033B2 (en) 2020-06-15 2023-05-30 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Also Published As

Publication number Publication date
TW201833802A (zh) 2018-09-16
JPWO2018168369A1 (ja) 2020-01-30
WO2018168369A1 (ja) 2018-09-20

Similar Documents

Publication Publication Date Title
JP7082444B2 (ja) 機械学習装置および機械学習プログラム
US11089985B2 (en) Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
CN107209807B (zh) 疼痛管理可穿戴设备
US8190544B2 (en) Identifying and generating biometric cohorts based on biometric sensor input
EP3355761B1 (en) Emotional/behavioural/psychological state estimation system
CN109765991A (zh) 社交互动***、用于帮助用户进行社交互动的***及非暂时性计算机可读存储介质
WO2019137538A1 (en) Emotion representative image to derive health rating
WO2019086856A1 (en) Systems and methods for combining and analysing human states
KR102453304B1 (ko) 치매 예방 및 자가진단을 위한 가상현실콘텐츠를 제공하는 시스템
US20200074361A1 (en) Performance measurement device, performance measurement method and performance measurement program
JP2022546644A (ja) 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法
Sanchez et al. Hidden markov models for activity recognition in ambient intelligence environments
Severin et al. Head gesture recognition using a 6DOF inertial IMU
Aggelides et al. A gesture recognition approach to classifying allergic rhinitis gestures using wrist-worn devices: a multidisciplinary case study
US20200305801A1 (en) Determining health state of individuals
Nazlı et al. Classification of Coronary Artery Disease Using Different Machine Learning Algorithms
NL1044171B1 (en) A method performed by an information processing device, a program product and a system for processing context related operational and human mental brain activity data.
US10079074B1 (en) System for monitoring disease progression
KR20220005945A (ko) 얼굴 표정에 관한 데이터 세트를 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2023199839A1 (ja) 内面状態推定装置、内面状態推定方法及び記憶媒体
US20230210503A1 (en) Systems and Methods for Generating Menstrual Cycle Cohorts and Classifying Users into a Cohort
JP7464759B2 (ja) 睡眠者タイプに基づくユーザ分類により睡眠データの測定を改善する方法およびシステム
US20240215882A1 (en) Systems and Methods for Using Mobile and Wearable Video Capture and Feedback Plat-Forms for Therapy of Mental Disorders
Çokçetn et al. Machine Learning-Based Biometric Authentication with Photoplethysmography Signal
Sohail et al. A CNN-based Deep Learning Framework for Driver's Drowsiness Detection.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R150 Certificate of patent or registration of utility model

Ref document number: 7082444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150