JP2022502219A - 目標状態の強化及びユーザの感情状態の監視を通してユーザ間の対話を改善するためのシステム及び方法 - Google Patents

目標状態の強化及びユーザの感情状態の監視を通してユーザ間の対話を改善するためのシステム及び方法 Download PDF

Info

Publication number
JP2022502219A
JP2022502219A JP2021540344A JP2021540344A JP2022502219A JP 2022502219 A JP2022502219 A JP 2022502219A JP 2021540344 A JP2021540344 A JP 2021540344A JP 2021540344 A JP2021540344 A JP 2021540344A JP 2022502219 A JP2022502219 A JP 2022502219A
Authority
JP
Japan
Prior art keywords
user
data
module
feedback
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021540344A
Other languages
English (en)
Other versions
JPWO2020056519A5 (ja
Inventor
カーティス、スティーブ
Original Assignee
カーティス、スティーブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カーティス、スティーブ filed Critical カーティス、スティーブ
Publication of JP2022502219A publication Critical patent/JP2022502219A/ja
Publication of JPWO2020056519A5 publication Critical patent/JPWO2020056519A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/375Electroencephalography [EEG] using biofeedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4857Indicating the phase of biorhythm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • General Business, Economics & Management (AREA)

Abstract

複数のユーザの感情状態を決定し、フィードバックに基づいてユーザのバイオリズムを調整するために、ユーザ間の対話を監視するためのシステム及び方法が開示される。方法は、ウェアラブルユーザデバイスを通して、ユーザのバイオリズムデータを収集するステップを含む。方法は、コンピューティングデバイスを通して、ユーザのバイオリズムデータを受信するステップを含む。方法は、人工知能(AI)ベースのエージェントモジュールを通して、通信ネットワークを介してユーザとの対話を確立するステップを含む。方法は、感情データ表示モジュールを通して、ユーザの感情データをリアルタイムで分析して表示するステップを含む。方法は、フィードバックモジュールを通して、コンピューティングデバイスから発せられたフィードバックに基づいてユーザのバイオリズムを調整するステップを含む。【選択図】 図1

Description

[0001]本発明は、バイオフィードバックに関し、特に、目標状態の強化及びユーザの感情状態の監視を通してユーザ間の対話を改善するシステム及び方法に関する。
[0002]本明細書は、主流の消費者ソリューションが、リアルタイムの生理学的データに基づいて2人以上の人の間のコミュニケーションを最適化する能力に限界があることを認識する。更に、コミュニケーション成果を改善するために様々な形のフィードバックを通して受信者を指導するソリューションは存在していない。改善されたコミュニケーション成果には、より良好な関係及び信頼構築、当事者間における情報のより良好な流通及び取得、又は出会いから得られるより多くの楽しみ及び満足感が含まれ得る。人の感情状態及び心理状態に関連する生理学的指標を追跡するシステムは、人が実際の又はシミュレートされた人と人との出会いにどのように反応しているかについてのより深い洞察を提供する。最も重要なことに、これらのデバイスは、発生したときにイベントにマッピングすることができる生理学的な瞬間変化を示すことができる。
[0003]更に、本明細書は、ユーザの感情状態を正確に決定したりユーザ間でコミュニケーションを確立したりするためには、様々な問題があるかソリューションが存在していないことを認識する。様々な生体信号及びバイオリズムにおける生理学的パターンは、特定のストレス状態及び感情と関連しているものと特定され得る。生物学的パラメータに基づいてユーザの感情状態を経験的又は受動的に評価するための様々なシステム及び方法が存在する。しかしながら、これらのシステムは、それらが処理する限られたデータから洞察を得ることが困難である。これらのシステムは、異なる状況におけるユーザの会話行動を監視し、会話から推論を引き出してユーザの感情状態を理解できるほどインテリジェントではない。
[0004]典型的には、ある人による言葉(スピーチ又はテキスト)の使用は、別の人が同じ言葉を話すのとは異なる感情の重みを有する。同様に、これらの言葉を受け取る側の人であるインタープリタは、感情の強さ及び感情のタイプを異なるように解釈する可能性が高い。従って、既存のシステムでは、ユーザが使用する言葉に付随する実際の感情を理解することは困難である。感情がどのように受け止められるかについての明確な共通点はない。更に、すべての人が異なる感情/感覚を有し得るため、人間の反応に基づいて感情を教わる任意の機械学習モデル又はフィードバック/ジェスチャキャプチャモデルは、データセット内のユーザに基づいて偏ったものとなる。
[0005]コミュニケーションをとっている当事者が感情的になると、話し合いははるかに困難になる。会話は多くの理由で感情的になり得る。会議又は他の生活環境において決定を行うとき、人々は、課題について人々がどのように「感じる」のかについての仮定に基づいて判断することができる。これは、状況の結果について人が有する一般的な感覚といわれている。しかし、同じ状況でも人によって考え方及び感じ方は異なり得る。会話中の様々なイベント又はポイントに対して人が有するセンチメントの移り変わりを、それらが発生したときにリアルタイムで測定したり、定量化したり、一貫して測定したりすることは困難であることがある。会話の2つの一般的な目標は、新しい情報を発見するめの、もう1つは別の人とのつながりを構築するための手段であることである。これは、人と時間を過ごし、個人情報を開示することによって行うことができる。
[0006]従って、ユーザ対話を監視するための、及び、ユーザの感情状態を決定して、ユーザの感情状態に基づいて支援を提供するための認知プラットフォームを提供するシステム及び方法が必要である。更に、ソフトウェア学習エージェントのためのトレーニングデータセットを生成するために、バイオリズム及びバイオデータに関連するユーザ通信データをキャプチャする効率的なシステムが必要である。更に、心拍変動(HRV)、脳波記録(EEG)などの決定されたユーザの複数の生物物理学的状態に基づいてユーザと対話するシステム及び方法が必要である。また、人々が互いにより上手くコミュニケーションをとるのを助けるためのシステム及び方法が必要とされている。追加的に、ユーザの感情状態を含むバイオリズムに影響を与えながら、非限定的な例としてユーザの聴覚系などを通してユーザを刺激するシステム及び方法が必要である。
[0007]このように、上記に鑑みて、当業界では、上述の欠点及び不備に対処することが長年にわたって求められている。
[0008]従来の手法及び典型的な手法の更なる制限及び欠点は、本出願の残りの部分において図面を参照して記載されるように、説明されたシステムと本開示のいくつかの態様との比較を通して、当業者に明らかになるであろう。
[0009]複数のユーザの感情状態を決定し、通信ネットワークを介したフィードバックに基づいてユーザのバイオリズムを調整するために、ユーザ間の対話を監視するシステムが、特許請求の範囲により完全に記載されるように、図のうちの少なくとも1つに関連して示される及び/又は説明されるように、実質的に提供される。
[0010]本発明は、複数のユーザの感情状態を決定し、通信ネットワークを介したフィードバックに基づいてユーザのバイオリズムを調整するために、ユーザ間の対話を監視する方法を提供する。本方法は、ユーザの身体に装着されるか、身体の近くに装着されるか、又はユーザの体内に設置される(埋め込み可能である)ように構成されたウェアラブルユーザデバイスを通して、ユーザのバイオリズムデータを収集するステップを含む。本方法は、通信ネットワークを介してウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通して、ユーザのバイオリズムデータを受信するステップを含む。方法は、人工知能(AI)ベースのエージェントモジュールを通して、通信ネットワークを介してユーザとの対話を確立するステップを含む。本方法は、感情データ表示モジュールを通して、ユーザの感情データをリアルタイムで分析して表示するステップを含む。本方法は、フィードバックモジュールを通して、コンピューティングデバイスから発せられたフィードバックに基づいてユーザのバイオリズムを調整するステップを含む。
[0011]AIベースのエージェントモジュールは、トラッキングモジュールを通して、ウェアラブルユーザデバイスからバイオリズムデータを受信し、複数のユーザの対話を監視し、分析のために関連データを取り出すステップから始まる複数のステップを実行する。トラッキングモジュールは、ユーザのテキスト対話及びオーディオ対話を監視するために、ユーザに対応するコンピューティングデバイスの1つ又は複数のメッセージングプラットフォーム及び1つ又は複数の音声プラットフォームと統合される。トラッキングモジュールは、トレーニングデータを生成するために、関連データ及び取り出したパラメータを処理する。本方法は、ソフトウェア学習エージェントモジュールを通して、複数のシナリオにおけるユーザの感情状態を決定するために、トレーニングデータを受信して処理するステップを含む。本方法は、仮想チャットボットモジュールを通して、ユーザとの対話を開始し、ソフトウェア学習エージェントモジュールから受信した学習データに基づいてユーザを支援するステップを含む。本方法は、コミュニティモジュールを通して、ユーザが複数の他のユーザと接続して対話することを容易にするステップを含む。コミュニティモジュールは、複数のユーザが互いに対話し、通信ネットワークを介して他のユーザ間で感情状態及びバイオリズムデータを共有することを容易にする。本方法は、同期モジュールを通して、ユーザが他のユーザの感情データにアクセスすることを可能にするステップを含む。
[0012]感情データ表示モジュールは、アルゴリズムモジュールを通して、1つ又は複数の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算するステップから始まる複数のステップを実行する。感情スコアは、対話中のユーザの感情状態を示す。本方法は、視覚化モジュールを通して、ユーザの特定の持続時間について複数の感情周期をグラフィカルに表すステップを含む。視覚化モジュールは、ユーザに関連するコンピューティングデバイス上にユーザの感情スコア及び洞察を表示する。
[0013]フィードバックモジュールは、生理学的データ収集エンジンを通して、ユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップから始まる複数のステップを実行する。本方法は、生体信号生成エンジンを通して、生理学的データを処理して少なくとも1つの生体信号にするステップを含む。本方法は、フィードバックアクティベーション決定エンジンを通して、フィードバックアクティベーション条件に対して生体信号を監視して測定するステップを含む。本方法は、フィードバック生成エンジンを通して、フィードバックアクティベーション条件を満たしたときにフィードバックをトリガするステップを含む。フィードバックアクティベーション条件は、測定値が1つ又は複数の所定のしきい値よりも大きいときにフィードバックをトリガする。
[0014]ある態様では、トラッキングモジュールは、バイオリズムデータ及び監視データからユーザの複数のパラメータを取り出す。複数のパラメータは、ユーザの位置、ユーザのバイオリズムデータ、ユーザの個人的及び社会的行動、並びに対話の環境、月、日、及び時刻を含む。
[0015]ある態様では、複数のシナリオは、コンテキスト、状況、及び環境を含むが、これらに限定されない。ソフトウェア学習エージェントモジュールは、受信したトレーニングデータに基づいてコンテキスト、状況、及び環境を連続的に学習するように適合可能であり、学習データをデータベースに記憶する。
[0016]ある態様では、仮想チャットボットモジュールは、ユーザの感情状態を改善するのを支援するためにユーザと対話する。
[0017]ある態様では、視覚化モジュールは、複数の英数字、複数の幾何学的図形、複数のホログラム、及び色又は移動形状を含む複数の記号のうちの少なくとも1つを使用することによって、2次元(2D)グラフ及び3次元(3D)グラフのうちの少なくとも1つに複数の方法で感情データを表示する。
[0018]本発明の別の態様は、複数のユーザの感情状態を決定し、通信ネットワークを介したフィードバックに基づいてユーザのバイオリズムを調整するために、ユーザ間の対話を監視するシステムに関する。本システムは、ウェアラブルユーザデバイスと、コンピューティングユニットとを含む。ウェアラブルユーザデバイスは、ユーザのバイオリズムデータを収集するために、ユーザの身体に装着されるか、身体の近くに装着されるか、又はユーザの体内に設置される(埋め込み可能である)ように構成される。コンピューティングユニットは、通信ネットワークを介してユーザのバイオリズムデータを受信するためにウェアラブルユーザデバイスと通信可能に接続される。コンピューティングユニットは、プロセッサと、プロセッサに通信可能に結合されたメモリとを含む。メモリは、人工知能(AI)ベースのエージェントモジュールと、感情データ表示モジュールと、フィードバックモジュールとを含む。
[0019]人工知能(AI)ベースのエージェントモジュールは、通信ネットワークを介してユーザとの対話を確立する。感情データ表示モジュールは、ユーザの感情データをリアルタイムで分析して表示する。フィードバックモジュールは、コンピューティングデバイスから発せられたフィードバックに基づいてユーザのバイオリズムを調整するようにウェアラブルユーザデバイスとともに構成される。
[0020]AIベースのエージェントモジュールは、トラッキングモジュールと、ソフトウェア学習エージェントモジュールと、仮想チャットボットモジュールと、コミュニティモジュールと、同期モジュールとを含む。トラッキングモジュールは、ウェアラブルユーザデバイスからバイオリズムデータを受信し、複数のユーザの対話を監視し、分析のために関連データを取り出す。トラッキングモジュールは、ユーザのテキスト対話及びオーディオ対話を監視するために、ユーザに対応するコンピューティングデバイスの1つ又は複数のメッセージングプラットフォーム及び1つ又は複数の音声プラットフォームと統合される。トラッキングモジュールは、トレーニングデータを生成するために、関連データ及び取り出したパラメータを処理する。関連データは、テキスト、センチメント、及びオーディオに関し、トラッキングモジュールは、オーディオに対してテキスト分析、センチメント分析、及び信号処理を実行する。ソフトウェア学習エージェントモジュールは、複数のシナリオにおけるユーザの感情状態を決定するために、トレーニングデータを受信して処理する。仮想チャットボットモジュールは、ユーザとの対話を開始し、ソフトウェア学習エージェントモジュールから受信した学習データに基づいてユーザを支援する。コミュニティモジュールは、ユーザが複数の他のユーザと接続して対話することを容易にする。コミュニティモジュールは、複数のユーザが互いに対話し、通信ネットワークを介して他のユーザ間で感情状態及びバイオリズムデータを共有することを容易にする。同期モジュールは、ユーザが他のユーザの感情データにアクセスすることを可能にする。
[0021]感情データ表示モジュールは、アルゴリズムモジュールと、視覚化モジュールとを含む。アルゴリズムモジュールは、1つ又は複数の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算する。感情スコアは、対話中のユーザの感情状態を示す。視覚化モジュールは、ユーザの特定の持続時間について複数の感情周期をグラフィカルに表す。視覚化モジュールは、ユーザに関連するコンピューティングデバイス上にユーザの感情スコア及び洞察を表示する。
[0022]フィードバックモジュールは、生理学的データ収集エンジンと、生体信号生成エンジンと、フィードバックアクティベーション決定エンジンと、フィードバック生成エンジンとを含む。生理学的データ収集エンジンは、ユーザの少なくとも1つの生理学的特性の生理学的データを収集する。生体信号生成エンジンは、生理学的データを処理して少なくとも1つの生体信号にする。フィードバックアクティベーション決定エンジンは、フィードバックアクティベーション条件に対して生体信号を監視して測定する。フィードバック生成エンジンは、フィードバックアクティベーション条件を満たしたときにフィードバックをトリガする。フィードバックアクティベーション条件は、測定値が1つ又は複数の所定のしきい値よりも大きいときにフィードバックをトリガする。
[0023]従って、本発明の1つの利点は、ソフトウェア学習エージェントモジュールが学習したデータに基づいてユーザの感情状態及び心理状態を改善するようにユーザを能動的に支援することである。
[0024]従って、本発明の1つの利点は、生理的変数を制御すること及び自己調整することによって、不本意又は無意識の生理学的プロセスを制御する(増加又は減少させる)ことである。
[0025]従って、本発明の1つの利点は、ユーザが、感情データを共有し、感情状態を改善してそれに取り組むために他のユーザがそれを視覚化することを可能にするソーシャルプラットフォームをユーザに提供することである。
[0026]従って、本発明の1つの利点は、感情データを受信してそれを線形に表示する比率スケール(絶対値ゼロを有する)を提供することである。
[0027]従って、本発明の1つの利点は、ユーザの感情データを周期的に提供して、ユーザが自分の感情状態及び心理状態を経時的に最適化するのを助け、ユーザがより一貫してポジティブな状態を感じることを可能にすることである。
[0028]本発明の実施形態の他の特徴は、添付の図面から及び以下の詳細な説明から明らかになるであろう。
[0029]本発明の更に他の目的及び利点は、本発明の好ましい実施形態が、本発明を実行するために本明細書で企図される最良の形態の単なる例示として示され説明されている詳細な説明の後に、当業者に容易に明らかになるであろう。理解されるように、本発明は、他の及び異なる実施形態が可能であり、そのいくつかの詳細は、すべて本発明から逸脱することなく、様々な明らかな点の修正が可能である。従って、図面とその説明とは、本質的に例示的なものと見なされるべきであり、限定的なものと見なされるべきではない。
[0030]図では、同様の構成要素及び/又は特徴は同じ参照ラベルを有し得る。更に、同じタイプの様々な構成要素は、参照ラベルの後に、同様の構成要素を区別する第2のラベルを続けることによって区別され得る。第1の参照ラベルのみが本明細書で使用される場合、その説明は、第2の参照ラベルにかかわらず、同じ第1の参照ラベルを有する同様の構成要素のいずれか1つに適用される。
[0031]本発明の一実施形態による、複数のユーザの感情状態を決定し、通信ネットワークを介したフィードバックに基づいてユーザのバイオリズムを調整するために、ユーザ間の対話を監視する本システムのブロック図を例示する。 [0032]本発明の一実施形態による、本システムのネットワーク実装を例示する。 [0033]本発明の別の実施形態による、コンピューティングデバイスのメモリ内の様々なモジュールのブロック図を例示する。 [0034]本発明の代替的な実施形態による、複数のユーザの感情状態を決定し、通信ネットワークを介したフィードバックに基づいてユーザのバイオリズムを調整するために、ユーザ間の対話を監視するための方法のフローチャートを例示する。 [0035]本発明の代替的な実施形態による、人工知能(AI)ベースのエージェントモジュールによって実行される複数のステップのフローチャートを例示する。 [0036]本発明の代替的な実施形態による、感情データ表示モジュールによって実行される複数のステップのフローチャートを例示する。 [0037]本発明の代替的な実施形態による、フィードバックモジュールによって実行される複数のステップのフローチャートを例示する。
[0038]本開示は、本明細書に記載される説明及び詳細な図を参照して最も良く理解される。様々な実施形態は、図を参照して説明されている。しかしながら、当業者は、図に関して本明細書で提供される詳細な説明が説明を目的としたものにすぎず、方法及びシステムが説明される実施形態を超えて拡張し得ることを容易に理解するであろう。例えば、提示される教示及び特定の用途の必要性は、本明細書に説明される任意の詳細の機能性を実装するための複数の代替及び好適な手法をもたらし得る。従って、任意の手法は、以下の実施形態における特定の実装選択を超えて拡張し得る。
[0039]「一実施形態」、「少なくとも1つの実施形態」、「ある実施形態」、「一例」、「ある例」、「例えば」などへの言及は、実施形態(複数可)又は例(複数可)が特定の特徴、構造、特性、性質、要素、又は限定を含み得ること、しかしながら、すべての実施形態又は例が必ずしもその特定の特徴、構造、特性、性質、要素、又は限定を含むわけではないことを示す。更に、「ある実施形態では」という表現の反復使用は、必ずしも同じ実施形態を指すものではない。
[0040]本発明の方法は、選択されたステップ又はタスクを手動で、自動で、又はそれらの組合せで実行又は完了することによって実装され得る。「方法」という用語は、所与のタスクを達成するための方法、手段、技法、及び手順を指し、本発明が属する技術分野の当業者に知られているか、又は当業者によって既知の方法、手段、技法、及び手順から容易に開発される方法、手段、技法、及び手順を含むが、これらに限定されない。特許請求の範囲及び明細書に提示される説明、例、方法、及び材料は、限定するものとしてではない、単なる例示として解釈されるべきである。当業者は、本明細書に記載される技術の範囲内で多くの他の可能な変形例を想定するであろう。
[0041]図1は、本発明の一実施形態による、複数のユーザの感情状態を決定し、通信ネットワークを介したフィードバックに基づいてユーザのバイオリズムを調整するために、ユーザ間の対話を監視する本システム100のブロック図を例示する。システム100は、ウェアラブルユーザデバイス102と、コンピューティングデバイス104とを含む。ウェアラブルユーザデバイス102は、ユーザ118のバイオリズムデータを収集するために、ユーザの身体に装着されるか、身体の近くに装着されるか、又はユーザの体内に設置される(埋め込み可能である)ように構成される。ウェアラブルユーザデバイス102の例には、埋め込み可能なワイヤレスセンサデバイス、スマートウォッチ、スマートジュエリ、フィットネストラッカー、スマートクロスなどが含まれるが、これらに限定されない。ある実施形態では、ウェアラブルユーザデバイス102は、ユーザ118の感情に関する1つ又は複数のパラメータを検出する様々なセンサを含む。ある実施形態では、ウェアラブルユーザデバイス102は、バイオリズムデータを収集するためにユーザの身体の周囲に固定され得る可撓性本体を含み得る。ある実施形態では、ウェアラブルユーザデバイス102は、ウェアラブルユーザデバイス102をユーザ118の手首の周りに閉ループで固定する固定機構を含み得る。更に、ウェアラブルユーザデバイス102は、皮膚に直接印刷されるオンボディステッカー若しくは3D印刷デバイス又は接着剤を用いて身体上に配置されるデバイスのような任意のウェアラブルであり得る。ウェアラブルユーザデバイス102は、コンピューティングユニット104との通信を確立するために、様々なワイヤード又はワイヤレス通信プロトコルを利用し得る。
[0042]コンピューティングデバイス104は、通信ネットワーク106を介してユーザのバイオリズムデータを受信するためにウェアラブルユーザデバイス102と通信可能に接続される。通信ネットワーク106は、ワイヤード又はワイヤレスネットワークであり得、これらの例には、インターネット、ワイヤレスローカルエリアネットワーク(WLAN)、Wi−Fi、ロングタームエボリューション(LTE(登録商標))、WiMAX(Worldwide Interoperability for Microwave Access)、汎用パケット無線サービス(GPRS)、ブルートゥース(登録商標)(BT)通信プロトコル、伝送制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee(登録商標)、EDGE、赤外線(IR)、Z波、スレッド、5G、USB、シリアル、RS232、NFC、RFID、WAN、及び/又はIEEE802.11、802.16、2G、3G、4Gセルラー通信プロトコルが含まれ得るが、これらに限定されない。
[0043]コンピューティングデバイス104の例には、ラップトップ、デスクトップ、スマートフォン、スマートデバイス、スマートウォッチ、ファブレット、及びタブレットが含まれるが、これらに限定されない。コンピューティングデバイス104は、プロセッサ110と、プロセッサ110に通信可能に結合されたメモリ112と、ユーザインターフェース114とを含む。コンピューティングデバイス104は、データベース114と通信可能に結合される。データベース116は、本システムが過去の感情データを使用することによって学習し、分析を改善することができるように、更なる分析及び予測に使用され得る感情データ及び照会データを受信、記憶、及び処理する。本主題は、本システム100がクラウドデバイスに実装されることを考慮して説明されるが、本システム100が、Amazon elastic compute cloud(Amazon EC2)やネットワークサーバなどの様々なコンピューティングシステムにも実装され得ることは理解され得る。ユーザから収集されたデータは、常に監視されており、(都合が良くかつ接続されている場合)サーバに送られ、そこで記憶、分析、及びモデル化される。新しいAIモデルがサーバ上で生成され、次いで様々な間隔でコンピューティングデバイスにダウンロードされる。
[0044]プロセッサ110は、ユーザ又はシステムによって生成された要求を実行するためのプログラムコンポーネントを実行するための少なくとも1つのデータプロセッサを含み得る。ユーザは、人、本発明に含まれるもののようなデバイスを使用する人、又はそのようなデバイス自体を含み得る。プロセッサ110は、統合システム(バス)コントローラ、メモリ管理制御ユニット、浮動小数点ユニット、グラフィックス処理ユニット、デジタル信号処理ユニットなどの専用処理ユニットを含み得る。
[0045]プロセッサ110は、AMD(登録商標)ATHLON(登録商標)マイクロプロセッサ、DURON(登録商標)マイクロプロセッサ、OR OPTERON(登録商標)マイクロプロセッサなどのマイクロプロセッサ、ARMのアプリケーション、組み込み又はセキュアプロセッサ、IBM(登録商標)POWERPC(登録商標)、INTEL CORE(登録商標)プロセッサ、ITANIUM(登録商標)プロセッサ、XEON(登録商標)プロセッサ、CELERON(登録商標)プロセッサ、又は他の一連のプロセッサなどを含み得る。プロセッサ110は、メインフレーム、分散プロセッサ、マルチコア、並列、グリッド、又は他のアーキテクチャを使用して実装され得る。いくつかの実施形態は、特定用途向け集積回路(ASIC)、デジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)などの埋め込み技術を利用し得る。
[0046]プロセッサ110は、入力/出力(I/O)インターフェースを介して1つ又は複数のI/Oデバイスと通信するように配置され得る。I/Oインターフェースは、限定はしないが、オーディオ、アナログ、デジタル、RCA、ステレオ、IEEE−1394、シリアルバス、ユニバーサルシリアルバス(USB)、赤外線、PS/2、BNC、同軸、コンポーネント、コンポジット、デジタルビジュアルインターフェース(DVI)、高精細マルチメディアインターフェース(HDMI(登録商標))、RFアンテナ、S−Video、VGA、IEEE802.n/b/g/n/x、ブルートゥース、セルラー(例えば、符号分割多元接続(CDMA)、高速パケットアクセス(HSPA+)、グローバルシステムフォーモバイル・コミュニケーションズ(GSM(登録商標))、ロングタームエボリューション(LTE)、WiMaxなど)など)などの通信プロトコル/方法を用い得る。
[0047]メモリ112は、不揮発性メモリ又は揮発性メモリであり得る。不揮発性メモリの例には、フラッシュメモリ、読出し専用メモリ(ROM)、プログラマブルROM(PROM)、消去可能PROM(EPROM)、及び電気的EPROM(EEPROM(登録商標))メモリが含まれ得るが、これらに限定されない。揮発性メモリの例には、ダイナミックランダムアクセスメモリ(DRAM)及びスタティックランダムアクセスメモリ(SRAM)が含まれ得るが、これらに限定されない。
[0048]ユーザインターフェース114は、本システムの管理者の要求に従って、監視された対話データを提示し、感情データと、調整されたバイオリズムデータとを決定し得る。ある実施形態では、ユーザインターフェース(UI又はGUI)114は、プラットフォームにアクセスしたり、製品又はサービスを見たりするための便利なインターフェースである。バイオリズムデータは、とりわけ、心拍数、心拍数変動性、皮膚電気活動(EDA)/電気皮膚反応(GSR)、呼吸数、3D加速度計データ、及びジャイロスコープデータ、体温を含むが、それらに限定されない。バイオリズムデータは、数学的記述又はアルゴリズムに基づいて信号を生成するために処理され得る。アルゴリズムは、ソフトウェアを介して導入され得る。ウェアラブルユーザデバイス側でデータが処理される可能性がある。データが、処理される(acted upon)前に一時的にそこに記憶されることもあり得る。
[0049]図2は、本発明の一実施形態による、本システムのネットワーク実装200を例示する。図2は、図1に関連して説明される。コンピューティングデバイス104−1、104−2、及び104−Nは、通信ネットワーク106を介してユーザのバイオリズムデータを受信するために、ウェアラブルユーザデバイス102−1、102−2、及び102−Nと通信可能に接続されている。サーバ108は、監視された対話データを記憶して処理し、感情データと、調整されたバイオリズムデータとを決定する。コンピューティングデバイス104又はウェアラブルユーザデバイス102は、サウンド通知(任意のタイプのサウンド)を開始し得る。ユーザの現在の感情状態のスコアに基づいて、いくつかの異なる行動のうちの1つを行うようにユーザに通知するために、異なるサウンドがウェアラブルユーザデバイス102のうちの1つ又は複数によって発せられるべきである。行動が1つの行動に限定されない可能性があり、サウンドが複数の(多様の)アクションを合図し得ることは理解され得る。サウンドに関連する行動は、ユーザの所望の/事前設定された感情状態に近づくように又はより特定のバイオリズムを変化させる方向に向かうようにユーザがその行動を変化させるのに役立つものでなければならない。
[0050]ある態様では、ウェアラブルユーザデバイス102及びコンピューティングデバイス104のネットワークアーキテクチャは、1つ又は複数のモノのインターネット(IoT)デバイスを含むことができる。本開示の典型的なネットワークアーキテクチャでは、1つ又は複数のIoTデバイスを含み得る送信機、受信機、及び/又はトランシーバのような複数のネットワークデバイスを含むことができる。
[0051]ある実施形態では、ウェアラブルユーザデバイス102は、クラウド及び/又はクラウドサーバ並びにIoTデバイスと直接対話することができる。IoTデバイスは、多くのウェアラブルユーザデバイス又は他の電子デバイスと通信するために利用される。IoTデバイスは、ユーザ間の対話を収集し、ユーザの感情状態を伝達するために、感知又は制御機構を通して様々なフィードバックを提供し得る。収集されたデータ及び/又は情報は、ユーザモバイル及び/又はポータブルコンピューティングデバイス上のスペースをとることなく、クラウドサーバに直接記憶され得る。モバイル及び/又はポータブルコンピューティングデバイスは、サーバと直接対話し、フィードバックアクティベーションのための情報を受信して、フィードバックをトリガ及び伝えることができる。フィードバックの例には、一次ウェアラブルデバイス、二次ウェアラブルデバイス、別個のコンピューティングデバイス(すなわちモバイル)、又はIoTデバイス(コンピューティングデバイスであってもなくてもよい)からの聴覚フィードバック、触覚フィードバック、触知フィードバック、振動フィードバック、又は視覚フィードバックが含まれるが、これらに限定されない。
[0052]本明細書で使用される場合、IoTデバイスは、感知及び/又は制御機能性を含むデバイスだけでなく、WiFi(登録商標)トランシーバ無線機若しくはインターフェース、ブルートゥーストランシーバ無線機若しくはインターフェース、Zigbee(登録商標)トランシーバ無線機若しくはインターフェース、超広帯域(UWB)トランシーバ無線機若しくはインターフェース、WiFi−Directトランシーバ無線機若しくはインターフェース、ブルートゥース低エネルギー(BLE)トランシーバ無線機若しくはインターフェース、並びに/又はIoTデバイスがワイドエリアネットワーク及び1つ又は複数の他のデバイスと通信することを可能にする任意の他のワイヤレスネットワークトランシーバ無線機若しくはインターフェースであり得る。いくつかの実施形態では、IoTデバイスは、セルラーネットワークトランシーバ無線機又はインターフェースを含まないため、セルラーネットワークと直接通信するように構成されない可能性がある。いくつかの実施形態では、IoTデバイスは、セルラートランシーバ無線機を含み得、セルラーネットワークトランシーバ無線機を使用してセルラーネットワークと通信するように構成され得る。
[0053]ユーザは、ネットワークへのアクセスを可能にするネットワーク接続能力を有する任意のヒューマンマシンインターフェース(human-to-machine interface)を含み得るアクセスデバイスを使用して、ネットワークデバイスと通信し得る。例えば、アクセスデバイスは、スタンドアロンインターフェース(例えば、セルラー電話、スマートフォン、ホームコンピュータ、ラップトップコンピュータ、タブレット、携帯情報端末(PDA)、コンピューティングデバイス、スマートウォッチのようなウェアラブルデバイス、壁パネル、キーパッドなど)、機器又は他のデバイスに組み込まれているインターフェース(例えば、テレビジョン、冷蔵庫、セキュリティシステム、ゲームコンソール、ブラウザなど)、スピーチ又はジェスチャインターフェース(例えば、Kinect(登録商標)センサ、Wiimote(登録商標)など)、IoTデバイスインターフェース(例えば、壁面スイッチのようなインターネット対応デバイス、制御インターフェース、又は他の好適なインターフェース)など)を含み得る。いくつかの実施形態では、アクセスデバイスは、セルラー又は他のブロードバンドネットワークトランシーバ無線機又はインターフェースを含み得、セルラー又はブロードバンドネットワークトランシーバ無線機を使用してセルラー又は他のブロードバンドネットワークと通信するように構成され得る。いくつかの実施形態では、アクセスデバイスは、セルラーネットワークトランシーバ無線機又はインターフェースを含まなくてもよい。
[0054]ある実施形態では、ユーザは、システムの現在の状態に関する情報をユーザに表示するように構成された入力/表示画面が提供され得る。入力/表示画面は、入力装置、この例ではボタン、から入力を受け取ることができる。入力/表示画面はまた、タッチスクリーンとして構成され得るか、又はタッチ若しくは触覚ベースの入力システムを通してバイタル若しくは生体信号を決定するための入力を受け入れ得る。入力ボタン及び/又は画面は、ユーザが、必要なユーザ入力に関するシステムからの入力プロンプトに応答することを可能にするように構成される。
[0055]ユーザに対して画面上に表示され得る情報は、例えば、施された治療の数、生体信号値、バイタル、バッテリ充電レベル、及び音量であり得る。入力/表示画面は、波形発生器としても使用され得るプロセッサ又は別個のプロセッサから情報を取り出し得る。プロセッサは、ユーザがメニュー選択を開始できるようにユーザに表示するために入手可能な情報を提供する。入力/表示画面は、バッテリの消耗を最小限に抑えるために液晶ディスプレイであり得る。入力/表示画面及び入力ボタンは、低照度レベルでシステムを動作させる能力をユーザに提供するために、照明され得る。情報は、入力/表示画面を使用してユーザから得られ得る。
[0056]図3は、本発明の別の実施形態による、コンピューティングデバイス104のメモリ112内の様々なモジュールのブロック図を例示する。図3は、図1に関連して説明される。メモリ110は、人工知能(AI)ベースのエージェントモジュール202と、感情データ表示モジュール204と、フィードバックモジュール206とを含む。
[0057]人工知能(AI)ベースのエージェントモジュール202は、通信ネットワークを介してユーザとの対話を確立する。感情データ表示モジュール204は、ユーザの感情データをリアルタイムで分析して表示する。フィードバックモジュール206は、コンピューティングデバイスから発せられたフィードバックに基づいてユーザのバイオリズムを調整するようにウェアラブルユーザデバイスとともに構成される。
[0058]AIベースのエージェントモジュール202は、トラッキングモジュール208と、ソフトウェア学習エージェントモジュール210と、仮想チャットボットモジュール212と、コミュニティモジュール214と、同期モジュール216とを含む。トラッキングモジュール208は、ウェアラブルユーザデバイスからバイオリズムデータを受信し、複数のユーザの対話を監視し、分析のために関連データを取り出す。トラッキングモジュール208は、ユーザのテキスト対話及びオーディオ対話を監視するために、ユーザに対応するコンピューティングデバイスの1つ又は複数のメッセージングプラットフォーム及び1つ又は複数の音声プラットフォームと統合される。トラッキングモジュール208は、トレーニングデータを生成するために、関連データ及び取り出したパラメータを処理する。ある実施形態では、トラッキングモジュール208は、バイオリズムデータ及び監視データからユーザの複数のパラメータを取り出す。複数のパラメータは、ユーザの位置、ユーザのバイオリズムデータ、ユーザの個人的及び社会的行動、並びに対話の環境、月、日、及び時刻を含む。ある実施形態では、複数のシナリオは、コンテキスト、状況、及び環境を含むが、これらに限定されない。
[0059]ソフトウェア学習エージェントモジュール210は、複数のシナリオにおけるユーザの感情状態を決定するために、トレーニングデータを受信して処理する。ある実施形態では、バイオリズムデータ、感情データ、関連データ、及びトレーニングデータは、モデリングを支援するために、様々な方法で、組み合わされるか、分解されるか、又は変換され得る。トレーニングデータは、本システムの目的を達成するために使用される様々なアルゴリズムをトレーニングするために利用され得る。トレーニングデータは、入力データと、対応する予想出力とを含む。トレーニングデータに基づいて、アルゴリズムは、複数のシナリオにおけるユーザの感情状態を学習し、生成し、予測するために、ニューラルネットワークのような様々な機構をどのように適用するかを学習することができ、その結果、後に新しい入力データが提示されたときに感情状態を正確に決定することができる。
[0060]ソフトウェア学習エージェントモジュール210は、受信したトレーニングデータに基づいてコンテキスト、状況、及び環境を連続的に学習するように適合可能であり、学習データをデータベースに記憶する。仮想チャットボットモジュール212は、ユーザとの対話を開始し、ソフトウェア学習エージェントモジュールから受信した学習データに基づいてユーザを支援する。ある実施形態では、仮想チャットボットモジュール212は、ユーザの感情状態を改善するのを支援するためにユーザと対話する。
[0061]コミュニティモジュール214は、ユーザが複数の他のユーザと接続して対話することを容易にする。コミュニティモジュール214は、複数のユーザが互いに対話し、通信ネットワークを介して他のユーザ間で感情状態及びバイオリズムデータを共有することを容易にする。コミュニティモジュール214は、ユーザが既存の友人のリストを見ることを可能にし、更にユーザがテキストベースの名前検索を介して他のユーザを検索することを可能にする。ユーザは、他のユーザに友達リクエストを送ることもできる。他のユーザは、ユーザから友達リクエストを受信すると通知を受信する。ユーザは、友達リクエストを承認又は拒否することができる。コミュニティモジュール214は更に、両方のユーザが互いの感情状態に関する一般的な統計値にアクセスすることを可能にする。追加的に、ユーザは、コミュニティモジュール214内に統合されたメッセージングモジュールを通して互いに対話することができる。
[0062]同期モジュール216は、ユーザが他のユーザの感情データにアクセスすることを可能にする。同期モジュール216は、開始及び承認プロトコルを利用して、ユーザが、友達リクエストを承認/拒否すること及び他のユーザによる自分の感情データへのアクセスを許可する/許可しないことを可能にする。代替として、ユーザは、両方のユーザが一方のデータ又は互いのデータへの無制限アクセスを得ることを可能にするために、(双方向又は一方向)の設定をオンにし得る。プロトコル及び同期の方向性にかかわらず、最終的な利益は、相手の心理状態又は感情状態スコアが、過去の期間を見るオプションとともに視覚化されるべきであることである。最も重要なことに、リアルタイムのデータが互いのデバイスからそれらの二次デバイス(携帯電話)にストリーミングされていると仮定すると、ユーザは互いのリアルタイムの感情スコアを見ることができるはずである。これらの感情スコアは、直線的に分割され得るゾーン又は2軸アレイのゾーンに沿ったゾーンに、又はn次元行列に基づくゾーンに分割され得る。全体として、ゾーンは、製品内の様々な場所において、ユーザに伝達される何らかの明確な勾配に従う。2つの当事者間の同期状態により、2つ以上の同期されたアカウント間で評価が行われること及び洞察が導出されることができる。
[0063]追加の実施形態では、本発明は、マルチ同期モジュールを使用し得る。マルチ同期モジュールは、互いの感情データを視覚化するために、2つより多くのユーザアカウントが同期する(他と接続される)ことを可能にする。位置ベースのサービスの使用により、マルチ同期が起こり得る場合に容易な認識が促進される。ソフトウェアアプリケーション上で複数のデバイスが検出された場合、又はコンピューティングユニットが互いから近距離内にあることをGPSサービスが検出した場合、コミュニティモジュール上で友人として互いにすでに認めているユーザは、リスト上で最も目立つように表示される。
[0064]マルチ同期モジュールは、高度な洞察を提供し、多くのグループ統計値を示す。マルチ同期モジュール内の通知は、グループ結果の変化を含み得る。ある実施形態では、同期ファクタは、いつでも誰でもオフにすることができる。マルチ同期モジュールでは、1人のユーザが同期機能をオフにしたとしても、未だ同期されている他のメンバは接続されたままとなる。関連する同期結果を表示する二次コンピューティングユニット(図には示されていない)は、呼吸数及び呼吸周期の様相(両者が吸気のピークにあるか呼気のトラフにあるか)などの様々な行動を次第に同期させる、視覚、聴覚、又は触覚/触知フィードバックを提供し得る。更に、同期機能は、EEGのような脳波を含むバイオリズムの任意の組合せを包含する。
[0065]ある実施形態では、ソフトウェアアプリケーションが生体信号上のターゲット点を識別するか、又はユーザがバイオリズム測定のための目標標/ターゲット点を相互に又は個別に選択することができる。これらのターゲットが識別されると、様々なタイプのフィードバックが働き、このターゲット点に近づけるように行動及びバイオリズムを変化させる。ターゲットは、静的であっても動的であってもよい。同期の目的は、ポジティブな方向にのみ動かして、2人以上のユーザの感情状態を互いに近づけることである。ネガティブな感情状態にある1人のユーザを動かして、ポジティブな感情状態にある人に近づけることで、2人のユーザ間のよりポジティブな会話経験をもたらすこととなる。
[0066]ある実施形態では、同期モジュール216は、会話を録音するための録音モジュールを備える。録音モジュールは、ユーザが録音をオン/オフすることを可能にするインターフェース上の仮想ボタンの機能を果たす。次に、二次コンピューティングユニットのマイクロフォン又は同様のツールが利用可能な場合、二次コンピューティングユニットのマイクロフォンを通して音声が録音される。同期モジュール216は、ダイアログ音声波を転写された言語に変換するために、録音されたオーディオファイルに適用される言語処理モジュールを備える。転写された言語は、センチメント及びコンテンツに基づいて更に処理され、話者の感情スコアのバイオリズムと時間的にマッチングされる。
[0067]ある実施形態では、会議中のユーザの感情スコアの視覚化された表示が、すべてのユーザの二次コンピューティングユニットのインターフェース上にリアルタイムで表示される。通知は、1人又は複数のユーザに(視覚的に、すなわちテキスト又はグラフィックスで)、聴覚的に(短いオーディオクリップで)、又は触覚的に(ウェアラブルデバイス又は二次コンピューティングユニットのいずれかを介して)送られ得る。これらの通知は、いずれかの参加者/ユーザにおいて顕著なバイオリズム変化が生じたときに送られ得る。
[0068]感情データ表示モジュール204は、アルゴリズムモジュール218と、視覚化モジュール220とを含む。アルゴリズムモジュール218は、1つ又は複数の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算する。感情スコアは、対話中のユーザの感情状態を示す。視覚化モジュール220は、ユーザの特定の持続時間について複数の感情周期をグラフィカルに表す。視覚化モジュール220は、ユーザに関連するコンピューティングデバイス上にユーザの感情スコア及び洞察を表示する。ある実施形態では、視覚化モジュール220は、複数の英数字、複数の幾何学的図形、複数のホログラム、及び色又は移動形状を含む複数の記号のうちの少なくとも1つを使用することによって、2次元(2D)グラフ及び3次元(3D)グラフのうちの少なくとも1つに複数の方法で感情データを表示する。
[0069]フィードバックモジュール206は、生理学的データ収集エンジン222と、生体信号生成エンジン224と、フィードバックアクティベーション決定エンジン226と、フィードバック生成エンジン228とを含む。生理学的データ収集エンジン222は、ユーザの少なくとも1つの生理学的特性の生理学的データを収集する。生体信号生成エンジン224は、生理学的データを処理して少なくとも1つの生体信号にする。フィードバックアクティベーション決定エンジンは、フィードバックアクティベーション条件に対して生体信号を監視して測定する。フィードバック生成エンジン228は、フィードバックアクティベーション条件を満たしたときにフィードバックをトリガする。フィードバックアクティベーション条件は、測定値が1つ又は複数の所定のしきい値よりも大きいときにフィードバックをトリガする。
[0070]図4は、本発明の代替的な実施形態による、複数のユーザの感情状態を決定し、通信ネットワークを介したフィードバックに基づいてユーザのバイオリズムを調整するために、ユーザ間の対話を監視するための方法のフローチャート400を例示する。本方法は、ユーザの身体に装着されるか、身体の近くに装着されるか、又はユーザの体内に設置される(埋め込み可能である)ように構成されたウェアラブルユーザデバイスを通して、ユーザのバイオリズムデータを収集するステップ402を含む。方法は、通信ネットワークを介してウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通して、ユーザのバイオリズムデータを受信するステップ404を含む。本方法は、人工知能(AI)ベースのエージェントモジュールを通して、通信ネットワークを介してユーザとの対話を確立するステップ406を含む。本方法は、感情データ表示モジュールを通して、ユーザの感情データをリアルタイムで分析して表示するステップ408を含む。本方法は、フィードバックモジュールを通して、コンピューティングデバイスから発せられたフィードバックに基づいてユーザのバイオリズムを調整するステップ410を含む。
[0071]図5は、本発明の代替的な実施形態による、人工知能(AI)ベースのエージェントモジュールによって実行される複数のステップのフローチャート500を例示する。AIベースのエージェントモジュールは、トラッキングモジュールを通して、ウェアラブルユーザデバイスからバイオリズムデータを受信し、複数のユーザの対話を監視し、分析のために関連データを取り出すステップ502から始まる複数のステップを実行する。トラッキングモジュールは、ユーザのテキスト対話及びオーディオ対話を監視するために、ユーザに対応するコンピューティングデバイスの1つ又は複数のメッセージングプラットフォーム及び1つ又は複数の音声プラットフォームと統合される。トラッキングモジュールは、トレーニングデータを生成するために、関連データ及び取り出したパラメータを処理する。ある実施形態では、トラッキングモジュールは、バイオリズムデータ及び監視されたデータからユーザの複数のパラメータを取り出す。複数のパラメータは、ユーザの位置、ユーザのバイオリズムデータ、ユーザの個人的及び社会的行動、並びに対話の環境、月、日、及び時刻を含む。
[0072]本方法は、ソフトウェア学習エージェントモジュールを通して、複数のシナリオにおけるユーザの感情状態を決定するために、トレーニングデータを受信して処理するステップ504を含む。ある実施形態では、複数のシナリオは、コンテキスト、状況、及び環境を含むが、これらに限定されない。ソフトウェア学習エージェントモジュールは、受信したトレーニングデータに基づいてコンテキスト、状況、及び環境を連続的に学習するように適合可能であり、学習データをデータベースに記憶する。本方法は、仮想チャットボットモジュールを通して、ユーザとの対話を開始し、ソフトウェア学習エージェントモジュールから受信した学習データに基づいてユーザを支援するステップ506を含む。ある実施形態では、仮想チャットボットモジュールは、ユーザの感情状態を改善するのを支援するためにユーザと対話する。本方法は、コミュニティモジュールを通して、ユーザが複数の他のユーザと接続して対話することを容易にするステップ508を含む。コミュニティモジュールは、複数のユーザが互いに対話し、通信ネットワークを介して他のユーザ間で感情状態及びバイオリズムデータを共有することを容易にする。本方法は、同期モジュールを通して、ユーザが他のユーザの感情データにアクセスすることを可能にするステップ510を含む。
[0073]図6は、本発明の代替的な実施形態による、感情データ表示モジュールによって実行される複数のステップのフローチャート600を例示する。感情データ表示モジュールは、アルゴリズムモジュールを通して、1つ又は複数の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算するステップ602から始まる複数のステップを実行する。感情スコアは、対話中のユーザの感情状態を示す。本方法は、視覚化モジュールを通して、ユーザの特定の持続時間について複数の感情周期をグラフィカルに表すステップ604を含む。視覚化モジュールは、ユーザに関連するコンピューティングデバイス上にユーザの感情スコア及び洞察を表示する。ある実施形態では、視覚化モジュールは、複数の英数字、複数の幾何学的図形、複数のホログラム、及び色又は移動形状を含む複数の記号のうちの少なくとも1つを使用することによって、2次元(2D)グラフ及び3次元(3D)グラフのうちの少なくとも1つに複数の方法で感情データを表示する。
[0074]図7は、本発明の代替的な実施形態による、フィードバックモジュールによって実行される複数のステップのフローチャート700を示す。フィードバックモジュールは、生理学的データ収集エンジンを通して、ユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップ702から始まる複数のステップを実行する。本方法は、生体信号生成エンジンを通して、生理学的データを処理して少なくとも1つの生体信号にするステップ704を含む。本方法は、フィードバックアクティベーション決定エンジンを通して、フィードバックアクティベーション条件に対して生体信号を監視して測定するステップ706を含む。本方法は、フィードバック生成エンジンを通して、フィードバックアクティベーション条件を満たしたときにフィードバックをトリガするステップ708を含む。フィードバックアクティベーション条件は、測定値が1つ又は複数の所定のしきい値よりも大きいときにフィードバックをトリガする。
[0075]従って、本発明は、ユーザ対話を監視するための、及び、ユーザの感情状態を決定して、ユーザの感情状態に基づいて支援を提供するための認知プラットフォームを提供する。更に、本発明は、ソフトウェア学習エージェントモジュールのためのトレーニングデータセットを生成するために、ユーザのバイオリズム及びバイオデータに関連するユーザ通信データをキャプチャする。更に、本発明は、心拍変動(HRV)、脳波記録(EEG)などの決定されたユーザの複数の生物物理学的状態に基づいてユーザと対話する。更に、本発明は、感情データを受信してそれを線形に視覚化する比率スケールを提供する。更に、本発明は、ユーザの感情データを周期的に提供して、ユーザが自分の感情状態及び心理状態を経時的に最適化するのを助ける。追加的に、本発明は、ユーザが自分の感情データ又は他のユーザの感情データに基づいて個人的な洞察を引き出すことを可能にする。
[0076]本発明の実施形態を例示し説明してきたが、本発明がこれらの実施形態だけに制限されないことは明らかであろう。特許請求の範囲に記載された本発明の範囲から逸脱することなく、多数の修正、変更、変形、置換、及び同等物が当業者には明らかであろう。

Claims (10)

  1. 複数のユーザの感情状態を決定し、通信ネットワークを介したフィードバックに基づいて前記ユーザのバイオリズムを調整するために、前記ユーザ間の対話を監視するシステムであって、前記システムは、
    前記ユーザのバイオリズムデータを収集するように構成されたウェアラブルユーザデバイスと、
    前記通信ネットワークを介して前記ユーザの前記バイオリズムデータを受信するために前記ウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスと
    を備え、前記コンピューティングデバイスは、
    プロセッサと、
    前記プロセッサに通信可能に結合されたメモリと、を備え、前記メモリは、前記プロセッサによって実行される命令を記憶し、前記メモリは、
    前記通信ネットワークを介して前記ユーザとの対話を確立する人工知能(AI)ベースのエージェントモジュールと、
    前記ユーザの感情データをリアルタイムで分析して表示する感情データ表示モジュールと、
    前記コンピューティングデバイスから発せられた前記フィードバックに基づいて前記ユーザのバイオリズムを調整するように前記ウェアラブルユーザデバイスとともに構成されたフィードバックモジュールと、を備え、
    前記AIベースのエージェントモジュールは、
    前記ウェアラブルユーザデバイスから前記バイオリズムデータを受信し、複数のユーザの前記対話を監視し、分析のために関連データを取り出すトラッキングモジュールと、ここで、前記トラッキングモジュールは、前記ユーザのテキスト対話及びオーディオ対話を監視するために、前記ユーザに対応する前記コンピューティングデバイスの1つ又は複数のメッセージングプラットフォーム及び1つ又は複数の音声プラットフォームと統合され、前記トラッキングモジュールは、トレーニングデータを生成するために、前記関連データ及び前記取り出したパラメータを処理し、ここで、前記関連データは、テキスト、センチメント、及びオーディオに関するものであり、前記トラッキングモジュールは、前記オーディオに対してテキスト分析、センチメント分析、及び信号処理を実行するものであり、
    複数のシナリオにおける前記ユーザの前記感情状態を決定するために、前記トレーニングデータを受信して処理するソフトウェア学習エージェントモジュールと、
    前記ユーザとの前記対話を開始し、前記ソフトウェア学習エージェントモジュールから受信した学習データに基づいて前記ユーザを支援する仮想チャットボットモジュールと、
    前記ユーザが複数の他のユーザと接続して対話することを容易にするコミュニティモジュールと、ここで、前記コミュニティモジュールは、前記複数のユーザが互いに対話し、前記通信ネットワークを介して他のユーザ間で感情状態及びバイオリズムデータを共有することを容易にするものであり、
    前記ユーザが前記他のユーザの前記感情データにアクセスすることを可能にする同期モジュールと、を備え、
    前記感情データ表示モジュールは、
    1つ又は複数の洞察を生成するために、前記バイオリズムデータを分析し、前記ユーザの感情スコアを計算するアルゴリズムモジュールと、ここで、前記感情スコアは、前記対話中の前記ユーザの前記感情状態を示すものであり、
    前記ユーザの特定の持続時間について複数の感情周期をグラフィカルに表す視覚化モジュールと、ここで、前記視覚化モジュールは、前記ユーザに関連する前記コンピューティングデバイス上に前記ユーザの感情スコア及び前記洞察を表示するものであり、を備え、
    前記フィードバックモジュールは、
    前記ユーザの少なくとも1つの生理学的特性の生理学的データを収集する生理学的データ収集エンジンと、
    前記生理学的データを処理して少なくとも1つの生体信号にする生体信号生成エンジンと、
    フィードバックアクティベーション条件に対して前記生体信号を監視して測定するフィードバックアクティベーション決定エンジンと、
    フィードバックアクティベーション条件を満たしたときにフィードバックをトリガするフィードバック生成エンジンと、ここで、前記フィードバックアクティベーション条件は、測定値が1つ又は複数の所定のしきい値よりも大きいときに前記フィードバックをトリガするものであり、
    を備える、システム。
  2. 前記トラッキングモジュールは、前記バイオリズムデータ及び監視されたデータから前記ユーザの複数のパラメータを取り出し、前記複数のパラメータは、前記ユーザの位置、前記ユーザのバイオリズムデータ、前記ユーザの個人的及び社会的行動、並びに前記対話の環境、月、日、及び時刻を備える、請求項1に記載のシステム。
  3. 前記複数のシナリオは、コンテキスト、状況、及び環境を備え、前記ソフトウェア学習エージェントモジュールは、前記受信したトレーニングデータに基づいて前記コンテキスト、状況、及び環境を連続的に学習するように適合可能であり、前記学習データをデータベースに記憶する、請求項1に記載のシステム。
  4. 前記仮想チャットボットモジュールは、前記ユーザの前記感情状態を改善するのを支援するために前記ユーザと対話する、請求項1に記載のシステム。
  5. 前記視覚化モジュールは、複数の英数字、複数の幾何学的図形、複数のホログラム、及び複数の記号のうちの少なくとも1つを使用することによって、2次元(2D)グラフ及び3次元(3D)グラフのうちの少なくとも1つに複数の方法で感情データを表示する、請求項1に記載のシステム。
  6. 複数のユーザの感情状態を決定し、通信ネットワークを介してフィードバックに基づいて前記ユーザのバイオリズムを調整するために、前記ユーザ間の対話を監視する方法であって、前記方法は、
    ウェアラブルユーザデバイスを通して、前記ユーザのバイオリズムデータを収集するステップと、
    前記通信ネットワークを介して前記ウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通して、前記ユーザの前記バイオリズムデータを受信するステップと、
    人工知能(AI)ベースのエージェントモジュールを通して、前記通信ネットワークを介して前記ユーザとの対話を確立するステップと、
    同期モジュールを通して、前記ユーザが前記他のユーザの感情データにアクセスすることを可能にするステップと、
    感情データ表示モジュールを通して、前記ユーザの感情データをリアルタイムで分析して表示するステップと、
    フィードバックモジュールを通して、前記コンピューティングデバイスから発せられた前記フィードバックに基づいて前記ユーザのバイオリズムを調整するステップと、を備え、
    前記AIベースのエージェントモジュールは、
    トラッキングモジュールを通して、前記ウェアラブルユーザデバイスから前記バイオリズムデータを受信し、複数のユーザの前記対話を監視し、分析のために関連データを取り出すことと、ここで、前記トラッキングモジュールは、前記ユーザのテキスト対話及びオーディオ対話を監視するために、前記ユーザに対応する前記コンピューティングデバイスの1つ又は複数のメッセージングプラットフォーム及び1つ又は複数の音声プラットフォームと統合され、前記トラッキングモジュールは、トレーニングデータを生成するために、前記関連データ及び前記取り出したパラメータを処理し、ここで、前記関連データは、テキスト、センチメント、及びオーディオに関するものであり、前記トラッキングモジュールは、前記オーディオに対してテキスト分析、センチメント分析、及び信号処理を実行するものであり
    ソフトウェア学習エージェントモジュールを通して、複数のシナリオにおける前記ユーザの前記感情状態を決定するために、前記トレーニングデータを受信して処理することと、
    仮想チャットボットモジュールを通して、前記ユーザとの前記対話を開始し、前記ソフトウェア学習エージェントモジュールから受信した学習データに基づいて前記ユーザを支援することと、
    コミュニティモジュールを通して、前記ユーザが複数の他のユーザと接続して対話することを容易にすることと、ここで、前記コミュニティモジュールは、前記複数のユーザが互いに対話し、前記通信ネットワークを介して他のユーザ間で感情状態及びバイオリズムデータを共有することを容易にするものであり、
    を備える複数のステップを実行し、
    前記感情データ表示モジュールは、
    アルゴリズムモジュールを通して、1つ又は複数の洞察を生成するために、前記バイオリズムデータを分析し、前記ユーザの感情スコアを計算することと、ここで、前記感情スコアは、前記対話中の前記ユーザの前記感情状態を示すものであり、
    視覚化モジュールを通して、前記ユーザの特定の持続時間について複数の感情周期をグラフィカルに表すことと、ここで、前記視覚化モジュールは、前記ユーザに関連する前記コンピューティングデバイス上に前記ユーザの感情スコア及び前記洞察を表示するものであり、を備える複数のステップを実行し、
    前記フィードバックモジュールは、
    生理学的データ収集エンジンを通して、前記ユーザの少なくとも1つの生理学的特性の生理学的データを収集することと、
    生体信号生成エンジンを通して、前記生理学的データを処理して少なくとも1つの生体信号にすることと、
    フィードバックアクティベーション決定エンジンを通して、フィードバックアクティベーション条件に対して前記生体信号を監視して測定することと、
    フィードバック生成エンジンを通して、フィードバックアクティベーション条件を満たしたときにフィードバックをトリガすることと、ここで、前記フィードバックアクティベーション条件は、測定値が1つ又は複数の所定のしきい値よりも大きいときに前記フィードバックをトリガするものであり、
    を備える複数のステップを実行する、方法。
  7. 前記トラッキングモジュールは、前記バイオリズムデータ及び監視されたデータから前記ユーザの複数のパラメータを取り出し、前記複数のパラメータは、前記ユーザの位置、前記ユーザのバイオリズムデータ、前記ユーザの個人的及び社会的行動、並びに前記対話の環境、月、日、及び時刻を備える、請求項6に記載の方法。
  8. 前記複数のシナリオは、コンテキスト、状況、及び環境を備え、前記ソフトウェア学習エージェントモジュールは、前記受信したトレーニングデータに基づいて前記コンテキスト、状況、及び環境を連続的に学習するように適合可能であり、前記学習データをデータベースに記憶する、請求項6に記載の方法。
  9. 前記仮想チャットボットモジュールは、前記ユーザの前記感情状態を改善するのを支援するために前記ユーザと対話する、請求項6に記載の方法。
  10. 前記視覚化モジュールは、2次元(2D)グラフ及び3次元(3D)グラフで感情データを表示し、前記視覚化モジュールは、複数の英数字、複数の幾何学的図形、複数のホログラム、及び複数の記号を表示する、請求項6に記載の方法。
JP2021540344A 2018-09-21 2019-09-20 目標状態の強化及びユーザの感情状態の監視を通してユーザ間の対話を改善するためのシステム及び方法 Pending JP2022502219A (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201862734490P 2018-09-21 2018-09-21
US201862734553P 2018-09-21 2018-09-21
US201862734522P 2018-09-21 2018-09-21
US201862734608P 2018-09-21 2018-09-21
US62/734,490 2018-09-21
US62/734,522 2018-09-21
US62/734,553 2018-09-21
US62/734,608 2018-09-21
PCT/CA2019/051340 WO2020056519A1 (en) 2018-09-21 2019-09-20 System and method to improve interaction between users through monitoring of emotional state of the users and reinforcement of goal states

Publications (2)

Publication Number Publication Date
JP2022502219A true JP2022502219A (ja) 2022-01-11
JPWO2020056519A5 JPWO2020056519A5 (ja) 2022-10-26

Family

ID=69886866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021540344A Pending JP2022502219A (ja) 2018-09-21 2019-09-20 目標状態の強化及びユーザの感情状態の監視を通してユーザ間の対話を改善するためのシステム及び方法

Country Status (9)

Country Link
US (1) US20210350917A1 (ja)
EP (1) EP3852614A4 (ja)
JP (1) JP2022502219A (ja)
KR (1) KR20210099556A (ja)
CN (1) CN113271851A (ja)
BR (1) BR112021005417A2 (ja)
CA (1) CA3113698A1 (ja)
MX (1) MX2021003334A (ja)
WO (1) WO2020056519A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11809958B2 (en) * 2020-06-10 2023-11-07 Capital One Services, Llc Systems and methods for automatic decision-making with user-configured criteria using multi-channel data inputs
US11605464B2 (en) 2021-04-30 2023-03-14 Marvin Behavioral Health Inc. Systems and methods for machine learning-based state prediction and visualization
US11954443B1 (en) 2021-06-03 2024-04-09 Wells Fargo Bank, N.A. Complaint prioritization using deep learning model
WO2023013927A1 (en) * 2021-08-05 2023-02-09 Samsung Electronics Co., Ltd. Method and wearable device for enhancing quality of experience index for user in iot network
US12008579B1 (en) 2021-08-09 2024-06-11 Wells Fargo Bank, N.A. Fraud detection using emotion-based deep learning model
KR102420359B1 (ko) * 2022-01-10 2022-07-14 송예원 감정맞춤형 cbt용 ai제어모듈을 통한 메타버스공간에서의 1:1 감정맞춤형 인지적행동치료 생성장치 및 방법
CN117731288A (zh) * 2024-01-18 2024-03-22 深圳谨启科技有限公司 一种ai心理咨询方法和***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140223462A1 (en) * 2012-12-04 2014-08-07 Christopher Allen Aimone System and method for enhancing content using brain-state data
US20160077547A1 (en) * 2014-09-11 2016-03-17 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
JP2016036500A (ja) * 2014-08-07 2016-03-22 シャープ株式会社 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム
JP2018138155A (ja) * 2017-02-24 2018-09-06 沖電気工業株式会社 感情推定サーバ装置、感情推定方法、提示装置及び感情推定システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10869626B2 (en) * 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
WO2014137918A1 (en) * 2013-03-04 2014-09-12 Hello Inc. Wearable device with sensors and mobile device components
CN109690526A (zh) * 2017-06-15 2019-04-26 微软技术许可有限责任公司 用于智能自动聊天的方法与装置
US10091554B1 (en) * 2017-12-06 2018-10-02 Echostar Technologies L.L.C. Apparatus, systems and methods for generating an emotional-based content recommendation list

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140223462A1 (en) * 2012-12-04 2014-08-07 Christopher Allen Aimone System and method for enhancing content using brain-state data
JP2016036500A (ja) * 2014-08-07 2016-03-22 シャープ株式会社 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム
US20160077547A1 (en) * 2014-09-11 2016-03-17 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
JP2018138155A (ja) * 2017-02-24 2018-09-06 沖電気工業株式会社 感情推定サーバ装置、感情推定方法、提示装置及び感情推定システム

Also Published As

Publication number Publication date
KR20210099556A (ko) 2021-08-12
BR112021005417A2 (pt) 2021-06-15
EP3852614A1 (en) 2021-07-28
CN113271851A (zh) 2021-08-17
US20210350917A1 (en) 2021-11-11
EP3852614A4 (en) 2022-08-03
MX2021003334A (es) 2021-09-28
WO2020056519A1 (en) 2020-03-26
CA3113698A1 (en) 2020-03-26

Similar Documents

Publication Publication Date Title
JP2022502219A (ja) 目標状態の強化及びユーザの感情状態の監視を通してユーザ間の対話を改善するためのシステム及び方法
JP2022502804A (ja) バイオリズムデータを収集し、分析し、ユーザ間で共有するためのシステム及び方法
US11670324B2 (en) Method for predicting emotion status and robot
US11672727B2 (en) Data acquisition and analysis of human sexual response using a personal massaging device
CN108366732B (zh) 困倦起始检测
US10431116B2 (en) Orator effectiveness through real-time feedback system with automatic detection of human behavioral and emotional states of orator and audience
Happy et al. Automated alertness and emotion detection for empathic feedback during e-learning
Chanel et al. Assessment of computer-supported collaborative processes using interpersonal physiological and eye-movement coupling
US10980490B2 (en) Method and apparatus for evaluating physiological aging level
US20180160959A1 (en) Modular electronic lie and emotion detection systems, methods, and devices
CN115004308A (zh) 用于提供活动推荐的接口的方法和***
Dang et al. Stress game: The role of motivational robotic assistance in reducing user’s task stress
JP2018195164A (ja) 解析装置、解析プログラム及び解析方法
JP2021090668A (ja) 情報処理装置及びプログラム
JP2022502803A (ja) 感情データをソーシャルネットワークプラットフォームに統合し、ソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法
KR20220037630A (ko) 인공지능을 이용한 보청기 적합 시스템
Migovich et al. Stress Detection of Autistic Adults during Simulated Job Interviews Using a Novel Physiological Dataset and Machine Learning
US20230099519A1 (en) Systems and methods for managing stress experienced by users during events
Saleem et al. An In-Depth study on Smart wearable Technology and their applications in monitoring human health
CN118058707A (zh) 睡眠评估方法、设备及存储介质
JP2013046691A (ja) 個人特性検出システム、個人特性検出方法およびプログラム
Johnson Social-context middleware for at-risk veterans

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221018

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230815

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240206