JP2022502219A - 目標状態の強化及びユーザの感情状態の監視を通してユーザ間の対話を改善するためのシステム及び方法 - Google Patents
目標状態の強化及びユーザの感情状態の監視を通してユーザ間の対話を改善するためのシステム及び方法 Download PDFInfo
- Publication number
- JP2022502219A JP2022502219A JP2021540344A JP2021540344A JP2022502219A JP 2022502219 A JP2022502219 A JP 2022502219A JP 2021540344 A JP2021540344 A JP 2021540344A JP 2021540344 A JP2021540344 A JP 2021540344A JP 2022502219 A JP2022502219 A JP 2022502219A
- Authority
- JP
- Japan
- Prior art keywords
- user
- data
- module
- feedback
- users
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002996 emotional effect Effects 0.000 title claims abstract description 108
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000012544 monitoring process Methods 0.000 title claims abstract description 14
- 238000005728 strengthening Methods 0.000 title 1
- 238000004891 communication Methods 0.000 claims abstract description 41
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 18
- 230000008451 emotion Effects 0.000 claims description 38
- 230000004913 activation Effects 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 26
- 238000012800 visualization Methods 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 15
- 238000004458 analytical method Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 11
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 5
- 230000011273 social behavior Effects 0.000 claims description 5
- 230000003993 interaction Effects 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 4
- 239000003795 chemical substances by application Substances 0.000 description 28
- 230000001413 cellular effect Effects 0.000 description 11
- 230000008901 benefit Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000000537 electroencephalography Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000036387 respiratory rate Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- FMFKNGWZEQOWNK-UHFFFAOYSA-N 1-butoxypropan-2-yl 2-(2,4,5-trichlorophenoxy)propanoate Chemical compound CCCCOCC(C)OC(=O)C(C)OC1=CC(Cl)=C(Cl)C=C1Cl FMFKNGWZEQOWNK-UHFFFAOYSA-N 0.000 description 1
- 238000010146 3D printing Methods 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/486—Bio-feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/375—Electroencephalography [EEG] using biofeedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4857—Indicating the phase of biorhythm
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/20—Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
- H04W4/21—Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7465—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M2021/0005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Psychiatry (AREA)
- Theoretical Computer Science (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- Psychology (AREA)
- Data Mining & Analysis (AREA)
- Surgery (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Databases & Information Systems (AREA)
- Social Psychology (AREA)
- Developmental Disabilities (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Mathematical Physics (AREA)
- Educational Technology (AREA)
- General Business, Economics & Management (AREA)
Abstract
Description
Claims (10)
- 複数のユーザの感情状態を決定し、通信ネットワークを介したフィードバックに基づいて前記ユーザのバイオリズムを調整するために、前記ユーザ間の対話を監視するシステムであって、前記システムは、
前記ユーザのバイオリズムデータを収集するように構成されたウェアラブルユーザデバイスと、
前記通信ネットワークを介して前記ユーザの前記バイオリズムデータを受信するために前記ウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスと
を備え、前記コンピューティングデバイスは、
プロセッサと、
前記プロセッサに通信可能に結合されたメモリと、を備え、前記メモリは、前記プロセッサによって実行される命令を記憶し、前記メモリは、
前記通信ネットワークを介して前記ユーザとの対話を確立する人工知能(AI)ベースのエージェントモジュールと、
前記ユーザの感情データをリアルタイムで分析して表示する感情データ表示モジュールと、
前記コンピューティングデバイスから発せられた前記フィードバックに基づいて前記ユーザのバイオリズムを調整するように前記ウェアラブルユーザデバイスとともに構成されたフィードバックモジュールと、を備え、
前記AIベースのエージェントモジュールは、
前記ウェアラブルユーザデバイスから前記バイオリズムデータを受信し、複数のユーザの前記対話を監視し、分析のために関連データを取り出すトラッキングモジュールと、ここで、前記トラッキングモジュールは、前記ユーザのテキスト対話及びオーディオ対話を監視するために、前記ユーザに対応する前記コンピューティングデバイスの1つ又は複数のメッセージングプラットフォーム及び1つ又は複数の音声プラットフォームと統合され、前記トラッキングモジュールは、トレーニングデータを生成するために、前記関連データ及び前記取り出したパラメータを処理し、ここで、前記関連データは、テキスト、センチメント、及びオーディオに関するものであり、前記トラッキングモジュールは、前記オーディオに対してテキスト分析、センチメント分析、及び信号処理を実行するものであり、
複数のシナリオにおける前記ユーザの前記感情状態を決定するために、前記トレーニングデータを受信して処理するソフトウェア学習エージェントモジュールと、
前記ユーザとの前記対話を開始し、前記ソフトウェア学習エージェントモジュールから受信した学習データに基づいて前記ユーザを支援する仮想チャットボットモジュールと、
前記ユーザが複数の他のユーザと接続して対話することを容易にするコミュニティモジュールと、ここで、前記コミュニティモジュールは、前記複数のユーザが互いに対話し、前記通信ネットワークを介して他のユーザ間で感情状態及びバイオリズムデータを共有することを容易にするものであり、
前記ユーザが前記他のユーザの前記感情データにアクセスすることを可能にする同期モジュールと、を備え、
前記感情データ表示モジュールは、
1つ又は複数の洞察を生成するために、前記バイオリズムデータを分析し、前記ユーザの感情スコアを計算するアルゴリズムモジュールと、ここで、前記感情スコアは、前記対話中の前記ユーザの前記感情状態を示すものであり、
前記ユーザの特定の持続時間について複数の感情周期をグラフィカルに表す視覚化モジュールと、ここで、前記視覚化モジュールは、前記ユーザに関連する前記コンピューティングデバイス上に前記ユーザの感情スコア及び前記洞察を表示するものであり、を備え、
前記フィードバックモジュールは、
前記ユーザの少なくとも1つの生理学的特性の生理学的データを収集する生理学的データ収集エンジンと、
前記生理学的データを処理して少なくとも1つの生体信号にする生体信号生成エンジンと、
フィードバックアクティベーション条件に対して前記生体信号を監視して測定するフィードバックアクティベーション決定エンジンと、
フィードバックアクティベーション条件を満たしたときにフィードバックをトリガするフィードバック生成エンジンと、ここで、前記フィードバックアクティベーション条件は、測定値が1つ又は複数の所定のしきい値よりも大きいときに前記フィードバックをトリガするものであり、
を備える、システム。 - 前記トラッキングモジュールは、前記バイオリズムデータ及び監視されたデータから前記ユーザの複数のパラメータを取り出し、前記複数のパラメータは、前記ユーザの位置、前記ユーザのバイオリズムデータ、前記ユーザの個人的及び社会的行動、並びに前記対話の環境、月、日、及び時刻を備える、請求項1に記載のシステム。
- 前記複数のシナリオは、コンテキスト、状況、及び環境を備え、前記ソフトウェア学習エージェントモジュールは、前記受信したトレーニングデータに基づいて前記コンテキスト、状況、及び環境を連続的に学習するように適合可能であり、前記学習データをデータベースに記憶する、請求項1に記載のシステム。
- 前記仮想チャットボットモジュールは、前記ユーザの前記感情状態を改善するのを支援するために前記ユーザと対話する、請求項1に記載のシステム。
- 前記視覚化モジュールは、複数の英数字、複数の幾何学的図形、複数のホログラム、及び複数の記号のうちの少なくとも1つを使用することによって、2次元(2D)グラフ及び3次元(3D)グラフのうちの少なくとも1つに複数の方法で感情データを表示する、請求項1に記載のシステム。
- 複数のユーザの感情状態を決定し、通信ネットワークを介してフィードバックに基づいて前記ユーザのバイオリズムを調整するために、前記ユーザ間の対話を監視する方法であって、前記方法は、
ウェアラブルユーザデバイスを通して、前記ユーザのバイオリズムデータを収集するステップと、
前記通信ネットワークを介して前記ウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通して、前記ユーザの前記バイオリズムデータを受信するステップと、
人工知能(AI)ベースのエージェントモジュールを通して、前記通信ネットワークを介して前記ユーザとの対話を確立するステップと、
同期モジュールを通して、前記ユーザが前記他のユーザの感情データにアクセスすることを可能にするステップと、
感情データ表示モジュールを通して、前記ユーザの感情データをリアルタイムで分析して表示するステップと、
フィードバックモジュールを通して、前記コンピューティングデバイスから発せられた前記フィードバックに基づいて前記ユーザのバイオリズムを調整するステップと、を備え、
前記AIベースのエージェントモジュールは、
トラッキングモジュールを通して、前記ウェアラブルユーザデバイスから前記バイオリズムデータを受信し、複数のユーザの前記対話を監視し、分析のために関連データを取り出すことと、ここで、前記トラッキングモジュールは、前記ユーザのテキスト対話及びオーディオ対話を監視するために、前記ユーザに対応する前記コンピューティングデバイスの1つ又は複数のメッセージングプラットフォーム及び1つ又は複数の音声プラットフォームと統合され、前記トラッキングモジュールは、トレーニングデータを生成するために、前記関連データ及び前記取り出したパラメータを処理し、ここで、前記関連データは、テキスト、センチメント、及びオーディオに関するものであり、前記トラッキングモジュールは、前記オーディオに対してテキスト分析、センチメント分析、及び信号処理を実行するものであり
ソフトウェア学習エージェントモジュールを通して、複数のシナリオにおける前記ユーザの前記感情状態を決定するために、前記トレーニングデータを受信して処理することと、
仮想チャットボットモジュールを通して、前記ユーザとの前記対話を開始し、前記ソフトウェア学習エージェントモジュールから受信した学習データに基づいて前記ユーザを支援することと、
コミュニティモジュールを通して、前記ユーザが複数の他のユーザと接続して対話することを容易にすることと、ここで、前記コミュニティモジュールは、前記複数のユーザが互いに対話し、前記通信ネットワークを介して他のユーザ間で感情状態及びバイオリズムデータを共有することを容易にするものであり、
を備える複数のステップを実行し、
前記感情データ表示モジュールは、
アルゴリズムモジュールを通して、1つ又は複数の洞察を生成するために、前記バイオリズムデータを分析し、前記ユーザの感情スコアを計算することと、ここで、前記感情スコアは、前記対話中の前記ユーザの前記感情状態を示すものであり、
視覚化モジュールを通して、前記ユーザの特定の持続時間について複数の感情周期をグラフィカルに表すことと、ここで、前記視覚化モジュールは、前記ユーザに関連する前記コンピューティングデバイス上に前記ユーザの感情スコア及び前記洞察を表示するものであり、を備える複数のステップを実行し、
前記フィードバックモジュールは、
生理学的データ収集エンジンを通して、前記ユーザの少なくとも1つの生理学的特性の生理学的データを収集することと、
生体信号生成エンジンを通して、前記生理学的データを処理して少なくとも1つの生体信号にすることと、
フィードバックアクティベーション決定エンジンを通して、フィードバックアクティベーション条件に対して前記生体信号を監視して測定することと、
フィードバック生成エンジンを通して、フィードバックアクティベーション条件を満たしたときにフィードバックをトリガすることと、ここで、前記フィードバックアクティベーション条件は、測定値が1つ又は複数の所定のしきい値よりも大きいときに前記フィードバックをトリガするものであり、
を備える複数のステップを実行する、方法。 - 前記トラッキングモジュールは、前記バイオリズムデータ及び監視されたデータから前記ユーザの複数のパラメータを取り出し、前記複数のパラメータは、前記ユーザの位置、前記ユーザのバイオリズムデータ、前記ユーザの個人的及び社会的行動、並びに前記対話の環境、月、日、及び時刻を備える、請求項6に記載の方法。
- 前記複数のシナリオは、コンテキスト、状況、及び環境を備え、前記ソフトウェア学習エージェントモジュールは、前記受信したトレーニングデータに基づいて前記コンテキスト、状況、及び環境を連続的に学習するように適合可能であり、前記学習データをデータベースに記憶する、請求項6に記載の方法。
- 前記仮想チャットボットモジュールは、前記ユーザの前記感情状態を改善するのを支援するために前記ユーザと対話する、請求項6に記載の方法。
- 前記視覚化モジュールは、2次元(2D)グラフ及び3次元(3D)グラフで感情データを表示し、前記視覚化モジュールは、複数の英数字、複数の幾何学的図形、複数のホログラム、及び複数の記号を表示する、請求項6に記載の方法。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862734490P | 2018-09-21 | 2018-09-21 | |
US201862734553P | 2018-09-21 | 2018-09-21 | |
US201862734522P | 2018-09-21 | 2018-09-21 | |
US201862734608P | 2018-09-21 | 2018-09-21 | |
US62/734,490 | 2018-09-21 | ||
US62/734,522 | 2018-09-21 | ||
US62/734,553 | 2018-09-21 | ||
US62/734,608 | 2018-09-21 | ||
PCT/CA2019/051340 WO2020056519A1 (en) | 2018-09-21 | 2019-09-20 | System and method to improve interaction between users through monitoring of emotional state of the users and reinforcement of goal states |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022502219A true JP2022502219A (ja) | 2022-01-11 |
JPWO2020056519A5 JPWO2020056519A5 (ja) | 2022-10-26 |
Family
ID=69886866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021540344A Pending JP2022502219A (ja) | 2018-09-21 | 2019-09-20 | 目標状態の強化及びユーザの感情状態の監視を通してユーザ間の対話を改善するためのシステム及び方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20210350917A1 (ja) |
EP (1) | EP3852614A4 (ja) |
JP (1) | JP2022502219A (ja) |
KR (1) | KR20210099556A (ja) |
CN (1) | CN113271851A (ja) |
BR (1) | BR112021005417A2 (ja) |
CA (1) | CA3113698A1 (ja) |
MX (1) | MX2021003334A (ja) |
WO (1) | WO2020056519A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11809958B2 (en) * | 2020-06-10 | 2023-11-07 | Capital One Services, Llc | Systems and methods for automatic decision-making with user-configured criteria using multi-channel data inputs |
US11605464B2 (en) | 2021-04-30 | 2023-03-14 | Marvin Behavioral Health Inc. | Systems and methods for machine learning-based state prediction and visualization |
US11954443B1 (en) | 2021-06-03 | 2024-04-09 | Wells Fargo Bank, N.A. | Complaint prioritization using deep learning model |
WO2023013927A1 (en) * | 2021-08-05 | 2023-02-09 | Samsung Electronics Co., Ltd. | Method and wearable device for enhancing quality of experience index for user in iot network |
US12008579B1 (en) | 2021-08-09 | 2024-06-11 | Wells Fargo Bank, N.A. | Fraud detection using emotion-based deep learning model |
KR102420359B1 (ko) * | 2022-01-10 | 2022-07-14 | 송예원 | 감정맞춤형 cbt용 ai제어모듈을 통한 메타버스공간에서의 1:1 감정맞춤형 인지적행동치료 생성장치 및 방법 |
CN117731288A (zh) * | 2024-01-18 | 2024-03-22 | 深圳谨启科技有限公司 | 一种ai心理咨询方法和*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140223462A1 (en) * | 2012-12-04 | 2014-08-07 | Christopher Allen Aimone | System and method for enhancing content using brain-state data |
US20160077547A1 (en) * | 2014-09-11 | 2016-03-17 | Interaxon Inc. | System and method for enhanced training using a virtual reality environment and bio-signal data |
JP2016036500A (ja) * | 2014-08-07 | 2016-03-22 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
JP2018138155A (ja) * | 2017-02-24 | 2018-09-06 | 沖電気工業株式会社 | 感情推定サーバ装置、感情推定方法、提示装置及び感情推定システム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10869626B2 (en) * | 2010-06-07 | 2020-12-22 | Affectiva, Inc. | Image analysis for emotional metric evaluation |
WO2014137918A1 (en) * | 2013-03-04 | 2014-09-12 | Hello Inc. | Wearable device with sensors and mobile device components |
CN109690526A (zh) * | 2017-06-15 | 2019-04-26 | 微软技术许可有限责任公司 | 用于智能自动聊天的方法与装置 |
US10091554B1 (en) * | 2017-12-06 | 2018-10-02 | Echostar Technologies L.L.C. | Apparatus, systems and methods for generating an emotional-based content recommendation list |
-
2019
- 2019-09-20 BR BR112021005417-0A patent/BR112021005417A2/pt unknown
- 2019-09-20 EP EP19863510.4A patent/EP3852614A4/en not_active Withdrawn
- 2019-09-20 MX MX2021003334A patent/MX2021003334A/es unknown
- 2019-09-20 WO PCT/CA2019/051340 patent/WO2020056519A1/en unknown
- 2019-09-20 CN CN201980076464.1A patent/CN113271851A/zh active Pending
- 2019-09-20 US US17/278,539 patent/US20210350917A1/en not_active Abandoned
- 2019-09-20 CA CA3113698A patent/CA3113698A1/en active Pending
- 2019-09-20 KR KR1020217011834A patent/KR20210099556A/ko unknown
- 2019-09-20 JP JP2021540344A patent/JP2022502219A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140223462A1 (en) * | 2012-12-04 | 2014-08-07 | Christopher Allen Aimone | System and method for enhancing content using brain-state data |
JP2016036500A (ja) * | 2014-08-07 | 2016-03-22 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
US20160077547A1 (en) * | 2014-09-11 | 2016-03-17 | Interaxon Inc. | System and method for enhanced training using a virtual reality environment and bio-signal data |
JP2018138155A (ja) * | 2017-02-24 | 2018-09-06 | 沖電気工業株式会社 | 感情推定サーバ装置、感情推定方法、提示装置及び感情推定システム |
Also Published As
Publication number | Publication date |
---|---|
KR20210099556A (ko) | 2021-08-12 |
BR112021005417A2 (pt) | 2021-06-15 |
EP3852614A1 (en) | 2021-07-28 |
CN113271851A (zh) | 2021-08-17 |
US20210350917A1 (en) | 2021-11-11 |
EP3852614A4 (en) | 2022-08-03 |
MX2021003334A (es) | 2021-09-28 |
WO2020056519A1 (en) | 2020-03-26 |
CA3113698A1 (en) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022502219A (ja) | 目標状態の強化及びユーザの感情状態の監視を通してユーザ間の対話を改善するためのシステム及び方法 | |
JP2022502804A (ja) | バイオリズムデータを収集し、分析し、ユーザ間で共有するためのシステム及び方法 | |
US11670324B2 (en) | Method for predicting emotion status and robot | |
US11672727B2 (en) | Data acquisition and analysis of human sexual response using a personal massaging device | |
CN108366732B (zh) | 困倦起始检测 | |
US10431116B2 (en) | Orator effectiveness through real-time feedback system with automatic detection of human behavioral and emotional states of orator and audience | |
Happy et al. | Automated alertness and emotion detection for empathic feedback during e-learning | |
Chanel et al. | Assessment of computer-supported collaborative processes using interpersonal physiological and eye-movement coupling | |
US10980490B2 (en) | Method and apparatus for evaluating physiological aging level | |
US20180160959A1 (en) | Modular electronic lie and emotion detection systems, methods, and devices | |
CN115004308A (zh) | 用于提供活动推荐的接口的方法和*** | |
Dang et al. | Stress game: The role of motivational robotic assistance in reducing user’s task stress | |
JP2018195164A (ja) | 解析装置、解析プログラム及び解析方法 | |
JP2021090668A (ja) | 情報処理装置及びプログラム | |
JP2022502803A (ja) | 感情データをソーシャルネットワークプラットフォームに統合し、ソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法 | |
KR20220037630A (ko) | 인공지능을 이용한 보청기 적합 시스템 | |
Migovich et al. | Stress Detection of Autistic Adults during Simulated Job Interviews Using a Novel Physiological Dataset and Machine Learning | |
US20230099519A1 (en) | Systems and methods for managing stress experienced by users during events | |
Saleem et al. | An In-Depth study on Smart wearable Technology and their applications in monitoring human health | |
CN118058707A (zh) | 睡眠评估方法、设备及存储介质 | |
JP2013046691A (ja) | 個人特性検出システム、個人特性検出方法およびプログラム | |
Johnson | Social-context middleware for at-risk veterans |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220920 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221018 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230815 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240206 |