CN113271851A - 通过监控用户的情绪状态和增强目标状态来改善用户之间的交互的***和方法 - Google Patents

通过监控用户的情绪状态和增强目标状态来改善用户之间的交互的***和方法 Download PDF

Info

Publication number
CN113271851A
CN113271851A CN201980076464.1A CN201980076464A CN113271851A CN 113271851 A CN113271851 A CN 113271851A CN 201980076464 A CN201980076464 A CN 201980076464A CN 113271851 A CN113271851 A CN 113271851A
Authority
CN
China
Prior art keywords
user
data
module
users
feedback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980076464.1A
Other languages
English (en)
Inventor
史蒂夫·柯蒂斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shi DifuKedisi
Original Assignee
Shi DifuKedisi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shi DifuKedisi filed Critical Shi DifuKedisi
Publication of CN113271851A publication Critical patent/CN113271851A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/375Electroencephalography [EEG] using biofeedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4857Indicating the phase of biorhythm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • General Business, Economics & Management (AREA)

Abstract

本申请公开了一种基于反馈来监控多个用户之间的交互以确定用户的情绪状态并调节用户的生物节律的***和方法。该方法包括通过可穿戴的用户设备采集用户的生物节律数据的步骤。该方法包括通过计算设备来接收用户的生物节律数据的步骤。该方法包括通过基于人工智能的代理模块来利用所述通信网络建立用户之间的交互的步骤。该方法包括通过情绪数据显示模块来实时分析和显示用户的情感数据的步骤。该方法包括通过反馈模块来基于从计算设备发出的反馈而调节用户的生物节律的步骤。

Description

通过监控用户的情绪状态和增强目标状态来改善用户之间的 交互的***和方法
技术领域
本发明涉及生物反馈,尤其涉及一种通过监控用户的情绪状态和增强目标状态来改善用户之间的交互的***和方法。
背景技术
本说明书意识到主流的消费者解决方案在根据实时生理数据来优化两个或多个人之间的交流方面的能力是有限的。另外,在针对通过各种形式的反馈来指导接收人以改善交流成果的方面尚无解决方案。所提高的交流成果可以包括更好的关系和信任建立、更好的在各方之间进行信息的分配和获取,或者从交往者处获得的更多的乐趣和满足感。追踪与一个人的情绪和心理状态相关的生理标记的***可以更深入地了解一个人对真实或模拟的人际交往的反应。最重要的是,这些设备可以显示生理上的瞬时变化,而且这些变化可以映射成变化所发生的事件。
另外,本说明书意识到在准确地确定用户的情绪状态或在用户之间建立通信的方面存在各种问题,或不存在解决方案。已经确定,各种生物信号和生物节律中的生理模式与特定的压力状态和情绪有关。也存在各种***和方法来根据生物学参数经验地或被动地评估用户的情绪状态。但是,这些***很难从它们处理的有限的数据中得出见解。在监控用户在不同场景下的对话行为并从对话中检索推断以了解用户的情感状态的方面中,这些***是不够智能的。
通常,一个人对话语(言语或文本)的运用中所附带的情绪分量与另一个人在讲同样的话语时的情绪分量是不同的。同样地,解释者(即这些话语的接收端的人)可能会以不同的方式来解释情感强度和情绪类型。因此,任何现有***都难以理解用户在所使用的话语中所附带的实际情绪。没有明确的共同的关于如何感知情绪的要素点。此外,由于每个人会有不同的情绪/感觉,因此基于数据集中的用户来对根据人们的反应而学习情绪的任何机器学习模型或反馈/手势捕获模型将会产生偏见。
在正在交流的各方变得情绪化时,讨论会就会更加困难。出于多种原因,对话也变得情绪化。在会议或其他生活环境中做决定时,人们可以假设人们关于一个问题是如何“感觉”的。这可以描述为人们对某种场景的结果所具有的一种普遍感觉。但是,在同一场景下,不同的人可能会有不同的想法和感觉。有时,很难实时地测量、量化或一致性地使一个人在面对对话中的各种事件或观点时所发生的实时的转变情绪。对话的两个普遍目标一方面是一种发现新信息的方法,另一方面是建立与他人的连接。这会引发在与人交流上花费时间并公开个人信息。
因此,需要一种提供认知平台的***和方法,该认知平台可以监控用户交互并确定用户的情绪状态,以便根据用户的情绪状态来提供帮助。另外,需要一种高效的***,该***可捕获与生物节律和生物数据相关联的用户通信数据,从而生成用于软件学习代理的训练数据集。此外,需要一种基于所确定的用户的多个生物物理状态(例如:心率变异性(HRV)、脑电图(EEG)等)与用户交互的***和方法。而且,需要一种用于帮助人们在彼此间更好地通信的***和方法。此外,需要一种***和方法,其将通过例如用户的听觉***(该听觉***是一个非限制性示例)来激发用户,同时影响包括用户的情绪状态在内的生物节律。
因此,鉴于上述情况,本行业中长期以来存在着解决前述缺陷和不足的需要。
通过将所描述的***与本公开的某些方面(如参照附图在本申请的其余部分中所阐述的)进行比较,常规和传统方法的其它限制和缺点对于本领域技术人员将变得显而易见。
发明内容
本申请实质上提供了一种***,该***通过通信网络的反馈来监控多个用户之间的交互,以便确定用户的情绪状态并调节用户的生物节律,其在至少一个附图中显示和/或在相关描述中体现,并在权利要求中更完整地阐明。
本发明提供了一种用于通过通信网络的反馈来监控多个用户之间的交互以确定用户的情绪状态并调节用户的生物节律的方法。该方法包括通过可穿戴的用户设备来采集用户的生物节律数据的步骤,其中,该设备被配置为可穿戴在用户的身体上,或在身体的附近,或放置在用户的身体内(可植入的)。该方法包括通过利用通信网络与可穿戴的用户设备通信连接的计算设备来接收用户的生物节律数据的步骤。该方法包括通过基于人工智能(AI)的代理模块来利用通信网络与用户建立交互的步骤。该方法包括通过情绪数据显示模块来实时分析和显示用户的情绪数据的步骤。该方法包括通过反馈模块来基于从计算设备发出的反馈而调节用户的生物节律的步骤。
基于人工智能的代理模块执行多个步骤,这起始于通过追踪模块从可穿戴的用户设备处接收生物节律数据,以及监控多个用户的交互并检索相关数据用来分析的步骤。追踪模块将与用户相对应的计算设备的一个或多个消息传递平台和一个或多个语音平台整合在一起,以监控用户的文本交互和音频交互。追踪模块处理相关数据和所检索到的参数以生成训练数据。该方法包括通过软件学习代理模块来接收和处理训练数据,以确定用户在多个场景下的情绪状态的步骤。该方法包括通过虚拟聊天机器人模块来根据从软件学习代理模块处接收到的所学习的数据而发起与用户的交互,并为用户提供帮助的步骤。该方法包括通过社区模块来促使用户与多个其他用户之间的连接和交互的步骤。该社区模块促使多个用户来在彼此之间进行交互,并通过通信网络在其他用户之间共享情绪状态和生物节律数据的步骤。该方法包括通过同步模块来允许当前用户访问其他用户的情绪数据的步骤。
情绪数据显示模块执行多个步骤,这起始于通过算法模块来分析生物节律数据并计算用户的情绪分数以生成一个或多个见解的步骤。情绪分数是用户在交互过程中的情绪状态的指示。该方法包括通过可视化模块来以图形化方式呈现用户在特定时间段内的多个情绪周期。可视化模块在与用户相关联的计算设备上显示用户的见解和情绪分数。
反馈模块执行多个步骤,这起始于以通过生理数据收集单元来收集用户的至少一种生理属性的生理数据的步骤。该方法包括通过生物信号产生单元来将生理数据处理成至少一个生物信号的步骤。该方法包括通过反馈激活确定单元来监控和测量针对反馈激活条件的生物信号的步骤。该方法包括通过反馈产生单元来在满足反馈激活条件时触发反馈的步骤。在测量值大于一个或多个预设阈值时,反馈激活条件触发反馈。
在一方面中,追踪模块从生物节律数据和所监控到的数据中检索用户的多个参数。所述多个参数包括用户的位置,用户的生物节律数据,用户的个人和社交行为,以及交互的环境、月份、日期和时间。
在一方面中,所述多个场景包括但不限于:情境内容、情景和环境。软件学习代理模块用于根据所接收到的训练数据不断地学习情境内容、情景和环境,并将所学习的数据存储在数据库中。
在一方面中,虚拟聊天机器人模块与用户进行交互,以帮助改善用户的情绪状态。
在一方面中,可视化模块通过使用多个字母数字字符、多个几何图形、多个全息图以及包括多种颜色或移动形状的多个标志中的至少一种所形成的二维(2D)图形和三维(3D)图形中的至少一项的多种方式来显示情绪数据。
本发明的另一方面涉及一种用于通过通信网络的反馈来监控多个用户之间的交互以确定用户的情绪状态并调节用户的生物节律的***。该***包括可穿戴的用户设备和计算设备。可穿戴的用户设备配置为可穿戴在用户的身体上,或在身体的附近,或放置在用户的身体内(可植入的),以采集用户的生物节律数据。计算设备与可穿戴的用户设备通信连接,用于通过通信网络来接收用户的生物节律数据。所述计算设备包括处理器,以及与所述处理器通信耦合的存储器。所述存储器包括基于人工智能(AI)的代理模块、情绪数据显示模块和反馈模块。
基于人工智能(AI)的代理模块通过通信网络来与用户建立交互。情绪数据显示模块实时分析并显示用户的情绪数据。反馈模块配置有可穿戴的用户设备,以基于从计算设备发出的反馈而调节用户的生物节律。
基于人工智能的代理模块包括追踪模块、软件学***台和一个或多个语音平台整合在一起,以监控用户的文本交互和音频交互。追踪模块处理相关数据和所检索到的参数以生成训练数据。所述相关数据是关于文本、情绪和音频的数据,并且追踪模块执行文本分析、情绪分析和音频信号的处理。软件学习代理模块接收和处理训练数据,以确定用户在多个场景下的情绪状态。虚拟聊天机器人模块根据从软件学习代理模块处接收到的所学习的数据而发起与用户的交互,并为用户提供帮助。社区模块促使用户与多个其他用户之间的连接和交互。该社区模块促进多个用户在彼此交互,并通过通信网络在其他用户之间共享情绪状态和生物节律数据。同步模块允许当前用户访问其他用户的情绪数据。
情绪数据显示模块包括算法模块和可视化模块。算法模块分析生物节律数据,并计算用户的情绪分数,以产生一个或多个见解。情绪分数是用户在交互过程中的情绪状态的指示。可视化模块以图形化方式呈现用户在特定时间段内的多个情绪周期。可视化模块在与用户相关联的计算设备上显示用户的见解和情绪分数。
反馈模块包括生理数据收集单元、生物信号产生单元、反馈激活确定单元和反馈产生单元。生理数据收集单元收集用户的至少一种生理属性的生理数据。生物信号产生单元将生理数据处理成至少一个生物信号。反馈激活确定单元监控和测量针对反馈激活条件的生物信号。反馈产生单元在满足反馈激活条件时触发反馈。在测量值大于一个或多个预设阈值时,反馈激活条件触发反馈。
因此,本发明的一个优点在于,基于通过软件学习代理模块所学习的数据,以积极地帮助用户来改善他们的情绪和心理状态。
因此,本发明的一个优点在于,通过对生理变量的控制的自调节和训练来控制(增加或减少)不自主的或无意识的生理过程。
因此,本发明的一个优点在于,为用户提供了一种社交平台,用户能够在该社交平台中共享他们的情绪数据,并允许其他用户看到情绪数据,以改善和处理他们的情感状态。
因此,本发明的一个优点在于提供了一种比例尺(其带有绝对零点),该比例尺接收情绪数据,并线性地显示情绪数据。
因此,本发明的一个优点在于,周期性地提供用户的情绪数据,以帮助用户随着时间的推移优化他们的情绪和心理状态,并使他们在积极的状态下感觉更加一致。
从附图和下面的详细描述中,本发明实施例的其他特征将变得显而易见。
对于本领域技术人员而言,本发明的其他目的和优点将从这些详细描述之后变得显而易见,其中,仅通过举例说明用于实施本发明的本文所构思出的最佳方式来示出并描述了本发明的优选实施例。如我们所意识到的那样,本发明能够具有其他不同的实施例,并且其若干细节能够在不脱离本发明的前提下对各种明显的方面进行修改。因此,附图及其描述本质上应被认为是说明性的,而不是限制性的。
附图说明
在附图中,相似的部件和/或特征可以具有相同的附图标记。此外,可以通过在附图标记之后加上第二标记来区分相同类型的各种部件,该第二标记用于在相似部件之间进行区分。如果在说明书中仅使用了第一附图标记,则该描述适用于具有相同的第一附图标记的任何一个类似部件,而与第二附图标记无关。
图1示出了根据本发明的一个实施例的用于基于通过通信网络的反馈来监控多个用户之间的交互以确定用户的情绪状态并调节用户的生物节律的***的框图。
图2示出了根据本发明的一个实施例的本***的网络实现。
图3示出了根据本发明的另一实施例的位于计算设备的存储器内的各种模块的框图。
图4示出了根据本发明的一个替代实施例的用于基于通过通信网络的反馈来监控多个用户之间的交互以确定用户的情绪状态并调节用户的生物节律的方法的流程图。
图5示出了根据本发明的一个替代实施例的由基于人工智能(AI)的代理模块执行的多个步骤的流程图。
图6示出了根据本发明的一个替代实施例的由情绪数据显示模块执行的多个步骤的流程图。
图7示出了根据本发明的一个替代实施例的由反馈模块执行的多个步骤的流程图。
具体实施方式
参考本文阐述的详细附图和描述,将最好地理解本公开的内容。参考附图讨论了各种实施例。然而,本领域技术人员将容易意识到,本文提供的关于附图的详细描述仅用于说明性目的,这是因为方法和***可以扩展到所描述的实施例之外。例如,所呈现的教导和特定应用的需求可以产生多种替代的和合适的方法,以实现本文描述的任何细节的功能。因此,在以下实施例中,任何方法都可以扩展到某些实现选择之外。
提及“一个实施例”,“至少一个实施例”,“一实施例”,“一个例子”,“一个示例”,“例如”等均表示相关的实施例或示例包括特定的特征、结构、特性、属性、要素或限制,但这并非每个实施例或示例都必须包括该特定的特征、结构、特征、特性、属性、要素或限制。此外,重复使用短语“在一个实施例中”不一定指同一个实施例。
本发明的方法可以通过手动、自动或组合式地执行或完成所选择的步骤或任务来实现。术语“方法”是指用于完成给定任务的方式、手段、技术和程序,包括但不限于:已知方式、手段、技术和已知程序,或本发明所属领域的本领域技术人员从已知方式、手段、技术和程序中容易开发的。权利要求书和说明书中提出的描述、示例、方法和材料不应被解释为限制性的,而仅是示例性的。本领域的技术人员在本文描述的技术范围内将设想许多其他可能的变化。
图1示出了根据本发明的一个实施例的用于基于通过通信网络的反馈来监控多个用户之间的交互以确定用户的情绪状态并调节用户的生物节律的***100的框图。该***100包括可穿戴的用户设备102和计算设备104。可穿戴的用户设备102被配置为可穿戴在用户的身体上,或在身体的附近,或放置在用户的身体内(可植入的),以采集用户118的生物节律数据。可穿戴的用户设备102的示例包括但不限于:植入式设备、无线传感器设备、智能手表、智能珠宝、健康追踪器、智能衣服等。在一个实施例中,可穿戴的用户设备102可以包括各种传感器,用以检测与用户118的情绪有关的一个或多个参数。在一个实施例中,可穿戴的用户设备102可以包括柔性主体,该柔性主体可以被固定在用户118的身体周围,以采集生物节律数据。在一个实施例中,可穿戴的用户设备102可以包括固定机构,以将可穿戴的用户设备102固定在围绕着用户118的腕部的闭环中。另外,可穿戴的用户设备102可以是任何可穿戴设备,例如直接打印在皮肤上的随身贴或3d打印设备,或通过粘合剂放置在用户身体上的设备。可穿戴的用户设备102可以利用各种有线或无线通信协议来建立与计算设备104的通信。
计算设备104与可穿戴的用户设备102通信连接,用于通过通信网络106接收用户的生物节律数据。通信网络106可以是有线或无线网络,并且其示例可以包括但不限于:互联网,无线局域网(WLAN),Wi-Fi,长期演进(LTE),全球互通微波存取(WiMAX),通用分组无线服务(GPRS),蓝牙(BT)通信协议,传输控制协议和互联网协议(TCP/IP),用户数据报协议(UDP),超文本传输协议(HTTP),文件传输协议(FTP),ZigBee,EDGE,红外(IR),Z-Wave,线程,5G,USB,串行,RS232 ,NFC,RFID,WAN和/或IEEE 802.11、802.16,2G,3G,4G蜂窝通信协议。
计算设备104的示例包括但不限于:笔记本电脑,台式计算机,智能电话,智能设备,智能手表,平板手机和平板电脑。计算设备104包括处理器110、与处理器110通信耦合连接的存储器112,以及用户界面114。计算设备104与数据库116通信耦合。数据库116用来接收、存储并处理用于进一步分析和预测的情绪数据和推荐数据,从而本***可以通过使用历史情绪数据来学习和提高分析能力。尽管本发明的主题是基于本***100在云设备上实现的考虑来进行解释的,但是可以理解的是,本***100也可以在各种计算***中实现,例如亚马逊弹性计算云(Amazon EC2),网络服务器等。从用户处所收集到的数据将不断受到监控,并发送到服务器(在合适时机和已连接时),并在服务器上进行存储、分析和建模。新的人工智能模型在服务器上生成,然后按照各种时间间隔下载到计算设备中。
处理器110可以包括至少一个数据处理器,用于执行用来执行用户或***生成的请求的程序组件。用户可以包括一个人,使用诸如本申请中所包括的设备的人,或者为设备本身。处理器110可以包括专用处理单元,例如集成***(总线)控制器,内存管理控制单元,浮点单元,图形处理单元,数字信号处理单元等。
处理器110可以包括微处理器,例如AMD®ATHLON®微处理器,DURON®微处理器或OPTERON®微处理器,ARM应用程序,嵌入式或安全处理器,IBM®POWERPC®,INTEL公司的SCORE®处理器,ITANIUM®处理器,XEON®处理器,CELERON ®处理器或其他处理器系列等。处理器110可以使用大型商业服务器,分布式处理器,多核,并行,网格或其他架构来实现。其他示例可以利用嵌入式技术,例如专用集成电路(ASIC),数字信号处理器(DSP),现场可编程门阵列(FPGA)等。
处理器110可以被部署为通过I/O接口与一个或多个输入/输出(I / O)设备通信。I/O接口可以采用通信协议/方法,例如但不限于音频,模拟,数字,RCA,立体声,IEEE-1394,串行总线,通用串行总线(USB),红外,PS/2,BNC,同轴接口,组件,复合接口,数字视频接口(DVI),高清多媒体接口(HDMI),RF天线,S-Video,VGA,IEEE 802.n/b/g/n/x,蓝牙,蜂窝(例如,码分多址(CDMA),高速分组接入(HSPA+),全球移动通信***(GSM),长期演进(LTE),WiMax等),等等。
存储器112可以是非易失性存储器或易失性存储器。非易失性存储器的示例包括但不限于闪存,只读存储器(ROM),可编程只读存储器(PROM),可擦可编程只读存储器(EPROM)和带电可擦可编程只读存储器(EEPROM)存储器。易失性存储器的示例包括但不限于动态随机存取存储器(DRAM)和静态随机存取存储器(SRAM)。
用户界面114可以根据本***的管理者的请求来呈现所监控到的交互数据、所确定的情绪数据和已调节的生物节律数据。在一个实施例中,用户界面(UI或GUI)114是用于访问社交网络平台并查看所连接的用户的生物节律数据的便捷界面。生物节律数据包括但不限于心率,心率变异性,皮肤电活动(EDA)/皮肤电反应(GSR),呼吸频率,3D加速度计数据和陀螺仪数据,体温等。生物节律数据能够根据数学描述或算法来处理,以产生相应信号。算法可以通过软件来引入。数据也可以在可穿戴的用户设备端内被处理。在使用之前,数据也会暂时存储在可穿戴的用户设备处。
图2示出了根据本发明的一个实施例的本***的网络实现200。结合图1来解释图2。计算设备104-1、104-2和104-N与可穿戴的用户设备102-1、102-2和102-N通信连接,用来通过通信网络106接收用户的生物节律数据。服务器108存储并处理所监控到的交互数据、所确定的情绪数据和已调节的生物节律数据。计算设备104或可穿戴的用户设备102可以发起声音通知(任何声音类型)。基于用户的当前情绪状态分数,一个或多个可穿戴的用户设备102会发出的不同的声音,以通知用户去执行几种不同行为之一。可以理解的是,行为可以不限于一种行为,并且声音可以发信号通知执行一组(多个)动作。与声音相关联的行为会帮助用户改变他们的行为,使其更接近用户的期望/预设的情绪状态,或朝着改变更特定的生物节律数据迈进。
在一个示例中,由可穿戴的用户设备102和计算设备104形成的网络架构可以包括一个或多个物联网(IoT)设备。在本公开的一个典型的网络架构中,可以包括多个网络设备,例如可以包括一个或多个IoT设备的发射机、接收机和/或收发机。
在一个方面中,可穿戴的用户设备102可以直接与云和/或云服务器和IoT设备交互。IoT设备用于与多个可穿戴的用户设备或其他电子设备进行通信。IoT设备可以通过感测或控制机制来提供各种反馈,以采集用户之间的交互并传达用户的情绪状态。所收集的数据和/或信息可以直接存储在云服务器中,而无需占用用户的移动和/或便携式计算设备上的任何空间。移动和/或便携式计算设备可以直接与服务器交互,并接收用于反馈激活的信息,从而触发该反馈的传送。反馈的示例包括但不限于从主要的可穿戴设备、次要的可穿戴设备、分体式计算设备(即移动设备)或IoT设备(可能是也可能不是计算设备)处获得的听觉反馈、触觉反馈、触摸反馈、振动反馈或视觉反馈。
如本文所使用的,IoT设备可以是包括感测和/或控制功能,以及WiFiTM收发器无线电或接口、BluetoothTM收发器无线电或接口、ZigbeeTM收发器无线电或接口、超宽带(UWB)收发器无线电或接口、WiFi-Direct收发器无线电或接口、Bluetooth™低能耗(BLE)收发器无线电或接口,和/或允许该IoT设备能够与广域网和一个或多个其他设备通信的任何其他无线网络收发器无线电或接口的设备。在一些实施例中,IoT设备不包括蜂窝网络收发器无线电或接口,因此可以不被配置为直接与蜂窝网络通信。在一些实施例中,IoT设备可以包括蜂窝收发器无线电,并且可以被配置为使用蜂窝网络收发器无线电与蜂窝网络通信。
用户可以使用访问设备来与计算设备进行通信,该访问设备可以包括具有允许访问网络的网络连接能力的任何人机界面。例如,访问设备可以包括独立接口(例如,蜂窝电话,智能电话,家用计算机,笔记本电脑,平板电脑,个人数字助理(PDA),计算设备,如智能手表、墙板、键盘等的可穿戴设备),构造为电器或其他设备(例如电视,冰箱,安全***,游戏机,浏览器等)的接口,语音或手势界面接口(例如Kinect™传感器,Wiimote™等),IoT设备界面接口(例如启用Internet的设备,如墙壁开关、控制接口或其他合适的接口)等。在一些实施例中,访问设备可以包括蜂窝或其他宽带网络的收发器无线电或接口,并且可以被配置为使用蜂窝或宽带网络收发器无线电与蜂窝或其他宽带网络通信。在一些实施例中,接入设备可以不包括蜂窝网络收发器无线电或接口。
在一个实施例中,可以向用户提供输入/显示屏,该输入/显示屏被配置为向用户显示关于***的当前状态的信息。输入/显示屏可从输入设备(在当前的示例中为按钮)获取输入内容。输入/显示屏也可以被配置为触摸屏,或者可以通过基于触摸或触觉的输入***接收用于确定生命或生物信号的输入内容。输入按钮和/或屏幕被配置为允许用户响应来自***需要用户输入时的输入提示。
可以在屏幕上向用户展示的信息例如可以是所提供的治疗次数,生物信号值,生命力,电池充电水平和音量水平。输入/显示屏可以从处理器中获取信息,所述处理器也可以用作波形发生器或单独的处理器。处理器向用户展示可用信息,从而允许用户启动菜单选择。输入/显示屏可以是液晶显示器,以降低电池上的电量消耗。输入/显示屏和输入按钮可以被照亮,以向用户提供在低光照水平下操作***的能力。通过使用输入/显示屏可以从用户处获得信息。
图3示出了根据本发明的另一实施例的位于计算设备104的存储器112内的各种模块的框图。结合图1来解释图3。存储器110包括基于人工智能(AI)的代理模块202、情绪数据显示模块204和反馈模块206。
基于人工智能(AI)的代理模块202通过通信网络建立用户之间的交互。情绪数据显示模块204实时分析并显示用户的情绪数据。反馈模块206配置有可穿戴的用户设备,以基于从计算设备发出的反馈来调节用户的生物节律。
基于人工智能的代理模块202包括追踪模块208、软件学***台和一个或多个语音平台整合在一起,以监控用户的文本交互和音频交互。追踪模块208处理相关数据和所检索到的参数,以生成训练数据。在一个实施例中,追踪模块208从生物节律数据和所监控到的数据中检索用户的多个参数。所述多个参数包括用户的位置,用户的生物节律数据,用户的个人和社交行为,以及交互的环境、月份、日期和时间。在一个实施例中,多个场景包括但不限于上下文情境内容、情景和环境。
软件学习代理模块210接收和处理训练数据,以确定用户在多个场景下的情绪状态。在一个实施例中,生物节律数据、情绪数据、相关数据和训练数据可以各种方式进行组合或解构或变换,从而辅助建模。可以利用训练数据来训练用于实现本***的目标的各种算法。所述训练数据包括输入数据和相应的预期输出。根据训练数据,所述算法可以学习如何应用各种机制(例如神经网络)来学习、生成和预测用户在多个场景下的情绪状态,以便在后续提供新的输入数据时可以准确地确定情绪状态。
软件学习代理模块220用于根据所接收的训练数据不断地学习情境内容、情景和环境,并将所学习的数据存储在数据库中。虚拟聊天机器人模块212根据从软件学习代理模块处接收到的所学习的数据而发起与用户的交互,并为用户提供帮助。在一个实施例中,虚拟聊天机器人模块222与用户进行交互,以帮助改善用户的情绪状态。
社区模块214促使用户与多个其他用户之间的连接和交互。社区模块224促使多个用户彼此之间进行交互,并通过通信网络在其他用户之间共享情绪状态和生物节律数据。社区模块224使用户查看现有好友列表,并且还使用户通过基于文本的名字搜索来查询其他用户。用户还可以向其他用户发送好友请求。其他用户接收关于收到当前用户发出的好友请求的通知。用户可以接受或拒绝该好友请求。社区模块224还允许两个用户访问与彼此的情绪状态有关的一般统计。另外,用户可以通过集成在社区模块214中的消息传递模块相互交互。
同步模块216允许当前用户访问其他用户的情绪数据。同步模块202可以利用发起和接受协议来使用户能够接受/拒绝好友请求,并且允许/禁止其他用户访问他/她的情绪数据。或者,用户可以打开(双向或单向)设置,以允许两个用户都接收对一个或彼此的数据的扩展访问。无论协议如何和同步的方向性如何,最终效果是能够可视化地显示其他用户的心理状态或情绪状态分数,并附带用来查看过去一段时间的选项。最重要的是,假设实时数据正在从彼此交互的设备流向其次要设备(移动电话),则交互用户应能查看彼此的实时情绪分数。这些情绪分数可以划分为线性分割的或按照二维矩阵分割的区域,或划分为基于n维矩阵的区域。总体而言,这些区域遵循某些清晰的梯度,并在产品中的各个位置处被传达给用户。双方之间的同步状态还允许在两个或更多同步帐户之间进行评估并得出见解。
在一个实施例中,本发明可以使用多重同步模块。所述多重同步模块使两个以上的用户帐户可以同步(与其他用户账户连接),以看到彼此之间的情绪数据。当发生多重同步时,采用基于位置的服务便于轻松识别。如果软件应用程序检测到多个设备,或者GPS服务检测到多个计算设备彼此之间的距离很短,则那些已经在社区模块上彼此确认为朋友的用户将最突出地呈现在列表上。
多重同步模块提供深度见解,并显示多组统计信息。多重同步模块中的通知可包括多组结果的变化。在一个实施例中,同步条件可以在任何指定时间被任何人关闭。在多重同步模块中,如果一个用户关闭了小组成员的同步功能,则仍然维持该同步功能的小组内的其他成员会保持连接状态。显示相关同步结果的次要计算设备(未图示)会提供视觉、听觉、或触觉/触摸反馈,从而逐步同步各种行为,例如呼吸率和呼吸周期的方面(无论两个人都处于吸气高峰还是呼气高峰)。另外,同步功能涵盖了或适用于包括脑电波(例如EEG)的生物节律的任何组合。
在一个实施例中,软件应用程序识别生物信号上的目标点,或者用户可以相互或单独地选择用于测量生物节律的标定/目标点。一旦这些目标被识别,各种类型的反馈就会引起行为和生物节律的变化,使反馈的数据更接近该目标点。目标可以是静态或动态的。同步的目的是使两个或更多用户的情绪状态沿积极的方向移动而更加靠近在一起。使一个处于消极情绪状态的用户向一个处于积极情绪状态的用户移动到更紧密地靠近会将在两个用户之间产生更积极的对话体验。
在一个实施例中,同步模块216包括用于记录对话的录制模块。录制模块充当界面上的虚拟按钮,允许用户打开/关闭录制。如果有一个或类似的工具可用,则可通过次要计算设备的麦克风来录制音频。同步模块216包括语言处理模块,该语言处理模块应用于所录制的音频文件,以将对话音频波转换为解码的语言。解码后的语言会根据情感和内容进行进一步处理,并实时地与讲话者的情绪分数的生物节律相匹配。
在一个实施例中,在所有用户的次要计算设备的界面上实时显示会议中的用户的情绪分数的可视化展示内容。可以将通知以视觉的(即文本的或图形的)、听觉的(简短的音频剪辑)或触觉的(通过可穿戴的设备或次要计算设备)的方式发送给一个或多个用户。在参与者/用户的生物节律发生明显变化时,可以发送这些通知。
情绪数据显示模块204包括算法模块218和可视化模块220。算法模块218分析生物节律数据并计算用户的情绪分数以生成一个或多个见解。情绪分数是用户在交互过程中的情绪状态的指示。可视化模块220以图形化方式呈现用户在特定时间段内的多个情绪周期。可视化模块220在与用户相关联的计算设备上显示用户的见解和情绪分数。在一个实施例中,可视化模块220通过使用多个字母数字字符、多个几何图形、多个全息图以及包括多种颜色或移动形状的多个标志中的至少一种所形成的二维(2D)图形和三维(3D)图形中的至少一项的多种方式来显示情绪数据。
反馈模块206包括生理数据收集单元222、生物信号产生单元224、反馈激活确定单元226和反馈产生单元228。生理数据收集单元222收集用户的至少一种生理属性的生理数据。生物信号产生单元224将生理数据处理成至少一个生物信号。反馈激活确定单元226监控和测量针对反馈激活条件的生物信号。反馈产生单元228在满足反馈激活条件时触发反馈。在测量值大于一个或多个预设阈值时,反馈激活条件触发反馈。
图4示出了根据本发明的一个替代实施例的用于基于通过通信网络的反馈来监控多个用户之间的交互以确定用户的情绪状态并调节用户的生物节律的方法的流程图400。该方法包括步骤402,其中通过可穿戴的用户设备采集用户的生物节律数据,所述可穿戴的用户设备被配置为可穿戴在用户的身体上,或在身体的附近,或放置在用户的身体内(可植入的)。该方法包括步骤404,其中通过利用通信网络与可穿戴的用户设备通信连接的计算设备来接收用户的生物节律数据。该方法包括步骤406,其中通过基于人工智能(AI)的代理模块来利用通信网络建立与用户之间的交互。该方法包括步骤408,其中通过情感数据显示模块来实时分析和显示用户的情绪数据。该方法包括步骤410,其中通过反馈模块来基于从计算设备发出的反馈而调节用户的生物节律。
图5示出了根据本发明的一个替代实施例的由基于人工智能(AI)的代理模块执行的多个步骤的流程图500。基于人工智能的代理模块执行多个步骤,其起始于步骤502,其中通过追踪模块来从可穿戴的用户设备处接收生物节律数据,以及监控多个用户的交互并检索相关数据用来分析。该追踪模块将与用户相对应的计算设备的一个或多个消息传递平台和一个或多个语音平台整合在一起,用以监控用户的文本交互和音频交互。追踪模块处理相关数据和所检索到的参数,以生成训练数据。在一个实施例中,追踪模块从生物节律数据和所监控到的数据中检索用户的多个参数。所述多个参数包括用户的位置,用户的生物节律数据,用户的个人和社交行为,以及交互的环境、月份、日期和时间。
该方法包括步骤504,其中通过软件学习代理模块来接收和处理训练数据,以确定用户在多个场景下的情绪状态。在一个实施例中,多个场景包括但不限于:上下文情境内容、情景和环境。软件学习代理模块用于根据所接收到的训练数据不断地学习情境内容、情景和环境,并将所学习的数据存储在数据库中。该方法包括步骤506,其中通过虚拟聊天机器人模块来根据从软件学习代理模块处接收到的所学习的数据而发起与用户的交互,并为用户提供帮助。在一个实施例中,虚拟聊天机器人模块与用户进行交互,以帮助改善用户的情绪状态。该方法包括步骤508,其中通过社区模块来促使用户与多个其他用户之间的连接和交互。该社区模块促使多个用户来在彼此之间进行交互,并通过通信网络在其他用户之间共享情绪状态和生物节律数据。该方法包括步骤510,其中同步模块来允许当前用户访问其他用户的情绪数据。
图6示出了根据本发明的一个替代实施例的由情绪数据显示模块执行的多个步骤的流程图600。情感数据显示模块执行多个步骤,其起始于步骤602,其中通过算法模块来分析生物节律数据并计算用户的情绪分数,以生成一个或多个见解。情绪分数是用户在交互过程中的情绪状态的指示。该方法包括步骤604,其中通过可视化模块来以图形化方式呈现用户在特定时间段内的多个情绪周期。可视化模块在与用户相关联的计算设备上显示用户的见解和情绪分数。在一个实施例中,可视化模块通过使用多个字母数字字符、多个几何图形、多个全息图以及包括多种颜色或移动形状的多个标志中的至少一种所形成的二维(2D)图形和三维(3D)图形中的至少一项的多种方式来显示情绪数据。
图7示出了根据本发明的一个替代实施例的由反馈模块执行的多个步骤的流程图700。反馈模块执行多个步骤,其起始于步骤702,其中通过生理数据收集单元来收集用户的至少一种生理属性的生理数据。该方法包括步骤704,其中通过生物信号产生单元来将生理数据处理成至少一个生物信号。该方法包括步骤706,其中通过反馈激活确定单元来监控和测量针对反馈激活条件的生物信号。该方法包括步骤708,其中通过反馈产生单元来在满足反馈激活条件时触发反馈。在测量值大于一个或多个预设阈值时,反馈激活条件触发反馈。
因此,本发明提供了一种认知平台,其用来监控用户交互并确定用户的情绪状态,以便基于用户的情绪状态来提供帮助。其次,本发明捕获与用户的生物节律和生物数据相关的用户通信数据,从而生成应用于软件学习代理模块的训练数据集。再次,本发明基于已确定的用户的多个生物物理状态(例如:心率变异性(HRV),脑电图(EEG)等。)来与用户交互。另外,本发明提供了一种比例尺,该比例尺接收情绪数据并对情绪数据进行线性的可视化显示。此外,本发明周期性地提供用户的情绪数据,以帮助用户随着时间的推移优化他们的情绪和心理状态。此外,本发明使用户根据他们的情绪数据或其他用户的情绪数据来得出单独的见解。
尽管本发明的实施例已经说明和描述,但清楚的是,本发明不仅限于这些实施例。在不脱离如权利要求书中所描述的本发明的范围的情况下,多种修改、改变、变换、替换和等同物对于本领域的技术人员将是显而易见的。

Claims (10)

1.一种用于基于通过通信网络的反馈来监控多个用户之间的交互以确定用户的情绪状态并调节用户的生物节律的***,所述***包括:
可穿戴的用户设备,用于采集用户的生物节律数据;和
与所述可穿戴的用户设备通信连接的计算设备,用于通过所述通信网络来接收用户的所述生物节律数据,其中,所述计算设备包括:
处理器;和
与所述处理器通信耦合的存储器,其中,所述存储器存储由所述处理器执行的指令,其中,所述存储器包括:
用于利用所述通信网络建立用户之间的交互的基于人工智能的代理模块,其包括:
追踪模块,用于从所述可穿戴的用户设备处接收所述生物节律数据,监控多个用户的交互并检索相关数据用来分析,其中,所述追踪模块将与用户相对应的所述计算设备的一个或多个消息传递平台和一个或多个语音平台整合在一起,以监控用户的文本交互和音频交互,其中,所述追踪模块处理相关数据和所检索到的参数,以生成训练数据,其中,所述相关数据是关于文本、情绪和音频的数据,并且所述追踪模块执行文本分析、情绪分析和音频信号的处理;
软件学习代理模块,用于接收和处理所述训练数据,以确定用户在多个场景下的情绪状态;
虚拟聊天机器人模块,用于根据从所述软件学习代理模块处接收到的所学习的数据来发起与用户的交互,并为用户提供帮助;
社区模块,用于促使用户与多个其他用户之间的连接和交互,其中,所述社区模块促使多个用户在彼此之间进行交互,并通过所述通信网络在其他用户之间共享情绪状态和所述生物节律数据;以及
同步模块,用于允许当前用户访问其他用户的情绪数据;
用于实时分析和显示用户的情绪数据的情绪数据显示模块,其包括:
算法模块,用于分析所述生物节律数据并计算用户的情绪分数,以生成一个或多个见解,其中,所述情绪分数是用户在交互过程中的情绪状态的指示;以及
可视化模块,用于以图形化方式呈现用户在特定时间段内的多个情绪周期,其中,所述可视化模块在与用户相关联的所述计算设备上显示用户的见解和情绪分数;和
用于基于从所述计算设备发出的反馈来调节用户的生物节律的配置有所述可穿戴的用户设备的反馈模块,其包括:
生理数据收集单元,用于收集用户的至少一种生理属性的生理数据;
生物信号产生单元,用于将所述生理数据处理成至少一个生物信号;
反馈激活确定单元,用于监控和测量针对反馈激活条件的所述生物信号;以及
反馈产生单元,用于在满足反馈激活条件时触发反馈,其中,在测量值大于一个或多个预设阈值时,反馈激活条件触发反馈。
2.根据权利要求1所述的***,其特征在于,所述追踪模块从所述生物节律数据和所监控到的数据中检索用户的多个参数,其中,所述多个参数包括用户的位置,用户的生物节律数据,用户的个人和社交行为,以及交互的环境、月份、日期和时间。
3.根据权利要求1所述的***,其特征在于,所述多个场景包括情境内容、情景和环境,其中,所述软件学习代理模块用于根据所接收到的训练数据不断地学习情境内容、情景和环境,并将所学习的数据存储在数据库中。
4.根据权利要求1所述的***,其特征在于,所述虚拟聊天机器人模块与用户进行交互,以帮助改善用户的情绪状态。
5.根据权利要求1所述的***,其特征在于,所述可视化模块通过使用多个字母数字字符、多个几何图形、多个全息图和多个标志中的至少一种所形成的二维图形和三维图形中的至少一项的多种方式来显示情绪数据。
6.一种用于基于通过通信网络的反馈来监控多个用户之间的交互以确定用户的情绪状态并调节用户的生物节律的方法,所述方法包括如下步骤:
通过可穿戴的用户设备来采集用户的生物节律数据;
通过利用所述通信网络与所述可穿戴的用户设备通信连接的计算设备来接收用户的所述生物节律数据;
通过基于人工智能的代理模块来利用所述通信网络建立用户之间的交互,其中,所述基于人工智能的代理模块执行的多个步骤包括:
通过追踪模块来从所述可穿戴的用户设备处接收所述生物节律数据,监控多个用户的交互并检索相关数据用来分析,其中,所述追踪模块将与用户相对应的所述计算设备的一个或多个消息传递平台和一个或多个语音平台整合在一起,以监控用户的文本交互和音频交互,其中,所述追踪模块处理相关数据和所检索到的参数,以生成训练数据,其中,所述相关数据是关于文本、情绪和音频的数据,并且所述追踪模块执行文本分析、情绪分析和音频信号的处理;
通过软件学习代理模块来接收和处理所述训练数据,以确定用户在多个场景下的情绪状态;
通过虚拟聊天机器人模块来根据从所述软件学习代理模块处接收到的所学习的数据而发起与用户的交互,并为用户提供帮助;
通过社区模块来促使用户与多个其他用户之间的连接和交互,其中,所述社区模块促使多个用户在彼此之间进行交互,并通过所述通信网络在其他用户之间共享情绪状态和所述生物节律数据;以及
通过同步模块来允许当前用户访问其他用户的情绪数据;
通过情绪数据显示模块来实时分析和显示用户的情绪数据,其中,所述情绪数据显示模块执行的多个步骤包括:
通过算法模块来分析所述生物节律数据并计算用户的情绪分数,以生成一个或多个见解,其中,所述情绪分数是用户在交互过程中的情绪状态的指示;以及
通过可视化模块来以图形化方式呈现用户在特定时间段内的多个情绪周期,其中,所述可视化模块在与用户相关联的所述计算设备上显示用户的见解和情绪分数;和
通过反馈模块来基于从所述计算设备发出的反馈而调节用户的生物节律,其中,所述反馈模块执行的多个步骤包括:
通过生理数据收集单元来收集用户的至少一种生理属性的生理数据;
通过生物信号产生单元来将所述生理数据处理成至少一个生物信号;
通过反馈激活确定单元来监控和测量针对反馈激活条件的所述生物信号;以及
通过反馈产生单元来在满足反馈激活条件时触发反馈,其中,在测量值大于一个或多个预设阈值时,反馈激活条件触发反馈。
7.根据权利要求6所述的方法,其特征在于,所述追踪模块从所述生物节律数据和所监控到的数据中检索用户的多个参数,其中,所述多个参数包括用户的位置,用户的生物节律数据,用户的个人和社交行为,以及交互的环境、月份、日期和时间。
8.根据权利要求6所述的方法,其特征在于,所述多个场景包括情境内容、情景和环境,其中,所述软件学习代理模块用于根据所接收到的训练数据不断地学习情境内容、情景和环境,并将所学习的数据存储在数据库中。
9.根据权利要求6所述的方法,其特征在于,所述虚拟聊天机器人模块与用户进行交互,以帮助改善用户的情绪状态。
10.根据权利要求6所述的方法,其特征在于,所述可视化模块通过使用多个字母数字字符、多个几何图形、多个全息图和多个标志中的至少一种所形成的二维图形和三维图形中的至少一项的多种方式来显示情绪数据。
CN201980076464.1A 2018-09-21 2019-09-20 通过监控用户的情绪状态和增强目标状态来改善用户之间的交互的***和方法 Pending CN113271851A (zh)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201862734490P 2018-09-21 2018-09-21
US201862734553P 2018-09-21 2018-09-21
US201862734522P 2018-09-21 2018-09-21
US201862734608P 2018-09-21 2018-09-21
US62/734,490 2018-09-21
US62/734,522 2018-09-21
US62/734,553 2018-09-21
US62/734,608 2018-09-21
PCT/CA2019/051340 WO2020056519A1 (en) 2018-09-21 2019-09-20 System and method to improve interaction between users through monitoring of emotional state of the users and reinforcement of goal states

Publications (1)

Publication Number Publication Date
CN113271851A true CN113271851A (zh) 2021-08-17

Family

ID=69886866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980076464.1A Pending CN113271851A (zh) 2018-09-21 2019-09-20 通过监控用户的情绪状态和增强目标状态来改善用户之间的交互的***和方法

Country Status (9)

Country Link
US (1) US20210350917A1 (zh)
EP (1) EP3852614A4 (zh)
JP (1) JP2022502219A (zh)
KR (1) KR20210099556A (zh)
CN (1) CN113271851A (zh)
BR (1) BR112021005417A2 (zh)
CA (1) CA3113698A1 (zh)
MX (1) MX2021003334A (zh)
WO (1) WO2020056519A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11809958B2 (en) * 2020-06-10 2023-11-07 Capital One Services, Llc Systems and methods for automatic decision-making with user-configured criteria using multi-channel data inputs
US11605464B2 (en) 2021-04-30 2023-03-14 Marvin Behavioral Health Inc. Systems and methods for machine learning-based state prediction and visualization
US11954443B1 (en) 2021-06-03 2024-04-09 Wells Fargo Bank, N.A. Complaint prioritization using deep learning model
WO2023013927A1 (en) * 2021-08-05 2023-02-09 Samsung Electronics Co., Ltd. Method and wearable device for enhancing quality of experience index for user in iot network
US12008579B1 (en) 2021-08-09 2024-06-11 Wells Fargo Bank, N.A. Fraud detection using emotion-based deep learning model
KR102420359B1 (ko) * 2022-01-10 2022-07-14 송예원 감정맞춤형 cbt용 ai제어모듈을 통한 메타버스공간에서의 1:1 감정맞춤형 인지적행동치료 생성장치 및 방법
CN117731288A (zh) * 2024-01-18 2024-03-22 深圳谨启科技有限公司 一种ai心理咨询方法和***

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10869626B2 (en) * 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
WO2014085910A1 (en) * 2012-12-04 2014-06-12 Interaxon Inc. System and method for enhancing content using brain-state data
WO2014137918A1 (en) * 2013-03-04 2014-09-12 Hello Inc. Wearable device with sensors and mobile device components
JP6122816B2 (ja) * 2014-08-07 2017-04-26 シャープ株式会社 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
JP6798353B2 (ja) * 2017-02-24 2020-12-09 沖電気工業株式会社 感情推定サーバ及び感情推定方法
CN109690526A (zh) * 2017-06-15 2019-04-26 微软技术许可有限责任公司 用于智能自动聊天的方法与装置
US10091554B1 (en) * 2017-12-06 2018-10-02 Echostar Technologies L.L.C. Apparatus, systems and methods for generating an emotional-based content recommendation list

Also Published As

Publication number Publication date
KR20210099556A (ko) 2021-08-12
BR112021005417A2 (pt) 2021-06-15
EP3852614A1 (en) 2021-07-28
US20210350917A1 (en) 2021-11-11
EP3852614A4 (en) 2022-08-03
MX2021003334A (es) 2021-09-28
WO2020056519A1 (en) 2020-03-26
JP2022502219A (ja) 2022-01-11
CA3113698A1 (en) 2020-03-26

Similar Documents

Publication Publication Date Title
CN113271851A (zh) 通过监控用户的情绪状态和增强目标状态来改善用户之间的交互的***和方法
CN113272913A (zh) 在用户之间收集、分析和共享生物节律数据的***和方法
US10735831B2 (en) System and method communicating biofeedback to a user through a wearable device
RU2734339C2 (ru) Обнаружение наступления сонливости
EP3582123A1 (en) Emotion state prediction method and robot
US10980490B2 (en) Method and apparatus for evaluating physiological aging level
WO2014052506A2 (en) Devices and methods to facilitate affective feedback using wearable computing devices
JPWO2017064891A1 (ja) 情報処理システム、情報処理方法、および記憶媒体
US10108784B2 (en) System and method of objectively determining a user's personal food preferences for an individualized diet plan
US20210145323A1 (en) Method and system for assessment of clinical and behavioral function using passive behavior monitoring
WO2020058942A1 (en) System and method to integrate emotion data into social network platform and share the emotion data over social network platform
KR20190047644A (ko) 운동에 대한 피드백을 제공하는 웨어러블 디바이스 및 방법
Alhamid et al. A multi-modal intelligent system for biofeedback interactions
JP2019072371A (ja) システム及び意思疎通を図るために行うアクションの評価方法
US11429188B1 (en) Measuring self awareness utilizing a mobile computing device
Saleem et al. An In-Depth study on Smart wearable Technology and their applications in monitoring human health
WO2023145350A1 (ja) 情報処理方法、情報処理システムおよびプログラム
CN118058707A (zh) 睡眠评估方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination