JP2022502803A - 感情データをソーシャルネットワークプラットフォームに統合し、ソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法 - Google Patents

感情データをソーシャルネットワークプラットフォームに統合し、ソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法 Download PDF

Info

Publication number
JP2022502803A
JP2022502803A JP2021541326A JP2021541326A JP2022502803A JP 2022502803 A JP2022502803 A JP 2022502803A JP 2021541326 A JP2021541326 A JP 2021541326A JP 2021541326 A JP2021541326 A JP 2021541326A JP 2022502803 A JP2022502803 A JP 2022502803A
Authority
JP
Japan
Prior art keywords
user
data
emotional
module
emotional state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021541326A
Other languages
English (en)
Other versions
JPWO2020058942A5 (ja
Inventor
カーティス、スティーブ
Original Assignee
カーティス、スティーブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カーティス、スティーブ filed Critical カーティス、スティーブ
Publication of JP2022502803A publication Critical patent/JP2022502803A/ja
Publication of JPWO2020058942A5 publication Critical patent/JPWO2020058942A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/26Visual data mining; Browsing structured data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4857Indicating the phase of biorhythm
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/306User profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)

Abstract

感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法を開示する。方法は、ウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップを含む。方法は、通信ネットワーク上でウェアラブルユーザデバイスと通信可能に接続されるコンピューティングデバイスを通して、ユーザのバイオリズムデータを受信するステップを含む。方法は、統合モジュールを通して感情データを統合するステップを含む。方法は、感情状態決定モジュールを通してユーザの感情状態を決定するステップを含む。方法は、感情データ表示モジュールを通してリアルタイムでユーザの感情データを分析して表示するステップを含む。【選択図】図1

Description

[0001]本発明は、感情データをソーシャルネットワークプラットフォームに統合して、複数のユーザ間のコミュニケーションを強化し、ユーザ間の人間のつながりおよび認識を高めるシステムおよび方法に関し、特に、感情データをソーシャルネットワークプラットフォームに統合し、ソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法に関する。
[0002]様々なソーシャルネットワークプラットフォームの出現により、人々は、インターネット上で膨大な時間を費やして、他の接続されたユーザと仮想的に対話する。本明細書は、ユーザの精神状態を評価して、ユーザの周囲で起こる様々な活動に対するユーザの反応を理解することができることを認識する。精神状態は、幸福から悲しみまで、満足から心配まで、興奮から平穏までのような広い範囲を含む。これらの精神状態は、交通渋滞中のフラストレーション、並んでいる間の退屈、1杯のコーヒーを待っている間の焦燥感のような毎日の出来事に応答して、さらには人々が自分のコンピュータおよびインターネットと対話するときに経験される。個人は、他者の精神状態を評価し理解することに基づいて、かなり知覚し、共感するようになるかもしれないが、精神状態の自動評価は、はるかに困難である。共感する人は、他の人が不安であるか又は喜んでいると知覚し、それに応じて応答することができる。ある人が別の人の感情状態を知覚する能力および手段は、要約することが非常に困難であるかもしれず、「直感」を有するものとして伝達されることが多い。
[0003]個人または人々のグループの理解を助けるために、混乱、集中、および心配のような多くの精神状態を識別できる。人々は、大災害を目撃した後のように、恐怖または不安で集合的に応答することができる。同様に、人々は、彼らのスポーツチームが勝利を得たときのように、幸せな熱意で集合的に応答することができる。ある表情および頭部ジェスチャ(head gestures)を使用して、人が体験している精神状態を識別することができる。顔の表情に基づく精神状態の評価では、限られた自動化が行われている。ある生理学的条件は、人の心理状態を知らせる指標を提供することができ、ポリグラフテストのようにおおざっぱな方法で使用されている。
[0004]同様に、人々は、現在、写真、ウェブサイト、およびこれらに類するもののような様々なソーシャルメディアに応答して、即時かつ連続的なフィードバックを提供する能力を有する。そのようなフィードバックは、コンピュータ、タブレット、スマートフォン、およびインターネットにアクセスする他のデバイス上で提供されることができる。例えば、「いいね」は、肯定的なフィードバックを与えるか、または、人が人気のあるソーシャルメディアサイトFacebook(登録商標)上で関心のあるものを連想する方法である。特に、Facebook(登録商標)上の「いいね」ボタンは、Facebook(登録商標)上のほとんどのコンテンツを見た後にユーザがクリックすることができるボタンであり、その後、「友人」にニュースフィードで報告される。Facebook(登録商標)に関連しないウェブサイトも、「いいね」ボタンを使用してもよく、これにより、ウェブサイト訪問者はボタンをクリックして、彼/彼女の友人に、彼らがサイトを好むことを知らせることができる。例えば、ウェブサイトの「いいね」ボタンをクリックした後、ポップアップは、Facebook(登録商標)へのログイン(または、まだメンバーでない場合はサインアップ)を要求し、ユーザのFacebook(登録商標)ページ上の投稿は、彼/彼女の友人に、彼/彼女がサイトを好むことを知らせる。スマートフォンのようなモバイルデバイス上で使用されるとき、「いいね」ボタンは、単に、ボタンが押されたときにユーザをFacebook(登録商標)に連れて行くだけの、電話上の統合ハードウェア「Facebook(登録商標)」ボタンである。
[0005]同様に、コンピュータまたはモバイルデバイス上の「Pin It」ボタンは、ユーザが、ウェブの周囲から画像およびビデオを取り込み、それらをユーザによって作成されたオンラインピンボードに追加することを可能にする。他のユーザは、ピンボード、コメント、および「リピン(re−pin)」を見ることができる。人々がモバイルデバイスを使用して彼らの環境と対話することを可能にする能力も導入されている。例えば、ロケーションベースのソーシャルネットワーキングウェブサイトは、ユーザが、アプリケーションが近くに位置する場所のリストから選択することによって、モバイルウェブサイト、テキストメッセージング、またはデバイス特有のアプリケーションを使用する場所で「チェックイン」することを可能にする。ロケーションは、モバイルデバイス中のGPSハードウェア、またはアプリケーションによって提供されるネットワークロケーションに基づいている。各チェックインは、ユーザポイントまたは他のタイプの報酬を与える。
[0006]テクノロジーにおけるこれらの進歩によってでも、ユーザ経験、有効性、およびソーシャルメディア、ロケーション、または経験のユーザビリティを測定および評価する能力は制限されている。実際、ウェブサイトおよび他の対話型インターネットおよびソフトウェア媒体のユーザ経験、有効性、およびユーザビリティを測定または評価するための現在の方法論は、従来の自己報告、すなわち、ユーザが「いいね」ボタンを使用し、エラー、バイアス、または低コンプライアンスの影響下にあるかもしれないソーシャルメディアに対する彼/彼女の実際の応答を正確に反映することに依存することにこれまで限定されてきた。
[0007]ソーシャルネットワークサイトおよびサービスの人気および成長は、ここ数年にわたって劇的に増加している。現在のソーシャルネットワークサイトは、Facebook(登録商標)、Google+(登録商標)、Twitter(登録商標)、MySpace(登録商標)、YouTube(登録商標)、LinkedIn(登録商標)、Flicker(登録商標)、Jaiku(登録商標)、MYUBO(登録商標)、Bebo(登録商標)、およびこれらに類するものを含む。そのようなソーシャルネットワーキング(SNET)サイトは、通常、ウェブベースであり、ネットワークのメンバーによってアクセス可能なユーザプロフィールおよび/またはコンテンツのコレクションの周りに構成される。このようなソーシャルネットワークにおけるメンバーシップは、個人または個人のグループから構成され、個人または個人のグループは、一般に、プロフィールページによって表され、ソーシャルネットワーキングサービスによって決定されるように対話することを許可される。
[0008]多くの人気のあるソーシャルネットワーク、特にプロフィールに焦点を当てたソーシャルネットワークでは、活動は、メンバーがプロフィールを閲覧し、連絡先のネットワークにわたって活動、関心、意見、ステータス更新、オーディオ/ビデオコンテンツ等を通信および共有することを可能にするウェブページまたはソーシャル空間を中心とする。ソーシャルネットワーキングサービスはまた、メンバーがソーシャルネットワークの他のメンバーのある活動を追跡し、協力し、既存の友人、かつての知人、および同僚を探してつながり、他のメンバーとの新しいつながりを確立することを可能にするかもしれない。
[0009]したがって、様々なセンサをコンピューティングデバイスに統合し、ソーシャルネットワークプラットフォームと協働し、「いいね」ボタンを除去して、それをすべての経験にわたる感情的な反応の連続ストリームで置き換えるような様々な機能を実行することができるシステムおよび方法が技術的に必要とされている。ユーザが無意識に自分の現在の経験、例えば、ウェブページ、「アプリ」、曲、ビデオ、ロケーション、または他の体験を好き(または嫌い)であるときを決定し、また、リアルタイムで、特に他のユーザの感情の情報に基づいて、ユーザのストレスレベルおよび幸福を遠隔監視する、スマートフォン、タブレット、および他のソーシャルメディア対応デバイスに組み込まれたアプリケーションの生体認証使用可能スイート(suite)も技術的に必要とされている。さらに、ソーシャルネットワークプラットフォーム上で共有される、またはメッセージング/オーディオ記録アプリケーション上で2人のユーザ間で私的に共有される投稿およびコンテンツに添付または表される他のユーザの感情データを見ることに応答して、バイオリズムを追跡する動的アプローチのためのシステムおよび方法を提供する必要がある。
[0010]したがって、上記に鑑みて、当業界では、上述の欠点および不備に対処する必要性が長年にわたってある。
[0011]従来のおよび伝統的なアプローチのさらなる制限および欠点は、本出願の残りにおいて図面を参照して記載されるように、説明されるシステムと本開示のいくつかの態様との比較を通して当業者に明らかになるであろう。
[0012]感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するためのシステムが実質的に提供され、特許請求の範囲においてより完全に記載されるように、図面のうちの少なくとも1つに関連して示されるおよび/または説明される。
[0013]本発明は、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するための方法を提供する。方法は、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置される(埋め込み可能)ように構成されたウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップを含む。方法は、通信ネットワーク上でウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通して、ユーザのバイオリズムデータを受信するステップを含む。方法は、統合モジュールを通して感情データを統合するステップを含む。方法は、感情状態決定モジュールを通してユーザの感情状態を決定するステップを含む。方法は、感情データ表示モジュールを通してリアルタイムでユーザの感情データを分析して表示するステップを含む。
[0014]統合モジュールは、生理学的データ収集エンジンを通してユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップから始まる複数のステップを実行する。方法は、生体信号生成エンジンを通して生理学的データを少なくとも1つの生体信号に処理するステップを含む。方法は、スコア計算エンジンを通して、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために、生体信号を監視および測定するステップを含む。方法は、ソーシャル統合および情報オーバーレイエンジンを通して、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイするステップを含む。
[0015]感情状態決定モジュールは、分析モジュールを通してウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析するステップから始まる複数のステップを実行する。方法は、感情モジュールを通してソーシャルネットワークプラットフォーム上で、ユーザによって共有されている1つ以上の投稿、ユーザに共有されている1つ以上のコンテンツ、投稿に対する1つ以上の反応、および投稿に対する1つ以上の応答のうちの少なくとも1つに対応するユーザの分析された感情状態を、関係付けるステップを含む。方法は、表示モジュールを通してソーシャルネットワークプラットフォームにおいてユーザの感情状態の表現を表示するステップを含む。
[0016]感情データ表示モジュールは、アルゴリズムモジュールを通して1つ以上の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算するステップから始まる複数のステップを実行する。感情スコアは、対話の間のユーザの感情状態を示す。方法は、視覚化モジュールを通してユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すステップを含む。視覚化モジュールは、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。
[0017]一態様では、感情モジュールは、ユーザによって共有されている投稿と、ユーザに共有されているコンテンツとに対応するユーザの感情状態を関係付けるコマンドをユーザが開始することを容易にする。
[0018]一態様では、表示モジュールは、ユーザによって共有されている投稿に関する感情状態の表現と、ユーザから要求コマンドを受信するとユーザに共有されるコンテンツとを表示する。
[0019]一態様では、視覚化モジュールは、複数の英数字、複数の幾何学形状、複数のホログラム、および色または移動形状を含む複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの上で、複数の方法で表示する。
[0020]一態様では、感情データは、脳波図(EEG)センサ、検流計センサ、心電計センサ、心拍数センサ、視線追跡センサ、血圧センサ、歩数計、ジャイロスコープ、および他の何らかのタイプのセンサのような、1つ以上の生体信号センサを使用することによって取得できる。センサは、ユーザによって装着されるウェアラブルヘッドセット、リング、時計、ブレスレット、および/またはヘッドバンドのようなウェアラブルユーザデバイスに接続されてもよい。センサは、ワイヤによってまたはワイヤレスでウェアラブルユーザデバイスに接続されてもよい。
[0021]一態様では、医療専門家は、ユーザ(患者)の感情状態/生体測定情報のオーバーレイを、彼らの日のビジュアルダイアリー(visual diary)上に見ることができる。この情報は、患者を理解し、パターンを認識し、状況を視覚化する際に使用することができる。同様に、ユーザの感情状態/意識レベルのオーバーレイは、リアルタイムでユーザから収集されたバイオリズムデータを統合することによって、任意のウェブまたはモバイルアプリケーション上に示すことができる。
[0022]一態様では、第2のユーザの感情に関する情報は、任意のソーシャルメディアウェブサイト、ポータルまたはチャネル上で公開および/または投稿されることができる。情報は、テキストメッセージ、スカイプチャットもしくはコール、および/または他の何らかの形態のインスタントメッセージングもしくは通信と、オーバーレイおよび/または統合することができる。
[0023]一態様では、ユーザの感情は、二次ユーザの感情に基づいて動的に追跡できる。
[0024]一態様では、スコアは、数値として、ならびに怒り、悲しみ、および幸福等のような感情を図示する写真として表されてもよい。
[0025]本発明の別の態様は、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するシステムに関する。システムは、ウェアラブルユーザデバイスおよびコンピューティングユニットを含む。ウェアラブルユーザデバイスは、ユーザの生体リズムデータを収集するために、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置される(埋め込み可能)ように構成される。コンピューティングユニットは、通信ネットワーク上でユーザのバイオリズムデータを受信するためにウェアラブルユーザデバイスと通信可能に接続される。コンピューティングユニットは、プロセッサと、プロセッサに結合されたメモリとを含む。メモリは、統合モジュールと、感情状態決定モジュールと、感情データ表示モジュールとを含む。統合モジュールは、感情データをソーシャルネットワークプラットフォームに統合する。感情状態決定モジュールは、ユーザの感情状態を決定する。感情データ表示モジュールは、ユーザの感情データをリアルタイムで分析して表示する。
[0026]統合モジュールは、生理学的データ収集エンジンと、生体信号生成エンジンと、スコア計算エンジンと、ソーシャル統合および情報オーバーレイエンジンとを含む。理学的データ収集エンジンは、ユーザの少なくとも1つの生理学的特性の生理学的データを収集する。生体信号生成エンジンは、生理学的データを少なくとも1つの生体信号に処理する。スコア計算エンジンは、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために生体信号を監視および測定する。ソーシャル統合および情報オーバーレイエンジンは、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイする。
[0027]感情状態決定モジュールは、分析モジュールと、感情モジュールと、表示モジュールとを含む。分析モジュールは、ウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析する。感情モジュールは、ソーシャルネットワークプラットフォーム上で、ユーザによって共有されている1つ以上の投稿、ユーザに共有されている1つ以上のコンテンツ、投稿に対する1つ以上の反応、投稿に対する1つ以上の応答のうちの少なくとも1つに対応するユーザの分析された感情状態を関係付ける。表示モジュールは、ソーシャルネットワークプラットフォームにおけるユーザの感情状態の表現を表示する。
[0028]感情データ表示モジュールは、アルゴリズムモジュールおよび視覚化モジュールを含む。アルゴリズムモジュールは、1つ以上の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算する。感情スコアは、対話の間のユーザの感情状態を示す。視覚化モジュールは、ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表す。視覚化モジュールは、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。
[0029]したがって、本発明の1つの利点は、複数のユーザ間のコミュニケーションを強化し、ユーザ間の人間のつながりおよび認識を高めることである。
[0030]したがって、本発明の1つの利点は、バイオリズムを使用し、そのような情報をインターネット上で他者と共有する人の感情を監視することである。より具体的には、本発明は、ユーザのバイオリズムを測定し、ソーシャルメディアネットワーク上で共有することに関する。
[0031]したがって、本発明の1つの利点は、ユーザが感情データを共有するソーシャルプラットフォームをユーザに提供し、他のユーザがそれを視覚化して感情状態を改善し、それに取り組むことを可能にすることである。
[0032]したがって、本発明の1つの利点は、ユーザのバイオリズムに基づいてユーザの感情状態を決定し、ソーシャルネットワークプラットフォームを介して感情状態を他のユーザに中継することである。
[0033]したがって、本発明の1つの利点は、ユーザの感情データを周期的に提供して、ユーザが自分の感情的および心理的状態を経時的に最適化するのを助け、ユーザがより一貫して肯定的な状態を感じることを可能にすることである。
[0034]本発明の実施形態の他の特徴が、添付の図面から、および以下の詳細な説明から明らかになるだろう。
[0035]本発明のさらに他の目的および利点は、詳細な説明に続いて当業者に容易に明らかになるだろう。本発明の好ましい実施形態は、本発明を実施するためにここ企図される最良のモードの単なる例示として示され、説明される。解されるように、本発明は、他の異なる実施形態が可能であり、そのいくつかの詳細は、すべて本発明から逸脱することなく、様々な明らかな点において修正が可能である。したがって、図面およびその説明は、制限としてではなく、本質的には例示的なものとして見なされるべきである。
[0036]図面では、類似したコンポーネントおよび/または特徴は、同じ参照ラベルを有しているかもしれない。さらに、同じタイプのさまざまなコンポーネントは、同様なコンポーネントから区別する第2のラベルが参照ラベルに続くことにより区別できる。本明細書で第1の参照ラベルのみが用いられている場合には、その説明は、第2の参照ラベルにかかわらず同じ第1の参照ラベルを有する類似のコンポーネントの何れか1つに適用するものである。
[0037] 図1は、本発明の一実施形態にしたがう、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有する本システムのブロック図を図示する。 [0038] 図2は、本開示の一実施形態にしたがう、本システムのネットワークインプリメンテーションを図示する。 [0039] 図3は、本発明の別の実施形態にしたがう、コンピューティングデバイスのメモリ内の様々なモジュールのブロック図を図示する。 [0040] 図4は、本発明の代替実施形態にしたがう、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有する方法のフローチャートを図示する。 [0041] 図5は、本発明の代替実施形態にしたがう、統合モジュールによって実行される複数のステップのフローチャートを図示する。 [0042] 図6は、本発明の代替実施形態にしたがう、感情状態決定モジュールによって実行される複数のステップのフローチャートを図示する。 [0043] 図7は、本発明の代替実施形態にしたがう、感情データ表示モジュールによって実行される複数のステップのフローチャートを図示する。
詳細な説明
[0044]本開示は、ここに記載される詳細な図および説明を参照して最もよく理解される。面を参照して様々な実施形態を説明してきた。しかしながら、当業者は、図面に関してここで提供される詳細な説明が単に説明目的のためであり、方法およびシステムは説明される実施形態を超えて拡張されてもよいことを容易に理解するであろう。例えば、提示される教示および特定の用途の必要性は、ここに説明される任意の詳細の機能性を実現するための複数の代替および適切なアプローチをもたらすことができる。したがって、任意のアプローチは、以下の実施形態におけるあるインプリメンテーション選択を超えて拡張することができる。
[0045]「1つの実施形態」、「少なくとも1つの実施形態」、「実施形態」、「1つの例」、「例」、「例えば」などへの言及は、実施形態または例が特定の特徴、構造、特性、性質、要素、または限定を含んでいてもよいが、すべての実施形態または例が必ずしもその特定の特徴、構造、特性、性質、要素、または限定を含むわけではないことを示す。さらに、「一実施形態において」という語句の繰り返し使用は、必ずしも同じ実施形態を指すものではない。
[0046]本発明の方法は、選択されたステップまたはタスクを手動で、自動で、またはそれらの組合せで実行または完了することによって実現できる。「方法」という用語は、本発明が属する技術の当業者によって知られているか、または知られている方法、手段、技術および手順から容易に開発される方法、手段、技術および手順を含むがこれらに限定されない所与のタスクを達成するための方法、手段、技術および手順を指す。特許請求の範囲および明細書に提示される説明、例、方法、および材料は、限定としてではなく、むしろ例示としてのみ解釈されるべきである。当業者は、ここで説明されるテクノロジーの範囲内で多くの他の可能なバリエーションを想定するであろう。
[0047]図1は、本発明の一実施形態にしたがう、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有する本システム100のブロック図を図示している。システム100は、ウェアラブルユーザデバイス102およびコンピューティングデバイス104を含む。ウェアラブルユーザデバイス102は、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置され(埋め込み可能)、ユーザ118のバイオリズムデータを収集するように構成される。ウェアラブルユーザデバイス102の例は、埋め込み可能なワイヤレスセンサデバイス、スマートウォッチ、スマートジュエリー、フィットネストラッカー、スマートクロス等を含むが、これらに限定されない。実施形態では、ウェアラブルユーザデバイス102は、ユーザ118の感情に関する1つ以上のパラメータを検出するための様々なセンサを含む。一実施形態では、ウェアラブルユーザデバイス102は、バイオリズムデータを収集するためにユーザ118の身体の周囲に固定されることができる、可撓性本体を含んでもよい。一実施形態では、ウェアラブルユーザデバイス102は、バイオリズムデータを収集するために加速度計およびジャイロスコープを含んでいてもよい。一実施形態では、ウェアラブルユーザデバイス102は、ウェアラブルユーザデバイス102をユーザ118の手首の周りに閉ループで固定するための固定機構を含んでいてもよい。さらに、ウェアラブルユーザデバイス102は、皮膚上に直接印刷されるオンボディステッカーもしくは3D印刷デバイス、または接着剤を用いて身体上に配置されるデバイスのような任意のウェアラブルであってもよい。ウェアラブルユーザデバイス102は、コンピューティングユニット104との通信を確立するために、様々なワイヤードまたはワイヤレス通信プロトコルを利用してもよい。
[0048]コンピューティングデバイス104は、通信ネットワーク106上でユーザのバイオリズムデータを受信するようにウェアラブルユーザデバイス102と通信可能に接続される。通信ネットワーク106は、ワイヤードまたはワイヤレスネットワークであってもよく、例は、インターネット、ワイヤレスローカルエリアネットワーク(WLAN)、Wi−Fi、ロングタームエボリューション(LTE(登録商標))、マイクロ波アクセスのための世界相互運用(WiMAX)、汎用パケット無線サービス(GPRS)、Bluetooth(登録商標)(BT)通信プロトコル、送信制御プロトコルおよびインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、赤外線(IR)、Z-Wave、スレッド、5G、USB、シリアル、RS232、NFC、RFID、WAN、および/またはIEEE802.11、802.16、2G、3G、4Gセルラ通信プロトコルを含んでいてもよいが、これらに限定されない。
[0049]コンピューティングデバイス104の例は、ラップトップ、デスクトップ、スマートフォン、スマートデバイス、スマートウォッチ、ファブレット、およびタブレットを含むがこれらに限定されない。コンピューティングデバイス104は、プロセッサ110、プロセッサ110に通信可能に結合されたメモリ112、およびユーザインターフェース114を含む。コンピューティングデバイス104は、データベース114に通信可能に結合される。データベース116は、感情データと、さらなる分析および予測のために使用することができる照会データとを受信して記憶し、それにより、本システムは、履歴感情データを使用することによって分析を学習および改善することができる。本主題事項は、本システム100がクラウドデバイス上で実現されることを考慮して説明されるが、本システム100はまた、Amazon Elastic Compute Cloud(Amazon EC2)、ネットワークサーバ、およびこれらに類するもののような種々のコンピューティングシステム内で実現されてもよいことを理解されたい。
[0050]プロセッサ110は、ユーザまたはシステムが生成した要求を実行するためのプログラムコンポーネントを実行するための少なくとも1つのデータプロセッサを含んでいてもよい。ユーザは、人、本発明に含まれるもののようなデバイスを使用する人、またはそのようなデバイス自体を含むことができる。プロセッサ110は、統合システム(バス)コントローラ、メモリ管理制御ユニット、浮動小数点ユニット、グラフィックス処理ユニット、デジタル信号処理ユニット等のような専用処理ユニットを含むことができる。
[0051]プロセッサ110は、AMD(登録商標)ATHLON(登録商標)マイクロプロセッサ、DURON(登録商標)マイクロプロセッサ、またはOPTERON(登録商標)マイクロプロセッサのようなマイクロプロセッサ、ARMのアプリケーション、組み込みまたはセキュアプロセッサ、IBM(登録商標)POWERPC(登録商標)、INTELのCORE(登録商標)プロセッサ、ITANIUM(登録商標)プロセッサ、XEON(登録商標)プロセッサ、CELERON(登録商標)プロセッサ、または他の一連のプロセッサ等を含んでいてもよい。プロセッサ110は、メインフレーム、分散プロセッサ、マルチコア、並列、グリッド、または他のアーキテクチャを使用して実現されてもよい。いくつかの実施形態は、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)等のような埋め込みテクノロジーを利用してもよい。
[0052]プロセッサ110は、I/Oインターフェースを介して1つ以上の入力/出力(I/O)デバイスと通信するように配置されてもよい。I/Oインターフェースは、オーディオ、アナログ、デジタル、RCA、ステレオ、IEEE−1394、シリアルバス、ユニバーサルシリアルバス(USB)、赤外線、PS/2、BNC、同軸、コンポーネント、コンポジット、デジタルビジュアルインターフェース(DVI)、高精細マルチメディアインターフェース(HDMI(登録商標))、RFアンテナ、S−Video、VGA、IEEE802.n/b/g/n/x、Bluetooth(登録商標)、セルラ(たとえば、符号分割多元接続(CDMA)、高速パケットアクセス(HSPA+)、グローバルシステムフォーモバイルコミュニケーション(GSM(登録商標))、ロングタームエボリューション(LTE(登録商標))、WiMAX、またはこれらに類するもの)等のような通信プロトコル/方法を用いてもよいが、これらに限定されない。
[0053]メモリ112は不揮発性メモリまたは揮発性メモリであってもよい。揮発性メモリの例は、フラッシュメモリ、リードオンリーメモリ(ROM)、プログラマブルROM(PROM)、消去可能PROM(EPROM)、および電気的EPROM(EEPROM(登録商標))メモリを含んでいてもよいが、これらに限定されない。揮発性メモリの例は、ダイナミックランダムアクセスメモリ(DRAM)およびスタティックランダムアクセスメモリ(SRAM)を含んでいてもよいが、これらに限定されない。
[0054]ユーザインターフェース114は、本システムの管理者の要求に従って、統合感情データおよび共有感情データを提示することができる。一実施形態では、ユーザインターフェース(UIまたはGUI)114は、ソーシャルネットワークプラットフォームにアクセスし、接続されたユーザのバイオリズムデータを見るための便利なインターフェースである。バイオリズムデータは、とりわけ、心拍数、心拍変動、皮膚電位(EDA)/電気皮膚反応(GSR)、呼吸数、3D加速度計データ、およびジャイロスコープデータ、体温を含むが、これらに限定されない。バイオリズムデータを処理して、数学的記述またはアルゴリズムに基づいて信号を生成することができる。アルゴリズムは、ソフトウェアを介して導入されてもよい。ウェアラブルユーザデバイス側でデータが処理される可能性がある。データはまた、作用される前に一時的にそこに記憶されてもよい。
[0055] 図2は、本開示の1つの実施形態にしたがう、本システムのネットワークインプリメンテーション200を図示している。図2は図1に関連して説明される。コンピューティングデバイス104−1、104−2、および104−Nは、通信ネットワーク106を通してユーザのバイオリズムデータを受信するようにウェアラブルユーザデバイス102−1、102−2、および102−Nと通信可能に接続される。サーバ108は、統合され、共有された感情データを、記憶し、処理する。コンピューティングデバイス104またはウェアラブルユーザデバイス102は、音通知(任意のタイプの音)を開始してもよい。ユーザの現在の感情状態スコアに基づいて、いくつかの異なる挙動のうちの1つを行うようにユーザに通知するために、異なる音がウェアラブルユーザデバイス102のうちの1つ以上によって発せられるべきである。挙動は、1つの挙動に限定されなくてもよく、音は、複数の(多数の)アクションをシグナリングすることができることを理解されたい。音に関係付けられた挙動は、ユーザの所望の/予め設定された感情状態に近づくように、またはより具体的なバイオリズムを変化させる方向に移動するように、ユーザがその挙動を変化させるのに役立つべきである。
[0056]一態様では、ウェアラブルユーザデバイス102およびコンピューティングデバイス104のネットワークアーキテクチャは、1つ以上のモノのインターネット(IoT)デバイスを含むことができる。本開示の典型的なネットワークアーキテクチャでは、1つ以上のIoTデバイスを含んでいてもよい送信機、受信機、および/またはトランシーバのような複数のネットワークデバイスを含むことができる。
[0057]一態様では、ウェアラブルユーザデバイス102は、クラウドおよび/またはクラウドサーバならびにIoTデバイスと直接対話することができる。収集されるデータおよび/または情報は、ユーザモバイルおよび/またはポータブルコンピューティングデバイス上に任意のスペースを取ることなく、クラウドサーバ中に直接記憶されてもよい。モバイルおよび/またはポータブルコンピューティングデバイスは、サーバと直接対話し、フィードバックアクティブ化のための情報を受信し、フィードバックをトリガし、フィードバックを配信することができる。フィードバックの例は、一次ウェアラブルデバイス、二次ウェアラブルデバイス、別個のコンピューティングデバイス(すなわちモバイル)、または(コンピューティングデバイスであってもなくてもよい)IoTデバイスからの聴覚フィードバック、触覚フィードバック、触知性フィードバック、振動フィードバック、または視覚フィードバックを含むが、これらに限定されない。
[0058]ここで使用されるように、IoTデバイスは、感知および/または制御機能とともに、WiFi(登録商標)トランシーバ無線もしくはインターフェース、Bluetooth(登録商標)トランシーバ無線もしくはインターフェース、Zigbee(登録商標)トランシーバ無線もしくはインターフェース、超広帯域(UWB)トランシーバ無線もしくはインターフェース、WiFi−ダイレクトトランシーバ無線もしくはインターフェース、Bluetooth(登録商標)低エネルギー(BLE)トランシーバ無線もしくはインターフェース、ならびに/またはIoTデバイスがワイドエリアネットワークおよび1つ以上の他のデバイスと通信することを可能にする他の何らかのワイヤレスネットワークトランシーバ無線もしくはインターフェースを含むデバイスであることがある。いくつかの実施形態では、IoTデバイスは、セルラネットワークトランシーバまたはインターフェースを含まず、したがって、セルラネットワークと直接通信するように構成されなくてもよい。いくつかの実施形態では、IoTデバイスは、セルラトランシーバ無線を含んでいてもよく、セルラネットワーク無線を使用してセルラネットワークと通信するように構成されてもよい。
[0059]ユーザは、ネットワークへのアクセスを可能にするネットワーク接続能力を有する任意の人間−機械インターフェースを含んでいてもよいアクセスデバイスを使用して、コンピューティングデバイスと通信してもよい。たとえば、アクセスデバイスは、スタンドアロンインターフェース(たとえば、セルラ電話機、スマートフォン、ホームコンピュータ、ラップトップコンピュータ、タブレット、パーソナルデジタルアシスタント(PDA)、コンピューティングデバイス、スマートウォッチのようなウェアラブルデバイス、壁パネル、またはこれらに類するもの)、電気機器または他のデバイスに組み込まれたインターフェース(たとえば、テレビジョン、冷蔵庫、セキュリティシステム、ゲームコンソール、ブラウザ、またはこれらに類するもの)、会話またはジェスチャインターフェース(たとえば、Kinect(登録商標)センサ、Wiimote(登録商標)、またはこれらに類するもの)、IoTデバイスインターフェース(たとえば、壁スイッチのようなインターネット対応デバイス、制御インターフェース、または他の適切なインターフェース)、またはこれらに類するものを含んでいてもよい。いくつかの実施形態では、アクセスデバイスは、セルラまたは他のブロードバンドネットワークトランシーバ無線またはインターフェースを含んでいてもよく、セルラまたはブロードバンドネットワークトランシーバ無線を使用して、セルラまたは他のブロードバンドネットワークと通信するように構成されてもよい。いくつかの実施形態では、アクセスデバイスは、セルラネットワークトランシーバ無線機またはインターフェースを含まなくてもよい。
[0060]一実施形態では、システムの現在の状態に関する情報をユーザに表示するように構成された入力/表示画面をユーザに提供することができる。入力/表示画面は、入力装置、現在の例ではボタンから入力を取得することができる。入力/表示画面はまた、タッチスクリーンとして構成されてもよく、またはタッチもしくは触覚ベースの入力システムを通してバイタル若しくは生体信号を決定するための入力を受け入れてもよい。入力ボタンおよび/または画面は、ユーザが、必要とされるユーザ入力に関するシステムからの入力プロンプトに応答することを可能にするように構成される。
[0061]ユーザに対して画面上に表示できる情報は、例えば、提供された処置の数、生体信号値、バイタル、バッテリー充電レベル、および音量レベルであってもよい。入力/表示画面は、波形発生器または別個のプロセッサとしても使用されてもよいプロセッサから情報を取得してもよい。プロセッサは、表示に利用可能な情報を提供し、ユーザがメニュー選択を開始することを可能にする。入力/表示画面は、バッテリーの電力消費を最小限に抑えるために液晶ディスプレイであってもよい。入力/表示画面および入力ボタンは、低い光レベルでシステムを動作させる能力をユーザに提供するように照明されてもよい。情報は、入力/表示画面の使用を通してユーザから得ることができる。
[0062]図3は、本発明の別の実施形態にしたがう、コンピューティングデバイスのメモリ112内の様々なモジュールのブロック図を図示している。図3は図1に関連して説明される。メモリ110は、統合モジュール202と、感情状態決定モジュール204と、感情データ表示モジュール206とを含む。
[0063]統合モジュール202は、感情データをソーシャルネットワークプラットフォームに統合する。感情状態決定モジュール204は、ユーザの感情状態を決定する。感情データ表示モジュール206は、ユーザの感情データをリアルタイムで分析して表示する。
[0064]統合モジュール202は、生理学的データ収集エンジン208と、生体信号生成エンジン210と、スコア計算エンジン212と、ソーシャル統合および情報オーバーレイエンジン214とを含む。生理学的データ収集エンジン208は、ユーザの少なくとも1つの生理学的特性の生理学的データを収集する。生体信号生成エンジン210は、生理学的データを少なくとも1つの生体信号に処理する。スコア計算エンジン212は、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために生体信号を監視および測定する。ソーシャル統合および情報オーバーレイエンジン214は、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイする。
[0065]感情状態決定モジュール204は、分析モジュール216と、感情モジュール218と、表示モジュール220とを含む。分析モジュール216は、ウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析する。感情モジュール218は、ソーシャルネットワークプラットフォーム上で、ユーザによって共有されている1つ以上の投稿、ユーザに共有されている1つ以上のコンテンツ、投稿に対する1つ以上の反応、および投稿に対する1つ以上の応答のうちの少なくとも1つに対応するユーザの分析された感情状態を関係付ける。一実施形態では、感情モジュール218は、ユーザが、ユーザによって共有されている投稿と、ユーザに共有されているコンテンツとに対応するユーザの感情状態を関係付けるコマンドを開始することを容易にする。表示モジュール220は、ソーシャルネットワークプラットフォームにおけるユーザの感情状態の表現を表示する。一実施形態では、表示モジュール220は、ユーザによって共有されている投稿に関する感情状態の表現と、ユーザから要求コマンドを受信するとユーザに共有されているコンテンツとを表示する。
[0066]感情データ表示モジュール206は、アルゴリズムモジュール222および視覚化モジュール224を含む。アルゴリズムモジュール222は、1つ以上の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算する。感情スコアは、対話の間のユーザの感情状態を示す。視覚化モジュールは、ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表す。視覚化モジュール224は、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。一実施形態では、視覚化モジュール224は、複数の英数字、複数の幾何学形状、複数のホログラム、および色または移動形状を含む複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの上で、複数の方法で、表示する。
[0067]本明細書は、様々な使用事例をさらに説明する。第1の使用事例では、ユーザは現時点でとても気分がよい。しかし、次の瞬間に、ユーザはソーシャルメディア上の投稿を見たり、彼の友人からテキストを得たり、インターネット上のニュースに関するランダム投稿を見たりする。突然、そのような新しい情報に基づいた感情における変化がある。したがって、ユーザの感情の変化を決定し、同時に任意の二次ユーザと共有する必要がある。
[0068]一実施形態では、この感情の変化は、動的かつリアルタイムである。この変化は、別のユーザの状態の変化によって生じる。この変化は、ユーザの身体にワイヤレスでまたはワイヤード媒体によって接続されているバイオセンサによって決定される。変化を決定したユーザのバイオリズムの変化および感情の変化は、ユーザが許可を与える場合、第2のユーザへの通信チャネルに伝達される。一実施形態では、閾値を予め決定することができ、閾値に基づいておよび閾値を逸脱すると、システムおよび方法は、ユーザ通信を別のチャネルに変更して、ユーザをリラックスおよび/または落ち着かせる。一実施形態では、他のユーザは、通信チャネル上でユーザの感情についてのスコアに基づいて情報を得ることもできる。
[0069]図4は、本発明の代替実施形態にしたがう、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するための方法のフローチャート400を図示している。方法は、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置される(埋め込み可能)ように構成されたウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップ402を含む。方法は、通信ネットワーク上でウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通してユーザのバイオリズムデータを受信するステップ404を含む。方法は、統合モジュールを通して感情データを統合するステップ406を含む。方法は、感情状態決定モジュールを通してユーザの感情状態を決定するステップ408を含む。方法は、感情データ表示モジュールを通してユーザの感情データをリアルタイムで分析して表示するステップ410を含む。
[0070]図5は、本発明の代替実施形態にしたがう、統合モジュールによって実行される複数のステップのフローチャート500を図示している。統合モジュールは、生理学的データ収集エンジンを通してユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップ502から始まる複数のステップを実行する。方法は、生体信号生成エンジンを通して生理学的データを少なくとも1つの生体信号に処理するステップ504を含む。方法は、スコア計算エンジンを通して、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために、生体信号を監視および測定するステップ506を含む。方法は、ソーシャル統合および情報オーバーレイエンジンを通して、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイするステップ508を含む。
[0071]図6は、本発明の代替実施形態にしたがう、感情状態決定モジュールによって実行される複数のステップのフローチャート600を図示している。感情状態決定モジュールは、分析モジュールを通してウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析するステップ602から始まる複数のステップを実行する。方法は、感情モジュールを通してソーシャルネットワークプラットフォーム上で、ユーザによって共有される1つ以上の投稿、ユーザに共有される1つ以上のコンテンツ、投稿に対する1つ以上の反応、投稿に対する1つ以上の応答のステップ604を含む。一実施形態では、感情モジュールは、ユーザによって共有されている投稿と、ユーザに共有されているコンテンツとに対応するユーザの感情状態を関係付けるコマンドをユーザが開始することを容易にする。方法は、表示モジュールを通してソーシャルネットワークプラットフォームにおいてユーザの感情状態の表現を表示するステップ606を含む。一実施形態では、表示モジュールは、ユーザによって共有されている投稿に関する感情状態の表現と、ユーザから要求コマンドを受信するとユーザに共有されるコンテンツとを表示する。
[0072]図7は、本発明の代替実施形態にしたがう、感情データ表示モジュールによって実行される複数のステップのフローチャート700を図示している。感情データ表示モジュールは、1つ以上の洞察を生成するために、アルゴリズムモジュールを通してバイオリズムデータを分析し、ユーザの感情スコアを計算して、ステップ702から始まる複数のステップを実行する。感情スコアは、対話の間のユーザの感情状態を示す。方法は、視覚化モジュールを通してユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すステップ704を含む。視覚化モジュールは、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。一実施形態では、視覚化モジュールは、複数の英数字、複数の幾何学形状、複数のホログラム、および色または移動形状を含む複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの上で、複数の方法で、表示する。
[0073]したがって、本発明は、ユーザがより多くのつながりを追加することを可能にするソーシャルネットワークプラットフォームを提供し、つながりを作るために招待が他のユーザに送信される。他のユーザからの受諾の後、ユーザは、写真、メッセージ、様々な文書ファイルフォーマットまたは画像フォーマットまたはビデオフォーマットの添付ファイル、オーディオクリップ、ビデオ、アニメーション/gifに限定されないが、様々な形式でデータを共有することができる。共有されたデータまたは情報に基づいて、ユーザは、例えば、悲しい、幸せ、笑い、愛、およびこれらに類するものを表す対応するボタンをクリックすることによって、感情アイコンを介して感情および気持ちに応答し、共有することができる。システムは、ユーザが、ソーシャルネットワークにおいて、ユーザによって共有されているコンテンツの一部およびユーザに共有されているコンテンツのうちの少なくとも1つに関するユーザの感情状態を関係付けるように要求することを可能にする。ユーザは、感情アイコンを、コンテンツの一部に隣接してか、コンテンツの一部の上に重ねてのいずれかで配置してもよい。ユーザは、感情アイコンを半透明に変更することができ、または他の何らかの視覚効果を使用して、ソーシャルネットワーク上のコンテンツの一部に応答することができる。
[0074]本発明の実施形態を図示し、説明してきたが、本発明がこれらの実施形態のみに限定されないことは明らかだろう。特許請求の範囲に記載された本発明の範囲から逸脱することなく、多数の修正、変更、バリエーション、置換、および均等物が当業者には明らかであろう。

Claims (8)

  1. 感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続された前記ソーシャルネットワークプラットフォーム上で前記感情データを共有するシステムであって、
    ユーザのバイオリズムデータを収集するウェアラブルユーザデバイスと、
    前記通信ネットワーク上で前記ユーザの前記バイオリズムデータを受信するように前記ウェアラブルユーザデバイスと通信可能に接続されるコンピューティングデバイスとを含み、
    前記コンピューティングデバイスは、
    プロセッサと、
    前記プロセッサに通信可能に結合されたメモリとを含み、ここで、前記メモリは、前記プロセッサによって実行される命令を記憶し、
    ここで、前記メモリは、
    前記感情データを統合する統合モジュール、
    前記統合モジュールは、
    前記ユーザの少なくとも1つの生理学的特性の生理学的データを収集する生理学的データ収集エンジンと、
    前記生理学的データを少なくとも1つの生体信号に処理する生体信号生成エンジンと、
    前記ユーザの感情および前記ユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために前記生体信号を監視および測定するスコア計算エンジンと、
    前記スコアを、前記ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話のうちの少なくとも1つと統合し、前記ユーザの前記感情および前記ユーザのストレスに関する情報をオーバーレイするソーシャル統合および情報オーバーレイエンジンとを含み、と、
    前記ユーザの感情状態を決定する感情状態決定モジュール、
    前記感情状態決定モジュールは、
    前記ウェアラブルユーザデバイスから前記バイオリズムデータを受信すると、前記ユーザの感情状態を分析する分析モジュールと、
    前記ソーシャルネットワークプラットフォーム上で、前記ユーザによって共有されている1つ以上の投稿、前記ユーザに共有されている1つ以上のコンテンツ、前記投稿に対する1つ以上の反応、および前記投稿に対する1つ以上の応答のうちの少なくとも1つに対応する前記ユーザの前記分析された感情状態を関係付けるための感情モジュールと、
    前記ソーシャルネットワークプラットフォームにおける前記ユーザの感情状態の表現を表示する表示モジュールとを含み、と、
    前記ユーザの感情データをリアルタイムで分析して表示する感情データ表示モジュールとを含み、
    前記感情データ表示モジュールは、
    前記バイオリズムデータを分析し、1つ以上の洞察を生成するために前記ユーザの感情スコアを計算するためのアルゴリズムモジュール、ここで、前記感情スコアは対話の間の前記ユーザの前記感情状態を示し、と、
    前記ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すための視覚化モジュールとを含み、ここで、前記視覚化モジュールは、前記ユーザに関係付けられた前記コンピューティングデバイス上に前記ユーザの前記洞察および感情スコアを表示する、システム。
  2. 前記感情モジュールは、前記ユーザによって共有されている前記投稿と、前記ユーザに共有されている前記コンテンツとに対応する前記ユーザの感情状態を関係付けるコマンドを前記ユーザが開始することを容易にする、請求項1に記載のシステム。
  3. 前記表示モジュールは、前記ユーザが共有している投稿に対する感情状態の表現と、前記ユーザからの要求コマンドを受信すると前記ユーザに共有されるコンテンツとを表示する、請求項1に記載のシステム。
  4. 前記視覚化モジュールは、複数の英数字、複数の幾何学形状、複数のホログラム、および複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの複数の方法で表示する、請求項1に記載のシステム。
  5. 感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続された前記ソーシャルネットワークプラットフォーム上で前記感情データを共有する方法であって、
    ウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップと、
    前記通信ネットワーク上で前記ウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通して、前記ユーザの前記バイオリズムデータを受信するステップと、
    統合モジュールを通して前記感情データを統合するステップ、
    ここで、前記統合モジュールは、
    生理学的データ収集エンジンを通して前記ユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップと、
    生体信号生成エンジンを通して前記生理学的データを少なくとも1つの生体信号に処理するステップと、
    スコア計算エンジンを通して、前記ユーザの感情および前記ユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために、前記生体信号を監視および測定するステップと、
    ソーシャル統合および情報オーバーレイエンジンを通して、前記スコアを、前記ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話のうちの少なくとも1つと統合し、前記ユーザの感情および前記ユーザのストレスに関する情報をオーバーレイするステップとを含む複数のステップを実行し、
    感情状態決定モジュールを通して前記ユーザの感情状態を決定するステップ、
    ここで、前記感情状態決定モジュールは、
    分析モジュールを通して前記ウェアラブルユーザデバイスから前記バイオリズムデータを受信すると、前記ユーザの前記感情状態を分析するステップと、
    感情モジュールを通して前記ソーシャルネットワークプラットフォーム上で、前記ユーザによって共有されている1つ以上の投稿、前記ユーザに共有されている1つ以上のコンテンツ、前記投稿に対する1つ以上の反応、および前記投稿に対する1つ以上の応答のうちの少なくとも1つに対応する前記ユーザの前記分析された感情状態を関係付けるステップと、
    表示モジュールを通して前記ソーシャルネットワークプラットフォームにおいて前記ユーザの前記感情状態の表現を表示するステップとを含む複数のステップを実行し、
    感情データ表示モジュールを通して前記ユーザの感情データをリアルタイムで分析して表示するステップとを含み、
    ここで、前記感情データ表示モジュールは、
    前記バイオリズムデータを分析し、アルゴリズムモジュールを通して前記ユーザの感情スコアを計算して1つ以上の洞察を生成するステップ、ここで、前記感情スコアは、対話の間の前記ユーザの前記感情状態を示し、と、
    視覚化モジュールを通して前記ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すステップとを含む複数のステップを実行し、ここで、前記視覚化モジュールは、前記ユーザに関係付けられた前記コンピューティングデバイス上に前記ユーザの前記洞察および感情スコアを表示する、方法。
  6. 前記感情モジュールは、前記ユーザによって共有されている前記投稿と、前記ユーザに共有されている前記コンテンツとに対応する前記ユーザの感情状態を関係付けるコマンドを前記ユーザが開始することを容易にする、請求項5に記載の方法。
  7. 前記表示モジュールは、前記ユーザから要請命令を受信に対する感情状態の表現と、前記ユーザからの要求コマンドを受信すると前記ユーザに共有されるコンテンツとを表示する、請求項5に記載の方法。
  8. 前記視覚化モジュールは、複数の英数字、複数の幾何学形状、複数のホログラム、および複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つに複数の方法で表示する、請求項5に記載の方法。
JP2021541326A 2018-09-21 2019-09-21 感情データをソーシャルネットワークプラットフォームに統合し、ソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法 Pending JP2022502803A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201862734608P 2018-09-21 2018-09-21
US201862734587P 2018-09-21 2018-09-21
US201862734571P 2018-09-21 2018-09-21
US62/734,587 2018-09-21
US62/734,571 2018-09-21
US62/734,608 2018-09-21
PCT/IB2019/058002 WO2020058942A1 (en) 2018-09-21 2019-09-21 System and method to integrate emotion data into social network platform and share the emotion data over social network platform

Publications (2)

Publication Number Publication Date
JP2022502803A true JP2022502803A (ja) 2022-01-11
JPWO2020058942A5 JPWO2020058942A5 (ja) 2022-10-26

Family

ID=69888614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541326A Pending JP2022502803A (ja) 2018-09-21 2019-09-21 感情データをソーシャルネットワークプラットフォームに統合し、ソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法

Country Status (9)

Country Link
US (1) US20220036481A1 (ja)
EP (1) EP3854030A4 (ja)
JP (1) JP2022502803A (ja)
KR (1) KR20210098953A (ja)
CN (1) CN113287281A (ja)
BR (1) BR112021005414A2 (ja)
CA (1) CA3113729A1 (ja)
MX (1) MX2021003336A (ja)
WO (1) WO2020058942A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3853804A4 (en) * 2018-09-21 2022-06-15 Curtis, Steve SYSTEM AND PROCEDURE FOR REVENUE DISTRIBUTION BETWEEN USERS BASED ON QUANTIFIED AND QUALIFIED EMOTIONAL DATA
US11531394B2 (en) * 2020-09-09 2022-12-20 Emotional Imaging Inc. Systems and methods for emotional-imaging composer

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269065A (ja) * 2007-04-17 2008-11-06 Nippon Telegr & Teleph Corp <Ntt> ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム
US20130117375A1 (en) * 2011-11-07 2013-05-09 Anurag Bist System and Method for Granular Tagging and Searching Multimedia Content Based on User Reaction
JP2014501967A (ja) * 2010-11-17 2014-01-23 アフェクティヴァ,インコーポレイテッド ソーシャルネットワーク上での感情共有
WO2014030188A1 (ja) * 2012-08-23 2014-02-27 パイオニア株式会社 コンテンツ再生方法、コンテンツ再生装置およびプログラム
JP2015046065A (ja) * 2013-08-28 2015-03-12 ヤフー株式会社 情報処理装置、制御方法および制御プログラム
JP2017514194A (ja) * 2014-02-05 2017-06-01 フェイスブック,インク. 感情解析に基づくイデオグラム
JP2018018492A (ja) * 2016-07-15 2018-02-01 パナソニックIpマネジメント株式会社 コンテンツ提示のための情報処理装置、情報処理装置の制御方法、及び制御プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853259A (zh) * 2009-03-31 2010-10-06 国际商业机器公司 添加和处理带有情感数据的标签的方法和设备
US20140221866A1 (en) * 2010-06-02 2014-08-07 Q-Tec Systems Llc Method and apparatus for monitoring emotional compatibility in online dating
US10799168B2 (en) * 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US20130198694A1 (en) * 2011-06-10 2013-08-01 Aliphcom Determinative processes for wearable devices
US10009644B2 (en) * 2012-12-04 2018-06-26 Interaxon Inc System and method for enhancing content using brain-state data
WO2014138925A1 (en) * 2013-03-15 2014-09-18 Interaxon Inc. Wearable computing apparatus and method
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
SG10201407018YA (en) * 2014-10-28 2016-05-30 Chee Seng Keith Lim System and method for processing heartbeat information
US20210005224A1 (en) * 2015-09-04 2021-01-07 Richard A. ROTHSCHILD System and Method for Determining a State of a User
CN105391843A (zh) * 2015-09-28 2016-03-09 努比亚技术有限公司 终端设备、信息发布方法及信息发布***
CN105726045A (zh) * 2016-01-28 2016-07-06 惠州Tcl移动通信有限公司 一种情绪监控方法及其移动终端
US20170374498A1 (en) * 2016-04-29 2017-12-28 Shani Markus Generic software-based perception recorder, visualizer, and emotions data analyzer
US10762429B2 (en) * 2016-05-18 2020-09-01 Microsoft Technology Licensing, Llc Emotional/cognitive state presentation
CA3062935A1 (en) * 2016-07-27 2018-02-01 Biosay, Inc. Systems and methods for measuring and managing a physiological-emotional state
US10600507B2 (en) * 2017-02-03 2020-03-24 International Business Machines Corporation Cognitive notification for mental support

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269065A (ja) * 2007-04-17 2008-11-06 Nippon Telegr & Teleph Corp <Ntt> ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム
JP2014501967A (ja) * 2010-11-17 2014-01-23 アフェクティヴァ,インコーポレイテッド ソーシャルネットワーク上での感情共有
US20130117375A1 (en) * 2011-11-07 2013-05-09 Anurag Bist System and Method for Granular Tagging and Searching Multimedia Content Based on User Reaction
WO2014030188A1 (ja) * 2012-08-23 2014-02-27 パイオニア株式会社 コンテンツ再生方法、コンテンツ再生装置およびプログラム
JP2015046065A (ja) * 2013-08-28 2015-03-12 ヤフー株式会社 情報処理装置、制御方法および制御プログラム
JP2017514194A (ja) * 2014-02-05 2017-06-01 フェイスブック,インク. 感情解析に基づくイデオグラム
JP2018018492A (ja) * 2016-07-15 2018-02-01 パナソニックIpマネジメント株式会社 コンテンツ提示のための情報処理装置、情報処理装置の制御方法、及び制御プログラム

Also Published As

Publication number Publication date
WO2020058942A1 (en) 2020-03-26
EP3854030A1 (en) 2021-07-28
CA3113729A1 (en) 2020-03-26
US20220036481A1 (en) 2022-02-03
KR20210098953A (ko) 2021-08-11
CN113287281A (zh) 2021-08-20
EP3854030A4 (en) 2022-06-22
MX2021003336A (es) 2021-09-28
BR112021005414A2 (pt) 2021-06-15

Similar Documents

Publication Publication Date Title
Carneiro et al. Multimodal behavioral analysis for non-invasive stress detection
US20120124122A1 (en) Sharing affect across a social network
US9204836B2 (en) Sporadic collection of mobile affect data
US20130245396A1 (en) Mental state analysis using wearable-camera devices
US20120083675A1 (en) Measuring affective data for web-enabled applications
US11914784B1 (en) Detecting emotions from micro-expressive free-form movements
US20210350917A1 (en) System and method to improve interaction between users through monitoring of emotional state of the users and reinforcement of goal states
US20170169727A1 (en) Orator Effectiveness Through Real-Time Feedback System With Automatic Detection of Human Behavioral and Emotional States of Orator and Audience
US20220031239A1 (en) System and method for collecting, analyzing and sharing biorhythm data among users
US10108784B2 (en) System and method of objectively determining a user&#39;s personal food preferences for an individualized diet plan
US11450432B2 (en) Predictive and interactive diagnostic system
JP2022502803A (ja) 感情データをソーシャルネットワークプラットフォームに統合し、ソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法
US20130052621A1 (en) Mental state analysis of voters
Vasiljevas et al. A human-adaptive model for user performance and fatigue evaluation during gaze-tracking tasks
Gay et al. Using sensors and facial expression recognition to personalize emotion learning for autistic children
Migovich et al. Stress Detection of Autistic Adults during Simulated Job Interviews Using a Novel Physiological Dataset and Machine Learning
Wadhwa et al. SenseX: design and deployment of a pervasive wellness monitoring platform for workplaces
JP2009230363A (ja) 表示装置およびその表示方法
Rochester et al. The challenges and opportunities for remotely evaluating movement disorders
Muehl et al. Affective brain-computer interfaces: Special Issue editorial
WO2014066871A1 (en) Sporadic collection of mobile affect data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221018

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230913

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240507