JPWO2017064891A1 - 情報処理システム、情報処理方法、および記憶媒体 - Google Patents

情報処理システム、情報処理方法、および記憶媒体 Download PDF

Info

Publication number
JPWO2017064891A1
JPWO2017064891A1 JP2017545102A JP2017545102A JPWO2017064891A1 JP WO2017064891 A1 JPWO2017064891 A1 JP WO2017064891A1 JP 2017545102 A JP2017545102 A JP 2017545102A JP 2017545102 A JP2017545102 A JP 2017545102A JP WO2017064891 A1 JPWO2017064891 A1 JP WO2017064891A1
Authority
JP
Japan
Prior art keywords
information processing
time
compatibility
series data
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017545102A
Other languages
English (en)
Inventor
正道 飛鳥井
正道 飛鳥井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017064891A1 publication Critical patent/JPWO2017064891A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2465Query processing support for facilitating data mining operations in structured databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2474Sequence data queries, e.g. querying versioned data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/436Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Library & Information Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physiology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】、時系列データを用いることで、より正確に人物間の相性を特定することが可能な情報処理システム、情報処理方法、および記憶媒体を提供する。
【解決手段】所定時間内において場を共有する複数人物の生体情報を表す時系列データを取得する取得部と、前記取得部により取得された時系列データに応じて、同一または類似の感情変化が生じている人物を相性の良い人物として特定する制御部と、を備える、情報処理システム。
【選択図】図1

Description

本開示は、情報処理システム、情報処理方法、および記憶媒体に関する。
人と人との相性は、同じ対象に同じ感情を抱くといった共感性や、価値観、または性格等に起因するが、互いの相性が良いか否かを知るのには時間が掛かり、例えば数時間交流しただけでは正確には知り得ない。
人と人との関係を抽出し、可視化する技術に関し、例えば下記特許文献1では、画像データを処理することで、画像中に一緒に写っている各人物の笑顔度に基づいて互いの親密度を算出し、親密度を距離で表した関係図や、関係図の時系列変化図について記載されている。
特開2013−3635号公報
しかしながら、ある時点における撮像画像からの笑顔度に基づくだけは、人物同士の関係を正確に算出することは困難である。
そこで、本開示では、時系列データを用いることで、より正確に人物間の相性を特定することが可能な情報処理システム、情報処理方法、および記憶媒体を提案する。
本開示によれば、所定時間内において場を共有する複数人物の生体情報を表す時系列データを取得する取得部と、前記取得部により取得された時系列データに応じて、同一または類似の感情変化が生じている人物を相性の良い人物として特定する制御部と、を備える、情報処理システムを提案する。
本開示によれば、プロセッサが、所定時間内において場を共有する複数人物の生体情報を表す時系列データを取得することと、前記取得された時系列データに応じて、同一または類似の感情変化が生じている人物を相性の良い人物として特定することと、を含む、情報処理方法を提案する。
本開示によれば、コンピュータを、所定時間内において場を共有する複数人物の生体情報を表す時系列データを取得する取得部と、前記取得部により取得された時系列データに応じて、同一または類似の感情変化が生じている人物を相性の良い人物として特定する制御部と、として機能させるためのプログラムが記憶された記憶媒体を提案する。
以上説明したように本開示によれば、時系列データを用いることで、より正確に人物間の相性を特定することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態による情報処理システムの概要を説明するための図である。 本実施形態による情報処理システムの構成について説明する図である。 本実施形態による相性判断処理を示すフローチャートである。 本実施形態によるセンサデータの具体的な解析処理の一例を示すフローチャートである。 本実施形態によるID間の紐付方法について説明する図である。 複数人物から取得した生体情報のデータ解析により得られた時系列のパラメータの一例を示す図である。 本実施形態による相性度の算出を共起率を用いて行う場合について説明する図である。 本実施形態による相性度判断結果画面の一例を示す図である。 本実施形態による相性度判断結果画面の他の例を示す図である。 本実施形態による相性度送信を指示するユーザ操作の一例について説明する図である。 本実施形態による相性度送信を指示するユーザ操作の一例について説明する図である。 本実施形態による相性度判断結果の共有について説明する図である。 本実施形態による相性度判断結果の共有について説明する図である。 本実施形態によるグラフ表示を行う場合について説明する図である。 本実施形態による過去履歴に基づく相性度のグラフ表示の一例を示す図である。 本実施形態の応用例による相性判断処理を示すフローチャートである。 本実施形態の他の応用例によるカメラ付きデジタルサイネージについて説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成
2−1.情報処理装置1の構成
2−2.ウェアラブル端末2の構成
3.動作処理
4.応用例
5.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
本実施形態による情報処理システムでは、所定時間内において場を共有する(すなわち同じ体験をしている)複数人物の生体情報を表す時系列データを用いることで、より正確に人物間の相性を特定することを可能とする。
図1は、本実施形態による情報処理システムの概要を説明するための図である。図1に示すように、複数の人物(ユーザA〜F)が場を共有している状況において、まず、各複数の人物の所定時間内の生体情報が、各人物が装着しているウェアラブル端末2により取得され、情報処理装置1へ送信される。情報処理装置1は、各複数人物の時系列データに基づいて各人物間の相性度を算出し、相性の良い人物同士を特定する。さらに詳細には、情報処理装置1は、時系列データの相互相関を求め、同一または類似の感情変化が生じている人物同士を相性の良い人物同士として特定する。情報処理装置1は、例えばスマートフォン、携帯電話端末、タブレット端末、またはPC(パーソナルコンピュータ)等により実現され得る。また、ウェアラブル端末は、例えばスマートウォッチ、スマートバンド、スマートアイグラス、スマートネック、または体内埋め込み型端末等により実現され得る。
ここで、相性判断の際に用いられる生体情報の時系列データには、動き、振動、脈拍、脈波、心拍、発汗量、呼吸、血圧、または体温等が含まれる。また、生体情報の時系列データは、撮像画像または音声データを含んでもよい。複数人物の撮像画像や音声データは、例えば図1に示すようにテーブルに置かれた情報処理装置1に設けられたカメラ12やマイクロホン13により取得され得る。
情報処理装置1による相性判断の結果は、例えば図1に示すような相性ランキング画面140として表示部14に表示される。相性ランキング画面140では、例えば上位所定数の相対的に相性の良い人物同士(相性度の高いペア)がその顔画像と共にランキング形式で表示されている。
このように、複数人物が場を共有して同じ体験をしている際に、ウェアラブル端末2や情報処理装置1で複数人物の生体情報を継続的に取得し、所定時間内における生体情報の時系列データの相互関係に応じて共感性に基づく相性をより正確に求めることが可能となる。例えば図1に示す例では、複数人物が談笑している際の音声データ、顔の表情、身体の動き、および脈拍等の生体情報が継続的に取得され、相性診断が行われることで、コミュニケーションにおける相性が分かる。また、複数の人物が一緒にテレビ番組や映画等のコンテンツを観ている際の音声データ、顔の表情、身体の動き、および脈拍等の生体情報が継続的に取得され、相性診断が行われた場合、コンテンツ視聴における相性が分かる。
以上、本実施形態による情報処理システムの概要について説明した。続いて、本実施形態による情報処理システムの構成および動作処理について具体的に説明する。
<<2.構成>>
図2は、本実施形態による情報処理システムの構成について説明する図である。図2に示すように、本実施形態による情報処理システムは、情報処理装置1およびウェアラブル端末2を含む。両者は、無線または有線により接続され、データの送受信を行い得る。以下、情報処理装置1およびウェアラブル端末2の構成について具体的に説明する。
<2−1.情報処理装置1の構成>
図2に示すように、情報処理装置1は、制御部10、通信部11、カメラ12、マイクロホン13、表示部14、操作入力部15、および相性度記憶部16を有する。
通信部11は、外部装置と有線/無線を介してデータの送受信を行う。例えば通信部11は、ウェアラブル端末2と接続し、ウェアラブル端末2で検知した生体情報の時系列データを受信する。また、通信部11は、ウェアラブル端末2で検知した生体情報の時系列データのデータ解析結果(パラメータ)を受信してもよい。
制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、本実施形態による制御部10は、データ解析部101および相性判断部102として機能する。
データ解析部101は、複数人物から取得した生体情報の時系列データを解析し、パラメータを算出する。例えばデータ解析部101は、時系列データが撮像画像データの場合、撮像画像データから顔画像を検出し、顔の表情パラメータ(例えば笑顔度、驚き度、怒り度、恐怖度等)の時系列データを算出する。また、データ解析部101は、時系列データが音声データの場合、話者認識および音声認識を行い、各話者の会話のパラメータ(例えば盛り上がり、驚き、笑い、または相槌等)の時系列データを算出する。また、データ解析部101は、ウェアラブル端末2で検知された生体情報の時系列データも同様に解析することが可能である。例えば、データ解析部101は、時系列データが加速度データまたは振動データの場合、人物の動きや振動のパラメータ(例えば腕の動き、身体の揺れ、または頷き等)の時系列データを算出する。
相性判断部102は、データ解析部101から得られたパラメータの時系列データ、または通信部11によりウェアラブル端末2から受信したパラメータの時系列データに応じて、ある人物と、同一または類似の感情変化が生じている人物を相性の良い人物として特定する。具体的には、相性判断部102は、パラメータの時系列データの相互相関を求め、同一または類似の感情変化が生じている人物を特定する。パラメータの時系列データの相互相関は、例えば相性度として算出し得る。相性度の算出方法については、図6〜図7を参照して後述する。
以上、制御部10の機能について具体的に説明したが、制御部10の機能はこれに限定されず、例えば周辺に存在するウェアラブル端末2のIDと各人物のIDとの紐付け、相性判断結果画面の生成、および相性判断結果画面の表示制御等も行い得る。また、制御部10は、ユーザ操作に応じて、相性判断結果画面の少なくとも一部を他の情報処理装置に送信するよう制御することも可能である。
カメラ12は、周辺を撮像し、撮像画像を制御部10に出力する。例えばカメラ12は、場を共有している複数人物を継続的に撮像し、時系列の撮像画像データを制御部10に渡す。
マイクロホン13は、周辺の音声を収音し、収音した音声データを制御部10に出力する。例えばマイクロホン13は、場を共有している複数人物の会話を継続的に収音し、時系列の収音データを制御部10に渡す。
表示部14は、出力部の一例であって、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置により実現される。例えば表示部14は、相性判断部102による相性判断結果を表示する。相性判断結果画面の具体例については、図8および図9を参照して後述する。
操作入力部15は、タッチパネル、スイッチ、またはボタン等により実現され、ユーザによる操作入力を検出し、検出した入力信号を制御部10に出力する。
相性度記憶部16は、相性判断部102による相性判断結果を記憶する。相性度記憶部16には、例えばペア毎に相性度情報が格納される。具体的には、開始タイムスタンプ、終了タイムスタンプ、ID−X、ID−Y、代表画像X、代表画像Y、およびペアの相性度が対応付けて格納される。開始タイムスタンプと終了タイムスタンプは、相性診断を開始した開始時刻と終了時刻である。ID−XとID−Yは、ペア(ユーザX、Y)のユニークなIDであって例えば顔画像IDである。代表画像Xと代表画像Yは、例えば相性診断を行う際に撮像されたユーザXおよびユーザYの顔画像である。代表画像は、例えば撮像された顔画像の中で最も笑顔度が高い画像にしてもよい。
また、相性度記憶部16を含む記憶部は、制御部10の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現され得る。
以上、情報処理装置1の構成について具体的に説明した。なお図2に示す構成は一例であって、本実施形態はこれに限定されない。例えば情報処理装置1は、音声信号を再生するスピーカを有していてもよく、この場合、相性判断結果を音声により出力することも可能である。また、上述した例では複数人物の音声データが情報処理装置1に設けられたマイクロホン13により収音されているが、各人物の音声データは、各人物に装着されたウェアラブル端末2により各々収音され、情報処理装置1に送信されてもよい。
<2−2.ウェアラブル端末2の構成>
図2に示すように、ウェアラブル端末2は、制御部20、通信部21、およびセンサ22を有する。
通信部21は、外部装置と有線/無線を介してデータの送受信を行う。例えば通信部21は、情報処理装置1と接続し、センサ22で検知した生体情報の時系列データを送信する。また、通信部21は、センサ22で検知した生体情報の時系列データをデータ解析部201で解析したデータ解析結果(パラメータ)を送信してもよい。情報処理装置1との通信は、例えばWi−Fi(登録商標)、Bluetooth(登録商標)、赤外線通信、または近距離無線通信等により行われる。
制御部20は、演算処理装置および制御装置として機能し、各種プログラムに従ってウェアラブル端末2内の動作全般を制御する。制御部20は、例えばCPU、マイクロプロセッサ等の電子回路によって実現される。また、本実施形態による制御部20は、データ解析部201としても機能する。
データ解析部201は、センサ22で検知した生体情報の時系列データを解析し、パラメータを算出する。例えばデータ解析部101は、加速度センサデータから身体の動きを検出し、動きのパラメータ(例えば頷き動作、身体を揺らす動作、手を動かす(ジェスチャー)動作、首を傾げる動作等)の時系列データを算出する。データ解析部201による解析結果(パラメータの時系列データ)は、通信部21から情報処理装置1へ送信される。
センサ22は、ウェアラブル端末2を装着する人物の各種生体情報を検知する機能を有する。例えばセンサ22は、加速度センサ、振動センサ、脈拍センサ、発汗量センサ、温度センサ、マイクロホン、カメラ等を含む。
以上、本実施形態によるウェアラブル端末2の構成について具体的に説明した。なお図2に示す構成例は一例であって、本実施形態はこれに限定されない。例えばウェアラブル端末2は、データ解析部201を有さず、センサ22により検知した生体情報の時系列データを通信部21から情報処理装置1へ送信してもよい。この場合、情報処理装置1のデータ解析部101により同様のデータ解析が行われる。
<<3.動作処理>>
続いて、本実施形態による動作処理について図3を参照して具体的に説明する。図3は、本実施形態による相性判断処理を示すフローチャートである。
図3に示すように、まず、情報処理装置1は、センサデータを取得する(ステップS103)。ここでは、情報処理装置1に設けられたセンサからのセンサデータを取得する。
次に、情報処理装置1のデータ解析部101は、取得したセンサデータの解析を行い、時系列データのパラメータを算出する(ステップS106)。センサデータの具体的な解析処理の一例を図4のフローチャートに示す。
図4は、本実施形態によるセンサデータの具体的な解析処理の一例を示すフローチャートである。情報処理装置1は、例えばセンサがカメラ12の場合、撮影した時系列の撮像画像データを取得する(ステップS143)。
次いで、情報処理装置1は、データ解析部101により撮像画像データから顔画像を検出し(ステップS146)、笑顔度、驚き度、怒り度、または恐怖度等の感情の表情パラメータを算出する(ステップS149)。
そして、情報処理装置1は、取得した時系列の撮像画像データから全ての顔の検出が終了するまで上記ステップS146〜S149を繰り返す(ステップS152)。
続いて、図3に戻り、情報処理装置1が周辺の1以上のウェアラブル端末2と初回接続する場合(ステップS109/Yes)、制御部10は、ウェアラブル端末2のIDと人物のIDとの紐付け処理を行う(ステップS112)。より具体的には、制御部10は、撮像画像から検出した顔画像のIDと、周辺に存在するウェアラブル端末2のIDとの紐付けを行う。IDの紐付方法の一例について図5を参照して説明する。
図5は、本実施形態によるID間の紐付方法について説明する図である。図5に示すように、例えば情報処理装置1の表示部14に表示された撮像画像142に写る顔をタップすると共に、その顔の人がウェアラブル端末2を装着した腕を振ると、情報処理装置1の制御部10は、周辺のウェアラブル端末2から受信したセンサデータの中で最も大きい加速度が検知されたウェアラブル端末2のIDを、タップされた顔画像のIDと紐付ける。これにより、情報処理装置1は、ID間の紐付を行い得る。情報処理装置1は、顔がタップされたことをユーザにフィードバックするため、図5に示すようにタップされた顔画像を囲む表示143を重畳表示させてもよい。ウェアラブル端末2のIDは、ウェアラブル端末2から受信される。また、顔画像のIDは、データ解析部101により撮像画像から顔検出した際に自動的に付与される。また、ID間の紐付は、図3に示す相性判断処理の最初に行ってもよい。例えば情報処理装置1は、撮像画像に写る複数人物全ての紐付けが終了した後に相性判断のスタート画面を表示し、スタートボタンがタップされた際に相性判断処理を開始する。
以上、顔画像とウェアラブル端末2との紐付けについて説明したが、本実施形態による情報処理装置1は、マイクロホン13で収音した音声データから検出した話者のIDとウェアラブル端末2のIDとの紐付けを行うことも可能である。例えば、紐付けコマンド(「登録」等)を発話すると共に、そのコマンドを発話した人がウェアラブル端末2を装着した腕を振ると、情報処理装置1の制御部10は、周辺のウェアラブル端末2から受信したセンサデータの中で最も大きい加速度が検知されたウェアラブル端末2のIDを、発話を収音した音声データに基づいて認識した話者のIDと紐付ける。
次に、情報処理装置1が外部のウェアラブル端末2と接続している場合、情報処理装置1は、ウェアラブル端末2のセンサ22で検知され、データ解析部201で解析された時系列のパラメータを外部データとして受信する(ステップS115)。例えばウェアラブル端末2のセンサとしてマイクロホンが用いられている場合、マイクロホンの音声データを解析した音量の時系列データをパラメータとして受信し、加速度センサが用いられている場合、加速度センサの加速度の大きさの時系列データをパラメータとして受信する。
次いで、情報処理装置1の相性判断部102は、相性度の算出を行う(ステップS118)。相性判断部102は、時系列のパラメータの相互相関を求め、同一または類似の感情変化が生じている人物を相性の良い人物として特定する。ここで、データ解析により得られた時系列のパラメータの一例を図6に示す。
図6は、複数人物から取得した生体情報のデータ解析により得られた時系列のパラメータの一例を示す図である。なお、時系列のパラメータは、データ解析時にLPF(ローパスフィルタ)によってあらかじめノイズが除去されている。図示された例では、複数人物毎に取得されたパラメータ1、パラメータ2の時系列データが示されている。ここでは2種のパラメータを用いているが、本実施形態は特に限定せず、単数または複数の時系列パラメータに基づいて相互相関を求める。また、図6に示す2つのパラメータは、2つのセンサから各々取得したデータに基づく時系列データであってもよいし、1つのセンサから取得したデータに基づく時系列データであってもよい。すなわち、例えばパラメータ1が顔画像に基づくユーザA〜Fの笑顔度の時系列データであって、パラメータ2が加速度データに基づくユーザA〜Fの加速度の大きさの時系列データであってもよい。若しくは、例えばパラメータ1が顔画像に基づくユーザA〜Fの笑顔度の時系列データであって、パラメータ2が顔画像に基づくユーザA〜Fの驚き度の時系列データであってもよい。
相性判断部102は、図6に示すような複数人物の各人のパラメータに応じて、各人の相性(具体的には、例えばパラメータの相互相関)を算出する。
例えば、センサの時系列のパラメータkでのユーザXとユーザYの相互相関Cは、下記式1により求められる。
Figure 2017064891
また、位相ずれを許容して相互相関を求める場合、下記式2により求められ、位相を変化させた最大値が相互相関Cの値となる。
Figure 2017064891
相性判断部102は、パラメータ1〜Nのそれぞれについて、複数人物全ての組み合わせの相互相関を算出する。例えば相性判断部102は、複数人物がユーザA〜ユーザFの6人であれば、15通りの組み合せの相互相関を算出する。そして、相性判断部102は、ユーザXとユーザYの相性度COMXYを、各パラメータの相互相関に対する重みづけの係数wをかけて下記式3により求める。
Figure 2017064891
これにより、例えば図6に示すパラメータ例では、ユーザBとユーザEの時系列パラメータ1の相互相関、パラメータ2の相互相関が高く算出され、両者の相性度が高く算出され得る。例えばパラメータ1が笑顔度の時系列データであって、パラメータ2が加速度の大きさの時系列データである場合、皆で会話をしている際にユーザBとユーザEが同じタイミングで同程度の笑顔度になったり身体を動かしたりしていることが分かり、両者には類似の感情変化が生じていると言える。したがって、相性判断部102は、両者の相性度が相対的に高い場合、ユーザBとユーザEの相性が良いと判断する。
なお、本実施形態による相性判断部102は、人物間の相性度を、上述した相互相関でなく共起率を用いて算出することも可能である。以下、図7を参照して説明する。
図7は、本実施形態による相性度の算出を共起率を用いて行う場合について説明する図である。相性判断部102は、1以上のセンサデータから解析して得られた各パラメータの時系列データを、図7に示すように所定の閾値に基づいて閾値を上回る値を1、閾値を下回る値を0とした配列で表現する。次いで、相性判断部102は、各人の配列の間の内積を算出し、これにより簡易的に相互相関を求めたこととなる(なおこの際、位相ずれは考慮していない)。例えば笑顔度のパラメータの時系列データを用いた場合、ここでの共起率は、所定時間内で二人が同時に笑顔(閾値以上の笑顔度)になった回数がカウントされ求められる。
続いて、図3に戻り、情報処理装置1の制御部10は、相性判断部102で算出したペアの相性度に関する情報を、相性度記憶部16に蓄積する(ステップS121)。
次に、制御部10は、表示部14に相性度判断結果画面を表示する(ステップS124)。ここで、相性度判断結果画面の具体例について図8および図9を参照して説明する。
図8は、本実施形態による相性度判断結果画面の一例を示す図である。図示された例では、表示部14に、複数人物を撮像した撮像画像144上に相性度に応じて相対的に相性度の高いペアを結ぶ線145a、145b、145cを重畳表示した相性度判断結果画面が表示されている。制御部10は、ペアを結ぶ線の太さを、相性度の高さに応じて異なるよう制御してもよい。この場合、ユーザBとユーザEを結ぶ線145aが最も太いことから二人の相性が最も良く、次にユーザAとユーザFを結ぶ線145bが太いため両者が2番目に相性の良いペアであることが分かる。また、続いてユーザBとユーザCが3番目の太さの線145cで結ばれているため、3番目に相性が良いペアであることが分かる。また、ここでは男女ペアに限定されず相性度判断結果が表示されているが、男女ペアに限定した上で相性の良いペアを明示するよう制御することも可能である。なお相性度判断結果の表示方法は図8に示す例に限定されず、制御部10は、例えば複数人物を撮像した撮像画像上で相性度の高い二人の顔を同じ色の線で囲んで表示させてもよい。また、各ペアの相性度に応じたランキング形式(図1参照)であってもよい。図1に示す例では、各ペアの代表画像(例えば各々の顔画像)も併せて表示される。
図9は、本実施形態による相性度判断結果画面の他の例を示す図である。図示された例では、表示部14に、特定ユーザと他のユーザとの相性度判断結果をランキング形式で示す相性度判断結果画面146が表示されている。図9に示す相性度判断結果画面146は、蓄積された過去の相性度情報に基づいて、例えば自分との相性が良かった相手のランキングが表示されている。顔の表情パラメータとして性別が取れる場合、男性の場合は女性との相性ランキング、女性の場合は男性との相性ランキングを表示するようにしてもよい。日付は、格納された相性度情報に含まれるタイムスタンプに基づいて表示される。
次に、図3に戻り、情報処理装置1の制御部10は、表示部14に表示した相性度判断結果を外部装置へ送信するようユーザ操作入力があった場合(ステップS127/Yes)、制御部10は、通信部11を介して指定された外部装置へ相性度判断結果を送信するよう制御し(ステップS130)、相性判断処理が終了されるまで上記ステップS103〜S130が繰り返される(ステップS133)。ここで、相性度判断結果の外部装置への送信について、図10〜図13を参照して説明する。
図10および図11は、本実施形態による相性度送信を指示するユーザ操作の一例について説明する図である。図10に示すように、例えば情報処理装置1の表示部14に相性ランキング画面140が表示されている場合に、ランキング1位の表示領域をタップすると、図11に示すように、共有先リスト148がポップアップ表示される。共有先リスト148では、例えば直近でメッセージのやり取りを行った相手やグループが示される。共有先リスト148の中から、例えばユーザが「パーティーグループ」を選択すると、図10で選択したランキング1位の表示画面が、「パーティーグループ」のチャットに送信され、「パーティーグループ」に登録しているメンバーの情報処理装置から閲覧することが可能となる。なお情報処理装置1は、予め設定した相手を共有先に自動的に決定し、相性度判断結果を送信してもよい。例えば、予め相性判断に関するメッセージを共有するユーザまたはグループを設定しておいた場合、相性ランキングから顔画像を選択すると、自動的に紐付けられたメッセンジャーが立ち上がり、設定した相手とのメッセージ入力画面を表示し、相性判断結果を送信できるようにする。
図12および図13は、本実施形態による相性度判断結果の共有について説明する図である。上述したように、例えば共有先に「パーティーグループ」が選択された場合、図12に示すように、パーティーグループのチャット画面に、図10でユーザが選択した相性度判断結果のランキング1位の画像150が自動的に表示され、チャットメンバーにも閲覧可能な状態になる。例えば「パーティーグループ」が、当該相性判断を行った際に同席していたユーザA〜Cのグループである場合、ユーザBは、自分との相性が良いと判断されたけれども詳しくは知らない相手との相性度判断結果(両者の顔画像を含む)を、当該相手を知っていそうな人達に送り、図13に示すように、相性ランキングの画像を共有して話題にし、コミュニケーションすることができる。また、相性ランキングの高い相手が、メッセンジャー等のソーシャルコミュニケーションツールにおいて友達の友達に登録されている場合、直接メッセージが送れるようにしてもよい。このように、本実施形態では、パーティー等で初めて会った者同士の相性も、所定時間内における時系列の生体情報のパラメータに応じて自動的により正確に判断し、ユーザと相性のよい相手を通知することが可能となる。また、ユーザが相性のよい相手のことを詳しく知らない場合でも、ソーシャルネットワーキング等のコミュニケーションツールを用いて、相手の顔画像を含む相性判断結果を友達に共有できるようにすることで、友達から相手の情報を得たり、相手が友達の友達に登録されている場合は直接メッセージを送れるようにする等、ユーザと相性の良い相手を見つけて紹介するまでのサービスを提供することができる。
以上、相性判断結果の具体的な表示例について説明した。なお制御部10は、相性度記憶部16に格納されている過去の相性度履歴に基づいて、相性判断結果をグラフ表示させることも可能である。以下、図14および図15を参照して説明する。
図14は、本実施形態によるグラフ表示を行う場合について説明する図である。図14左側に示すように、表示部14に、相性度判断結果画面146が表示されている場合に、例えば相性度No.1の相手が表示されている表示領域152をタップして選択すると、図14右側に示すように、メニュー画面154がポップアップ表示される。メニュー画面154のうち「相性グラフ」が選択されると、制御部10は、相性度記憶部16から、ユーザと指定された相手との過去の相性度情報を検索し(例えばユーザIDを用いて検索)、相性グラフの生成を行い、表示部14から表示するよう制御する。ここで、相性度のグラフ表示の一例を図15に示す。
図15に示すように、相性グラフ画像156は、過去履歴に基づくユーザと指定された相手との相性度の変化を示す。相性度記憶部16に蓄積された相性度情報にはタイムスタンプが含まれているため、これに基づいてグラフが生成され得る。これにより、例えば出会いから一定期間経過した際に、相手との相性度の変化を直感的に把握することができる。
<<4.応用例>>
<4−1.単体構成例>
上述した実施形態では、図2に示したように、情報処理装置1とウェアラブル端末2を含む情報処理システム構成について説明したが、本開示はこれに限定されず、情報処理装置1単体により情報処理システムを構成してもよい。すなわち、ウェアラブル端末2との接続を行わず、情報処理装置1のカメラ12またはマイクロホン13等の各種センサのみで、場を共有する複数人物の時系列データを取得し、相性度の算出を行い得る。以下、本応用例における情報処理装置1の動作処理について図16を参照して説明する。
図16は、本実施形態の応用例による相性判断処理を示すフローチャートである。図16に示すS203〜S224の処理は、図3を参照して説明したステップS103、S106、S118〜S133と同様である。
すなわち、本応用例では、情報処理装置1は、カメラ12やマイクロホン13からセンサデータを取得し(ステップS203)、時系列データのパラメータを算出し(ステップS206)、相性度の算出を行う(ステップS209)。次いで、情報処理装置1は、算出した相性度を蓄積し(ステップS212)、また、相性判断結果を表示し(ステップS215)、ユーザ指示があれば相性度を外部へ送信する(ステップS221)。そして、情報処理装置1は、相性判断処理が終了されるまで上記ステップS203〜S221を繰り返す(ステップS224)。各処理の詳細な内容については、図3を参照して説明した処理と同様であるため、ここでの説明は省略する。
以上説明したように、本実施形態による情報処理システムは、情報処理装置1単体により実現され得る。
また、本実施形態による情報処理システムは、情報処理装置1、若しくは情報処理装置1およびウェアラブル端末2と、サーバとを含む構成であってもよい。この場合、例えば上述したデータ解析部101、相性判断部102、および相性度記憶部16に対応する構成がサーバ側に設けられる。サーバは、情報処理装置1とネットワークを介して接続し、情報処理装置1から、場を共有している複数人物の生体情報を示す時系列データを取得し、各人物間の相性判断を行い、結果を返送する。
<4−2.カメラ付きデジタルサイネージ>
上述した実施形態では、情報処理装置1の一例として個人用のスマートフォンを用いたが、本開示はこれに限定されず、例えばカメラ付きデジタルサイネージにより実現することも可能である。以下、図17を参照して説明する。
図17は、本実施形態の他の応用例によるカメラ付きデジタルサイネージについて説明する図である。図17に示すように、デジタルサイネージ1sは、カメラ12sおよび表示部14sを有する。デジタルサイネージ1sは、表示部14sでコンテンツを再生すると共に、コンテンツを視聴する人々をカメラ12sで継続的に撮像し、コンテンツを視聴している周辺の人々の各人物間における相性判断を行うことができる。
具体的には、デジタルサイネージ1sは、カメラ12sで撮像した時系列の撮像画像データを解析して、撮像画像に写る顔画像毎に時系列の表情パラメータを抽出し、撮像画像に写る複数人物における各人物間の相性判断を行う。相性判断処理は上述した実施形態と同様であって、例えば時系列データのパラメータの相互相関により判断され得る。相性判断の結果は、例えばカメラ12sで撮像した周辺の人々の撮像画像において相性の良いペアの顔をそれぞれ同じ色の線で囲む等して明示することが可能である。図17に示す例では、表示部14sにコンテンツ画面160と撮像画像162が表示され、撮像画像162上で相性の良いペアの顔がそれぞれ同じ色の線で囲まれている(なお図面上は相性の良いペアの顔をそれぞれ同じ線種で示す)。
これにより、デジタルサイネージ1sで再生されるコンテンツを見ている人々は、笑うタイミングまたは感動するタイミング等が同じ相性の良い(すなわち共感性の高い)ペアを直感的に把握することができる。なお、デジタルサイネージ1sによる相性判断は、ペアの相性判断に限定されず、3人以上のグループの相性判断であってもよい。
<<4.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、時系列データを用いることで、より正確に人物間の相性を特定することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置1、またはウェアラブル端末2に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置1、またはウェアラブル端末2の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本実施形態による相性判断は、ペアの相性判断に限定せず、3人以上のグループの相性判断を行うことも可能である。
また、本実施形態では、好きな人やライバル等の他ユーザとの相性が良い人を見たい場合、ユーザの課金に応じて提示できるようにしてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
所定時間内において場を共有する複数人物の生体情報を表す時系列データを取得する取得部と、
前記取得部により取得された時系列データに応じて、同一または類似の感情変化が生じている人物を相性の良い人物として特定する制御部と、
を備える、情報処理システム。
(2)
前記制御部は、前記複数人物の生体情報を表す時系列データの相互相関に応じて同一または類似の感情変化が生じている人物を特定する、前記(1)に記載の情報処理システム。
(3)
前記時系列データは、各人物の顔画像から抽出された表情パラメータの時系列データである、前記(2)に記載の情報処理システム。
(4)
前記制御部は、前記各人物の顔画像の表情パラメータに基づく、特定の表情の共起率に応じて、類似の感情変化を有する人物を特定する、前記(3)に記載の情報処理システム。
(5)
前記時系列データは、各人物の音声から抽出された音量パラメータの時系列データである、前記(2)に記載の情報処理システム。
(6)
前記時系列データは、各人物の動きを表す振動パラメータの時系列データである、前記(2)に記載の情報処理システム。
(7)
前記時系列データは、各人物に装着されたウェアラブル端末により検出される、前記(1)〜(6)のいずれか1項に記載の情報処理システム。
(8)
前記制御部は、前記ウェアラブル端末のIDと、各人物の顔画像のIDとの紐付処理を行う、前記(7)に記載の情報処理システム。
(9)
前記制御部は、前記複数人物の生体情報を表す時系列データに応じて、各人物同士の相性度を算出する、前記(1)〜(8)のいずれか1項に記載の情報処理システム。
(10)
前記制御部は、前記複数人物の生体情報を表す時系列データの相互相関の値にパラメータに応じた所定の重みを付けた上で、人物同士の相性度を算出し、相性度が高い程類似の感情変化が生じている人物同士として特定する、前記(9)に記載の情報処理システム。
(11)
前記制御部は、前記相性度が相対的に良い人物同士が含まれる撮像画像に、当該人物同士を紐付ける線画像を重畳させる、前記(9)または(10)に記載の情報処理システム。
(12)
前記制御部は、前記相性度に応じた各人物同士の相性の良さを示すランキング表示画像を、各人物の顔画像を用いて生成する、前記(9)または(10)に記載の情報処理システム。
(13)
前記制御部は、前記ランキング表示画像から選択された顔画像を、特定ユーザにメッセージとして送信可能である、前記(12)に記載の情報処理システム。
(14)
前記制御部は、特定の人物同士の相性度の時系列変化を表すグラフを生成する、前記(9)〜(13)のいずれか1項に記載の情報処理システム。
(15)
プロセッサが、
所定時間内において場を共有する複数人物の生体情報を表す時系列データを取得することと、
前記取得された時系列データに応じて、同一または類似の感情変化が生じている人物を相性の良い人物として特定することと、
を含む、情報処理方法。
(16)
コンピュータを、
所定時間内において場を共有する複数人物の生体情報を表す時系列データを取得する取得部と、
前記取得部により取得された時系列データに応じて、同一または類似の感情変化が生じている人物を相性の良い人物として特定する制御部と、
として機能させるためのプログラムが記憶された記憶媒体。
1 情報処理装置
10 制御部
101 データ解析部
102 相性判断部
11 通信部
12、12s カメラ
13 マイクロホン
14、14s 表示部
15 操作入力部
16 相性度記憶部
2 ウェアラブル端末
20 制御部
21 通信部
22 センサ

Claims (16)

  1. 所定時間内において場を共有する複数人物の生体情報を表す時系列データを取得する取得部と、
    前記取得部により取得された時系列データに応じて、同一または類似の感情変化が生じている人物を相性の良い人物として特定する制御部と、
    を備える、情報処理システム。
  2. 前記制御部は、前記複数人物の生体情報を表す時系列データの相互相関に応じて同一または類似の感情変化が生じている人物を特定する、請求項1に記載の情報処理システム。
  3. 前記時系列データは、各人物の顔画像から抽出された表情パラメータの時系列データである、請求項2に記載の情報処理システム。
  4. 前記制御部は、前記各人物の顔画像の表情パラメータに基づく、特定の表情の共起率に応じて、類似の感情変化を有する人物を特定する、請求項3に記載の情報処理システム。
  5. 前記時系列データは、各人物の音声から抽出された音量パラメータの時系列データである、請求項2に記載の情報処理システム。
  6. 前記時系列データは、各人物の動きを表す振動パラメータの時系列データである、請求項2に記載の情報処理システム。
  7. 前記時系列データは、各人物に装着されたウェアラブル端末により検出される、請求項1に記載の情報処理システム。
  8. 前記制御部は、前記ウェアラブル端末のIDと、各人物の顔画像のIDとの紐付処理を行う、請求項7に記載の情報処理システム。
  9. 前記制御部は、前記複数人物の生体情報を表す時系列データに応じて、各人物同士の相性度を算出する、請求項1に記載の情報処理システム。
  10. 前記制御部は、前記複数人物の生体情報を表す時系列データの相互相関の値にパラメータに応じた所定の重みを付けた上で、人物同士の相性度を算出し、相性度が高い程類似の感情変化が生じている人物同士として特定する、請求項9に記載の情報処理システム。
  11. 前記制御部は、前記相性度が相対的に良い人物同士が含まれる撮像画像に、当該人物同士を紐付ける線画像を重畳させる、請求項9に記載の情報処理システム。
  12. 前記制御部は、前記相性度に応じた各人物同士の相性の良さを示すランキング表示画像を、各人物の顔画像を用いて生成する、請求項9に記載の情報処理システム。
  13. 前記制御部は、前記ランキング表示画像から選択された顔画像を、特定ユーザにメッセージとして送信可能である、請求項12に記載の情報処理システム。
  14. 前記制御部は、特定の人物同士の相性度の時系列変化を表すグラフを生成する、請求項9に記載の情報処理システム。
  15. プロセッサが、
    所定時間内において場を共有する複数人物の生体情報を表す時系列データを取得することと、
    前記取得された時系列データに応じて、同一または類似の感情変化が生じている人物を相性の良い人物として特定することと、
    を含む、情報処理方法。
  16. コンピュータを、
    所定時間内において場を共有する複数人物の生体情報を表す時系列データを取得する取得部と、
    前記取得部により取得された時系列データに応じて、同一または類似の感情変化が生じている人物を相性の良い人物として特定する制御部と、
    として機能させるためのプログラムが記憶された、記憶媒体。
JP2017545102A 2015-10-13 2016-07-07 情報処理システム、情報処理方法、および記憶媒体 Pending JPWO2017064891A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015202104 2015-10-13
JP2015202104 2015-10-13
PCT/JP2016/070126 WO2017064891A1 (ja) 2015-10-13 2016-07-07 情報処理システム、情報処理方法、および記憶媒体

Publications (1)

Publication Number Publication Date
JPWO2017064891A1 true JPWO2017064891A1 (ja) 2018-08-02

Family

ID=58518261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017545102A Pending JPWO2017064891A1 (ja) 2015-10-13 2016-07-07 情報処理システム、情報処理方法、および記憶媒体

Country Status (3)

Country Link
US (2) US10754864B2 (ja)
JP (1) JPWO2017064891A1 (ja)
WO (1) WO2017064891A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10431107B2 (en) * 2017-03-07 2019-10-01 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace for social awareness
JP7073640B2 (ja) * 2017-06-23 2022-05-24 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
JP2019040525A (ja) * 2017-08-28 2019-03-14 パナソニックIpマネジメント株式会社 相性分析システム、相性分析装置、相性分析方法、及びプログラム
US11651249B2 (en) * 2019-10-22 2023-05-16 EMC IP Holding Company LLC Determining similarity between time series using machine learning techniques
JP2021193488A (ja) * 2020-06-08 2021-12-23 富士通株式会社 時系列解析プログラム、時系列解析方法及び情報処理装置
US20240095310A1 (en) * 2020-12-07 2024-03-21 Sony Group Corporation Information processing device, data generation method, grouping model generation method, grouping model learning method, emotion estimation model generation method, and grouping user information generation method
WO2022138153A1 (ja) * 2020-12-22 2022-06-30 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
KR102595838B1 (ko) 2021-02-19 2023-10-30 상명대학교산학협력단 영상 콘텐츠의 광고 효과 평가 방법 및 이를 적용하는 시스템
WO2022254489A1 (ja) * 2021-05-31 2022-12-08 株式会社I’mbesideyou 動画像分析システム
JP7197955B1 (ja) * 2021-10-14 2022-12-28 株式会社I’mbesideyou ビデオミーティング評価端末

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230363A (ja) * 2008-03-21 2009-10-08 Sony Corp 表示装置およびその表示方法
JP2010016796A (ja) * 2008-06-06 2010-01-21 Sony Corp 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP2011070277A (ja) * 2009-09-24 2011-04-07 Seiko Epson Corp 画像処理装置
JP2011082915A (ja) * 2009-10-09 2011-04-21 Sony Corp 情報処理装置、画像抽出方法及び画像抽出プログラム
JP2011128790A (ja) * 2009-12-16 2011-06-30 Jvc Kenwood Holdings Inc ユーザ情報処理プログラム、ユーザ情報処理装置、及び、ユーザ情報処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034519A (ja) 2005-07-25 2007-02-08 Hitachi Software Eng Co Ltd Hla情報を用いた相性判定システム
US20070282621A1 (en) * 2006-06-01 2007-12-06 Flipt, Inc Mobile dating system incorporating user location information
US20080240379A1 (en) * 2006-08-03 2008-10-02 Pudding Ltd. Automatic retrieval and presentation of information relevant to the context of a user's conversation
US9143573B2 (en) * 2008-03-20 2015-09-22 Facebook, Inc. Tag suggestions for images on online social networks
US8539359B2 (en) * 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
JP2013003635A (ja) 2011-06-13 2013-01-07 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2013109793A1 (en) * 2012-01-18 2013-07-25 Kinectus LLC Systems and methods for establishing communications between mobile device users
US9087131B1 (en) * 2012-12-18 2015-07-21 Google Inc. Auto-summarization for a multiuser communication session
US10885104B2 (en) * 2014-02-27 2021-01-05 Dropbox, Inc. Systems and methods for selecting content items to store and present locally on a user device
US20150248651A1 (en) * 2014-02-28 2015-09-03 Christine E. Akutagawa Social networking event planning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230363A (ja) * 2008-03-21 2009-10-08 Sony Corp 表示装置およびその表示方法
JP2010016796A (ja) * 2008-06-06 2010-01-21 Sony Corp 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP2011070277A (ja) * 2009-09-24 2011-04-07 Seiko Epson Corp 画像処理装置
JP2011082915A (ja) * 2009-10-09 2011-04-21 Sony Corp 情報処理装置、画像抽出方法及び画像抽出プログラム
JP2011128790A (ja) * 2009-12-16 2011-06-30 Jvc Kenwood Holdings Inc ユーザ情報処理プログラム、ユーザ情報処理装置、及び、ユーザ情報処理方法

Also Published As

Publication number Publication date
US11341148B2 (en) 2022-05-24
WO2017064891A1 (ja) 2017-04-20
US10754864B2 (en) 2020-08-25
US20200293526A1 (en) 2020-09-17
US20180276281A1 (en) 2018-09-27

Similar Documents

Publication Publication Date Title
WO2017064891A1 (ja) 情報処理システム、情報処理方法、および記憶媒体
US11198036B2 (en) Information processing system
US9747902B2 (en) Method and system for assisting patients
CN109074117B (zh) 提供基于情绪的认知助理***、方法及计算器可读取媒体
US20130245396A1 (en) Mental state analysis using wearable-camera devices
JP6760271B2 (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2016136104A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN108139988A (zh) 信息处理***和信息处理方法
JPWO2016143404A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20210098954A (ko) 사용자 간에 바이오리듬 데이터를 수집, 분석 및 공유하기 위한 시스템 및 방법
US20160231890A1 (en) Information processing apparatus and phase output method for determining phrases based on an image
EP2402839A2 (en) System and method for indexing content viewed on an electronic device
CN110225196B (zh) 终端控制方法及终端设备
KR20140032651A (ko) 감성 피드백 서비스 방법 및 이를 적용한 스마트 디바이스
WO2017175447A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20220036481A1 (en) System and method to integrate emotion data into social network platform and share the emotion data over social network platform
JP2019058098A (ja) ペット・人の友交度測定装置及びペット・人の友交度測定用プログラム
Gay et al. Using sensors and facial expression recognition to personalize emotion learning for autistic children
JP2016170589A (ja) 情報処理装置、情報処理方法およびプログラム
EP3799407A1 (en) Initiating communication between first and second users
CN111200792A (zh) 一种团体运动构建方法
WO2023145350A1 (ja) 情報処理方法、情報処理システムおよびプログラム
US20230206097A1 (en) Thought inference system, inference model generation system, thought inference device, inference model generation method, and non-transitory computer readable storage medium
JP6856959B1 (ja) 情報処理装置、システム、方法及びプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220215