JP2014134922A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2014134922A
JP2014134922A JP2013001873A JP2013001873A JP2014134922A JP 2014134922 A JP2014134922 A JP 2014134922A JP 2013001873 A JP2013001873 A JP 2013001873A JP 2013001873 A JP2013001873 A JP 2013001873A JP 2014134922 A JP2014134922 A JP 2014134922A
Authority
JP
Japan
Prior art keywords
information
user
users
state
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013001873A
Other languages
English (en)
Inventor
Shinichiro Gomi
信一郎 五味
Takeshi Koga
剛 古賀
Akari Hoshi
亜香里 星
Manabu Shiroi
学 城井
Ryuichi Nanba
隆一 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013001873A priority Critical patent/JP2014134922A/ja
Priority to CN201410001648.0A priority patent/CN103914139B/zh
Priority to US14/147,862 priority patent/US9384494B2/en
Publication of JP2014134922A publication Critical patent/JP2014134922A/ja
Priority to US15/171,655 priority patent/US10990613B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • G06F16/287Visualization; Browsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06Q10/0833Tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0204Market segmentation
    • G06Q30/0205Location or geographical consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Finance (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Human Resources & Organizations (AREA)
  • Game Theory and Decision Science (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】センシングデータに基づいて検出された各ユーザの状態を統合することで、ユーザにより有益な情報を提供する。
【解決手段】複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出するユーザ状態検出部と、前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成するユーザ状態統合部と、前記統合状態情報を位置に対応付けて表示するための情報を生成する状態表示生成部とを含む情報処理装置が提供される。
【選択図】図3

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、ユーザの生体情報などをセンシングした結果から推定されたユーザの状態に基づいてユーザにさまざまな情報を提供する技術が開発されている。例えば、特許文献1には、ユーザの活動状態と環境状況とに基づいて、ユーザの次の活動または行動を支援するユーザ活動支援エージェントが開示されている。また、特許文献2には、写真を撮影したときのユーザの生体情報に基づいて判断される感情を示すアイコンを、写真の撮影位置を示す地図上に表示する技術が開示されている。
特開2005−332309号公報 特開2009−187233号公報
例えば、上記のような技術を利用したサービスが普及するにつれて、より多くのユーザの状態を推定したデータが得られるようになる。しかしながら、例えば、複数のユーザについてそれぞれ推定された状態の情報を統合して用いるような技術は提案されていない。特許文献1,2に開示されたような現在の技術では、状態が推定されるユーザと推定された状態に基づく情報提供の対象になるユーザとが同一であったり、地図上に表示されるのが写真を撮影したユーザの感情を示すアイコンに限られていたりして、推定された状態の情報が統合して用いられているとはいえない。
そこで、本開示では、センシングデータに基づいて検出された各ユーザの状態を統合することで、ユーザにより有益な情報を提供することを可能にする、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
本開示によれば、複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出するユーザ状態検出部と、前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成するユーザ状態統合部と、前記統合状態情報を位置に対応付けて表示するための情報を生成する状態表示生成部とを含む情報処理装置が提供される。
また、本開示によれば、複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出することと、前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成することと、前記統合状態情報を位置に対応付けて表示するための情報を生成することとを含む情報処理方法が提供される。
また、本開示によれば、複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出する機能と、前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成する機能と、前記統合状態情報を位置に対応付けて表示するための情報を生成する機能とをコンピュータに実現させるためのプログラムが提供される。
センシングデータに基づいて検出される各ユーザの状態を、ユーザの位置情報に基づいて定義されるユーザ群ごとに統合することで、例えば各位置におけるユーザの状態を総括的に認識することが可能である。こうした総括的な認識は、個別のユーザの状態を認識するのとは違った新たな視点をユーザに与え、例えばユーザの行動を有効に支援したり、ユーザに思いがけない発見をもたらしたりする可能性がある。
このように、本開示によれば、センシングデータに基づいて検出された各ユーザの状態を統合することで、ユーザにより有益な情報を提供することができる。
本開示の一実施形態に係るシステムの概略的な構成を示す図である。 本開示の一実施形態に係るクライアントの概略的な機能構成を示す図である。 本開示の一実施形態に係るサーバの概略的な機能構成を示す図である。 本開示の一実施形態において地図上にユーザの密集状態を表示する例を示す図である。 本開示の一実施形態において地図上にユーザの感情を表示する例を示す図である。 本開示の一実施形態において拡大した地図上にユーザの感情を表示する例を示す図である。 本開示の一実施形態において地図上の表示にユーザの属性を反映させる例を示す図である。 図7の例において、いずれかの場所を選択した例を示す図である。 本開示の一実施形態において建物内の領域についてユーザの状態を表示する例を示す図である。 本開示の一実施形態における地図上ではない表示の例を示す図である。 情報処理装置のハードウェア構成を説明するためのブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.機能構成
1−1.システムの構成
1−2.クライアントの構成
1−3.サーバの構成
2.ユーザ状態の検出の例
2−1.脈拍を用いた感情の検出
2−2.脳波を用いた感情の検出
2−3.発汗を用いた感情の検出
2−4.その他の例
3.表示される情報の例
3−1.地図上での密集状態表示
3−2.地図上での感情表示
3−3.ユーザの嗜好を反映した表示
3−4.建物内の領域についての表示
3−5.地図上ではない表示
4.ハードウェア構成
5.補足
(1.機能構成)
まず、図1〜図3を参照して、本開示の一実施形態に係るシステムおよび装置の概略的な構成について説明する。
(1−1.システムの構成)
図1は、本開示の一実施形態に係るシステムの概略的な構成を示す図である。図1を参照すると、システム10は、クライアント100とサーバ200とを含む。クライアント100とサーバ200とは、有線または無線の各種ネットワークを介して通信する。クライアント100は、センシング端末100aと、情報表示端末100bとを含む。図では、センシング端末100aとして、腕時計型のセンシング端末100a1と、指輪型のセンシング端末100a2とが例示されている。
センシング端末100aは、ユーザの状態を検出しうる情報をセンシングデータとして取得し、これを位置情報とともにサーバ200に送信する。センシング端末100aによって取得されるセンシングデータは、例えば、ユーザの脈拍、発汗、または脳波などの生体情報を含みうる。センシング端末100aは、例えばユーザの身体の一部に装着されることによってこのようなセンシングデータを取得する。センシング端末100aの具体的な形状としては、例えば図示された腕時計型や指輪型の他、頭部に装着するHMD(Head Mounted Display)型などがありうる。
あるいは、センシング端末100aは、センシングデータとして、例えばユーザの移動履歴または端末操作履歴などを取得してもよい。この場合、センシング端末100aは、必ずしもユーザの身体の一部に装着される装置でなくてよく、例えばユーザに携帯される携帯電話(スマートフォンを含む)、タブレット型もしくはノート型のPC(Personal Computer)、携帯型メディアプレーヤ、または携帯型ゲーム機などであってもよい。この場合、センシング端末100aは、後述する情報表示端末100bと同一の装置でありうる。また、例えばウェアラブルコンピュータを用いて、センシングデータとして生体情報を取得可能なセンシング端末100aと情報表示端末100bとを同一の装置によって実現してもよい。
サーバ200は、複数のセンシング端末100aから送信された位置情報とセンシングデータとを取得する。なお、センシング端末100aの数は、図示されたように2つだけではなく、さらに多くの数でありうる。サーバ200は、複数のセンシング端末100aから取得した情報に基づいて、各センシング端末100aを装着した複数のユーザの位置が定義される空間において、これらのユーザの状態を位置に対応付けて表示する情報を生成する。さらに、サーバ200は、生成した情報を情報表示端末100bに送信する。
情報表示端末100bは、サーバ200から送信された情報を受信し、ユーザに向けて表示する。上述のように、情報表示端末100bは、センシング端末100aと同一の装置であってもよいし、別個の装置であってもよい。上記のように、情報表示端末100bがセンシング端末100aと同一の装置である場合、情報表示端末100bは、例えば携帯電話(スマートフォンを含む)、タブレット型もしくはノート型のPC(Personal Computer)、携帯型メディアプレーヤ、携帯型ゲーム機、またはウェアラブルコンピュータなどでありうる。一方、情報表示端末100bがセンシング端末100aと別個の装置である場合、情報表示端末100bは上記の各装置でありうる他、携帯型でない装置、例えばデスクトップ型のPCまたはテレビなどでありうる。
上記のセンシング端末100a、情報表示端末100b、およびサーバ200は、いずれも、例えば後述する情報処理装置のハードウェア構成によって実現されうる。この場合、各装置は、必ずしも単一の情報処理装置によって実現されなくてもよく、例えば有線または無線の各種ネットワークを介して接続され、互いに協働する複数の情報処理装置によって実現されてもよい。
(1−2.クライアントの構成)
図2は、本開示の一実施形態に係るクライアントの概略的な機能構成を示す図である。図2を参照すると、クライアント100は、センシング端末100aおよび情報表示端末100bを含む。上記の通り、これらの装置は同一の装置であってもよく、また別個の装置であってもよい。
(センシング端末)
センシング端末100aは、センシング部110と、匿名化処理部120と、送信部130とを有する。センシング端末100aは、さらに入力部140を有してもよい。
センシング部110は、サーバ200に送信されるセンシングデータおよび位置情報を取得する。センシング部110は、例えば、位置センサ112と、生体情報センサ114とを含む。位置センサ112は、例えばGPS(Global Positioning System)受信機などを用いてセンシング端末100aの位置(つまりユーザの位置)を検出する。位置情報は、上記のようにサーバ200に送信され、複数のユーザの状態を位置に対応付けて表示する情報を生成するときに用いられる。また、位置情報は、例えばセンシング端末100aまたはサーバ200において履歴として蓄積され、センシングデータとしても用いられる。一方、生体情報センサ114は、例えば脈拍計、発汗計、または脳波計などであり、脈拍、発汗、または脳波などユーザの生体情報を取得する。センシング部110は、上記のセンサ以外にも、例えば加速度センサなどさまざまなセンサを含みうる。
匿名化処理部120は、例えばCPU(Central Processing Unit)などを用いてソフトウェア的に実現される。匿名化処理部120は、センシング部110において取得されたセンシングデータおよび位置情報を、送信部130からサーバ200に送信するにあたって匿名化する。より具体的には、匿名化処理部120は、センシングデータおよび位置情報に、ユーザIDなどとは関係のないIDを付与する。これによって、サーバ200は、センシング端末100aを特定することはできるが、センシング端末100aがどのユーザの端末であるかを特定することはできなくなる。
本実施形態では、ユーザのセンシングデータを統合して情報を抽出するため、各ユーザのセンシングデータは、匿名化された状態でサーバ200に提供されてもかまわない。匿名化の効果として、ユーザが生体情報など個人的なデータを提供しやすくなるということもある。他の実施形態では、匿名化は必ずしも実施されなくてもよく、センシングデータを提供したユーザがサーバ200において特定可能であってもよい。また、サーバ200での情報の生成にあたって、ユーザが子供か大人か、男性か女性かといった情報が用いられる場合には、匿名化処理部120はこれらの情報をサーバ200に送信する情報に含めてもよい。
送信部130は、ネットワークを介してサーバ200と通信する通信装置によって実現される。送信部130は、センシング部110が取得したセンシングデータおよび位置情報が匿名化処理部120において匿名化されたものを、サーバ200に送信する。
付加的な構成として、入力部140におけるユーザの操作履歴が、センシングデータとして取得されてもよい。入力部140は、例えばタッチパッド、キーパッド、またはキーボードなどの各種入力装置によって実現される。操作履歴情報は、入力部140から匿名化処理部120に提供され、位置情報とともに匿名化されて送信部130からサーバ200に送信される。
(情報表示端末)
情報表示端末100bは、受信部150と、表示制御部160と、ディスプレイ170とを有する。
受信部150は、ネットワークを介してサーバ200と通信する通信装置によって実現される。受信部150は、サーバにおいて生成された、各ユーザの状態を位置に対応付けて表示する情報を受信する。
表示制御部160は、例えばCPUなどを用いてソフトウェア的に実現される。表示制御部160は、受信部150が受信した情報に基づいて、ディスプレイ170の表示を制御する。図示していないが、情報表示端末100bは、ユーザの操作を受け付ける入力部をさらに有し、ユーザの操作に基づいてディスプレイ170の表示を変化させてもよい。この場合、情報表示端末100bは、サーバ200に対して新たな情報の要求を送信し、受信部150が要求に応じて送信された新たな情報を受信してもよい。なお、ディスプレイ170の表示画面の例については後述する。
(1−3.サーバの構成)
図3は、本開示の一実施形態に係るサーバの概略的な機能構成を示す図である。図3を参照すると、サーバ200は、受信部210と、ストレージ220と、ユーザ状態検出部230と、ユーザ位置検出部240と、領域設定部250と、ユーザ状態統合部260と、状態表示生成部270と、送信部280とを有する。なお、ユーザ状態検出部230と、ユーザ位置検出部240と、領域設定部250と、ユーザ状態統合部260と、状態表示生成部270とは、例えばCPUなどを用いてソフトウェア的に実現される。
受信部210は、ネットワークを介してセンシング端末100aと通信する通信装置によって実現される。受信部210は、センシング端末100aにおいて取得されたセンシングデータと位置情報とを受信する。受信部210は、これらの情報をリアルタイムでユーザ状態検出部230またはユーザ位置検出部240に提供してもよく、あるいはストレージ220に一旦格納してもよい。ストレージ220に格納されたセンシングデータおよび位置情報は、必要に応じてユーザ状態検出部230およびユーザ位置検出部240によって読み出される。
ユーザ状態検出部230は、受信部210が受信したセンシングデータに基づいて、ユーザの状態を検出する。上記の通り、センシングデータは、複数のユーザから位置情報とともに提供される。センシングデータは、例えばユーザの生体情報を含む。ユーザ状態検出部230が検出するユーザの状態は、例えば生体情報に基づいて検出される、興奮、鎮静、喜び、怒り、哀しみまたは楽しみなどの感情でありうる。生体情報に基づいて検出されるユーザの感情は、例えば興奮および鎮静を含む軸と、喜びおよび哀しみを含む軸と、といったように、複数の軸によって表現される指標値として検出されてもよい。また、個々の感情が別々の指標値(例えば、興奮80、鎮静20、喜び60、といったような)として検出され、これらの指標値を総合してユーザの状態が検出されてもよい。また、ユーザ状態検出部230は、ユーザの位置情報に基づいてユーザの密集状態を検出したり、ユーザの端末操作履歴に基づいてユーザの集中の対象を検出したりしてもよい。なお、ユーザ状態検出部230は、例示されたユーザの状態のうちの少なくとも1つを検出すればよく、複数の状態を検出してもよい。また、ユーザ状態検出部230は、複数の状態を検出した上で、それらの状態を総合した指標値を算出し、この指標値をユーザの状態を示す情報として提供してもよい。ユーザの状態を検出する方法の具体的な例については後述する。
ユーザ位置検出部240は、受信部210が受信した位置情報に基づいて、ユーザの位置を検出する。ここで、ユーザの位置は、具体的にはセンシング端末100aの位置として検出される。なお、上記の通り、本実施形態ではセンシング端末100aから送信される情報が匿名化されるため、ユーザ位置検出部240では、センシングデータと位置情報との関係が特定されるが、その情報を提供したのがどのユーザであるかは特定されない。
領域設定部250は、ユーザの位置情報が定義される空間において領域を設定する。本実施形態では、領域設定部250によって設定された各領域に位置情報が含まれるユーザ群について、ユーザ状態検出部230によって検出されたユーザの状態が統合される。領域設定部250によって設定される領域は、例えば行政区画やランドマークなど、地図上の領域であってもよい。また、領域設定部250によって設定される領域は、例えばビルのフロアや映画館のスクリーン、遊園地のアトラクションなど、必ずしも地図上には現れない領域であってもよい。なお、領域設定ごとの表示の例については後述する。
なお、他の実施形態として、領域設定部250が、ユーザ位置検出部240が検出した位置情報についてクラスタリングを実行し、各クラスタを領域として定義してもよい。この場合、ユーザが集まっている領域が地図や建物情報などに予め定義されていなくても、位置的に近接しているユーザをユーザ群として認識することが可能である。
また、領域設定部250は、設定した領域の情報をユーザ状態検出部230に提供してもよい。この場合、ユーザ状態検出部230は、予め各ユーザが分類されるユーザ群を認識し、ユーザ群ごとに状態を検出するための閾値を変化させてもよい。この場合、例えば、場所の属性(遊園地や映画館などユーザの感情が変化しやすい場所か、オフィスなどユーザの感情が変化しにくい場所か、など)によって閾値を変化させてもよい。
ユーザ状態統合部260は、位置情報に基づいて定義されるユーザ群ごとに、ユーザ状態検出部230によって検出されたユーザの状態を統合して統合状態情報を生成する。ここで、ユーザの状態の統合とは、例えば「ユーザA:興奮、ユーザB:興奮、ユーザC:鎮静、ユーザD:興奮、ユーザE:鎮静」というユーザ個別の状態の情報を、「興奮度60%」または「興奮ユーザ:3、鎮静ユーザ:2」といったような、ユーザ群に属するユーザの状態を総括して示す情報(統合状態情報)に変換することでありうる。なお、統合状態情報の例については後述する。
状態表示生成部270は、ユーザ状態統合部260によって生成された統合状態情報を位置に対応付けて表示するための情報を生成する。状態表示生成部270は、例えば、統合状態情報を地図上に表示してもよい。あるいは、状態表示生成部270は、統合状態情報を、領域を示すリストの中で表示してもよい。なお、統合状態情報の表示例については後述する。
送信部280は、ネットワークを介して情報表示端末100bと通信する通信装置によって実現される。送信部280は、状態表示生成部270が生成した情報を、情報表示端末100bに送信する。
(2.ユーザ状態の検出の例)
次に、本開示の一実施形態におけるユーザ状態の検出の例について説明する。
(2−1.脈拍を用いた感情の検出)
ユーザ状態検出部230は、例えば以下のようにして、センシング情報として検出されたユーザの脈拍数からユーザの興奮または鎮静を検出することが可能である。なお、脈拍数は興奮していると多くなり、鎮静していると少なくなることが知られている。
(1)センシング端末100aにおいてユーザの脈拍数prを検出したセンシング情報を取得する。
(2)下記の式1〜式3のいずれかを用いて、検出された脈拍数prからフィルタリングされた脈拍数pfを得る。なお、Kは任意のパラメータであり、medianは中央値を算出する関数を示す。
Figure 2014134922
(3)下記のように、フィルタリングされた脈拍数pfと平均値paveとの差を分散で割った値(pf−pave)/σ)を閾値pthresh1および閾値pthresh2と比較した結果に基づいてユーザの感情を推定する。
Figure 2014134922
なお、平均値paveおよび分散σは、例えば推定の対象になっているユーザの平均値および分散であってもよく、他のユーザも含めたユーザ全体の平均値および分散であってもよい。閾値pthresh1および閾値pthresh2は任意に設定されうるが、一例としては0.8σに設定されうる。上述のように、閾値は、ユーザ群ごとに異なる値に設定されてもよい。
(2−2.脳波を用いた感情の検出)
ユーザ状態検出部230は、例えば以下のようにして、センシング情報として検出されたユーザの脳波の強さからユーザの興奮または鎮静を検出することが可能である。なお、脳波のアルファ波の強さは鎮静の度合いを示し、ベータ波の強さは興奮の度合いを示すといわれていることが知られている。
(1)センシング端末100aにおいてユーザの脳波のアルファ波の強さαrおよびベータ波の強さβrを検出したセンシング情報を取得する。
(2)例えば下記の式4〜式6のいずれかを用いて、検出されたアルファ波の強さαrおよびベータ波の強さβrからフィルタリングされたアルファ波の強さαfおよびベータ波の強さβfを得る。なお、Kは任意のパラメータであり、medianは中央値を算出する関数を示す。
Figure 2014134922
下記のように、フィルタリングされたアルファ波の強さαfおよびベータ波の強さβfと、それぞれの平均値αave,βaveとの差をそれぞれの分散で割った値(αf−αave)/σα),(βf−βave)/σβ)を閾値αthreshおよび閾値βthreshと比較した結果に基づいてユーザの感情を推定する。
Figure 2014134922
なお、平均値αave,βaveおよび分散σα,σβは、例えば推定の対象になっているユーザの平均値および分散であってもよく、他のユーザも含めたユーザ全体の平均値および分散であってもよい。閾値αthreshおよび閾値βthreshは任意に設定されうるが、一例としてはそれぞれ0.8σαおよび0.8σβに設定されうる。上述のように、閾値は、ユーザ群ごとに異なる値に設定されてもよい。
(2−3.発汗を用いた感情の検出)
ユーザ状態検出部230は、例えば以下のようにして、センシング情報として検出されたユーザの発汗量からユーザの興奮または鎮静を検出することが可能である。なお、発汗量は興奮していると多くなり、鎮静していると少なくなることが知られている。
(1)センシング端末100aにおいてユーザの発汗量sを検出したセンシング情報を取得する。
(2)下記の式7〜式9のいずれかを用いて、検出された発汗量sからフィルタリングされた発汗量sfを得る。なお、Kは任意のパラメータであり、medianは中央値を算出する関数を示す。
Figure 2014134922
(3)下記のように、フィルタリングされた脈拍数sfと平均値saveとの差を分散で割った値(sf−save)/σ)を閾値sthresh1および閾値sthresh2と比較した結果に基づいてユーザの感情を推定する。
Figure 2014134922
なお、平均値saveおよび分散σは、例えば推定の対象になっているユーザの平均値および分散であってもよく、他のユーザも含めたユーザ全体の平均値および分散であってもよい。閾値sthresh1および閾値sthresh2は任意に設定されうるが、一例としては0.8σに設定されうる。上述のように、閾値は、ユーザ群ごとに異なる値に設定されてもよい。
(2−4.その他の例)
上記の通り、センシング情報として、センシング端末100aから提供される位置情報の履歴を用いることもできる。この場合、例えば、位置情報が互いに近接したユーザが所定の数以上存在する場合に、これらのユーザが密集している状態にあると推定することが可能である。ユーザ状態統合部260は、例えば、ユーザ群に含まれるユーザが密集している状態である場合に、ユーザ群に対応する領域に人が集まっていることを示す統合状態情報を生成してもよい。
また、センシング情報として、センシング端末100aの端末操作履歴を用いることもできる。この場合、例えば、ユーザの端末操作が頻繁であれば、ユーザはその場所で起こっていることよりも端末の操作に集中しているという状態が推定される。例えば、スタジアムにいるユーザの端末操作が頻繁であれば、そのユーザは試合の内容には集中していないことが推定される。スタジアムにいるユーザのうち、このような集中していないユーザの割合が高い場合、ユーザ状態統合部260は「(観戦中の)ユーザが盛り上がっていない」という情報を、統合状態情報として生成してもよい。
この他にも、さまざまな技術を用いてユーザの感情などの状態を推定する技術が既に提案されている。本開示の実施形態は、こうした技術をユーザ状態検出部230に適宜採用して、センシング情報からユーザの状態を検出することが可能である。
(3.表示される情報の例)
次に、図4〜図10を参照して、本開示の一実施形態において表示される情報の例について説明する。
(3−1.地図上での密集状態表示)
図4は、本開示の一実施形態において地図上にユーザの密集状態を表示する例を示す図である。図4を参照すると、地図300上には、密集状態にあるユーザを示すアイコン310が表示される。アイコン310は、遊園地に密集しているユーザを示すアイコン310aと、競馬場に密集しているユーザを示すアイコン310bと、スタジアムに密集しているユーザを示すアイコン310cとを含む。
図示された例では、ユーザ状態検出部230が、位置情報が互いに近接しているユーザが所定の数を超えた場合に、これらのユーザが密集状態にあると推定する。近接判定のための距離は任意に設定されうるが、例えば一般的な人が集まる施設である遊園地や競馬場、スタジアムなどのサイズを基準に設定されてもよい。
また、アイコン310は、密集状態にあるユーザの人数をその数によって表現してもよい。図示された例では、アイコン310a,310bがそれぞれ2つ、アイコン310cが4つ表示されている。例えばこれらのアイコンが密集状態にあるユーザの人数に比例するとすると、遊園地と競馬場にはほぼ同程度の数のユーザが密集しており、スタジアムにはそれらの倍の数のユーザが密集していることがわかる。
別の例として、アイコン310は、ユーザの人数をその色や形状によって表現してもよい。例えば、アイコン310の色は、ユーザの人数が少なければ白く表示され、人数が増えるにしたがって段階的に赤い色で表示されてもよい。あるいは、アイコン310は、ユーザの人数に応じたサイズで表示されてもよい。
上記の例では、ユーザの密集状態が自動的に検出されるため、例えば予め登録されたランドマーク(例えば遊園地、競馬場、スタジアムなど)以外の場所でも、ユーザが密集していることが認識される。それゆえ、例えば街中で突発的に何らかのイベントが開催されてユーザが密集しているような場合でも、その密集を検出することができ、例えばイベントに参加したいユーザをその場所へ誘導することができる。
(3−2.地図上での感情表示)
図5は、本開示の一実施形態において地図上にユーザの感情を表示する例を示す図である。図5を参照すると、地図400上には、それぞれの場所にいるユーザの感情を示すアイコン410,420,430が表示される。アイコン410は喜んでいる人(大人)を示し、アイコン420は悲しんでいる人(大人)を示し、アイコン430は喜んでいる子供を示す。アイコン430は、男の子のアイコン430aと、女の子のアイコン430bとを含む。
図示された例では、ユーザ状態検出部230が、例えば上述した興奮または鎮静の検出や、加速度センサによって検出されるユーザの動きの激しさなどに基づいて、ユーザが喜んでいるか悲しんでいるかを推定する。例えば、ユーザが興奮していて動きが激しければ、そのユーザは喜んでいると推定されうる。また、ユーザが沈静しているか、興奮しているが動きが少なければ、そのユーザは悲しんでいると推定されうる。ユーザが大人であるか子供であるかは、例えば予め登録されたユーザの情報に基づいて判定されてもよい。
さらに、上記の例では、ユーザ状態統合部260および状態表示生成部270が、所定の領域(上記の例では遊園地や競馬場の領域)にいるユーザのうち、喜んでいる/悲しんでいる、大人/子供の数を判定する。それぞれの分類のユーザが所定の数を超えた場合、ユーザの感情を示すアイコン410,420,430がその領域に表示される。このとき、アイコン410,420,430は、それぞれの状態にあるユーザの人数をその数、色、または形状によって表現してもよい。
この例では、それぞれの場所にいるユーザがどのような感情であるかが認識される。また、付加的に、それぞれの場所で喜んだり悲しんだりしているユーザが大人であるか子供であるかも認識される。それゆえ、提供される情報は、例えば外出先を検討しているユーザの行動を支援するために有効でありうる。図示された例の場合、子供連れのユーザは、喜んでいる子供が多くいる遊園地を外出先に選ぶことができる。また、刺激を求めている大人のユーザは、大人の悲喜が交錯する競馬場を外出先に選ぶことができる。
図6は、本開示の一実施形態において拡大した地図上にユーザの感情を表示する例を示す図である。図6を参照すると、遊園地の拡大地図500上には、それぞれの場所(広場、エントランス、各アトラクション)で喜んでいるユーザを示すアイコン510が表示される。拡大地図500は、例えば、図5の例で表示された地図400で、遊園地の部分を選択または拡大した場合に表示されうる。
ここで、地図400との違いとして、拡大地図500では、アイコン510が1種類だけ表示される。これは、遊園地という場所の特性上、悲しんでいるユーザを表示する必要性が低いためである。このように、ユーザ状態検出部230およびユーザ状態統合部260は、表示対象の場所が絞り込まれた場合(または最初から絞り込まれている場合)、その場所の特性に応じて、検出または表示の対象にするユーザの状態の種類を変更してもよい。
アイコン510は、ハート形で表示されており、その数によって喜んでいるユーザの数を表現している。アイコン510は、1人のユーザが喜んでいることを表していてもよいし、2人以上の所定の数のユーザが喜んでいることを表していてもよい。しかし、この例には限らず、例えばアイコン510は図5の例のアイコン430と同様にユーザの表情を表したアイコンであってもよい。また、アイコン510は、その色または形状によって喜んでいるユーザの数を表現してもよい。
ここで、アイコン510の分布は、必ずしもユーザ全体の分布とは一致しない。アイコン510の分布は、ユーザの中でも喜んでいるユーザの分布に一致する。従って、例えば、ジェットコースターが多くのユーザで混雑しているにもかかわらず、アイコン510がそこに分布していないということがありうる。この場合、ジェットコースターは、最近新しくできたので多くのユーザが集まっているが、実際には期待外れのアトラクションであるかもしれない。このような場合に、他のユーザの数だけではなく、その状態を示す情報であるアイコン510が表示されることは、より確実に楽しめる場所にユーザを誘導できるという点で有用である。
(3−3.ユーザの嗜好を反映した表示)
図7は、本開示の一実施形態において地図上の表示にユーザの属性を反映させる例を示す図である。図7を参照すると、地図600上には、ラーメンを示すアイコン610が表示される。アイコン610は、例えば、予め登録されたラーメン店に位置するユーザが興奮していることが検出された場合に表示される。あるいは、アイコン610は、ラーメンを好むことを予め登録したユーザが所定の数以上集まって興奮している場合に表示されてもよい。
このような表示によって、ユーザは、アイコン610が表示された場所に評価の高いラーメン店があることを知ることができる。例えば、地図上に登録されたラーメン店を表示させることは容易であるが、その場合、そのラーメン店が評判がよいかどうかを知ることは容易ではない。しかし、アイコン610は、実際にユーザが興奮しているラーメン店を表示するため、例えばよく知らない土地でラーメン店を探しているユーザの行動を支援するために有効でありうる。
図8は、図7の例において、いずれかの場所を選択した例を示す図である。図8を参照すると、選択した場所に関する情報を表示するポップアップ620の中に、その場所に表示されていたアイコン610が表示されている。ポップアップ620が表示されることによって、ユーザは、アイコン610が表示されていた場所の詳細な情報を得ることができる。
この例で表示されているアイコン610は、上記の図7の例における後者の例、すなわちラーメンを好むことを予め登録したユーザが所定の数以上集まって興奮している場合に表示される。従って、アイコン610が表示される場所は、必ずしもラーメン店であるとは限らない。図示された例では、ポップアップ620として蕎麦屋の情報が表示されており、アイコン610が表示されていた場所が蕎麦屋であったことがわかる。なお、蕎麦は、ラーメンとは異なる種類の麺類である。この場合、ユーザは、「ラーメン好きが集まる蕎麦屋」という、思いがけない発見をする可能性がある。
上記の図7および図8の例のような表示は、例えば、各ユーザが予め登録していたり、ユーザが位置する場所から推測されるユーザの嗜好に基づいて表示される。情報表示端末100bでこのような表示をしたい場合、ユーザは、例えばラーメン店を探すことを明示的に入力し、情報表示端末100bがサーバ200に、「ラーメン好き」という嗜好で表示する情報をフィルタリングすることを要求してもよい。
この場合、例えば、ユーザ状態統合部260は、ユーザ状態検出部230が興奮していることを検出したユーザのうち、ラーメン店に位置するユーザ(所定の属性を有する領域に対応するユーザ群)、またはラーメンを好むことを予め登録しているユーザ(ユーザ群に含まれるユーザのうち、所定の属性を有するユーザ)を抽出し、抽出されたユーザについて統合状態情報を生成する。同様のフィルタリングは、例えば、情報表示端末100bで情報を参照しようとしているユーザが、ラーメンを好むことを予め登録している場合、またはユーザの情報検索履歴などからそのユーザがラーメンを好むことが推定される場合に、自動的に実行されてもよい。
(3−4.建物内の領域についての表示)
図9は、本開示の一実施形態において建物内の領域についてユーザの状態を表示する例を示す図である。図9を参照すると、地図700上の映画館の部分にポップアップ720が表示され、ポップアップ720の中に、映画館のスクリーンごとの興奮しているユーザの数がアイコン710を用いて「ワクワク度」として表示されている。
建物内においても、例えばセンシング端末100aが電波を受信している無線基地局の位置情報を取得するなどして、フロアや部屋の単位で位置情報を取得することが可能である場合がある。この場合、建物内の領域ごとにユーザ群を定義することができる。図示された例では、これを映画館に適用して、それぞれ異なる映画を上映しているスクリーン(映写室)をそれぞれ領域として設定して、スクリーンごとに「ワクワク度」を表示する。このようにして提供される情報は、例えば観る映画を選ぶユーザの行動を支援するために有効でありうる。なお、アイコン710は、スクリーンのリストに表示される点を除き、例えば図6の例におけるアイコン510と同様に表示されうるため、詳細な説明は省略する。
(3−5.地図上ではない表示)
図10は、本開示の一実施形態における地図上ではない表示の例を示す図である。図10を参照すると、画面800には、アイコン810と、嗜好選択表示820とが表示される。画面800は、複数のステージでパフォーマンスが上演されるロックフェスティバルのステージごとの興奮度を表示する。
アイコン810は、各ステージ(A〜E)の領域に位置するユーザのうち、興奮しているユーザの数または割合を示す。ここで、アイコン810の表示にあたっては、嗜好選択表示820によって選択されたユーザの嗜好によるフィルタリングが実施されている。
例えば、嗜好選択表示820によって「ALTERNATIVE」が選択されている場合、ユーザ状態統合部260が音楽の嗜好として「ALTERNATIVE」を登録しているユーザを対象にして興奮度を算出し、結果としてアイコン810aが表示される。アイコン810aは、ステージAおよびステージEでの興奮度が高いことを示している。
一方、嗜好選択表示820によって「HEAVY METAL」が選択された場合、ユーザ状態統合部260が音楽の嗜好として「HEAVY METAL」を登録しているユーザを対象にして興奮度を再算出し、結果としてアイコン810bが表示される。アイコン810bは、アイコン810aとは異なり、ステージCおよびステージDでの興奮度が高いことを示している。
この例では、アイコン810が地図上に表示されるわけではなく、領域(ステージ)のリストの中で表示される。このように、本開示の実施形態において、ユーザの状態を示す表示は、必ずしも地図上に表示されなくてもよい。また、嗜好選択表示820によって選択されたユーザの嗜好に基づいてユーザ状態統合部260がユーザをフィルタリングして興奮度を算出するため、ユーザ自身と同じような嗜好をもった他のユーザが興奮している領域(ステージ)へユーザを誘導することができる。
(4.ハードウェア構成)
次に、図11を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図11は、情報処理装置のハードウェア構成を説明するためのブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるクライアント(センシング端末および情報表示端末)ならびにサーバを実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)などの処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(5.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置(クライアントまたはサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
上記の実施形態では、地図上に表示されるものもそうではないものも含め、現実の空間に定義される位置情報に基づいて統合状態情報を生成したが、本開示の実施形態はこのような例には限られない。例えば、統合状態情報は、仮想的な空間に定義される位置情報に基づいて生成されてもよい。一例として、仮想空間に設定されたフィールドにおける集団対戦ゲームのプレーヤに対して、フィールドの各領域での戦闘の盛り上がりが、参加している他のユーザの興奮度によって提示されてもよい。
また、上記の実施形態では、地図上の領域や、建物のフロアや部屋のような、比較的大きな領域ごとにユーザ群を定義したが、本開示の実施形態はこのような例には限られない。例えば、ユーザ群は、室内に設定される領域ごとに定義されてもよい。一例として、オフィス内の各部署の領域ごとにユーザ群が定義されてもよい。この場合、センシング端末は各ユーザが使用しているPCであり、位置情報はPCに割り当てられたネットワークアドレスから取得されてもよい。例えば、業種によっては、PCの操作履歴をセンシング情報として取得することによって、各部署のスタッフが、全体として勤勉であるのか、そうでないのかを把握することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出するユーザ状態検出部と、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成するユーザ状態統合部と、
前記統合状態情報を位置に対応付けて表示するための情報を生成する状態表示生成部と
を備える情報処理装置。
(2)前記ユーザ状態検出部は、前記複数のユーザの生体情報を含む前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(1)に記載の情報処理装置。
(3)前記ユーザ状態検出部は、前記生体情報に基づく数値を閾値と比較することによって前記複数のユーザの状態を検出する、前記(2)に記載の情報処理装置。
(4)前記ユーザ状態検出部は、前記閾値を前記ユーザ群ごとに設定する、前記(3)に記載の情報処理装置。
(5)前記ユーザ状態検出部は、前記複数のユーザの脈拍、発汗または脳波を含む前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記ユーザ状態検出部は、前記センシングデータに基づいて前記複数のユーザの興奮状態、鎮静状態または喜怒哀楽状態のうちの少なくとも1つを検出する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記ユーザ状態検出部は、前記複数のユーザがそれぞれ携帯する端末装置によって取得された前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記ユーザ状態検出部は、前記端末装置が取得した位置情報を前記センシングデータとして用いて前記複数のユーザの状態を検出する、前記(7)に記載の情報処理装置。
(9)前記ユーザ状態検出部は、前記位置情報に基づいて前記複数のユーザのうちの少なくとも一部のユーザが互いに密集した状態にあることを検出する、前記(8)に記載の情報処理装置。
(10)前記ユーザ状態検出部は、前記端末装置の操作履歴に基づいて前記複数のユーザの状態を検出する、前記(7)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記ユーザ状態検出部は、匿名化された前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記ユーザ状態統合部は、前記位置情報が定義される空間に設定された領域ごとに定義される前記ユーザ群ごとに前記統合状態情報を生成する、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)前記ユーザ状態統合部は、前記領域のうち、所定の属性を有する領域に対応するユーザ群について前記統合状態情報を生成する、前記(12)に記載の情報処理装置。
(14)前記ユーザ状態統合部は、前記ユーザ群に含まれるユーザのうち、所定の属性を有するユーザについて前記統合状態情報を生成する、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)前記状態表示生成部は、前記統合状態情報を示すアイコンを表示するための情報を生成する、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(16)前記アイコンは、数、色または形状によって所定の状態にあるユーザの数を示す、前記(15)に記載の情報処理装置。
(17)前記状態表示生成部は、前記アイコンを地図上に表示するための情報を生成する、前記(15)または(16)に記載の情報処理装置。
(18)前記ユーザ状態統合部は、前記位置情報が定義される空間に設定された領域ごとに定義される前記ユーザ群ごとに前記統合状態情報を生成し、
前記状態表示生成部は、前記アイコンを前記領域のリストに表示するための情報を生成する、前記(15)または(16)に記載の情報処理装置。
(19)複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出することと、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成することと、
前記統合状態情報を位置に対応付けて表示するための情報を生成することと
を含む情報処理方法。
(20)複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出する機能と、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成する機能と、
前記統合状態情報を位置に対応付けて表示するための情報を生成する機能と
をコンピュータに実現させるためのプログラム。
10 システム
100 クライアント
100a センシング端末
100b 情報表示端末
110 センシング部
120 匿名化処理部
140 入力部
160 表示制御部
170 ディスプレイ
200 サーバ
230 状態検出部
240 位置検出部
250 領域設定部
260 ユーザ状態統合部
270 状態表示生成部
300,400,600,700 地図
310,410,510,610,710,810 アイコン
500 拡大地図
800 画面

Claims (20)

  1. 複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出するユーザ状態検出部と、
    前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成するユーザ状態統合部と、
    前記統合状態情報を位置に対応付けて表示するための情報を生成する状態表示生成部と
    を備える情報処理装置。
  2. 前記ユーザ状態検出部は、前記複数のユーザの生体情報を含む前記センシングデータに基づいて前記複数のユーザの状態を検出する、請求項1に記載の情報処理装置。
  3. 前記ユーザ状態検出部は、前記生体情報に基づく数値を閾値と比較することによって前記複数のユーザの状態を検出する、請求項2に記載の情報処理装置。
  4. 前記ユーザ状態検出部は、前記閾値を前記ユーザ群ごとに設定する、請求項3に記載の情報処理装置。
  5. 前記ユーザ状態検出部は、前記複数のユーザの脈拍、発汗または脳波を含む前記センシングデータに基づいて前記複数のユーザの状態を検出する、請求項2に記載の情報処理装置。
  6. 前記ユーザ状態検出部は、前記センシングデータに基づいて前記複数のユーザの興奮状態、鎮静状態または喜怒哀楽状態のうちの少なくとも1つを検出する、請求項2に記載の情報処理装置。
  7. 前記ユーザ状態検出部は、前記複数のユーザがそれぞれ携帯する端末装置によって取得された前記センシングデータに基づいて前記複数のユーザの状態を検出する、請求項1に記載の情報処理装置。
  8. 前記ユーザ状態検出部は、前記端末装置が取得した位置情報を前記センシングデータとして用いて前記複数のユーザの状態を検出する、請求項7に記載の情報処理装置。
  9. 前記ユーザ状態検出部は、前記位置情報に基づいて前記複数のユーザのうちの少なくとも一部のユーザが互いに密集した状態にあることを検出する、請求項8に記載の情報処理装置。
  10. 前記ユーザ状態検出部は、前記端末装置の操作履歴に基づいて前記複数のユーザの状態を検出する、請求項7に記載の情報処理装置。
  11. 前記ユーザ状態検出部は、匿名化された前記センシングデータに基づいて前記複数のユーザの状態を検出する、請求項1に記載の情報処理装置。
  12. 前記ユーザ状態統合部は、前記位置情報が定義される空間に設定された領域ごとに定義される前記ユーザ群ごとに前記統合状態情報を生成する、請求項1に記載の情報処理装置。
  13. 前記ユーザ状態統合部は、前記領域のうち、所定の属性を有する領域に対応するユーザ群について前記統合状態情報を生成する、請求項12に記載の情報処理装置。
  14. 前記ユーザ状態統合部は、前記ユーザ群に含まれるユーザのうち、所定の属性を有するユーザについて前記統合状態情報を生成する、請求項1に記載の情報処理装置。
  15. 前記状態表示生成部は、前記統合状態情報を示すアイコンを表示するための情報を生成する、請求項1に記載の情報処理装置。
  16. 前記アイコンは、数、色または形状によって所定の状態にあるユーザの数を示す、請求項15に記載の情報処理装置。
  17. 前記状態表示生成部は、前記アイコンを地図上に表示するための情報を生成する、請求項15に記載の情報処理装置。
  18. 前記ユーザ状態統合部は、前記位置情報が定義される空間に設定された領域ごとに定義される前記ユーザ群ごとに前記統合状態情報を生成し、
    前記状態表示生成部は、前記アイコンを前記領域のリストに表示するための情報を生成する、請求項15に記載の情報処理装置。
  19. 複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出することと、
    前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成することと、
    前記統合状態情報を位置に対応付けて表示するための情報を生成することと
    を含む情報処理方法。
  20. 複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出する機能と、
    前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成する機能と、
    前記統合状態情報を位置に対応付けて表示するための情報を生成する機能と
    をコンピュータに実現させるためのプログラム。
JP2013001873A 2013-01-09 2013-01-09 情報処理装置、情報処理方法およびプログラム Pending JP2014134922A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013001873A JP2014134922A (ja) 2013-01-09 2013-01-09 情報処理装置、情報処理方法およびプログラム
CN201410001648.0A CN103914139B (zh) 2013-01-09 2014-01-02 信息处理设备、信息处理方法及程序
US14/147,862 US9384494B2 (en) 2013-01-09 2014-01-06 Information processing apparatus, information processing method, and program
US15/171,655 US10990613B2 (en) 2013-01-09 2016-06-02 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013001873A JP2014134922A (ja) 2013-01-09 2013-01-09 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2014134922A true JP2014134922A (ja) 2014-07-24

Family

ID=51039887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013001873A Pending JP2014134922A (ja) 2013-01-09 2013-01-09 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (2) US9384494B2 (ja)
JP (1) JP2014134922A (ja)
CN (1) CN103914139B (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5883960B1 (ja) * 2015-02-13 2016-03-15 日本電信電話株式会社 イベント判定装置、イベント判定方法及びイベント判定プログラム
JP2017035198A (ja) * 2015-08-07 2017-02-16 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム
JP2017058750A (ja) * 2015-09-14 2017-03-23 ヤフー株式会社 生成装置、生成方法および生成プログラム
JP2017138930A (ja) * 2016-02-05 2017-08-10 Kddi株式会社 他端末からの情報を用いて自端末のユーザ状態を判定する端末、システム、プログラム及び方法
KR20180031450A (ko) * 2016-09-20 2018-03-28 황동윤 가상 현실 구현 방법 및 이를 실행하는 시스템
JPWO2017022306A1 (ja) * 2015-08-05 2018-06-07 ソニー株式会社 情報処理システム、及び情報処理方法
WO2019021653A1 (ja) 2017-07-28 2019-01-31 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2019021575A1 (ja) 2017-07-27 2019-01-31 ソニー株式会社 情報処理システム、情報処理装置、情報処理方法、および記録媒体
JP2021170384A (ja) * 2016-05-20 2021-10-28 マジック リープ, インコーポレイテッドMagic Leap, Inc. ユーザインターフェースメニューのコンテキスト認識
KR102441662B1 (ko) * 2022-01-20 2022-09-13 주식회사 비투엔 메타버스를 이용한 케어 플랫폼 서비스 시스템 및 그 제어 방법
JP7422797B2 (ja) 2017-07-12 2024-01-26 パラマウントベッド株式会社 療養支援システム
US12014464B2 (en) 2022-04-06 2024-06-18 Magic Leap, Inc. Contextual awareness of user interface menus

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6263892B2 (ja) * 2013-07-26 2018-01-24 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
US20150356608A1 (en) * 2014-06-10 2015-12-10 Facebook, Inc. Selecting advertisement content for social networking system users based on types of location data associated with the users
WO2015194381A1 (ja) * 2014-06-18 2015-12-23 コニカミノルタ株式会社 通信システム、および受信装置
US11494390B2 (en) 2014-08-21 2022-11-08 Affectomatics Ltd. Crowd-based scores for hotels from measurements of affective response
US11269891B2 (en) 2014-08-21 2022-03-08 Affectomatics Ltd. Crowd-based scores for experiences from measurements of affective response
DE102015113931A1 (de) 2014-08-21 2016-02-25 Affectomatics Ltd. Berechnung von Nachwirkung aus affektiven Reaktionen
WO2016113968A1 (ja) 2015-01-14 2016-07-21 ソニー株式会社 ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体
KR101683809B1 (ko) * 2015-01-16 2016-12-08 네이버 주식회사 만화 데이터 생성 장치, 방법, 컴퓨터 프로그램 및 만화 데이터 표시 장치
WO2016158003A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
KR20160125295A (ko) * 2015-04-21 2016-10-31 삼성전자주식회사 디스플레이 장치 및 그 동작 방법
CN104991464B (zh) * 2015-05-08 2019-01-15 联想(北京)有限公司 一种信息处理方法及控制***
US10769737B2 (en) * 2015-05-27 2020-09-08 Sony Corporation Information processing device, information processing method, and program
JP6657048B2 (ja) * 2016-09-30 2020-03-04 本田技研工業株式会社 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
JP6906197B2 (ja) * 2017-09-29 2021-07-21 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置及び情報処理プログラム
CN110959166B (zh) * 2017-10-13 2024-04-30 索尼公司 信息处理设备、信息处理方法、信息处理***、显示设备和预订***
JP7143892B2 (ja) * 2018-03-05 2022-09-29 オムロン株式会社 人の体重を予測する装置並びに健康管理装置及び方法
CN111837151A (zh) * 2018-03-13 2020-10-27 株式会社钟化 判定***以及判定方法
CN115104099A (zh) * 2020-02-21 2022-09-23 菲利普莫里斯生产公司 用于服务器与用户设备之间的交互式和隐私保护通信的方法和装置
EP4107655B1 (en) * 2020-02-21 2023-12-06 Philip Morris Products S.A. Method and apparatus for interactive and privacy-preserving communication between a server and a user device
JP2021157674A (ja) * 2020-03-29 2021-10-07 インターマン株式会社 混雑確認システム
CN112015731B (zh) * 2020-07-08 2021-10-26 广州乐摇摇信息科技有限公司 基于多终端设备的信息分发方法及***
WO2022124014A1 (ja) * 2020-12-07 2022-06-16 ソニーグループ株式会社 情報処理装置、データの生成方法、グループ化モデルの生成方法、グループ化モデルの学習方法、情動推定モデルの生成方法及びグループ化用ユーザ情報の生成方法

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961332A (en) * 1992-09-08 1999-10-05 Joao; Raymond Anthony Apparatus for processing psychological data and method of use thereof
US7055101B2 (en) * 1998-12-18 2006-05-30 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
JP2002015215A (ja) * 2000-06-30 2002-01-18 Hitachi Ltd マルチメデア情報配信システムおよび携帯情報端末装置
EP1388114A2 (en) * 2001-03-08 2004-02-11 Framtidartaekni Ehf. On-line health monitoring
US20030045311A1 (en) * 2001-08-30 2003-03-06 Tapani Larikka Message transfer from a source device via a mobile terminal device to a third device and data synchronization between terminal devices
US20030171111A1 (en) * 2002-01-29 2003-09-11 Tim Clark Cellular telephone interface apparatus and methods
US7206602B1 (en) * 2002-09-24 2007-04-17 Via Technologies, Inc. Wireless telephone having analog or sensor input
US7031733B2 (en) * 2002-10-25 2006-04-18 Siemens Communications, Inc. Online short message service (SMS) monitoring tool
KR100457813B1 (ko) * 2003-02-07 2004-11-18 삼성전자주식회사 커뮤니티 서비스 제공 시스템 및 방법
JP4838499B2 (ja) 2004-05-21 2011-12-14 オリンパス株式会社 ユーザ支援装置
US7801542B1 (en) * 2005-12-19 2010-09-21 Stewart Brett B Automatic management of geographic information pertaining to social networks, groups of users, or assets
US7856360B2 (en) * 2006-01-30 2010-12-21 Hoozware, Inc. System for providing a service to venues where people aggregate
US7788188B2 (en) * 2006-01-30 2010-08-31 Hoozware, Inc. System for providing a service to venues where people aggregate
US20080091515A1 (en) * 2006-10-17 2008-04-17 Patentvc Ltd. Methods for utilizing user emotional state in a business process
US8652040B2 (en) * 2006-12-19 2014-02-18 Valencell, Inc. Telemetric apparatus for health and environmental monitoring
US20090319172A1 (en) * 2007-04-26 2009-12-24 Timebi, Lda Travel time prediction system
US10331708B2 (en) * 2007-06-29 2019-06-25 Microsoft Technology Licensing, Llc Dynamic awareness involving location
JP4433326B2 (ja) * 2007-12-04 2010-03-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2009187233A (ja) 2008-02-06 2009-08-20 Sony Corp 情報呈示方法、情報呈示装置およびサーバ
US8004391B2 (en) * 2008-11-19 2011-08-23 Immersion Corporation Method and apparatus for generating mood-based haptic feedback
US20100208063A1 (en) * 2009-02-19 2010-08-19 Panasonic Corporation System and methods for improving accuracy and robustness of abnormal behavior detection
CA2778646A1 (en) * 2009-10-23 2011-04-28 Cadio, Inc. Analyzing consumer behavior using electronically-captured consumer location data
US20120041825A1 (en) * 2010-08-16 2012-02-16 Kasargod Kabir S Contextual translation of non-interactive advertisements into interactive advertisements
KR101184515B1 (ko) * 2010-12-20 2012-09-19 경희대학교 산학협력단 사용자 이동 패턴과 감정 정보에 따른 사용자 정보의 제공 서버의 운영 방법
US8676937B2 (en) * 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
US20120311032A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Emotion-based user identification for online experiences
US8649806B2 (en) * 2011-09-02 2014-02-11 Telecommunication Systems, Inc. Aggregate location dynometer (ALD)
US10127564B2 (en) * 2011-09-15 2018-11-13 Stephan HEATH System and method for using impressions tracking and analysis, location information, 2D and 3D mapping, mobile mapping, social media, and user behavior and information for generating mobile and internet posted promotions or offers for, and/or sales of, products and/or services
BR112014010841A8 (pt) * 2011-11-09 2017-06-20 Koninklijke Philips Nv método de provisão de um serviço em uma rede de dados, dispositivo móvel de comunicação eletrônica, e, software de controle para permitir a realização de um método
US20130218967A1 (en) * 2012-02-21 2013-08-22 Stephen Chau System for suggesting activities based on contacts
US20140019867A1 (en) * 2012-07-12 2014-01-16 Nokia Corporation Method and apparatus for sharing and recommending content
US9154558B2 (en) * 2012-10-03 2015-10-06 At&T Intellectual Property I, L.P. System and method of device capability signaling
US9196173B2 (en) * 2012-10-05 2015-11-24 International Business Machines Corporation Visualizing the mood of a group of individuals
US10061977B1 (en) * 2015-04-20 2018-08-28 Snap Inc. Determining a mood for a group
US20170262606A1 (en) * 2016-03-14 2017-09-14 Cornell University Health monitoring using social rhythms stability
US11190472B2 (en) * 2017-01-27 2021-11-30 Sony Corporation Changing display probability of posted information according to relationship disconnection request

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5883960B1 (ja) * 2015-02-13 2016-03-15 日本電信電話株式会社 イベント判定装置、イベント判定方法及びイベント判定プログラム
JPWO2017022306A1 (ja) * 2015-08-05 2018-06-07 ソニー株式会社 情報処理システム、及び情報処理方法
JP2017035198A (ja) * 2015-08-07 2017-02-16 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム
JP2017058750A (ja) * 2015-09-14 2017-03-23 ヤフー株式会社 生成装置、生成方法および生成プログラム
JP2017138930A (ja) * 2016-02-05 2017-08-10 Kddi株式会社 他端末からの情報を用いて自端末のユーザ状態を判定する端末、システム、プログラム及び方法
JP2021170384A (ja) * 2016-05-20 2021-10-28 マジック リープ, インコーポレイテッドMagic Leap, Inc. ユーザインターフェースメニューのコンテキスト認識
KR101885292B1 (ko) * 2016-09-20 2018-09-10 황동윤 가상 현실 구현 방법 및 이를 실행하는 시스템
KR20180031450A (ko) * 2016-09-20 2018-03-28 황동윤 가상 현실 구현 방법 및 이를 실행하는 시스템
JP7422797B2 (ja) 2017-07-12 2024-01-26 パラマウントベッド株式会社 療養支援システム
WO2019021575A1 (ja) 2017-07-27 2019-01-31 ソニー株式会社 情報処理システム、情報処理装置、情報処理方法、および記録媒体
KR20200036811A (ko) 2017-07-27 2020-04-07 소니 주식회사 정보 처리 시스템, 정보 처리 장치, 정보 처리 방법 및 기록 매체
US11388016B2 (en) 2017-07-27 2022-07-12 Sony Corporation Information processing system, information processing device, information processing method, and recording medium
WO2019021653A1 (ja) 2017-07-28 2019-01-31 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR102441662B1 (ko) * 2022-01-20 2022-09-13 주식회사 비투엔 메타버스를 이용한 케어 플랫폼 서비스 시스템 및 그 제어 방법
US12014464B2 (en) 2022-04-06 2024-06-18 Magic Leap, Inc. Contextual awareness of user interface menus

Also Published As

Publication number Publication date
CN103914139A (zh) 2014-07-09
US20140191872A1 (en) 2014-07-10
US20160275175A1 (en) 2016-09-22
US10990613B2 (en) 2021-04-27
US9384494B2 (en) 2016-07-05
CN103914139B (zh) 2017-08-08

Similar Documents

Publication Publication Date Title
JP2014134922A (ja) 情報処理装置、情報処理方法およびプログラム
JP6777201B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11998833B2 (en) Generating collectible items based on location information
US20190220933A1 (en) Presence Granularity with Augmented Reality
US20180300822A1 (en) Social Context in Augmented Reality
US20220278864A1 (en) Information processing system, information processing device, information processing method, and recording medium
US20210200423A1 (en) Information processing apparatus, method, and non-transitory computer readable medium that controls a representation of a user object in a virtual space
US20180322145A1 (en) Information processing device, system, information processing method, and program
US20180316900A1 (en) Continuous Capture with Augmented Reality
CN108293073B (zh) 沉浸式临场感
US20140108530A1 (en) Person of Interest in Augmented Reality
JPWO2016136104A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20140108529A1 (en) Person Filtering in Augmented Reality
JP6733662B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP6233412B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2015087848A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016170667A (ja) 情報処理装置、情報処理方法およびプログラム