JP2014134922A - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2014134922A JP2014134922A JP2013001873A JP2013001873A JP2014134922A JP 2014134922 A JP2014134922 A JP 2014134922A JP 2013001873 A JP2013001873 A JP 2013001873A JP 2013001873 A JP2013001873 A JP 2013001873A JP 2014134922 A JP2014134922 A JP 2014134922A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- users
- state
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 73
- 238000003672 processing method Methods 0.000 title description 5
- 238000001514 detection method Methods 0.000 claims abstract description 64
- 230000010354 integration Effects 0.000 claims abstract description 25
- 206010039897 Sedation Diseases 0.000 claims description 11
- 230000036280 sedation Effects 0.000 claims description 11
- 210000004556 brain Anatomy 0.000 claims description 7
- 230000035900 sweating Effects 0.000 claims description 5
- 230000002996 emotional effect Effects 0.000 claims description 2
- 230000008451 emotion Effects 0.000 description 26
- 238000004891 communication Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 235000009419 Fagopyrum esculentum Nutrition 0.000 description 3
- 240000008620 Fagopyrum esculentum Species 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 235000012149 noodles Nutrition 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 229910001385 heavy metal Inorganic materials 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 210000004243 sweat Anatomy 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000000932 sedative agent Substances 0.000 description 1
- 230000001624 sedative effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/285—Clustering or classification
- G06F16/287—Visualization; Browsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
- G06F21/6254—Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/083—Shipping
- G06Q10/0833—Tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0204—Market segmentation
- G06Q30/0205—Location or geographical consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Z—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
- G16Z99/00—Subject matter not provided for in other main groups of this subclass
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/535—Tracking the activity of the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- Entrepreneurship & Innovation (AREA)
- Finance (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Human Resources & Organizations (AREA)
- Game Theory and Decision Science (AREA)
- Tourism & Hospitality (AREA)
- Primary Health Care (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Bioethics (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Epidemiology (AREA)
- Public Health (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】センシングデータに基づいて検出された各ユーザの状態を統合することで、ユーザにより有益な情報を提供する。
【解決手段】複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出するユーザ状態検出部と、前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成するユーザ状態統合部と、前記統合状態情報を位置に対応付けて表示するための情報を生成する状態表示生成部とを含む情報処理装置が提供される。
【選択図】図3
【解決手段】複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出するユーザ状態検出部と、前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成するユーザ状態統合部と、前記統合状態情報を位置に対応付けて表示するための情報を生成する状態表示生成部とを含む情報処理装置が提供される。
【選択図】図3
Description
本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、ユーザの生体情報などをセンシングした結果から推定されたユーザの状態に基づいてユーザにさまざまな情報を提供する技術が開発されている。例えば、特許文献1には、ユーザの活動状態と環境状況とに基づいて、ユーザの次の活動または行動を支援するユーザ活動支援エージェントが開示されている。また、特許文献2には、写真を撮影したときのユーザの生体情報に基づいて判断される感情を示すアイコンを、写真の撮影位置を示す地図上に表示する技術が開示されている。
例えば、上記のような技術を利用したサービスが普及するにつれて、より多くのユーザの状態を推定したデータが得られるようになる。しかしながら、例えば、複数のユーザについてそれぞれ推定された状態の情報を統合して用いるような技術は提案されていない。特許文献1,2に開示されたような現在の技術では、状態が推定されるユーザと推定された状態に基づく情報提供の対象になるユーザとが同一であったり、地図上に表示されるのが写真を撮影したユーザの感情を示すアイコンに限られていたりして、推定された状態の情報が統合して用いられているとはいえない。
そこで、本開示では、センシングデータに基づいて検出された各ユーザの状態を統合することで、ユーザにより有益な情報を提供することを可能にする、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
本開示によれば、複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出するユーザ状態検出部と、前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成するユーザ状態統合部と、前記統合状態情報を位置に対応付けて表示するための情報を生成する状態表示生成部とを含む情報処理装置が提供される。
また、本開示によれば、複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出することと、前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成することと、前記統合状態情報を位置に対応付けて表示するための情報を生成することとを含む情報処理方法が提供される。
また、本開示によれば、複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出する機能と、前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成する機能と、前記統合状態情報を位置に対応付けて表示するための情報を生成する機能とをコンピュータに実現させるためのプログラムが提供される。
センシングデータに基づいて検出される各ユーザの状態を、ユーザの位置情報に基づいて定義されるユーザ群ごとに統合することで、例えば各位置におけるユーザの状態を総括的に認識することが可能である。こうした総括的な認識は、個別のユーザの状態を認識するのとは違った新たな視点をユーザに与え、例えばユーザの行動を有効に支援したり、ユーザに思いがけない発見をもたらしたりする可能性がある。
このように、本開示によれば、センシングデータに基づいて検出された各ユーザの状態を統合することで、ユーザにより有益な情報を提供することができる。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.機能構成
1−1.システムの構成
1−2.クライアントの構成
1−3.サーバの構成
2.ユーザ状態の検出の例
2−1.脈拍を用いた感情の検出
2−2.脳波を用いた感情の検出
2−3.発汗を用いた感情の検出
2−4.その他の例
3.表示される情報の例
3−1.地図上での密集状態表示
3−2.地図上での感情表示
3−3.ユーザの嗜好を反映した表示
3−4.建物内の領域についての表示
3−5.地図上ではない表示
4.ハードウェア構成
5.補足
1.機能構成
1−1.システムの構成
1−2.クライアントの構成
1−3.サーバの構成
2.ユーザ状態の検出の例
2−1.脈拍を用いた感情の検出
2−2.脳波を用いた感情の検出
2−3.発汗を用いた感情の検出
2−4.その他の例
3.表示される情報の例
3−1.地図上での密集状態表示
3−2.地図上での感情表示
3−3.ユーザの嗜好を反映した表示
3−4.建物内の領域についての表示
3−5.地図上ではない表示
4.ハードウェア構成
5.補足
(1.機能構成)
まず、図1〜図3を参照して、本開示の一実施形態に係るシステムおよび装置の概略的な構成について説明する。
まず、図1〜図3を参照して、本開示の一実施形態に係るシステムおよび装置の概略的な構成について説明する。
(1−1.システムの構成)
図1は、本開示の一実施形態に係るシステムの概略的な構成を示す図である。図1を参照すると、システム10は、クライアント100とサーバ200とを含む。クライアント100とサーバ200とは、有線または無線の各種ネットワークを介して通信する。クライアント100は、センシング端末100aと、情報表示端末100bとを含む。図では、センシング端末100aとして、腕時計型のセンシング端末100a1と、指輪型のセンシング端末100a2とが例示されている。
図1は、本開示の一実施形態に係るシステムの概略的な構成を示す図である。図1を参照すると、システム10は、クライアント100とサーバ200とを含む。クライアント100とサーバ200とは、有線または無線の各種ネットワークを介して通信する。クライアント100は、センシング端末100aと、情報表示端末100bとを含む。図では、センシング端末100aとして、腕時計型のセンシング端末100a1と、指輪型のセンシング端末100a2とが例示されている。
センシング端末100aは、ユーザの状態を検出しうる情報をセンシングデータとして取得し、これを位置情報とともにサーバ200に送信する。センシング端末100aによって取得されるセンシングデータは、例えば、ユーザの脈拍、発汗、または脳波などの生体情報を含みうる。センシング端末100aは、例えばユーザの身体の一部に装着されることによってこのようなセンシングデータを取得する。センシング端末100aの具体的な形状としては、例えば図示された腕時計型や指輪型の他、頭部に装着するHMD(Head Mounted Display)型などがありうる。
あるいは、センシング端末100aは、センシングデータとして、例えばユーザの移動履歴または端末操作履歴などを取得してもよい。この場合、センシング端末100aは、必ずしもユーザの身体の一部に装着される装置でなくてよく、例えばユーザに携帯される携帯電話(スマートフォンを含む)、タブレット型もしくはノート型のPC(Personal Computer)、携帯型メディアプレーヤ、または携帯型ゲーム機などであってもよい。この場合、センシング端末100aは、後述する情報表示端末100bと同一の装置でありうる。また、例えばウェアラブルコンピュータを用いて、センシングデータとして生体情報を取得可能なセンシング端末100aと情報表示端末100bとを同一の装置によって実現してもよい。
サーバ200は、複数のセンシング端末100aから送信された位置情報とセンシングデータとを取得する。なお、センシング端末100aの数は、図示されたように2つだけではなく、さらに多くの数でありうる。サーバ200は、複数のセンシング端末100aから取得した情報に基づいて、各センシング端末100aを装着した複数のユーザの位置が定義される空間において、これらのユーザの状態を位置に対応付けて表示する情報を生成する。さらに、サーバ200は、生成した情報を情報表示端末100bに送信する。
情報表示端末100bは、サーバ200から送信された情報を受信し、ユーザに向けて表示する。上述のように、情報表示端末100bは、センシング端末100aと同一の装置であってもよいし、別個の装置であってもよい。上記のように、情報表示端末100bがセンシング端末100aと同一の装置である場合、情報表示端末100bは、例えば携帯電話(スマートフォンを含む)、タブレット型もしくはノート型のPC(Personal Computer)、携帯型メディアプレーヤ、携帯型ゲーム機、またはウェアラブルコンピュータなどでありうる。一方、情報表示端末100bがセンシング端末100aと別個の装置である場合、情報表示端末100bは上記の各装置でありうる他、携帯型でない装置、例えばデスクトップ型のPCまたはテレビなどでありうる。
上記のセンシング端末100a、情報表示端末100b、およびサーバ200は、いずれも、例えば後述する情報処理装置のハードウェア構成によって実現されうる。この場合、各装置は、必ずしも単一の情報処理装置によって実現されなくてもよく、例えば有線または無線の各種ネットワークを介して接続され、互いに協働する複数の情報処理装置によって実現されてもよい。
(1−2.クライアントの構成)
図2は、本開示の一実施形態に係るクライアントの概略的な機能構成を示す図である。図2を参照すると、クライアント100は、センシング端末100aおよび情報表示端末100bを含む。上記の通り、これらの装置は同一の装置であってもよく、また別個の装置であってもよい。
図2は、本開示の一実施形態に係るクライアントの概略的な機能構成を示す図である。図2を参照すると、クライアント100は、センシング端末100aおよび情報表示端末100bを含む。上記の通り、これらの装置は同一の装置であってもよく、また別個の装置であってもよい。
(センシング端末)
センシング端末100aは、センシング部110と、匿名化処理部120と、送信部130とを有する。センシング端末100aは、さらに入力部140を有してもよい。
センシング端末100aは、センシング部110と、匿名化処理部120と、送信部130とを有する。センシング端末100aは、さらに入力部140を有してもよい。
センシング部110は、サーバ200に送信されるセンシングデータおよび位置情報を取得する。センシング部110は、例えば、位置センサ112と、生体情報センサ114とを含む。位置センサ112は、例えばGPS(Global Positioning System)受信機などを用いてセンシング端末100aの位置(つまりユーザの位置)を検出する。位置情報は、上記のようにサーバ200に送信され、複数のユーザの状態を位置に対応付けて表示する情報を生成するときに用いられる。また、位置情報は、例えばセンシング端末100aまたはサーバ200において履歴として蓄積され、センシングデータとしても用いられる。一方、生体情報センサ114は、例えば脈拍計、発汗計、または脳波計などであり、脈拍、発汗、または脳波などユーザの生体情報を取得する。センシング部110は、上記のセンサ以外にも、例えば加速度センサなどさまざまなセンサを含みうる。
匿名化処理部120は、例えばCPU(Central Processing Unit)などを用いてソフトウェア的に実現される。匿名化処理部120は、センシング部110において取得されたセンシングデータおよび位置情報を、送信部130からサーバ200に送信するにあたって匿名化する。より具体的には、匿名化処理部120は、センシングデータおよび位置情報に、ユーザIDなどとは関係のないIDを付与する。これによって、サーバ200は、センシング端末100aを特定することはできるが、センシング端末100aがどのユーザの端末であるかを特定することはできなくなる。
本実施形態では、ユーザのセンシングデータを統合して情報を抽出するため、各ユーザのセンシングデータは、匿名化された状態でサーバ200に提供されてもかまわない。匿名化の効果として、ユーザが生体情報など個人的なデータを提供しやすくなるということもある。他の実施形態では、匿名化は必ずしも実施されなくてもよく、センシングデータを提供したユーザがサーバ200において特定可能であってもよい。また、サーバ200での情報の生成にあたって、ユーザが子供か大人か、男性か女性かといった情報が用いられる場合には、匿名化処理部120はこれらの情報をサーバ200に送信する情報に含めてもよい。
送信部130は、ネットワークを介してサーバ200と通信する通信装置によって実現される。送信部130は、センシング部110が取得したセンシングデータおよび位置情報が匿名化処理部120において匿名化されたものを、サーバ200に送信する。
付加的な構成として、入力部140におけるユーザの操作履歴が、センシングデータとして取得されてもよい。入力部140は、例えばタッチパッド、キーパッド、またはキーボードなどの各種入力装置によって実現される。操作履歴情報は、入力部140から匿名化処理部120に提供され、位置情報とともに匿名化されて送信部130からサーバ200に送信される。
(情報表示端末)
情報表示端末100bは、受信部150と、表示制御部160と、ディスプレイ170とを有する。
情報表示端末100bは、受信部150と、表示制御部160と、ディスプレイ170とを有する。
受信部150は、ネットワークを介してサーバ200と通信する通信装置によって実現される。受信部150は、サーバにおいて生成された、各ユーザの状態を位置に対応付けて表示する情報を受信する。
表示制御部160は、例えばCPUなどを用いてソフトウェア的に実現される。表示制御部160は、受信部150が受信した情報に基づいて、ディスプレイ170の表示を制御する。図示していないが、情報表示端末100bは、ユーザの操作を受け付ける入力部をさらに有し、ユーザの操作に基づいてディスプレイ170の表示を変化させてもよい。この場合、情報表示端末100bは、サーバ200に対して新たな情報の要求を送信し、受信部150が要求に応じて送信された新たな情報を受信してもよい。なお、ディスプレイ170の表示画面の例については後述する。
(1−3.サーバの構成)
図3は、本開示の一実施形態に係るサーバの概略的な機能構成を示す図である。図3を参照すると、サーバ200は、受信部210と、ストレージ220と、ユーザ状態検出部230と、ユーザ位置検出部240と、領域設定部250と、ユーザ状態統合部260と、状態表示生成部270と、送信部280とを有する。なお、ユーザ状態検出部230と、ユーザ位置検出部240と、領域設定部250と、ユーザ状態統合部260と、状態表示生成部270とは、例えばCPUなどを用いてソフトウェア的に実現される。
図3は、本開示の一実施形態に係るサーバの概略的な機能構成を示す図である。図3を参照すると、サーバ200は、受信部210と、ストレージ220と、ユーザ状態検出部230と、ユーザ位置検出部240と、領域設定部250と、ユーザ状態統合部260と、状態表示生成部270と、送信部280とを有する。なお、ユーザ状態検出部230と、ユーザ位置検出部240と、領域設定部250と、ユーザ状態統合部260と、状態表示生成部270とは、例えばCPUなどを用いてソフトウェア的に実現される。
受信部210は、ネットワークを介してセンシング端末100aと通信する通信装置によって実現される。受信部210は、センシング端末100aにおいて取得されたセンシングデータと位置情報とを受信する。受信部210は、これらの情報をリアルタイムでユーザ状態検出部230またはユーザ位置検出部240に提供してもよく、あるいはストレージ220に一旦格納してもよい。ストレージ220に格納されたセンシングデータおよび位置情報は、必要に応じてユーザ状態検出部230およびユーザ位置検出部240によって読み出される。
ユーザ状態検出部230は、受信部210が受信したセンシングデータに基づいて、ユーザの状態を検出する。上記の通り、センシングデータは、複数のユーザから位置情報とともに提供される。センシングデータは、例えばユーザの生体情報を含む。ユーザ状態検出部230が検出するユーザの状態は、例えば生体情報に基づいて検出される、興奮、鎮静、喜び、怒り、哀しみまたは楽しみなどの感情でありうる。生体情報に基づいて検出されるユーザの感情は、例えば興奮および鎮静を含む軸と、喜びおよび哀しみを含む軸と、といったように、複数の軸によって表現される指標値として検出されてもよい。また、個々の感情が別々の指標値(例えば、興奮80、鎮静20、喜び60、といったような)として検出され、これらの指標値を総合してユーザの状態が検出されてもよい。また、ユーザ状態検出部230は、ユーザの位置情報に基づいてユーザの密集状態を検出したり、ユーザの端末操作履歴に基づいてユーザの集中の対象を検出したりしてもよい。なお、ユーザ状態検出部230は、例示されたユーザの状態のうちの少なくとも1つを検出すればよく、複数の状態を検出してもよい。また、ユーザ状態検出部230は、複数の状態を検出した上で、それらの状態を総合した指標値を算出し、この指標値をユーザの状態を示す情報として提供してもよい。ユーザの状態を検出する方法の具体的な例については後述する。
ユーザ位置検出部240は、受信部210が受信した位置情報に基づいて、ユーザの位置を検出する。ここで、ユーザの位置は、具体的にはセンシング端末100aの位置として検出される。なお、上記の通り、本実施形態ではセンシング端末100aから送信される情報が匿名化されるため、ユーザ位置検出部240では、センシングデータと位置情報との関係が特定されるが、その情報を提供したのがどのユーザであるかは特定されない。
領域設定部250は、ユーザの位置情報が定義される空間において領域を設定する。本実施形態では、領域設定部250によって設定された各領域に位置情報が含まれるユーザ群について、ユーザ状態検出部230によって検出されたユーザの状態が統合される。領域設定部250によって設定される領域は、例えば行政区画やランドマークなど、地図上の領域であってもよい。また、領域設定部250によって設定される領域は、例えばビルのフロアや映画館のスクリーン、遊園地のアトラクションなど、必ずしも地図上には現れない領域であってもよい。なお、領域設定ごとの表示の例については後述する。
なお、他の実施形態として、領域設定部250が、ユーザ位置検出部240が検出した位置情報についてクラスタリングを実行し、各クラスタを領域として定義してもよい。この場合、ユーザが集まっている領域が地図や建物情報などに予め定義されていなくても、位置的に近接しているユーザをユーザ群として認識することが可能である。
また、領域設定部250は、設定した領域の情報をユーザ状態検出部230に提供してもよい。この場合、ユーザ状態検出部230は、予め各ユーザが分類されるユーザ群を認識し、ユーザ群ごとに状態を検出するための閾値を変化させてもよい。この場合、例えば、場所の属性(遊園地や映画館などユーザの感情が変化しやすい場所か、オフィスなどユーザの感情が変化しにくい場所か、など)によって閾値を変化させてもよい。
ユーザ状態統合部260は、位置情報に基づいて定義されるユーザ群ごとに、ユーザ状態検出部230によって検出されたユーザの状態を統合して統合状態情報を生成する。ここで、ユーザの状態の統合とは、例えば「ユーザA:興奮、ユーザB:興奮、ユーザC:鎮静、ユーザD:興奮、ユーザE:鎮静」というユーザ個別の状態の情報を、「興奮度60%」または「興奮ユーザ:3、鎮静ユーザ:2」といったような、ユーザ群に属するユーザの状態を総括して示す情報(統合状態情報)に変換することでありうる。なお、統合状態情報の例については後述する。
状態表示生成部270は、ユーザ状態統合部260によって生成された統合状態情報を位置に対応付けて表示するための情報を生成する。状態表示生成部270は、例えば、統合状態情報を地図上に表示してもよい。あるいは、状態表示生成部270は、統合状態情報を、領域を示すリストの中で表示してもよい。なお、統合状態情報の表示例については後述する。
送信部280は、ネットワークを介して情報表示端末100bと通信する通信装置によって実現される。送信部280は、状態表示生成部270が生成した情報を、情報表示端末100bに送信する。
(2.ユーザ状態の検出の例)
次に、本開示の一実施形態におけるユーザ状態の検出の例について説明する。
次に、本開示の一実施形態におけるユーザ状態の検出の例について説明する。
(2−1.脈拍を用いた感情の検出)
ユーザ状態検出部230は、例えば以下のようにして、センシング情報として検出されたユーザの脈拍数からユーザの興奮または鎮静を検出することが可能である。なお、脈拍数は興奮していると多くなり、鎮静していると少なくなることが知られている。
ユーザ状態検出部230は、例えば以下のようにして、センシング情報として検出されたユーザの脈拍数からユーザの興奮または鎮静を検出することが可能である。なお、脈拍数は興奮していると多くなり、鎮静していると少なくなることが知られている。
(1)センシング端末100aにおいてユーザの脈拍数prtを検出したセンシング情報を取得する。
(2)下記の式1〜式3のいずれかを用いて、検出された脈拍数prtからフィルタリングされた脈拍数pftを得る。なお、Kは任意のパラメータであり、medianは中央値を算出する関数を示す。
(2)下記の式1〜式3のいずれかを用いて、検出された脈拍数prtからフィルタリングされた脈拍数pftを得る。なお、Kは任意のパラメータであり、medianは中央値を算出する関数を示す。
(3)下記のように、フィルタリングされた脈拍数pftと平均値paveとの差を分散で割った値(pft−pave)/σ)を閾値pthresh1および閾値pthresh2と比較した結果に基づいてユーザの感情を推定する。
なお、平均値paveおよび分散σは、例えば推定の対象になっているユーザの平均値および分散であってもよく、他のユーザも含めたユーザ全体の平均値および分散であってもよい。閾値pthresh1および閾値pthresh2は任意に設定されうるが、一例としては0.8σに設定されうる。上述のように、閾値は、ユーザ群ごとに異なる値に設定されてもよい。
(2−2.脳波を用いた感情の検出)
ユーザ状態検出部230は、例えば以下のようにして、センシング情報として検出されたユーザの脳波の強さからユーザの興奮または鎮静を検出することが可能である。なお、脳波のアルファ波の強さは鎮静の度合いを示し、ベータ波の強さは興奮の度合いを示すといわれていることが知られている。
ユーザ状態検出部230は、例えば以下のようにして、センシング情報として検出されたユーザの脳波の強さからユーザの興奮または鎮静を検出することが可能である。なお、脳波のアルファ波の強さは鎮静の度合いを示し、ベータ波の強さは興奮の度合いを示すといわれていることが知られている。
(1)センシング端末100aにおいてユーザの脳波のアルファ波の強さαrtおよびベータ波の強さβrtを検出したセンシング情報を取得する。
(2)例えば下記の式4〜式6のいずれかを用いて、検出されたアルファ波の強さαrtおよびベータ波の強さβrtからフィルタリングされたアルファ波の強さαftおよびベータ波の強さβftを得る。なお、Kは任意のパラメータであり、medianは中央値を算出する関数を示す。
(2)例えば下記の式4〜式6のいずれかを用いて、検出されたアルファ波の強さαrtおよびベータ波の強さβrtからフィルタリングされたアルファ波の強さαftおよびベータ波の強さβftを得る。なお、Kは任意のパラメータであり、medianは中央値を算出する関数を示す。
下記のように、フィルタリングされたアルファ波の強さαftおよびベータ波の強さβftと、それぞれの平均値αave,βaveとの差をそれぞれの分散で割った値(αft−αave)/σα),(βft−βave)/σβ)を閾値αthreshおよび閾値βthreshと比較した結果に基づいてユーザの感情を推定する。
なお、平均値αave,βaveおよび分散σα,σβは、例えば推定の対象になっているユーザの平均値および分散であってもよく、他のユーザも含めたユーザ全体の平均値および分散であってもよい。閾値αthreshおよび閾値βthreshは任意に設定されうるが、一例としてはそれぞれ0.8σαおよび0.8σβに設定されうる。上述のように、閾値は、ユーザ群ごとに異なる値に設定されてもよい。
(2−3.発汗を用いた感情の検出)
ユーザ状態検出部230は、例えば以下のようにして、センシング情報として検出されたユーザの発汗量からユーザの興奮または鎮静を検出することが可能である。なお、発汗量は興奮していると多くなり、鎮静していると少なくなることが知られている。
ユーザ状態検出部230は、例えば以下のようにして、センシング情報として検出されたユーザの発汗量からユーザの興奮または鎮静を検出することが可能である。なお、発汗量は興奮していると多くなり、鎮静していると少なくなることが知られている。
(1)センシング端末100aにおいてユーザの発汗量stを検出したセンシング情報を取得する。
(2)下記の式7〜式9のいずれかを用いて、検出された発汗量stからフィルタリングされた発汗量sftを得る。なお、Kは任意のパラメータであり、medianは中央値を算出する関数を示す。
(2)下記の式7〜式9のいずれかを用いて、検出された発汗量stからフィルタリングされた発汗量sftを得る。なお、Kは任意のパラメータであり、medianは中央値を算出する関数を示す。
(3)下記のように、フィルタリングされた脈拍数sftと平均値saveとの差を分散で割った値(sft−save)/σ)を閾値sthresh1および閾値sthresh2と比較した結果に基づいてユーザの感情を推定する。
なお、平均値saveおよび分散σは、例えば推定の対象になっているユーザの平均値および分散であってもよく、他のユーザも含めたユーザ全体の平均値および分散であってもよい。閾値sthresh1および閾値sthresh2は任意に設定されうるが、一例としては0.8σに設定されうる。上述のように、閾値は、ユーザ群ごとに異なる値に設定されてもよい。
(2−4.その他の例)
上記の通り、センシング情報として、センシング端末100aから提供される位置情報の履歴を用いることもできる。この場合、例えば、位置情報が互いに近接したユーザが所定の数以上存在する場合に、これらのユーザが密集している状態にあると推定することが可能である。ユーザ状態統合部260は、例えば、ユーザ群に含まれるユーザが密集している状態である場合に、ユーザ群に対応する領域に人が集まっていることを示す統合状態情報を生成してもよい。
上記の通り、センシング情報として、センシング端末100aから提供される位置情報の履歴を用いることもできる。この場合、例えば、位置情報が互いに近接したユーザが所定の数以上存在する場合に、これらのユーザが密集している状態にあると推定することが可能である。ユーザ状態統合部260は、例えば、ユーザ群に含まれるユーザが密集している状態である場合に、ユーザ群に対応する領域に人が集まっていることを示す統合状態情報を生成してもよい。
また、センシング情報として、センシング端末100aの端末操作履歴を用いることもできる。この場合、例えば、ユーザの端末操作が頻繁であれば、ユーザはその場所で起こっていることよりも端末の操作に集中しているという状態が推定される。例えば、スタジアムにいるユーザの端末操作が頻繁であれば、そのユーザは試合の内容には集中していないことが推定される。スタジアムにいるユーザのうち、このような集中していないユーザの割合が高い場合、ユーザ状態統合部260は「(観戦中の)ユーザが盛り上がっていない」という情報を、統合状態情報として生成してもよい。
この他にも、さまざまな技術を用いてユーザの感情などの状態を推定する技術が既に提案されている。本開示の実施形態は、こうした技術をユーザ状態検出部230に適宜採用して、センシング情報からユーザの状態を検出することが可能である。
(3.表示される情報の例)
次に、図4〜図10を参照して、本開示の一実施形態において表示される情報の例について説明する。
次に、図4〜図10を参照して、本開示の一実施形態において表示される情報の例について説明する。
(3−1.地図上での密集状態表示)
図4は、本開示の一実施形態において地図上にユーザの密集状態を表示する例を示す図である。図4を参照すると、地図300上には、密集状態にあるユーザを示すアイコン310が表示される。アイコン310は、遊園地に密集しているユーザを示すアイコン310aと、競馬場に密集しているユーザを示すアイコン310bと、スタジアムに密集しているユーザを示すアイコン310cとを含む。
図4は、本開示の一実施形態において地図上にユーザの密集状態を表示する例を示す図である。図4を参照すると、地図300上には、密集状態にあるユーザを示すアイコン310が表示される。アイコン310は、遊園地に密集しているユーザを示すアイコン310aと、競馬場に密集しているユーザを示すアイコン310bと、スタジアムに密集しているユーザを示すアイコン310cとを含む。
図示された例では、ユーザ状態検出部230が、位置情報が互いに近接しているユーザが所定の数を超えた場合に、これらのユーザが密集状態にあると推定する。近接判定のための距離は任意に設定されうるが、例えば一般的な人が集まる施設である遊園地や競馬場、スタジアムなどのサイズを基準に設定されてもよい。
また、アイコン310は、密集状態にあるユーザの人数をその数によって表現してもよい。図示された例では、アイコン310a,310bがそれぞれ2つ、アイコン310cが4つ表示されている。例えばこれらのアイコンが密集状態にあるユーザの人数に比例するとすると、遊園地と競馬場にはほぼ同程度の数のユーザが密集しており、スタジアムにはそれらの倍の数のユーザが密集していることがわかる。
別の例として、アイコン310は、ユーザの人数をその色や形状によって表現してもよい。例えば、アイコン310の色は、ユーザの人数が少なければ白く表示され、人数が増えるにしたがって段階的に赤い色で表示されてもよい。あるいは、アイコン310は、ユーザの人数に応じたサイズで表示されてもよい。
上記の例では、ユーザの密集状態が自動的に検出されるため、例えば予め登録されたランドマーク(例えば遊園地、競馬場、スタジアムなど)以外の場所でも、ユーザが密集していることが認識される。それゆえ、例えば街中で突発的に何らかのイベントが開催されてユーザが密集しているような場合でも、その密集を検出することができ、例えばイベントに参加したいユーザをその場所へ誘導することができる。
(3−2.地図上での感情表示)
図5は、本開示の一実施形態において地図上にユーザの感情を表示する例を示す図である。図5を参照すると、地図400上には、それぞれの場所にいるユーザの感情を示すアイコン410,420,430が表示される。アイコン410は喜んでいる人(大人)を示し、アイコン420は悲しんでいる人(大人)を示し、アイコン430は喜んでいる子供を示す。アイコン430は、男の子のアイコン430aと、女の子のアイコン430bとを含む。
図5は、本開示の一実施形態において地図上にユーザの感情を表示する例を示す図である。図5を参照すると、地図400上には、それぞれの場所にいるユーザの感情を示すアイコン410,420,430が表示される。アイコン410は喜んでいる人(大人)を示し、アイコン420は悲しんでいる人(大人)を示し、アイコン430は喜んでいる子供を示す。アイコン430は、男の子のアイコン430aと、女の子のアイコン430bとを含む。
図示された例では、ユーザ状態検出部230が、例えば上述した興奮または鎮静の検出や、加速度センサによって検出されるユーザの動きの激しさなどに基づいて、ユーザが喜んでいるか悲しんでいるかを推定する。例えば、ユーザが興奮していて動きが激しければ、そのユーザは喜んでいると推定されうる。また、ユーザが沈静しているか、興奮しているが動きが少なければ、そのユーザは悲しんでいると推定されうる。ユーザが大人であるか子供であるかは、例えば予め登録されたユーザの情報に基づいて判定されてもよい。
さらに、上記の例では、ユーザ状態統合部260および状態表示生成部270が、所定の領域(上記の例では遊園地や競馬場の領域)にいるユーザのうち、喜んでいる/悲しんでいる、大人/子供の数を判定する。それぞれの分類のユーザが所定の数を超えた場合、ユーザの感情を示すアイコン410,420,430がその領域に表示される。このとき、アイコン410,420,430は、それぞれの状態にあるユーザの人数をその数、色、または形状によって表現してもよい。
この例では、それぞれの場所にいるユーザがどのような感情であるかが認識される。また、付加的に、それぞれの場所で喜んだり悲しんだりしているユーザが大人であるか子供であるかも認識される。それゆえ、提供される情報は、例えば外出先を検討しているユーザの行動を支援するために有効でありうる。図示された例の場合、子供連れのユーザは、喜んでいる子供が多くいる遊園地を外出先に選ぶことができる。また、刺激を求めている大人のユーザは、大人の悲喜が交錯する競馬場を外出先に選ぶことができる。
図6は、本開示の一実施形態において拡大した地図上にユーザの感情を表示する例を示す図である。図6を参照すると、遊園地の拡大地図500上には、それぞれの場所(広場、エントランス、各アトラクション)で喜んでいるユーザを示すアイコン510が表示される。拡大地図500は、例えば、図5の例で表示された地図400で、遊園地の部分を選択または拡大した場合に表示されうる。
ここで、地図400との違いとして、拡大地図500では、アイコン510が1種類だけ表示される。これは、遊園地という場所の特性上、悲しんでいるユーザを表示する必要性が低いためである。このように、ユーザ状態検出部230およびユーザ状態統合部260は、表示対象の場所が絞り込まれた場合(または最初から絞り込まれている場合)、その場所の特性に応じて、検出または表示の対象にするユーザの状態の種類を変更してもよい。
アイコン510は、ハート形で表示されており、その数によって喜んでいるユーザの数を表現している。アイコン510は、1人のユーザが喜んでいることを表していてもよいし、2人以上の所定の数のユーザが喜んでいることを表していてもよい。しかし、この例には限らず、例えばアイコン510は図5の例のアイコン430と同様にユーザの表情を表したアイコンであってもよい。また、アイコン510は、その色または形状によって喜んでいるユーザの数を表現してもよい。
ここで、アイコン510の分布は、必ずしもユーザ全体の分布とは一致しない。アイコン510の分布は、ユーザの中でも喜んでいるユーザの分布に一致する。従って、例えば、ジェットコースターが多くのユーザで混雑しているにもかかわらず、アイコン510がそこに分布していないということがありうる。この場合、ジェットコースターは、最近新しくできたので多くのユーザが集まっているが、実際には期待外れのアトラクションであるかもしれない。このような場合に、他のユーザの数だけではなく、その状態を示す情報であるアイコン510が表示されることは、より確実に楽しめる場所にユーザを誘導できるという点で有用である。
(3−3.ユーザの嗜好を反映した表示)
図7は、本開示の一実施形態において地図上の表示にユーザの属性を反映させる例を示す図である。図7を参照すると、地図600上には、ラーメンを示すアイコン610が表示される。アイコン610は、例えば、予め登録されたラーメン店に位置するユーザが興奮していることが検出された場合に表示される。あるいは、アイコン610は、ラーメンを好むことを予め登録したユーザが所定の数以上集まって興奮している場合に表示されてもよい。
図7は、本開示の一実施形態において地図上の表示にユーザの属性を反映させる例を示す図である。図7を参照すると、地図600上には、ラーメンを示すアイコン610が表示される。アイコン610は、例えば、予め登録されたラーメン店に位置するユーザが興奮していることが検出された場合に表示される。あるいは、アイコン610は、ラーメンを好むことを予め登録したユーザが所定の数以上集まって興奮している場合に表示されてもよい。
このような表示によって、ユーザは、アイコン610が表示された場所に評価の高いラーメン店があることを知ることができる。例えば、地図上に登録されたラーメン店を表示させることは容易であるが、その場合、そのラーメン店が評判がよいかどうかを知ることは容易ではない。しかし、アイコン610は、実際にユーザが興奮しているラーメン店を表示するため、例えばよく知らない土地でラーメン店を探しているユーザの行動を支援するために有効でありうる。
図8は、図7の例において、いずれかの場所を選択した例を示す図である。図8を参照すると、選択した場所に関する情報を表示するポップアップ620の中に、その場所に表示されていたアイコン610が表示されている。ポップアップ620が表示されることによって、ユーザは、アイコン610が表示されていた場所の詳細な情報を得ることができる。
この例で表示されているアイコン610は、上記の図7の例における後者の例、すなわちラーメンを好むことを予め登録したユーザが所定の数以上集まって興奮している場合に表示される。従って、アイコン610が表示される場所は、必ずしもラーメン店であるとは限らない。図示された例では、ポップアップ620として蕎麦屋の情報が表示されており、アイコン610が表示されていた場所が蕎麦屋であったことがわかる。なお、蕎麦は、ラーメンとは異なる種類の麺類である。この場合、ユーザは、「ラーメン好きが集まる蕎麦屋」という、思いがけない発見をする可能性がある。
上記の図7および図8の例のような表示は、例えば、各ユーザが予め登録していたり、ユーザが位置する場所から推測されるユーザの嗜好に基づいて表示される。情報表示端末100bでこのような表示をしたい場合、ユーザは、例えばラーメン店を探すことを明示的に入力し、情報表示端末100bがサーバ200に、「ラーメン好き」という嗜好で表示する情報をフィルタリングすることを要求してもよい。
この場合、例えば、ユーザ状態統合部260は、ユーザ状態検出部230が興奮していることを検出したユーザのうち、ラーメン店に位置するユーザ(所定の属性を有する領域に対応するユーザ群)、またはラーメンを好むことを予め登録しているユーザ(ユーザ群に含まれるユーザのうち、所定の属性を有するユーザ)を抽出し、抽出されたユーザについて統合状態情報を生成する。同様のフィルタリングは、例えば、情報表示端末100bで情報を参照しようとしているユーザが、ラーメンを好むことを予め登録している場合、またはユーザの情報検索履歴などからそのユーザがラーメンを好むことが推定される場合に、自動的に実行されてもよい。
(3−4.建物内の領域についての表示)
図9は、本開示の一実施形態において建物内の領域についてユーザの状態を表示する例を示す図である。図9を参照すると、地図700上の映画館の部分にポップアップ720が表示され、ポップアップ720の中に、映画館のスクリーンごとの興奮しているユーザの数がアイコン710を用いて「ワクワク度」として表示されている。
図9は、本開示の一実施形態において建物内の領域についてユーザの状態を表示する例を示す図である。図9を参照すると、地図700上の映画館の部分にポップアップ720が表示され、ポップアップ720の中に、映画館のスクリーンごとの興奮しているユーザの数がアイコン710を用いて「ワクワク度」として表示されている。
建物内においても、例えばセンシング端末100aが電波を受信している無線基地局の位置情報を取得するなどして、フロアや部屋の単位で位置情報を取得することが可能である場合がある。この場合、建物内の領域ごとにユーザ群を定義することができる。図示された例では、これを映画館に適用して、それぞれ異なる映画を上映しているスクリーン(映写室)をそれぞれ領域として設定して、スクリーンごとに「ワクワク度」を表示する。このようにして提供される情報は、例えば観る映画を選ぶユーザの行動を支援するために有効でありうる。なお、アイコン710は、スクリーンのリストに表示される点を除き、例えば図6の例におけるアイコン510と同様に表示されうるため、詳細な説明は省略する。
(3−5.地図上ではない表示)
図10は、本開示の一実施形態における地図上ではない表示の例を示す図である。図10を参照すると、画面800には、アイコン810と、嗜好選択表示820とが表示される。画面800は、複数のステージでパフォーマンスが上演されるロックフェスティバルのステージごとの興奮度を表示する。
図10は、本開示の一実施形態における地図上ではない表示の例を示す図である。図10を参照すると、画面800には、アイコン810と、嗜好選択表示820とが表示される。画面800は、複数のステージでパフォーマンスが上演されるロックフェスティバルのステージごとの興奮度を表示する。
アイコン810は、各ステージ(A〜E)の領域に位置するユーザのうち、興奮しているユーザの数または割合を示す。ここで、アイコン810の表示にあたっては、嗜好選択表示820によって選択されたユーザの嗜好によるフィルタリングが実施されている。
例えば、嗜好選択表示820によって「ALTERNATIVE」が選択されている場合、ユーザ状態統合部260が音楽の嗜好として「ALTERNATIVE」を登録しているユーザを対象にして興奮度を算出し、結果としてアイコン810aが表示される。アイコン810aは、ステージAおよびステージEでの興奮度が高いことを示している。
一方、嗜好選択表示820によって「HEAVY METAL」が選択された場合、ユーザ状態統合部260が音楽の嗜好として「HEAVY METAL」を登録しているユーザを対象にして興奮度を再算出し、結果としてアイコン810bが表示される。アイコン810bは、アイコン810aとは異なり、ステージCおよびステージDでの興奮度が高いことを示している。
この例では、アイコン810が地図上に表示されるわけではなく、領域(ステージ)のリストの中で表示される。このように、本開示の実施形態において、ユーザの状態を示す表示は、必ずしも地図上に表示されなくてもよい。また、嗜好選択表示820によって選択されたユーザの嗜好に基づいてユーザ状態統合部260がユーザをフィルタリングして興奮度を算出するため、ユーザ自身と同じような嗜好をもった他のユーザが興奮している領域(ステージ)へユーザを誘導することができる。
(4.ハードウェア構成)
次に、図11を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図11は、情報処理装置のハードウェア構成を説明するためのブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるクライアント(センシング端末および情報表示端末)ならびにサーバを実現しうる。
次に、図11を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図11は、情報処理装置のハードウェア構成を説明するためのブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるクライアント(センシング端末および情報表示端末)ならびにサーバを実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)などの処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(5.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置(クライアントまたはサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
本開示の実施形態は、例えば、上記で説明したような情報処理装置(クライアントまたはサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
上記の実施形態では、地図上に表示されるものもそうではないものも含め、現実の空間に定義される位置情報に基づいて統合状態情報を生成したが、本開示の実施形態はこのような例には限られない。例えば、統合状態情報は、仮想的な空間に定義される位置情報に基づいて生成されてもよい。一例として、仮想空間に設定されたフィールドにおける集団対戦ゲームのプレーヤに対して、フィールドの各領域での戦闘の盛り上がりが、参加している他のユーザの興奮度によって提示されてもよい。
また、上記の実施形態では、地図上の領域や、建物のフロアや部屋のような、比較的大きな領域ごとにユーザ群を定義したが、本開示の実施形態はこのような例には限られない。例えば、ユーザ群は、室内に設定される領域ごとに定義されてもよい。一例として、オフィス内の各部署の領域ごとにユーザ群が定義されてもよい。この場合、センシング端末は各ユーザが使用しているPCであり、位置情報はPCに割り当てられたネットワークアドレスから取得されてもよい。例えば、業種によっては、PCの操作履歴をセンシング情報として取得することによって、各部署のスタッフが、全体として勤勉であるのか、そうでないのかを把握することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出するユーザ状態検出部と、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成するユーザ状態統合部と、
前記統合状態情報を位置に対応付けて表示するための情報を生成する状態表示生成部と
を備える情報処理装置。
(2)前記ユーザ状態検出部は、前記複数のユーザの生体情報を含む前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(1)に記載の情報処理装置。
(3)前記ユーザ状態検出部は、前記生体情報に基づく数値を閾値と比較することによって前記複数のユーザの状態を検出する、前記(2)に記載の情報処理装置。
(4)前記ユーザ状態検出部は、前記閾値を前記ユーザ群ごとに設定する、前記(3)に記載の情報処理装置。
(5)前記ユーザ状態検出部は、前記複数のユーザの脈拍、発汗または脳波を含む前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記ユーザ状態検出部は、前記センシングデータに基づいて前記複数のユーザの興奮状態、鎮静状態または喜怒哀楽状態のうちの少なくとも1つを検出する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記ユーザ状態検出部は、前記複数のユーザがそれぞれ携帯する端末装置によって取得された前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記ユーザ状態検出部は、前記端末装置が取得した位置情報を前記センシングデータとして用いて前記複数のユーザの状態を検出する、前記(7)に記載の情報処理装置。
(9)前記ユーザ状態検出部は、前記位置情報に基づいて前記複数のユーザのうちの少なくとも一部のユーザが互いに密集した状態にあることを検出する、前記(8)に記載の情報処理装置。
(10)前記ユーザ状態検出部は、前記端末装置の操作履歴に基づいて前記複数のユーザの状態を検出する、前記(7)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記ユーザ状態検出部は、匿名化された前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記ユーザ状態統合部は、前記位置情報が定義される空間に設定された領域ごとに定義される前記ユーザ群ごとに前記統合状態情報を生成する、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)前記ユーザ状態統合部は、前記領域のうち、所定の属性を有する領域に対応するユーザ群について前記統合状態情報を生成する、前記(12)に記載の情報処理装置。
(14)前記ユーザ状態統合部は、前記ユーザ群に含まれるユーザのうち、所定の属性を有するユーザについて前記統合状態情報を生成する、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)前記状態表示生成部は、前記統合状態情報を示すアイコンを表示するための情報を生成する、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(16)前記アイコンは、数、色または形状によって所定の状態にあるユーザの数を示す、前記(15)に記載の情報処理装置。
(17)前記状態表示生成部は、前記アイコンを地図上に表示するための情報を生成する、前記(15)または(16)に記載の情報処理装置。
(18)前記ユーザ状態統合部は、前記位置情報が定義される空間に設定された領域ごとに定義される前記ユーザ群ごとに前記統合状態情報を生成し、
前記状態表示生成部は、前記アイコンを前記領域のリストに表示するための情報を生成する、前記(15)または(16)に記載の情報処理装置。
(19)複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出することと、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成することと、
前記統合状態情報を位置に対応付けて表示するための情報を生成することと
を含む情報処理方法。
(20)複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出する機能と、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成する機能と、
前記統合状態情報を位置に対応付けて表示するための情報を生成する機能と
をコンピュータに実現させるためのプログラム。
(1)複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出するユーザ状態検出部と、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成するユーザ状態統合部と、
前記統合状態情報を位置に対応付けて表示するための情報を生成する状態表示生成部と
を備える情報処理装置。
(2)前記ユーザ状態検出部は、前記複数のユーザの生体情報を含む前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(1)に記載の情報処理装置。
(3)前記ユーザ状態検出部は、前記生体情報に基づく数値を閾値と比較することによって前記複数のユーザの状態を検出する、前記(2)に記載の情報処理装置。
(4)前記ユーザ状態検出部は、前記閾値を前記ユーザ群ごとに設定する、前記(3)に記載の情報処理装置。
(5)前記ユーザ状態検出部は、前記複数のユーザの脈拍、発汗または脳波を含む前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記ユーザ状態検出部は、前記センシングデータに基づいて前記複数のユーザの興奮状態、鎮静状態または喜怒哀楽状態のうちの少なくとも1つを検出する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記ユーザ状態検出部は、前記複数のユーザがそれぞれ携帯する端末装置によって取得された前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記ユーザ状態検出部は、前記端末装置が取得した位置情報を前記センシングデータとして用いて前記複数のユーザの状態を検出する、前記(7)に記載の情報処理装置。
(9)前記ユーザ状態検出部は、前記位置情報に基づいて前記複数のユーザのうちの少なくとも一部のユーザが互いに密集した状態にあることを検出する、前記(8)に記載の情報処理装置。
(10)前記ユーザ状態検出部は、前記端末装置の操作履歴に基づいて前記複数のユーザの状態を検出する、前記(7)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記ユーザ状態検出部は、匿名化された前記センシングデータに基づいて前記複数のユーザの状態を検出する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記ユーザ状態統合部は、前記位置情報が定義される空間に設定された領域ごとに定義される前記ユーザ群ごとに前記統合状態情報を生成する、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)前記ユーザ状態統合部は、前記領域のうち、所定の属性を有する領域に対応するユーザ群について前記統合状態情報を生成する、前記(12)に記載の情報処理装置。
(14)前記ユーザ状態統合部は、前記ユーザ群に含まれるユーザのうち、所定の属性を有するユーザについて前記統合状態情報を生成する、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)前記状態表示生成部は、前記統合状態情報を示すアイコンを表示するための情報を生成する、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(16)前記アイコンは、数、色または形状によって所定の状態にあるユーザの数を示す、前記(15)に記載の情報処理装置。
(17)前記状態表示生成部は、前記アイコンを地図上に表示するための情報を生成する、前記(15)または(16)に記載の情報処理装置。
(18)前記ユーザ状態統合部は、前記位置情報が定義される空間に設定された領域ごとに定義される前記ユーザ群ごとに前記統合状態情報を生成し、
前記状態表示生成部は、前記アイコンを前記領域のリストに表示するための情報を生成する、前記(15)または(16)に記載の情報処理装置。
(19)複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出することと、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成することと、
前記統合状態情報を位置に対応付けて表示するための情報を生成することと
を含む情報処理方法。
(20)複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出する機能と、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成する機能と、
前記統合状態情報を位置に対応付けて表示するための情報を生成する機能と
をコンピュータに実現させるためのプログラム。
10 システム
100 クライアント
100a センシング端末
100b 情報表示端末
110 センシング部
120 匿名化処理部
140 入力部
160 表示制御部
170 ディスプレイ
200 サーバ
230 状態検出部
240 位置検出部
250 領域設定部
260 ユーザ状態統合部
270 状態表示生成部
300,400,600,700 地図
310,410,510,610,710,810 アイコン
500 拡大地図
800 画面
100 クライアント
100a センシング端末
100b 情報表示端末
110 センシング部
120 匿名化処理部
140 入力部
160 表示制御部
170 ディスプレイ
200 サーバ
230 状態検出部
240 位置検出部
250 領域設定部
260 ユーザ状態統合部
270 状態表示生成部
300,400,600,700 地図
310,410,510,610,710,810 アイコン
500 拡大地図
800 画面
Claims (20)
- 複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出するユーザ状態検出部と、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成するユーザ状態統合部と、
前記統合状態情報を位置に対応付けて表示するための情報を生成する状態表示生成部と
を備える情報処理装置。 - 前記ユーザ状態検出部は、前記複数のユーザの生体情報を含む前記センシングデータに基づいて前記複数のユーザの状態を検出する、請求項1に記載の情報処理装置。
- 前記ユーザ状態検出部は、前記生体情報に基づく数値を閾値と比較することによって前記複数のユーザの状態を検出する、請求項2に記載の情報処理装置。
- 前記ユーザ状態検出部は、前記閾値を前記ユーザ群ごとに設定する、請求項3に記載の情報処理装置。
- 前記ユーザ状態検出部は、前記複数のユーザの脈拍、発汗または脳波を含む前記センシングデータに基づいて前記複数のユーザの状態を検出する、請求項2に記載の情報処理装置。
- 前記ユーザ状態検出部は、前記センシングデータに基づいて前記複数のユーザの興奮状態、鎮静状態または喜怒哀楽状態のうちの少なくとも1つを検出する、請求項2に記載の情報処理装置。
- 前記ユーザ状態検出部は、前記複数のユーザがそれぞれ携帯する端末装置によって取得された前記センシングデータに基づいて前記複数のユーザの状態を検出する、請求項1に記載の情報処理装置。
- 前記ユーザ状態検出部は、前記端末装置が取得した位置情報を前記センシングデータとして用いて前記複数のユーザの状態を検出する、請求項7に記載の情報処理装置。
- 前記ユーザ状態検出部は、前記位置情報に基づいて前記複数のユーザのうちの少なくとも一部のユーザが互いに密集した状態にあることを検出する、請求項8に記載の情報処理装置。
- 前記ユーザ状態検出部は、前記端末装置の操作履歴に基づいて前記複数のユーザの状態を検出する、請求項7に記載の情報処理装置。
- 前記ユーザ状態検出部は、匿名化された前記センシングデータに基づいて前記複数のユーザの状態を検出する、請求項1に記載の情報処理装置。
- 前記ユーザ状態統合部は、前記位置情報が定義される空間に設定された領域ごとに定義される前記ユーザ群ごとに前記統合状態情報を生成する、請求項1に記載の情報処理装置。
- 前記ユーザ状態統合部は、前記領域のうち、所定の属性を有する領域に対応するユーザ群について前記統合状態情報を生成する、請求項12に記載の情報処理装置。
- 前記ユーザ状態統合部は、前記ユーザ群に含まれるユーザのうち、所定の属性を有するユーザについて前記統合状態情報を生成する、請求項1に記載の情報処理装置。
- 前記状態表示生成部は、前記統合状態情報を示すアイコンを表示するための情報を生成する、請求項1に記載の情報処理装置。
- 前記アイコンは、数、色または形状によって所定の状態にあるユーザの数を示す、請求項15に記載の情報処理装置。
- 前記状態表示生成部は、前記アイコンを地図上に表示するための情報を生成する、請求項15に記載の情報処理装置。
- 前記ユーザ状態統合部は、前記位置情報が定義される空間に設定された領域ごとに定義される前記ユーザ群ごとに前記統合状態情報を生成し、
前記状態表示生成部は、前記アイコンを前記領域のリストに表示するための情報を生成する、請求項15に記載の情報処理装置。 - 複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出することと、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成することと、
前記統合状態情報を位置に対応付けて表示するための情報を生成することと
を含む情報処理方法。 - 複数のユーザから位置情報とともに提供されるセンシングデータに基づいて前記複数のユーザの状態を検出する機能と、
前記位置情報に基づいて定義されるユーザ群ごとに前記検出された状態を統合して統合状態情報を生成する機能と、
前記統合状態情報を位置に対応付けて表示するための情報を生成する機能と
をコンピュータに実現させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013001873A JP2014134922A (ja) | 2013-01-09 | 2013-01-09 | 情報処理装置、情報処理方法およびプログラム |
CN201410001648.0A CN103914139B (zh) | 2013-01-09 | 2014-01-02 | 信息处理设备、信息处理方法及程序 |
US14/147,862 US9384494B2 (en) | 2013-01-09 | 2014-01-06 | Information processing apparatus, information processing method, and program |
US15/171,655 US10990613B2 (en) | 2013-01-09 | 2016-06-02 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013001873A JP2014134922A (ja) | 2013-01-09 | 2013-01-09 | 情報処理装置、情報処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014134922A true JP2014134922A (ja) | 2014-07-24 |
Family
ID=51039887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013001873A Pending JP2014134922A (ja) | 2013-01-09 | 2013-01-09 | 情報処理装置、情報処理方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (2) | US9384494B2 (ja) |
JP (1) | JP2014134922A (ja) |
CN (1) | CN103914139B (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5883960B1 (ja) * | 2015-02-13 | 2016-03-15 | 日本電信電話株式会社 | イベント判定装置、イベント判定方法及びイベント判定プログラム |
JP2017035198A (ja) * | 2015-08-07 | 2017-02-16 | 日本電気株式会社 | 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム |
JP2017058750A (ja) * | 2015-09-14 | 2017-03-23 | ヤフー株式会社 | 生成装置、生成方法および生成プログラム |
JP2017138930A (ja) * | 2016-02-05 | 2017-08-10 | Kddi株式会社 | 他端末からの情報を用いて自端末のユーザ状態を判定する端末、システム、プログラム及び方法 |
KR20180031450A (ko) * | 2016-09-20 | 2018-03-28 | 황동윤 | 가상 현실 구현 방법 및 이를 실행하는 시스템 |
JPWO2017022306A1 (ja) * | 2015-08-05 | 2018-06-07 | ソニー株式会社 | 情報処理システム、及び情報処理方法 |
WO2019021653A1 (ja) | 2017-07-28 | 2019-01-31 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2019021575A1 (ja) | 2017-07-27 | 2019-01-31 | ソニー株式会社 | 情報処理システム、情報処理装置、情報処理方法、および記録媒体 |
JP2021170384A (ja) * | 2016-05-20 | 2021-10-28 | マジック リープ, インコーポレイテッドMagic Leap, Inc. | ユーザインターフェースメニューのコンテキスト認識 |
KR102441662B1 (ko) * | 2022-01-20 | 2022-09-13 | 주식회사 비투엔 | 메타버스를 이용한 케어 플랫폼 서비스 시스템 및 그 제어 방법 |
JP7422797B2 (ja) | 2017-07-12 | 2024-01-26 | パラマウントベッド株式会社 | 療養支援システム |
US12014464B2 (en) | 2022-04-06 | 2024-06-18 | Magic Leap, Inc. | Contextual awareness of user interface menus |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6263892B2 (ja) * | 2013-07-26 | 2018-01-24 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
US20150356608A1 (en) * | 2014-06-10 | 2015-12-10 | Facebook, Inc. | Selecting advertisement content for social networking system users based on types of location data associated with the users |
WO2015194381A1 (ja) * | 2014-06-18 | 2015-12-23 | コニカミノルタ株式会社 | 通信システム、および受信装置 |
US11494390B2 (en) | 2014-08-21 | 2022-11-08 | Affectomatics Ltd. | Crowd-based scores for hotels from measurements of affective response |
US11269891B2 (en) | 2014-08-21 | 2022-03-08 | Affectomatics Ltd. | Crowd-based scores for experiences from measurements of affective response |
DE102015113931A1 (de) | 2014-08-21 | 2016-02-25 | Affectomatics Ltd. | Berechnung von Nachwirkung aus affektiven Reaktionen |
WO2016113968A1 (ja) | 2015-01-14 | 2016-07-21 | ソニー株式会社 | ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体 |
KR101683809B1 (ko) * | 2015-01-16 | 2016-12-08 | 네이버 주식회사 | 만화 데이터 생성 장치, 방법, 컴퓨터 프로그램 및 만화 데이터 표시 장치 |
WO2016158003A1 (ja) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
KR20160125295A (ko) * | 2015-04-21 | 2016-10-31 | 삼성전자주식회사 | 디스플레이 장치 및 그 동작 방법 |
CN104991464B (zh) * | 2015-05-08 | 2019-01-15 | 联想(北京)有限公司 | 一种信息处理方法及控制*** |
US10769737B2 (en) * | 2015-05-27 | 2020-09-08 | Sony Corporation | Information processing device, information processing method, and program |
JP6657048B2 (ja) * | 2016-09-30 | 2020-03-04 | 本田技研工業株式会社 | 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体 |
JP6906197B2 (ja) * | 2017-09-29 | 2021-07-21 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理装置及び情報処理プログラム |
CN110959166B (zh) * | 2017-10-13 | 2024-04-30 | 索尼公司 | 信息处理设备、信息处理方法、信息处理***、显示设备和预订*** |
JP7143892B2 (ja) * | 2018-03-05 | 2022-09-29 | オムロン株式会社 | 人の体重を予測する装置並びに健康管理装置及び方法 |
CN111837151A (zh) * | 2018-03-13 | 2020-10-27 | 株式会社钟化 | 判定***以及判定方法 |
CN115104099A (zh) * | 2020-02-21 | 2022-09-23 | 菲利普莫里斯生产公司 | 用于服务器与用户设备之间的交互式和隐私保护通信的方法和装置 |
EP4107655B1 (en) * | 2020-02-21 | 2023-12-06 | Philip Morris Products S.A. | Method and apparatus for interactive and privacy-preserving communication between a server and a user device |
JP2021157674A (ja) * | 2020-03-29 | 2021-10-07 | インターマン株式会社 | 混雑確認システム |
CN112015731B (zh) * | 2020-07-08 | 2021-10-26 | 广州乐摇摇信息科技有限公司 | 基于多终端设备的信息分发方法及*** |
WO2022124014A1 (ja) * | 2020-12-07 | 2022-06-16 | ソニーグループ株式会社 | 情報処理装置、データの生成方法、グループ化モデルの生成方法、グループ化モデルの学習方法、情動推定モデルの生成方法及びグループ化用ユーザ情報の生成方法 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5961332A (en) * | 1992-09-08 | 1999-10-05 | Joao; Raymond Anthony | Apparatus for processing psychological data and method of use thereof |
US7055101B2 (en) * | 1998-12-18 | 2006-05-30 | Tangis Corporation | Thematic response to a computer user's context, such as by a wearable personal computer |
JP2002015215A (ja) * | 2000-06-30 | 2002-01-18 | Hitachi Ltd | マルチメデア情報配信システムおよび携帯情報端末装置 |
EP1388114A2 (en) * | 2001-03-08 | 2004-02-11 | Framtidartaekni Ehf. | On-line health monitoring |
US20030045311A1 (en) * | 2001-08-30 | 2003-03-06 | Tapani Larikka | Message transfer from a source device via a mobile terminal device to a third device and data synchronization between terminal devices |
US20030171111A1 (en) * | 2002-01-29 | 2003-09-11 | Tim Clark | Cellular telephone interface apparatus and methods |
US7206602B1 (en) * | 2002-09-24 | 2007-04-17 | Via Technologies, Inc. | Wireless telephone having analog or sensor input |
US7031733B2 (en) * | 2002-10-25 | 2006-04-18 | Siemens Communications, Inc. | Online short message service (SMS) monitoring tool |
KR100457813B1 (ko) * | 2003-02-07 | 2004-11-18 | 삼성전자주식회사 | 커뮤니티 서비스 제공 시스템 및 방법 |
JP4838499B2 (ja) | 2004-05-21 | 2011-12-14 | オリンパス株式会社 | ユーザ支援装置 |
US7801542B1 (en) * | 2005-12-19 | 2010-09-21 | Stewart Brett B | Automatic management of geographic information pertaining to social networks, groups of users, or assets |
US7856360B2 (en) * | 2006-01-30 | 2010-12-21 | Hoozware, Inc. | System for providing a service to venues where people aggregate |
US7788188B2 (en) * | 2006-01-30 | 2010-08-31 | Hoozware, Inc. | System for providing a service to venues where people aggregate |
US20080091515A1 (en) * | 2006-10-17 | 2008-04-17 | Patentvc Ltd. | Methods for utilizing user emotional state in a business process |
US8652040B2 (en) * | 2006-12-19 | 2014-02-18 | Valencell, Inc. | Telemetric apparatus for health and environmental monitoring |
US20090319172A1 (en) * | 2007-04-26 | 2009-12-24 | Timebi, Lda | Travel time prediction system |
US10331708B2 (en) * | 2007-06-29 | 2019-06-25 | Microsoft Technology Licensing, Llc | Dynamic awareness involving location |
JP4433326B2 (ja) * | 2007-12-04 | 2010-03-17 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2009187233A (ja) | 2008-02-06 | 2009-08-20 | Sony Corp | 情報呈示方法、情報呈示装置およびサーバ |
US8004391B2 (en) * | 2008-11-19 | 2011-08-23 | Immersion Corporation | Method and apparatus for generating mood-based haptic feedback |
US20100208063A1 (en) * | 2009-02-19 | 2010-08-19 | Panasonic Corporation | System and methods for improving accuracy and robustness of abnormal behavior detection |
CA2778646A1 (en) * | 2009-10-23 | 2011-04-28 | Cadio, Inc. | Analyzing consumer behavior using electronically-captured consumer location data |
US20120041825A1 (en) * | 2010-08-16 | 2012-02-16 | Kasargod Kabir S | Contextual translation of non-interactive advertisements into interactive advertisements |
KR101184515B1 (ko) * | 2010-12-20 | 2012-09-19 | 경희대학교 산학협력단 | 사용자 이동 패턴과 감정 정보에 따른 사용자 정보의 제공 서버의 운영 방법 |
US8676937B2 (en) * | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
US20120311032A1 (en) * | 2011-06-02 | 2012-12-06 | Microsoft Corporation | Emotion-based user identification for online experiences |
US8649806B2 (en) * | 2011-09-02 | 2014-02-11 | Telecommunication Systems, Inc. | Aggregate location dynometer (ALD) |
US10127564B2 (en) * | 2011-09-15 | 2018-11-13 | Stephan HEATH | System and method for using impressions tracking and analysis, location information, 2D and 3D mapping, mobile mapping, social media, and user behavior and information for generating mobile and internet posted promotions or offers for, and/or sales of, products and/or services |
BR112014010841A8 (pt) * | 2011-11-09 | 2017-06-20 | Koninklijke Philips Nv | método de provisão de um serviço em uma rede de dados, dispositivo móvel de comunicação eletrônica, e, software de controle para permitir a realização de um método |
US20130218967A1 (en) * | 2012-02-21 | 2013-08-22 | Stephen Chau | System for suggesting activities based on contacts |
US20140019867A1 (en) * | 2012-07-12 | 2014-01-16 | Nokia Corporation | Method and apparatus for sharing and recommending content |
US9154558B2 (en) * | 2012-10-03 | 2015-10-06 | At&T Intellectual Property I, L.P. | System and method of device capability signaling |
US9196173B2 (en) * | 2012-10-05 | 2015-11-24 | International Business Machines Corporation | Visualizing the mood of a group of individuals |
US10061977B1 (en) * | 2015-04-20 | 2018-08-28 | Snap Inc. | Determining a mood for a group |
US20170262606A1 (en) * | 2016-03-14 | 2017-09-14 | Cornell University | Health monitoring using social rhythms stability |
US11190472B2 (en) * | 2017-01-27 | 2021-11-30 | Sony Corporation | Changing display probability of posted information according to relationship disconnection request |
-
2013
- 2013-01-09 JP JP2013001873A patent/JP2014134922A/ja active Pending
-
2014
- 2014-01-02 CN CN201410001648.0A patent/CN103914139B/zh active Active
- 2014-01-06 US US14/147,862 patent/US9384494B2/en active Active
-
2016
- 2016-06-02 US US15/171,655 patent/US10990613B2/en active Active
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5883960B1 (ja) * | 2015-02-13 | 2016-03-15 | 日本電信電話株式会社 | イベント判定装置、イベント判定方法及びイベント判定プログラム |
JPWO2017022306A1 (ja) * | 2015-08-05 | 2018-06-07 | ソニー株式会社 | 情報処理システム、及び情報処理方法 |
JP2017035198A (ja) * | 2015-08-07 | 2017-02-16 | 日本電気株式会社 | 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム |
JP2017058750A (ja) * | 2015-09-14 | 2017-03-23 | ヤフー株式会社 | 生成装置、生成方法および生成プログラム |
JP2017138930A (ja) * | 2016-02-05 | 2017-08-10 | Kddi株式会社 | 他端末からの情報を用いて自端末のユーザ状態を判定する端末、システム、プログラム及び方法 |
JP2021170384A (ja) * | 2016-05-20 | 2021-10-28 | マジック リープ, インコーポレイテッドMagic Leap, Inc. | ユーザインターフェースメニューのコンテキスト認識 |
KR101885292B1 (ko) * | 2016-09-20 | 2018-09-10 | 황동윤 | 가상 현실 구현 방법 및 이를 실행하는 시스템 |
KR20180031450A (ko) * | 2016-09-20 | 2018-03-28 | 황동윤 | 가상 현실 구현 방법 및 이를 실행하는 시스템 |
JP7422797B2 (ja) | 2017-07-12 | 2024-01-26 | パラマウントベッド株式会社 | 療養支援システム |
WO2019021575A1 (ja) | 2017-07-27 | 2019-01-31 | ソニー株式会社 | 情報処理システム、情報処理装置、情報処理方法、および記録媒体 |
KR20200036811A (ko) | 2017-07-27 | 2020-04-07 | 소니 주식회사 | 정보 처리 시스템, 정보 처리 장치, 정보 처리 방법 및 기록 매체 |
US11388016B2 (en) | 2017-07-27 | 2022-07-12 | Sony Corporation | Information processing system, information processing device, information processing method, and recording medium |
WO2019021653A1 (ja) | 2017-07-28 | 2019-01-31 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR102441662B1 (ko) * | 2022-01-20 | 2022-09-13 | 주식회사 비투엔 | 메타버스를 이용한 케어 플랫폼 서비스 시스템 및 그 제어 방법 |
US12014464B2 (en) | 2022-04-06 | 2024-06-18 | Magic Leap, Inc. | Contextual awareness of user interface menus |
Also Published As
Publication number | Publication date |
---|---|
CN103914139A (zh) | 2014-07-09 |
US20140191872A1 (en) | 2014-07-10 |
US20160275175A1 (en) | 2016-09-22 |
US10990613B2 (en) | 2021-04-27 |
US9384494B2 (en) | 2016-07-05 |
CN103914139B (zh) | 2017-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014134922A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6777201B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11998833B2 (en) | Generating collectible items based on location information | |
US20190220933A1 (en) | Presence Granularity with Augmented Reality | |
US20180300822A1 (en) | Social Context in Augmented Reality | |
US20220278864A1 (en) | Information processing system, information processing device, information processing method, and recording medium | |
US20210200423A1 (en) | Information processing apparatus, method, and non-transitory computer readable medium that controls a representation of a user object in a virtual space | |
US20180322145A1 (en) | Information processing device, system, information processing method, and program | |
US20180316900A1 (en) | Continuous Capture with Augmented Reality | |
CN108293073B (zh) | 沉浸式临场感 | |
US20140108530A1 (en) | Person of Interest in Augmented Reality | |
JPWO2016136104A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20140108529A1 (en) | Person Filtering in Augmented Reality | |
JP6733662B2 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
JP6233412B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2015087848A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2016170667A (ja) | 情報処理装置、情報処理方法およびプログラム |