JP7266984B2 - Server equipment - Google Patents

Server equipment Download PDF

Info

Publication number
JP7266984B2
JP7266984B2 JP2018181667A JP2018181667A JP7266984B2 JP 7266984 B2 JP7266984 B2 JP 7266984B2 JP 2018181667 A JP2018181667 A JP 2018181667A JP 2018181667 A JP2018181667 A JP 2018181667A JP 7266984 B2 JP7266984 B2 JP 7266984B2
Authority
JP
Japan
Prior art keywords
information
emotion
user
time
spatio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018181667A
Other languages
Japanese (ja)
Other versions
JP2020052748A (en
Inventor
伸一 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018181667A priority Critical patent/JP7266984B2/en
Publication of JP2020052748A publication Critical patent/JP2020052748A/en
Application granted granted Critical
Publication of JP7266984B2 publication Critical patent/JP7266984B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、サーバ装置に関する。
The present invention relates to a server device .

特許文献1及び2には、オフィスや駅等において、構内カメラで撮像される実空間と3次元仮想空間データとを対応づけ、ユーザーが該実空間上の「位置」と該位置に存在するオブジェクトを容易に指定することを可能にする情報処理装置が提案されている。 In Patent Documents 1 and 2, in an office, a station, etc., a real space captured by an on-premises camera is associated with three-dimensional virtual space data, and a user can associate a "position" in the real space with an object existing in the position. There has been proposed an information processing apparatus that enables easy designation of .

特開2014-99041号公報JP 2014-99041 A 特開2017-22587号公報JP 2017-22587 A

ところで、遠隔地の全体的な感情分布状況や雰囲気を知りたい場合、他者がいまどこにいるかという位置の情報だけではなく、他者がどういう状況や心理状態にあるかの情報を加えて知ることができれば、より優れた遠隔コミュニケーション支援が実現できると考えられる。 By the way, if you want to know the overall emotional distribution and atmosphere of a remote location, you need to know not only the information on where the other person is now, but also the information on what kind of situation and psychological state the other person is in. It is thought that better remote communication support can be achieved if this is possible.

遠隔コミュニケーション支援システムとしては、たとえばテレビ電話やテレビ会議システムなどが既存にある。しかし、それらを用いても相手と同じ部屋に共にいるときのような感覚にはいたらず、相手と同室にいるときと比べテレビ電話ごしでは他者の状況や状態がわかりづらく感じる、という課題がこれまで遠隔コミュニケーション支援システム全般に対して指摘されており、解決が望まれている。特に、オフィスにおけるチームの雰囲気(チーム全体がギスギスしているか和やかか等)や、駅において多くの他者が楽しそうにしている場所(もしかしたら何か特別なイベントが開催されているのかもしれない場所)が遠隔からも把握できれば、オフィスマネジメントや移動環境をより良好なものにできるであろう。 As remote communication support systems, there are, for example, videophone and videoconference systems. However, even if you use them, you will not feel like you are in the same room as the other person, and you will find it difficult to understand the other person's situation and condition through the videophone compared to when you are in the same room with the other person. has been pointed out for remote communication support systems in general, and a solution is desired. In particular, the atmosphere of the team in the office (whether the whole team is tense or friendly, etc.), or the place where many other people are having fun at the station (perhaps there is some special event being held). If it is possible to ascertain from a remote location where there is no office, it will be possible to improve office management and the mobile environment.

上述の課題を解決するシステム・機能は、構内カメラ等から収集した人物のセンシングデータから感情(心理状態)を推定処理し得られた感情情報を、該人物の位置情報、時刻情報及び人物同一性情報に紐づけ感情時空間情報を生成する感情情報管理サーバと、該感情時空間情報を時刻フィルタリング処理や時系列データ処理を加えて情報提示できる端末装置と、を備えることを特徴とし、ユーザーが遠隔地の全体的な状況や雰囲気に係る情報を得ることができる、情報通信システムによって実現され得る。 The systems and functions that solve the above-mentioned problems are based on the emotional information obtained by estimating and processing a person's emotions (psychological state) from the sensing data of a person collected from cameras in the premises, etc. An emotional information management server that generates spatio-temporal emotional information linked to information, and a terminal device that can present information by applying time filtering processing and time-series data processing to the spatio-temporal emotional information, and a user can It can be implemented by an information communication system that can obtain information about the overall situation and atmosphere of a remote location.

上記のように実現されたシステム・機能は、人々の感情の時空間分布の情報をユーザーに提供し、該ユーザーはある時点の感情の時空間分布情報を見て遠隔地の状況や雰囲気に係る情報を得ることができるため、次にどの場所に行くかを決める判断を行いやすくなる。 The systems/functions realized as described above provide users with information on the spatio-temporal distribution of people's emotions, and the user can see the information on the spatio-temporal distribution of emotions at a certain point in time and can relate to the situation and atmosphere of a remote location. Being informed can help you make better decisions about where to go next.

ここでさらに「あるユーザーにとって次にどの場所に行くのが良いか」といった情報をレコメンド(推薦)する機能があれば、前記次にどの場所に行くかを決める判断を支援する情報提供機能が向上し、上記システムはより高い有用性をユーザーに与え得る。あるいは、「次にどのような雰囲気を体感できそうか」といった情報をレコメンド(推薦)する機能があれば、どのような雰囲気を体感できそうかをユーザーに把握させる情報提供機能の品質が向上し、上記システムはさらに高い有用性をユーザーに与え得る。 Here, if there is a function to recommend information such as "where is the best place to go next for a certain user?" However, the system can provide users with greater usability. Alternatively, if there is a function that recommends information such as "What kind of atmosphere are you likely to experience next?" , the system can provide users with even greater usability.

そこで本発明は、あるユーザーにとって次にどの場所に行くのが良いか、あるいは次にどのような雰囲気を体感できそうかといった情報が、ユーザーに把握されることを支援する技術を提供することを目的とする。 Accordingly, the present invention aims to provide a technique for assisting a user in grasping information such as which place the user should visit next or what kind of atmosphere the user is likely to experience next. aim.

上記問題を解決するために、本発明のある観点によれば、ユーザーの計測データに基づいて生成された感情情報を含む第1の系列情報と、過去の感情情報を含む1または複数の系列情報それぞれとの類似度をパターン照合により得る系列情報パターン照合部と、前記類似度に応じて選択された第2の系列情報から前記パターン照合によって前記第1の時系列情報との対応箇所が特定されると、前記第2の時系列情報のうち前記対応箇所よりも後の時間の時系列情報に基づいて前記ユーザーに提示される推薦情報を生成する推薦情報生成部と、を備える、サーバ装置が提供される。
また、本発明の他の観点によれば、ユーザーの位置情報を含む第1の時系列情報と、過去の位置情報を含む1または複数の時系列情報それぞれとの類似度をパターン照合により得る時系列情報パターン照合部と、前記類似度に応じて選択された第2の時系列情報から前記パターン照合によって前記第1の時系列情報との対応箇所が特定されると、前記第2の時系列情報のうち前記対応箇所よりも後の時間の時系列情報に基づいて前記ユーザーに提示される推薦情報を生成する推薦情報生成部と、を備える、サーバ装置が提供される。
In order to solve the above problem, according to one aspect of the present invention, first time- series information including emotion information generated based on user measurement data, and one or more pieces of past emotion information a time -series information pattern matching unit that obtains a degree of similarity with each of the time -series information by pattern matching ; a recommendation information generation unit configured to generate recommendation information to be presented to the user based on the time-series information of the second time-series information that is later than the corresponding location when the corresponding location is identified; A server device is provided, comprising:
In addition, according to another aspect of the present invention, when the degree of similarity between first time-series information including user location information and each of one or a plurality of time-series information including past location information is obtained by pattern matching When a corresponding portion with the first time-series information is specified by the pattern matching from the second time-series information selected according to the similarity, the second time-series information is identified by the sequence information pattern matching unit. A recommended information generator that generates recommended information to be presented to the user based on time-series information of time after the corresponding portion of the information.

前記第1の系列情報および前記第2の系列情報それぞれは位置情報をさらに含み、前記推薦情報生成部は、複数の第2の系列情報が選択された場合、かつ、前記複数の第2の系列情報のうち前記後の時間系列情報に含まれる対応する位置情報同士が同じエリアに該当する場合、前記後の時間系列情報に含まれる対応する感情情報の代表値に基づいて、前記推薦情報を生成してもよい。
Each of the first time -series information and the second time -series information further includes position information, and the recommendation information generation unit generates the plurality of second time-series information when a plurality of pieces of the second time- series information is selected and the plurality of pieces of the second time-series information If the corresponding location information included in the time -series information of the subsequent time among the time -series information of 2 correspond to the same area, the representative value of the corresponding emotion information included in the time -series information of the subsequent time. Based on this, the recommendation information may be generated.

前記サーバ装置は、前記代表値の確度情報を前記ユーザーに提示される関連情報として生成する関連情報生成部を備えてもよい。 The server device may include a related information generation unit that generates the accuracy information of the representative value as related information to be presented to the user.

前記サーバ装置は、前記第1の系列情報と前記第2の系列情報とのパターンの類似度または前記類似度に関連する情報を前記ユーザーに提示される関連情報として生成する関連情報生成部を備えてもよい。
The server device generates a related information generation unit that generates a degree of similarity between patterns of the first time -series information and the second time -series information or information related to the similarity as related information to be presented to the user. may be provided.

前記サーバ装置は、ユーザー群の位置ごとの滞留時間の情報に基づいて、前記滞留時間の変化の度合いが所定の度合いよりも大きい位置群を前記位置情報に対応するエリアの境界として設定するエリア分割部を備えてもよい。 The server device divides the area by setting a group of positions where the degree of change in the stay time is greater than a predetermined degree as a boundary of the area corresponding to the position information, based on the stay time information for each position of the user group. You may have a part.

前記サーバ装置は、ユーザー群の位置ごとの感情情報の絶対量または変化量の情報に基づいて、前記絶対量または前記変化量の変化の度合いが所定の度合いよりも大きい位置群を前記位置情報に対応するエリアの境界として設定するエリア分割部を備えてもよい。 Based on the information of the absolute amount or the change amount of the emotion information for each position of the user group, the server device stores a position group in which the degree of change in the absolute amount or the change amount is greater than a predetermined degree as the position information. An area dividing unit may be provided for setting the boundaries of the corresponding areas.

以上説明したように本発明によれば、あるユーザーにとって次にどの場所に行くのが良いか、あるいは次にどのような雰囲気を体感できそうかといった情報が、ユーザーに把握されることを支援することが可能な技術が提供される。 As described above, according to the present invention, it is possible for a user to grasp information such as which place to visit next or what kind of atmosphere the user is likely to experience next. technology is provided.

本発明の第1の実施形態に係る情報通信システムの概略的な構成の一例を示す説明図である。1 is an explanatory diagram showing an example of a schematic configuration of an information communication system according to a first embodiment of the present invention; FIG. 同実施形態に係る感情情報管理サーバ、構内カメラ、端末装置のハードウェア構成の一例を示すブロック図である。It is a block diagram showing an example of the hardware configuration of an emotion information management server, a premises camera, and a terminal device according to the same embodiment. 同実施形態に係る構内カメラの機能構成の一例を示すブロック図である。3 is a block diagram showing an example of the functional configuration of the premises camera according to the same embodiment; FIG. 同実施形態に係る感情情報管理サーバの機能構成の一例を示すブロック図である。It is a block diagram showing an example of a functional configuration of an emotion information management server according to the same embodiment. 感情時空間情報管理部によって紐づけ処理され記憶部に記憶される感情時空間情報DBのデータテーブルの一例を説明するための説明図である。FIG. 5 is an explanatory diagram for explaining an example of a data table of an emotion spatio-temporal information DB that is subjected to linking processing by an emotion spatio-temporal information management unit and stored in a storage unit; 感情時空間系列情報の基になるユーザーの行動(位置情報)の変化の例を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining an example of changes in user behavior (positional information) on which emotion spatio-temporal series information is based; 図6に応じた感情時空間系列情報が感情時空間情報DBに記憶されたデータテーブルの一例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of a data table in which emotion spatio-temporal series information according to FIG. 6 is stored in an emotion spatio-temporal information DB; 感情時空間系列情報の基になるユーザーの感情の変化の例を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining an example of a change in user's emotion on which emotion spatio-temporal series information is based; 図8に応じた感情時空間系列情報が感情時空間情報DBに記憶されたデータテーブルの一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of a data table in which emotion spatio-temporal series information according to FIG. 8 is stored in an emotion spatio-temporal information DB; 同実施形態に係る端末装置の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the terminal device which concerns on the same embodiment. 端末装置の表示部に情報提示された表示画面の一例を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining an example of a display screen on which information is presented on a display unit of a terminal device; 端末装置の表示部に情報提示された表示画面の別の一例を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining another example of a display screen on which information is presented on the display unit of the terminal device; 端末装置の表示部に環境変化情報がさらに情報提示された表示画面の例を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining an example of a display screen in which environmental change information is further presented on the display unit of the terminal device; 端末装置の表示部に情報提示された表示画面のさらに別の一例を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining still another example of a display screen on which information is presented on the display unit of the terminal device; 端末装置の表示部に情報提示された表示画面のさらに別の一例を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining still another example of a display screen on which information is presented on the display unit of the terminal device; 端末装置の表示部に情報提示された表示画面のさらに別の一例を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining still another example of a display screen on which information is presented on the display unit of the terminal device; 同実施形態に係る情報通信システムの動作シーケンスの一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of an operation sequence of the information communication system according to the same embodiment; 同実施形態に係る情報通信システムの動作シーケンスの一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of an operation sequence of the information communication system according to the same embodiment; 本発明の第2の実施形態に係る感情情報管理サーバの機能構成の一例を示すブロック図である。FIG. 9 is a block diagram showing an example of functional configuration of an emotion information management server according to the second embodiment of the present invention; 端末装置の表示部に情報提示された表示画面の一例を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining an example of a display screen on which information is presented on a display unit of a terminal device; 端末装置の表示部に情報提示された表示画面の別の一例を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining another example of a display screen on which information is presented on the display unit of the terminal device; 端末装置の表示部に情報提示された表示画面の別の一例を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining another example of a display screen on which information is presented on the display unit of the terminal device; 本発明の第2の実施形態に係る感情情報管理サーバの機能構成の一例を示すブロック図である。FIG. 9 is a block diagram showing an example of functional configuration of an emotion information management server according to the second embodiment of the present invention; エリア分割の方法について具体的に説明するための説明図である。FIG. 4 is an explanatory diagram for specifically explaining a method of area division;

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

また、本明細書及び図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 In addition, in the present specification and drawings, a plurality of constituent elements having substantially the same or similar functional configurations are distinguished by attaching different alphabets after the same reference numerals. However, when there is no particular need to distinguish between a plurality of components having substantially the same or similar functional configurations, only the same reference numerals are used.

(0.概要)
まず、本発明の実施形態の概要について説明する。既に説明したように、「あるユーザーにとって次にどの場所に行くのが良いか」といった情報をレコメンド(推薦)する機能があれば、前記次にどの場所に行くかを決める判断を支援する情報提供機能が向上し、上記システムはさらに高い有用性をユーザーに与え得る。あるいは、「次にどのような雰囲気を体感できそうか」といった情報をレコメンド(推薦)する機能があれば、どのような雰囲気を体感できそうかをユーザーに把握させる情報提供機能が向上し、上記システムはさらに高い有用性をユーザーに与え得る。
(0. Overview)
First, an outline of an embodiment of the present invention will be described. As already explained, if there is a function that recommends information such as "where is the best place to go next for a certain user?" With increased functionality, the system can provide greater usability to the user. Alternatively, if there is a function that recommends information such as "What kind of atmosphere are you likely to experience next?" The system can provide users with even greater usability.

そこで、本発明の実施形態では、あるユーザーにとって次にどの場所に行くのが良いか、あるいは次にどのような雰囲気を体感できそうかといった情報が、ユーザーに把握されることを支援する技術について主に説明する。 Therefore, in an embodiment of the present invention, a technique for assisting a user to grasp information such as which place the user should visit next or what kind of atmosphere the user is likely to experience next. Mainly explained.

より具体的な例として、「次にどの場所に行くとユーザーにとってより良い状況や雰囲気になるか」をレコメンド(推薦)する機能(たとえば「あなたはいまからこの店に行けばポジティブ感情が高まりますよ」という通知情報の配信等)があれば、前記次にどの場所に行くかを決める判断を支援する情報提供機能が向上し、上記システムはさらに高い有用性をユーザーに与え得る。 As a more specific example, a function that recommends ``where to go next will create a better situation and atmosphere for the user?'' If there is a delivery of notification information such as "Yo", the information provision function that supports the decision to decide which place to go next will be improved, and the above system can provide even higher usability to the user.

そこで、本発明の実施形態では、複数の前記感情時空間情報を時系列に組み合わせた情報(以下、感情時空間系列情報)をさらに生成する感情情報管理サーバと、該感情時空間系列情報を提示できる端末装置と、を備えることを特徴とし、遠隔地のどの場所に行けばより良い状況や雰囲気になれるかという推薦情報をユーザーが得ることができる、情報通信システムについても説明する。 Therefore, in the embodiment of the present invention, an emotion information management server further generates information obtained by combining a plurality of the emotion spatio-temporal information in time series (hereinafter referred to as emotion spatio-temporal series information), and presents the emotion spatio-temporal series information. An information communication system will also be described, which is characterized by being equipped with a terminal device capable of communicating with the user, and which allows the user to obtain recommendation information indicating which remote place to go to for a better situation and atmosphere.

(1.第1の実施形態)
続いて、図1を参照して、本発明の実施形態に係る情報通信システムの概略的な構成を説明する。
(1. First embodiment)
Next, a schematic configuration of an information communication system according to an embodiment of the present invention will be described with reference to FIG.

図1は、本実施形態に係る情報通信システムの概略的な構成の一例を示す説明図である。図1を参照すると、本情報通信システムは、感情情報管理サーバ100、複数のユーザー900、構内カメラ200、端末装置300、LAN50を含む。 FIG. 1 is an explanatory diagram showing an example of a schematic configuration of an information communication system according to this embodiment. Referring to FIG. 1, this information communication system includes an emotion information management server 100, a plurality of users 900, a premises camera 200, a terminal device 300, and a LAN50.

本情報通信システムは遠隔地間の情報通信機能を有するため、複数のユーザー900は互いに空間的に離れて存在してもよく、図1では、拠点bAにユーザー900A、構内カメラ200A、端末装置300A、拠点bBCに、ユーザー900B、900C及び900D、構内カメラ200B、200C及び200Z、端末装置300Bが存在するケースを一例として図示している。構内カメラ200Cはユーザー900C及び900Dを共に撮像範囲内に含み、構内カメラ200B及び200Zは異なる方向からユーザー900Bを撮像している。ユーザー900A、900B、900C及び900Dは、たとえば互いに遠隔協働(テレワーク)を行っていてもよく、拠点bAと拠点bBCはリモートオフィスの関係であってもよい。 Since this information communication system has an information communication function between remote locations, a plurality of users 900 may exist spatially apart from each other. , users 900B, 900C and 900D, local cameras 200B, 200C and 200Z, and a terminal device 300B at base bBC. Precinct camera 200C includes both users 900C and 900D within its imaging range, while precinct cameras 200B and 200Z image user 900B from different directions. Users 900A, 900B, 900C, and 900D may, for example, perform remote collaboration (telework) with each other, and base bA and base bBC may be in a remote office relationship.

なお、構内カメラ200Aと端末装置300Aはユーザー900Aの個別使用端末であってもよく、その場合、ユーザー900Aと構内カメラ200Aと端末装置300Aとは、それぞれと対応づけられた通信用の識別情報(以下「通信用ID」;たとえば電話番号やIP(Internet Protocol)アドレス)のデータ同士を相互に紐づける設定処理を予め行われ、該設定のデータは感情情報管理サーバ100に記憶されていてもよい(ユーザー900B、900C、900Dの場合も同様)。 In addition, the premises camera 200A and the terminal device 300A may be individual use terminals of the user 900A. A setting process may be carried out in advance to mutually link data such as a "communication ID"; for example, a telephone number or an IP (Internet Protocol) address, and the setting data may be stored in the emotion information management server 100. (Same for users 900B, 900C, 900D).

図2は、本実施形態に係る感情情報管理サーバ100、構内カメラ200、端末装置300(以下、感情情報管理サーバ100、構内カメラ200及び端末装置300それぞれを区別せずに「本実施形態に係る装置」と言う場合がある。)のハードウェア構成の一例を示すブロック図である。なお、上記の各装置のすべてに下記のハードウェア構成のすべてが備えられている必要はなく(たとえば感情情報管理サーバ100に直接的にセンサが備えられている必要はない)、後述する各装置の機能構成を実現できるハードウェアモジュールが適宜限定して備えられてもよい。 FIG. 2 shows the emotion information management server 100, the premises camera 200, and the terminal device 300 according to the present embodiment (hereafter, without distinguishing between the emotion information management server 100, the premises camera 200, and the terminal device 300), the 1 is a block diagram showing an example of the hardware configuration of a device. It should be noted that it is not necessary for all of the devices described above to have all of the hardware configurations described below (for example, the emotion information management server 100 need not have sensors directly), and each device described later. A hardware module capable of realizing the functional configuration of may be appropriately limited and provided.

図2を参照すると、本実施形態に係る装置は、バス801、CPU(Central Processing Unit)803、ROM(Read Only Memory)805、RAM(Random Access Memory)807、記憶装置809、通信インタフェース811、センサ813、入力装置815、表示装置817、スピーカ819を備える。 Referring to FIG. 2, the device according to this embodiment includes a bus 801, a CPU (Central Processing Unit) 803, a ROM (Read Only Memory) 805, a RAM (Random Access Memory) 807, a storage device 809, a communication interface 811, a sensor 813 , an input device 815 , a display device 817 and a speaker 819 .

CPU803は、本実施形態に係る装置における様々な処理を実行する。また、ROM805は、本実施形態に係る装置における処理をCPU803に実行させるためのプログラム及びデータを記憶する。また、RAM807は、CPU803の処理の実行時に、プログラム及びデータを一時的に記憶する。 A CPU 803 executes various processes in the apparatus according to this embodiment. The ROM 805 also stores programs and data for causing the CPU 803 to execute processing in the apparatus according to this embodiment. The RAM 807 also temporarily stores programs and data when the CPU 803 executes processing.

バス801は、CPU803、ROM805及びRAM807を相互に接続する。バス801には、さらに、記憶装置809、通信インタフェース811、センサ813、入力装置815、表示装置817及びスピーカ819が接続される。バス801は、例えば、複数の種類のバスを含む。一例として、バス801は、CPU803、ROM805及びRAM807を接続する高速バスと、該高速バスよりも低速の1つ以上の別のバスを含む。 A bus 801 interconnects the CPU 803 , ROM 805 and RAM 807 . A storage device 809 , a communication interface 811 , a sensor 813 , an input device 815 , a display device 817 and a speaker 819 are also connected to the bus 801 . Bus 801 includes, for example, multiple types of buses. As an example, bus 801 includes a high speed bus connecting CPU 803, ROM 805 and RAM 807, and one or more other buses that are slower than the high speed bus.

記憶装置809は、本実施形態に係る装置内で一時的または恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、または、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash
memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access
Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。
A storage device 809 stores data to be temporarily or permanently stored in the device according to this embodiment. The storage device 809 may be, for example, a magnetic storage device such as a hard disk, or an EEPROM (Electrically Erasable and Programmable Read Only Memory), flash memory (flash memory).
memory), MRAM (Magnetoresistive Random Access Memory), FeRAM (Ferroelectric Random Access Memory)
Memory) and PRAM (Phase change Random Access Memory) or other nonvolatile memory.

通信インタフェース811は、本実施形態に係る装置が備える通信手段であり、ネットワークを介して(あるいは直接的に)外部装置と通信する。通信インタフェース811は、無線通信用のインタフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インタフェース811は、有線通信用のインタフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。 A communication interface 811 is communication means provided in the device according to the present embodiment, and communicates with an external device via a network (or directly). The communication interface 811 may be an interface for wireless communication, in which case it may include, for example, a communication antenna, RF circuits and other circuits for processing communication. Also, the communication interface 811 may be an interface for wired communication, and in this case may include, for example, a LAN terminal, a transmission circuit, and other circuits for communication processing.

センサ813は、たとえばカメラ、マイクロフォン、生体センサ、その他のセンサまたはそれらの複合である。カメラは、被写体を撮像するもので、例えば光学系、撮像素子及び画像処理回路を含む。マイクロフォンは、周囲の音を収音するもので、該音を電気信号へ変換し該電気信号をデジタルデータに変換する。 Sensor 813 is, for example, a camera, microphone, biosensor, other sensor, or a combination thereof. A camera captures an image of a subject, and includes, for example, an optical system, an image sensor, and an image processing circuit. A microphone picks up ambient sound, converts the sound into an electrical signal, and converts the electrical signal into digital data.

入力装置815は、タッチパネル、マウス、視線検出装置等である。表示装置817は、本実施形態に係る装置からの出力画像(すなわち表示画面)を表示するもので、例えば液晶、有機EL(Organic Light-Emitting Diode)、CRT(Cathode Ray Tube)等を用いて実現され得る。スピーカ819は、音声を出力するもので、デジタルデータを電気信号に変換し該電気信号を音声に変換する。 The input device 815 is a touch panel, mouse, line-of-sight detection device, or the like. A display device 817 displays an output image (that is, a display screen) from the device according to the present embodiment, and is realized using, for example, a liquid crystal, an organic EL (organic light-emitting diode), a CRT (cathode ray tube), or the like. can be The speaker 819 outputs sound, converts digital data into an electric signal, and converts the electric signal into sound.

次に、図3を参照して、本実施形態に係る「構内カメラ200」の機能構成の一例を説明する。構内カメラ200は、実世界の計測データを生成する機能を有し、ユーザー900の行動(表情、身振り、音声等を含む)や生理反応等を外的に計測して取得したデータを後述する感情情報管理サーバ100へ送信する。 Next, an example of the functional configuration of the "precinct camera 200" according to this embodiment will be described with reference to FIG. The premises camera 200 has a function of generating measurement data in the real world. Send to the information management server 100 .

図3は、本実施形態に係る構内カメラ200の機能構成の一例を示すブロック図である。図3を参照すると、構内カメラ200は、通信部210、計測部220及び制御部230を備える。なお、図3には図示していないが、構内カメラ200は、計測データを保存するための記憶部や、内部動作状況をユーザーに示すための表示部等をさらに備えていてもよい。 FIG. 3 is a block diagram showing an example of the functional configuration of the premises camera 200 according to this embodiment. Referring to FIG. 3 , the premises camera 200 includes a communication section 210 , a measurement section 220 and a control section 230 . Although not shown in FIG. 3, the premises camera 200 may further include a storage unit for storing measurement data, a display unit for showing the internal operation status to the user, and the like.

通信部210は、他の装置と通信する。たとえば、通信部210は、LAN50に直接的に接続され、感情情報管理サーバ100と通信する。また、他の構内カメラ200と通信してもよい。なお、通信部210は、通信インタフェース811により実装され得る。 Communication unit 210 communicates with other devices. For example, communication unit 210 is directly connected to LAN 50 and communicates with emotion information management server 100 . It may also communicate with other premises cameras 200 . Note that the communication unit 210 can be implemented by the communication interface 811 .

計測部220は、実世界の計測データ(たとえばオフィスや駅構内の俯瞰的画角の撮映像)や、ユーザー900の行動や生理反応を外的に計測してデータを取得する。 The measurement unit 220 acquires data by externally measuring real-world measurement data (for example, an image captured with a bird's-eye view of an office or a train station) and behavior and physiological reactions of the user 900 .

前記行動や生体反応のデータは、たとえば、カメラにより計測される顔表情や身体姿勢の状態内容を含む画像データ、マイクロフォンにより計測される音声データである。さらには、人体の撮像データにおける肌の色の微細な変化から推定する脈拍データ、眼の撮像データから推定する視線運動データや瞳孔径データ、該カメラに赤外線サーモグラフィ機能が備えられていれば計測できる皮膚温分布データ等、ユーザーの自律神経系活動情報を反映する高次の生理指標データであってもよい。 The data of behavior and biological reaction are, for example, image data including facial expression and body posture state content measured by a camera, and voice data measured by a microphone. Furthermore, pulse data estimated from minute changes in skin color in imaged data of the human body, gaze movement data and pupil diameter data estimated from eye imaged data, and infrared thermography function can be measured if the camera is equipped with it. High-level physiological index data that reflects the user's autonomic nervous system activity information, such as skin temperature distribution data, may also be used.

前記推定の処理は、後述する制御部230により構内カメラ200内で行われてもよいし、構内カメラ200から後述する感情情報管理サーバ100へ生の測定データを送信し感情情報管理サーバ100内で行われてもよい。また、後述するように、前記行動や生体反応のデータは、端末装置300が備えるセンサ部によって取得されてもよい。なお、計測部220は、センサ813により実装され得る。 The estimation processing may be performed in the premises camera 200 by the control unit 230 described later, or raw measurement data is transmitted from the premises camera 200 to the emotion information management server 100 described later, and the emotion information management server 100 may be done. In addition, as will be described later, the data of the behavior and biological reaction may be acquired by a sensor unit included in the terminal device 300 . Note that the measurement unit 220 can be implemented by the sensor 813 .

構内カメラ200は、図1の200Aのように1名のユーザー900に対応して1台存在してもよいし、協働空間における環境埋め込み型のセンサを想定して図1の200Cのように1台の構内カメラ200が複数のユーザー900のセンサデータを取得しても構わない。その場合、構内カメラ200は複数のユーザー900それぞれについてセンサデータと計測対象人物の識別データとの1対1対応の紐づけ処理を行って、センサデータと計測対象人物の識別データとの各組み合わせを記憶または送信する。前記計測対象人物の識別データは、どのようにして得られてもよく、一例として、カメラによる撮像画像から顔認識によって特定される人物の識別データであってもよい。 The premises camera 200 may be one unit corresponding to one user 900 as shown by 200A in FIG. 1, or as shown by 200C in FIG. A single premises camera 200 may acquire sensor data of a plurality of users 900 . In this case, the premises camera 200 performs one-to-one linking processing of the sensor data and the identification data of the person to be measured for each of the plurality of users 900, and determines each combination of the sensor data and the identification data of the person to be measured. store or transmit; The identification data of the person to be measured may be obtained in any manner, and as an example, may be identification data of a person specified by face recognition from an image captured by a camera.

制御部230は、構内カメラ200の様々な機能を提供する。制御部230は、前記計測データを、後述する計測対象のユーザー900の位置情報のデータや、計測データを計測した時刻情報のデータと紐づけ、通信部210を介して感情情報管理サーバ100へ送信してもよい。構内カメラ200は、計測だけでなく、前処理、特徴抽出処理、推定を含む解析処理までを実施してもよく、その場合の各種演算処理を制御部230が行ってもよい。なお、制御部230は、CPU803、ROM805及びRAM807により実装され得る。 The controller 230 provides various functions of the premises camera 200 . The control unit 230 associates the measurement data with position information data of the user 900 to be measured, which will be described later, and time information data at which the measurement data was measured, and transmits the measurement data to the emotion information management server 100 via the communication unit 210 . You may The premises camera 200 may perform not only measurement but also preprocessing, feature extraction processing, and analysis processing including estimation. Note that the control unit 230 can be implemented by the CPU 803 , ROM 805 and RAM 807 .

構内カメラ200は、撮像範囲内に含まれるユーザー900の位置を推定する機能を有していてもよい。たとえば、構内カメラ200にレーザレンジファインダの機能も搭載されており、撮像範囲の3次元計測機能を有していてもよい。また、構内カメラ200が汎用的な単眼カメラであっても、撮像対象物の3次元実空間における存在位置を推定する方法は既存に複数あり、公知の方法である(たとえば、前述の特許文献1や、非特許文献1:大澤達哉ほか、映像モニタリングのための人物追跡技術、NTT技術ジャーナル、19(8)、2007、など)。 The premises camera 200 may have a function of estimating the position of the user 900 included in the imaging range. For example, the premises camera 200 may also have a function of a laser range finder and have a three-dimensional measurement function of the imaging range. Further, even if the premises camera 200 is a general-purpose monocular camera, there are already a plurality of known methods for estimating the position of the object to be imaged in the three-dimensional real space (for example, the above-mentioned Patent Document 1 , Non-Patent Document 1: Tatsuya Osawa et al., Person Tracking Technology for Video Monitoring, NTT Technical Journal, 19(8), 2007, etc.).

本発明の実施形態では、構内カメラ200は、たとえば駅構内の監視カメラのような固定設置利用であってもよく、その場合、カメラの内部または外部パラメータの情報(カメラの3次元空間内位置、姿勢、撮像方向、画角、撮像範囲等の情報を含む)に係るデータは既知として、該カメラパラメータのデータを構内カメラ200や感情情報管理サーバ100が予め記憶部に有しており、該データを撮像対象物の位置推定に利用してもよい(すなわち、該データ及び構内カメラ200からの取得データに基づいて撮像対象物の位置が推定されてもよい)。構内カメラ200が撮像範囲内に含まれるユーザー900の位置を推定する機能を有している場合、後述する端末装置300とその位置情報取得部は、本情報通信システムに含まれなくてもよい。 In an embodiment of the present invention, the premises camera 200 may be a fixed installation application, for example a surveillance camera in a station premises, in which case the information of the camera's internal or external parameters (the camera's three-dimensional spatial position, (including information such as posture, imaging direction, angle of view, imaging range, etc.) is known, and the camera parameter data is stored in advance in the storage unit of the premises camera 200 and the emotion information management server 100. may be used to estimate the position of the object to be imaged (ie, the position of the object to be imaged may be estimated based on this data and the data acquired from the premises camera 200). If the premises camera 200 has a function of estimating the position of the user 900 included in the imaging range, the terminal device 300 and its position information acquisition unit, which will be described later, may not be included in this information communication system.

次に、図4を参照して、本実施形態に係る「感情情報管理サーバ100」の機能構成の一例を説明する。図4は、本実施形態に係る感情情報管理サーバ100の機能構成の一例を示すブロック図である。図4を参照すると、感情情報管理サーバ100は、通信部110、記憶部120及び制御部130を備える。 Next, an example of the functional configuration of the "emotion information management server 100" according to this embodiment will be described with reference to FIG. FIG. 4 is a block diagram showing an example of the functional configuration of the emotion information management server 100 according to this embodiment. Referring to FIG. 4, the emotion information management server 100 includes a communication section 110, a storage section 120 and a control section .

通信部110は、他の装置と通信する。たとえば、通信部110は、LAN50に直接的に接続され、構内カメラ200や端末装置300と通信する。なお、通信部110は、通信インタフェース811により実装され得る。 The communication unit 110 communicates with other devices. For example, the communication unit 110 is directly connected to the LAN 50 and communicates with the premises camera 200 and the terminal device 300 . Note that the communication unit 110 can be implemented by the communication interface 811 .

記憶部120は、感情情報管理サーバ100の動作のためのプログラム及びデータを記憶する。前記データには、後述する時刻情報、位置情報、感情情報、それらを紐づけた感情時空間情報が含まれる。前記感情時空間情報のデータは、図5に図示した後述する感情時空間情報DB121のデータを含んでいてもよい。なお、記憶部120は、記憶装置809により実装され得る。 The storage unit 120 stores programs and data for operation of the emotion information management server 100 . The data includes time information, position information, emotion information, and emotion spatio-temporal information linking them, which will be described later. The data of the emotion spatio-temporal information may include data of the emotion spatio-temporal information DB 121 shown in FIG. 5 and described later. Note that the storage unit 120 can be implemented by the storage device 809 .

制御部130は、感情情報管理サーバ100の様々な機能を提供する。制御部130は、感情推定部131、感情時空間情報管理部133、感情変化情報生成部132及び感情時空間系列情報管理部140を含む。さらに、感情時空間情報管理部133は、時刻情報管理部135、位置情報管理部136、感情情報管理部137及び人物同一性情報管理部138を含み、感情時空間系列情報管理部140は、系列情報パターン照合部141及び推薦情報生成部142を含む。なお、制御部130は、CPU803、ROM805及びRAM807により実装され得る。 The control unit 130 provides various functions of the emotion information management server 100 . The control unit 130 includes an emotion estimation unit 131 , an emotion spatio-temporal information management unit 133 , an emotion change information generation unit 132 and an emotion spatio-temporal series information management unit 140 . Furthermore, the emotion spatio-temporal information management unit 133 includes a time information management unit 135, a position information management unit 136, an emotion information management unit 137, and a person identity information management unit 138. It includes an information pattern matching unit 141 and a recommendation information generating unit 142 . Note that the control unit 130 can be implemented by the CPU 803 , ROM 805 and RAM 807 .

感情推定部131は、ユーザー900から構内カメラ200や端末装置300及び通信部110を介して取得した行動や生体反応の計測データ(センシングデータ)に基づいて、ユーザー900毎の個人感情の推定モデルデータ及びそれにより推定(識別)された感情推定データを生成する。また、感情推定部131は、該生成した推定モデルデータと感情推定データを記憶部120に記憶させる機能を有する。 The emotion estimating unit 131 estimates model data of individual emotions for each user 900 based on measurement data (sensing data) of behavior and biological reactions obtained from the user 900 via the premises camera 200, the terminal device 300, and the communication unit 110. and thereby generate estimated (identified) emotion estimation data. The emotion estimation unit 131 also has a function of storing the generated estimation model data and emotion estimation data in the storage unit 120 .

なお、前記計測データは構内カメラ200と端末装置300の両方から得られる場合もあるが、両者の対応付けを行いそのいずれか一方のデータを用いてもよいし、両方のデータを併用することで(アンサンブル学習等により)より精度が高い感情推定データを生成できる可能性がある。 Although the measurement data may be obtained from both the premises camera 200 and the terminal device 300, the data may be associated with each other and either one of the data may be used. It may be possible to generate more accurate emotion estimation data (by ensemble learning, etc.).

また、前記感情推定データの生成処理は構内カメラ200や端末装置300で行われてもよく、感情情報管理サーバ100は構内カメラ200や端末装置300から前記計測データではなく感情推定データを受信しても構わない。 The process of generating the emotion estimation data may be performed by the premises camera 200 or the terminal device 300, and the emotion information management server 100 receives the emotion estimation data instead of the measurement data from the premises camera 200 or the terminal device 300. I don't mind.

ここで、個人感情とその推定方法について説明を補足する。個人感情は、一例として「人が心的過程の中で行うさまざまな情報処理のうちで、人、物、出来事、環境についてする評価的な反応」(Ortony et al.,1988;大平,2010)と定義される。感情の具体的な種類としては、心理学者Paul Ekmanによる表情に対応する基本感情ベースの離散型モデル上での幸福、驚き、恐れ、怒り、嫌悪、悲しみや、心理学者James A. Russellによる快度及び覚醒度の感情次元ベースの連続型モデルにおける喜怒哀楽の象限などが知られている。他の連続型モデルとしては、Watsonによるポジティブまたはネガティブ感情、Wundtによる3軸モデル(快度、興奮度、緊張度)、Plutchikによる4軸のモデルなどもある。その他、応用的・複合的な感情としては、困惑度、関心度、メンタルストレス、集中度、疲労感、多忙度、創造性、リラックス/緊張度、モチベーション、共感度、信頼度などが挙げられる。さらに、業務活動において集団の雰囲気として体感されるイキイキ感なども高次な感情の一種といえる。本発明の実施形態における感情の定義の有効範囲は、前述の基本感情よりも広く、ユーザーのあらゆる内部「状態」やユーザーの周囲環境や文脈等の影響も加味した「状況」も含むものである。一例として、ポジティブ感情やその度合いは、快度そのものや、快度と覚醒度を合わせたもの、基本感情における幸福の強度の大きさ、もしくは恐れ、怒り、嫌悪、悲しみ等の強度の小ささ等を指標としてあらわされてもよい。 Here, a supplementary description of personal emotions and methods of estimating them will be provided. As an example, personal emotions are ``evaluative responses to people, objects, events, and environments among the various information processes people perform in their mental processes'' (Ortony et al., 1988; Ohira, 2010). is defined as Specific types of emotions include happiness, surprise, fear, anger, disgust, and sadness on a basic emotion-based discrete model for facial expressions by psychologist Paul Ekman; Russell's emotion-dimension-based continuous model of pleasure and arousal is known. Other continuous models include Watson's positive or negative affect, Wundt's 3-axis model (pleasure, excitement, tension), and Plutchik's 4-axis model. Other applied/complex emotions include confusion, interest, mental stress, concentration, fatigue, busyness, creativity, relaxation/tension, motivation, empathy, and trust. Furthermore, the lively feeling experienced as a group atmosphere in business activities can be said to be a kind of high-order emotion. The effective range of the definition of emotion in the embodiment of the present invention is wider than the basic emotion described above, and includes all internal "states" of the user and "situations" that take into account the influence of the user's surrounding environment and context. For example, positive emotions and their degrees are the pleasure itself, the sum of pleasure and arousal, the intensity of happiness in basic emotions, or the intensity of fear, anger, disgust, sadness, etc. may be expressed as an index.

ある人物がどのような感情とその程度にあるかは、たとえば質問紙法を用いることで、該人物の文字、文章、記号による言語的報告によって求めることができる。該質問紙としては“Affect Grid”などがよく知られている。しかしながら、質問紙を用いた計測方法では回答作業が必要になるため、業務など何か別の作業を行っている日常生活においては計測それ自体が本来の目的作業に支障を及ぼしてしまう可能性がある。 What kind of feeling and degree of feeling a certain person has can be obtained from the person's linguistic report using letters, sentences, and symbols, for example, by using a questionnaire method. As the questionnaire, "Affect Grid" is well known. However, since the measurement method using questionnaires requires answering work, there is a possibility that the measurement itself will interfere with the original purpose work in daily life when doing other work such as work. be.

そこで、本情報通信システムにおいて、感情推定部131は、前述の構内カメラ200や端末装置300により計測される行動や生体反応のデータに基づいて(質問紙法等で求めた)感情を機械的に推定処理する。該推定処理を行うためには、予め学習処理によって生成された感情推定モデルのデータが必要となる。感情推定モデルは、たとえば、ある時点・状況における前記行動や生体反応のデータと前記質問紙の回答データからなる訓練データとを対応づけたデータの群から生成される。たとえば、オフィスに埋め込まれた無数のカメラやマイクロフォン、ウェアラブル活動量計から計測されたユーザーの顔表情、音声、心拍活動、皮膚電気活動等の行動・生体データと、該ユーザーの主観的感情を質問紙回答した正解データとが対応づけられて訓練データとされる。前記行動・生体データは、センサからの計測値が変換された学習処理用の特徴量データであってもよい。 Therefore, in this information communication system, the emotion estimating unit 131 mechanically evaluates emotions (obtained by a questionnaire method or the like) based on behavior and biological reaction data measured by the above-described premises camera 200 and terminal device 300. Estimate processing. In order to perform the estimation process, data of an emotion estimation model generated in advance by the learning process is required. The emotion estimation model is generated, for example, from a group of data obtained by associating the behavior and biological reaction data at a certain point in time/situation with training data composed of answer data to the questionnaire. For example, questions are asked about the user's facial expression, voice, heartbeat activity, electrodermal activity, and other behavioral and biometric data measured by countless cameras, microphones, and wearable activity meters embedded in the office, as well as the user's subjective emotions. The training data is associated with the correct answer data of paper answers. The behavior/biological data may be feature amount data for learning processing in which measured values from a sensor are converted.

特徴量データは、顔の代表的特徴点の位置や各2点間を結ぶ直線の距離や成す角度であってもよい。あるいは、特徴量データは、音声の基本周波数、パワー、平均発話速度、一次ケプストラム係数の最高値と標準偏差であってもよい。あるいは、特徴量データは、心拍数や拍動間隔の平均値や標準偏差、心拍変動性であってもよい。あるいは、特徴量データは、皮膚コンダクタンス水準の平均値や標準偏差や増減低下率などであってもよい。これらの特徴量データはどのように使用されてもよく、ある時点における絶対値として使用されてもよいし、2時点間の相対的な変化率として使用されてもよい。 The feature amount data may be the position of a representative feature point of the face, the distance of a straight line connecting each two points, or the angle formed. Alternatively, the feature amount data may be the fundamental frequency, power, average speech rate, maximum value and standard deviation of first-order cepstrum coefficients of speech. Alternatively, the feature amount data may be heart rate, average value and standard deviation of beat intervals, and heart rate variability. Alternatively, the feature amount data may be the average value, standard deviation, increase/decrease rate, etc. of the skin conductance level. These feature amount data may be used in any manner, and may be used as an absolute value at a certain point in time, or as a relative rate of change between two points in time.

前記訓練データを用いた感情推定モデルの生成には、学習の手法として、たとえば既知のSVM(Support Vector Machine)や深層学習(Deep Learning)法が用いられてもよいし、単純に回帰分析法が利用されてもよい。また、学習モデルはユーザー個人毎に生成されてもよいし、複数のユーザーの訓練データを用いて人間に共通的なモデルが生成されてもよい。感情推定部131は、得られた感情推定モデルのデータを用いることで、ある人物の行動・生体データから個人感情を推定できるようになる。 For the generation of the emotion estimation model using the training data, as a learning method, for example, a known SVM (Support Vector Machine) or deep learning method may be used, or a simple regression analysis method may be used. may be used. A learning model may be generated for each individual user, or a model common to humans may be generated using training data of a plurality of users. By using the obtained emotion estimation model data, the emotion estimation unit 131 can estimate a personal emotion from a certain person's behavior/biometric data.

感情情報管理サーバ100や感情推定部131は、上述の個人感情推定処理のための訓練データや感情の推定モデル自体を生成する機能を有していてもよい。さらに、訓練データのための前述の特徴量データの生成は、感情情報管理サーバ100ではなく構内カメラ200や端末装置300の方で行い、構内カメラ200や端末装置300が、該特徴量データを感情情報管理サーバ100へ送信するようにしてもよい。 The emotion information management server 100 and the emotion estimation unit 131 may have a function of generating training data for the above-described personal emotion estimation process and an emotion estimation model itself. Furthermore, the above-described feature amount data for training data is generated by the premises camera 200 or the terminal device 300, not by the emotion information management server 100. It may be transmitted to the information management server 100 .

感情時空間情報管理部133は、ある時刻、ある位置に存在するユーザー900から取得された行動や生体反応の計測データから感情推定部131により生成された感情の推定情報(感情情報)のデータの管理を行う。すなわち、感情時空間情報管理部133は、ユーザー900の後述する時刻情報、位置情報、感情情報、ユーザーID情報のデータ(人物同一性情報の例)を互いに紐づけた「感情時空間情報」のデータを生成し、生成した「感情時空間情報」のデータを記憶部120の感情時空間情報DB121に記録する。 The emotion spatio-temporal information management unit 133 stores emotion estimation information (emotional information) data generated by the emotion estimation unit 131 from measurement data of actions and biological reactions acquired from a user 900 present at a certain position at a certain time. manage. That is, the emotional spatio-temporal information management unit 133 creates “emotional spatio-temporal information” in which time information, position information, emotion information, and user ID information data (example of personal identity information) of the user 900, which will be described later, are linked with each other. Data is generated, and the data of the generated “emotional spatiotemporal information” is recorded in the emotional spatiotemporal information DB 121 of the storage unit 120 .

なお、本実施形態では、感情時空間情報管理部133が、時刻情報、位置情報、感情情報、ユーザーID情報のデータのすべてを紐づける例について主に説明する。しかし、感情時空間情報管理部133は、これらの一部のみを紐づけることによって感情時空間情報を生成してもよい。たとえば、感情時空間情報管理部133は、感情情報と、時刻情報及び位置情報の少なくともいずれか一方とを紐づけることによって感情時空間情報を生成してもよい(感情情報と時刻情報とを紐づけてもよいし、感情情報と位置情報とを紐づけてもよいし、感情情報と時刻情報及び位置情報の双方とを紐づけてもよい)。あるいは、感情時空間情報管理部133は、感情情報と、時刻情報及び位置情報の少なくともいずれか一方と、ユーザーID情報のデータとを紐づけることによって感情時空間情報を生成してもよい。 In the present embodiment, an example in which the emotion spatio-temporal information management unit 133 associates all data of time information, position information, emotion information, and user ID information will be mainly described. However, the emotion spatio-temporal information management unit 133 may generate emotion spatio-temporal information by associating only a part of them. For example, the emotional spatio-temporal information management unit 133 may generate emotional spatio-temporal information by associating the emotional information with at least one of the time information and the position information (e.g., by linking the emotional information and the time information). may be linked, emotional information and position information may be linked, or both emotional information and time information and position information may be linked). Alternatively, the emotion spatio-temporal information management unit 133 may generate emotion spatio-temporal information by associating emotion information, at least one of time information and location information, and user ID information data.

ここで、図5を参照して、前述した感情時空間情報DB121について説明する。図5は、感情時空間情報管理部133によって紐づけ処理され記憶部120に記憶される感情時空間情報DB121のデータテーブルの一例を説明するための説明図である。図5のデータテーブルには、感情情報、位置情報、時刻情報、ユーザーIDのデータが記憶されている。 Here, the emotion spatio-temporal information DB 121 described above will be described with reference to FIG. FIG. 5 is an explanatory diagram for explaining an example of a data table of the emotion spatio-temporal information DB 121 that is linked by the emotion spatio-temporal information management unit 133 and stored in the storage unit 120. As shown in FIG. The data table of FIG. 5 stores emotion information, position information, time information, and user ID data.

感情情報は、前述のように感情推定部131により生成される。図5ではポジティブ感情の強度を感情情報の一例として記しており、行1のデータではポジティブ度が高く、行3のデータでは低い。 Emotion information is generated by emotion estimation section 131 as described above. FIG. 5 shows the intensity of positive emotion as an example of emotion information, where the data in row 1 has a high degree of positivity and the data in row 3 has a low degree of positivity.

位置情報は、前記感情情報の推定基となった計測データを取得されたユーザー900が存在すると推定される位置(実空間内の3次元位置、もしくは実空間を水平面に射影した面上の2次元位置、エリアレベルでのプレゼンス等)であり、前述のように構内カメラ200が撮像範囲内に含むユーザー900の位置を推定した情報を用いてもよいし、後述する端末装置300が有する位置情報取得部により取得された位置情報を用いてもよい。 The position information is a position (three-dimensional position in real space, or two-dimensional position, presence at the area level, etc.), and as described above, information obtained by estimating the position of the user 900 included in the imaging range of the premises camera 200 may be used. You may use the positional information acquired by the part.

時刻情報は、前記感情情報の推定基となった計測データを取得された時刻である。感情情報を推定するのに瞬時ではなく一定以上の時間幅の計測データが必要な感情情報(たとえば、音声の韻律や心拍数の上下など経時変化情報に基づく推定情報)の場合、該時間幅の最終時刻(時間幅の中で最も現在に近い時刻)を代表値として扱い時刻情報としてもよい。なお、本情報通信システムにおける感情情報管理サーバ100、構内カメラ200、端末装置300それぞれの装置内の基準時刻にズレがある場合、感情情報管理サーバ100は構内カメラ200や端末装置300からデータを受信した時点の感情情報管理サーバ100のシステム時刻を代表値として時刻情報としてもよい。また、感情情報管理サーバ100自体が構内カメラ200や端末装置300の時刻を校正する(感情情報管理サーバ100のシステム時刻にそれらのシステム時刻を同期させる)機能を有していてもよい。 The time information is the time when the measurement data used as the basis for estimating the emotion information was acquired. In the case of emotional information that requires measured data over a certain period of time rather than instantaneously to estimate the emotional information (for example, estimated information based on information that changes over time, such as the prosody of voice or the ups and downs of the heart rate), the time period The final time (the time closest to the current time within the time span) may be treated as a representative value and used as time information. If there is a discrepancy in the reference time in each of the emotion information management server 100, the premises camera 200, and the terminal device 300 in this information communication system, the emotion information management server 100 receives data from the premises camera 200 and the terminal device 300. The system time of the emotion information management server 100 at the point of time may be used as the time information as a representative value. Also, the emotion information management server 100 itself may have a function of calibrating the time of the premises camera 200 and the terminal device 300 (synchronizing the system time with the system time of the emotion information management server 100).

ユーザーIDは、紐づけられた時刻データ、位置データ、感情情報データの基になった計測データを取得されたユーザー900をそれぞれ一定期間識別するためのデータである。たとえば、図5のデータテーブルには例として7行の紐づけデータが図示されているが、ユーザーIDは「0001」「0002」「0003」の3種しかないため、図示されているのは3名分のデータであることがわかる。ユーザーIDは、感情情報データの基になった計測データが端末装置300から取得され該感情情報データの基になった端末装置300が個人利用端末でその固有の識別情報を感情情報管理サーバ100が取得できる場合や、予め個人情報と顔画像や音声や生体データとを紐づけた顔・音声・生体認識辞書データベースが存在し、該データベースと計測データとを照合処理できる場合にはそれを用いてもよい。しかし、駅などの不特定多数のユーザーが利用する公共空間ではそのような方法は必ずしも実施可能ではない。また、そのような方法がたとえ実施可能であっても、個人情報のデータを安全に保管・運用するコストが必要となる。 The user ID is data for identifying the user 900 from whom the measurement data on which the linked time data, position data, and emotion information data are based is respectively identified for a certain period of time. For example, the data table in FIG. 5 shows 7 rows of linked data as an example, but since there are only 3 types of user IDs, "0001", "0002", and "0003", only 3 rows are shown. It can be seen that the data is nominal. The user ID is obtained from the terminal device 300 obtained from the terminal device 300 which is the basis of the emotion information data, and the terminal device 300 which is the basis of the emotion information data is a personal terminal, and the emotion information management server 100 is provided with unique identification information. If it can be obtained, or if there is a face/voice/biometric recognition dictionary database that links personal information with facial images, voice, and biometric data in advance, and if the database and measurement data can be collated, use it. good too. However, such a method cannot necessarily be implemented in a public space such as a station that is used by an unspecified number of users. Moreover, even if such a method is practicable, the cost of safely storing and operating personal information data is required.

本発明の実施形態では、不特定多数の感情情報、位置情報、時刻情報が集合されれば最低限の感情時空間情報を生成することは可能であるため、必ずしも各ユーザー900の感情情報が個人情報と紐づけられる必要はなく、その場合は実施にあたり当ユーザーID情報のデータは必須ではない。しかしながら、当ユーザーIDは一定期間、感情情報の基になった各ユーザー900同士を識別できるだけでも効果を示し、予め照合するための個人情報を用意しなくても、後述のように実施可能である。前記効果とは、感情情報の時系列変化の情報を利用できるようになることで、感情時空間情報の利用品質が向上することである。 In the embodiment of the present invention, since it is possible to generate the minimum emotional spatio-temporal information by collecting an unspecified number of emotional information, location information, and time information, the emotional information of each user 900 is not necessarily personal. It does not need to be linked with information, and in that case, the data of this user ID information is not essential for implementation. However, this user ID is effective for a certain period of time even if it can identify each user 900 who is the basis of the emotional information, and can be implemented as described later without preparing personal information for collation in advance. . The effect is that the use quality of emotion spatio-temporal information is improved by making it possible to use information on time-series changes in emotion information.

たとえば、図5のデータテーブルでは、行1、行11、行12にはユーザーID0001の、行2、行13、行14にはユーザーID0002のユーザーの紐づけデータ(それぞれ15秒間隔のデータ3点)が記憶されている。また、図5のデータテーブルでは、行3にはユーザーID0003のユーザーの紐づけデータが記憶されている。 For example, in the data table shown in FIG. 5, row 1, row 11, and row 12 have user ID 0001, row 2, row 13, and row 14 have user ID 0002 (three pieces of data at 15-second intervals each). ) is stored. Further, in the data table of FIG. 5 , row 3 stores data associated with the user with the user ID 0003 .

対応する時刻情報を見ると、ユーザーID0001のユーザーとユーザーID0002のユーザーは、同日のほぼ同じ時間帯(1分違い)の30秒間の内に同じように位置「X1、Y1、Z1」から位置「X3、Y3、Z3」を経て位置「X4、Y4、Z4」へと移動している。しかしながら、ユーザーID0001のユーザーは該30秒間の間感情情報は「ポジティブ度80%」で変わらない一方、ユーザーID0002のユーザーは「X4、Y4、Z4」で感情情報がそれまでの「ポジティブ度50%」から「80%」へ上昇している。 Looking at the corresponding time information, the user with the user ID 0001 and the user with the user ID 0002 similarly moved from the position "X1, Y1, Z1" to the position " X3, Y3, Z3" to the position "X4, Y4, Z4". However, for the user with user ID 0001, the emotional information remains unchanged at "80% positivity" for the 30 seconds, while for the user with user ID 0002, the emotional information is "X4, Y4, Z4" and the emotional information remains at "50% positivity." ” to “80%”.

たとえば、駅構内において「X4、Y4、Z4」にある広告ポスターが掲示されていた場合、ユーザーID0002のユーザーはそれを見てポジティブ度が上昇した可能性が考えられる。一方で、ユーザーID0001のユーザーはポジティブ度が高いが、そもそも該広告ポスターの位置(X4、Y4、Z4)にたどり着く前からそもそもポジティブ度が高く、該広告ポスターの位置(X4、Y4、Z4)に到ってもポジティブ度は変わっていないため、該広告ポスターによる影響はほとんどなかったと考えられる。この場合、該広告ポスターの位置(X4、Y4、Z4)での瞬時的な感情情報だけを見るのではなく、その経時的変化、たとえば前の時刻のデータとの差分量(ユーザーID0001のユーザー:+0%、ユーザーID0002のユーザー:+30%)を見れば、その位置の環境がユーザーの感情にどれだけの影響を与えるのかをより正確に把握でき、感情時空間情報の利用品質が向上する。しかし、当ユーザーIDの情報が得られず、感情情報、位置情報、時刻情報だけしか無かった場合、前述の行1、行11、行12、行3、行13、行14の各データはすべて関連のない個別データとなり、前述の経時的変化の情報(差分量等)を算出することもできなくなってしまう。ユーザーID情報により、各行の感情時空間情報のデータ間の関連性(人物同一性)を確認できる。 For example, if an advertising poster at "X4, Y4, Z4" was posted in a station, the user with user ID 0002 may have seen it and become more positive. On the other hand, the user with user ID 0001 has a high degree of positivity. Since there was no change in the degree of positivity, it is thought that the advertisement poster had little effect. In this case, not only the instantaneous emotional information at the position (X4, Y4, Z4) of the advertising poster is viewed, but also its change over time, for example, the amount of difference from the data at the previous time (user with user ID 0001: +0%, user with user ID 0002: +30%), it is possible to more accurately grasp how much the environment at that location affects the user's emotions, and the quality of use of emotion spatio-temporal information is improved. However, if the information of this user ID is not obtained, and there is only emotion information, location information, and time information, all the data of the above-mentioned rows 1, 11, 12, 3, 13, and 14 This results in irrelevant individual data, and it becomes impossible to calculate the above-mentioned information on changes over time (amount of difference, etc.). Based on the user ID information, it is possible to confirm the relevance (personal identity) between the data of the emotion spatio-temporal information of each row.

予め照合するための個人情報を用意せずにユーザーIDの情報を生成するには、前記計測データと計測されたユーザー900の紐づけ維持状態の情報を、本情報通信システムでデータ化できればよい。たとえば、前記計測データが端末装置300から取得されている場合、端末装置300は前記計測データと共に端末装置300の通信用IDの情報を含むデータを感情情報管理サーバ100へ送信してもよい。 In order to generate user ID information without preparing personal information for collation in advance, the measurement data and the measured information on the link maintenance state of the user 900 should be converted into data by this information communication system. For example, when the measurement data has been obtained from the terminal device 300, the terminal device 300 may transmit data including communication ID information of the terminal device 300 to the emotion information management server 100 together with the measurement data.

また、前記計測データが構内カメラ200から取得されている場合、一例として構内カメラ200は公知の人物追跡技術(たとえば前述の非特許文献1参照)を用い、該構内カメラ200の撮像範囲内にあるユーザーが映って人物追跡処理できている間は、該計測データに一意のユーザーIDを紐づけて付与することが可能である。 In addition, when the measurement data is acquired from the premises camera 200, as an example, the premises camera 200 uses a known person tracking technology (for example, see Non-Patent Document 1 described above), and the person is within the imaging range of the premises camera 200. A unique user ID can be attached to the measurement data while the user is captured and the person can be tracked.

さらに、複数のカメラにまたがり人物追跡処理する技術も公知で存在する(非特許文献2:福司謙一郎ほか、複数カメラを用いた人物追跡手法の研究例、映像情報メディア学会誌、62(7)、2008)ことから、大型駅のような広い空間であっても、複数のカメラが設置され人物追跡処理が成功すれば、移動中のユーザーに対してある程度の時間幅で継続して一意のユーザーIDの紐づけ付与が可能である。映像ではなく音声の場合でも、教師データを用いずに個人性を識別する技術が公知で存在する(非特許文献3:峯松信明、音声に含まれる様々な個人性の自動推定、日本音響学会誌、71(9)、2015)ことから、同様に一意のユーザーIDの紐づけ付与が可能といえる。 Furthermore, there is a known technique for tracking a person across multiple cameras (Non-Patent Document 2: Kenichiro Fukutsukasa et al., Research Example of a Person Tracking Method Using Multiple Cameras, Journal of the Institute of Image Information and Television Engineers, 62 (7), 2008), even in a large space such as a large train station, if multiple cameras are installed and the person tracking process is successful, a unique user ID can be obtained continuously for a certain amount of time for a moving user. is possible. Even in the case of audio rather than video, there are publicly known techniques for identifying individuality without using teacher data (Non-Patent Document 3: Nobuaki Minematsu, Automatic Estimation of Various Personalities Included in Audio, Journal of the Acoustical Society of Japan , 71(9), 2015), it can be said that a unique user ID can be similarly associated with each other.

以上のように、感情時空間情報管理部133は、時刻情報、位置情報、感情情報、ユーザーID情報のデータを用いて、感情時空間情報のデータを生成し、保管する。 As described above, the emotion spatio-temporal information management unit 133 uses time information, position information, emotion information, and user ID information data to generate and store emotion spatio-temporal information data.

時刻情報管理部135は、感情時空間情報における前述の時刻情報を管理する。特に、時刻情報管理部135は、後述する端末装置300から時刻によるフィルタリング指定(時刻情報の条件)と情報の取得要求を含むメッセージを受信した場合、後述のように時刻によるフィルタリング指定に基づいて、感情時空間情報から部分的に情報(時刻情報の条件に合致する情報)を抽出することによってフィルタ済の感情時空間情報を生成し、時刻によるフィルタリング済の感情時空間情報のデータを該端末装置300へ送信する。なお、フィルタリング指定される時刻情報の単位は限定されない。すなわち、時刻情報の単位は、時単位であってもよいし、日単位(たとえば、日付けの他、平日、祝日といった種別など)であってもよいし、月単位であってもよい。 The time information management unit 135 manages the aforementioned time information in the emotion spatio-temporal information. In particular, when the time information management unit 135 receives a message including a time filtering designation (time information condition) and an information acquisition request from the terminal device 300 described later, based on the time filtering designation as described later, Filtered emotional spatio-temporal information is generated by partially extracting information (information that meets the conditions of time information) from the emotional spatio-temporal information, and data of the emotional spatio-temporal information filtered by time is sent to the terminal device. 300. Note that the unit of time information specified by filtering is not limited. That is, the unit of the time information may be an hour unit, a daily unit (for example, a type such as a weekday, a holiday, etc. in addition to the date), or a monthly unit.

位置情報管理部136は、感情時空間情報における前述の位置情報を管理する。特に、位置情報管理部136は、後述する端末装置300から位置によるフィルタリング指定(位置情報の条件)と情報の取得要求を含むメッセージを受信した場合、後述のように位置によるフィルタリング指定に基づいて、感情時空間情報から部分的に情報(位置情報の条件に合致する情報)を抽出することによってフィルタ済の感情時空間情報を生成し、位置によるフィルタリング済の感情時空間情報のデータを該端末装置300へ送信する。 The position information management unit 136 manages the aforementioned position information in the emotion spatio-temporal information. In particular, when the location information management unit 136 receives a message including a location-based filtering specification (location information condition) and an information acquisition request from the terminal device 300, which will be described later, based on the location-based filtering specification as described below, Filtered emotional spatio-temporal information is generated by partially extracting information (information that meets the conditions of position information) from the emotional spatio-temporal information, and data of the emotional spatio-temporal information filtered by position is sent to the terminal device. 300.

感情情報管理部137は、感情時空間情報における前述の感情情報を管理する。特に、感情情報管理部137は、後述する端末装置300から感情によるフィルタリング指定(感情情報の条件)と情報の取得要求を含むメッセージを受信した場合、後述のように感情によるフィルタリング指定に基づいて、感情時空間情報から部分的に情報(感情の種別や強度などといった感情情報の条件に合致する情報)を抽出することによって、フィルタ済の感情時空間情報を生成し、生成されたフィルタリング済の感情時空間情報のデータを該端末装置300へ送信する。 The emotion information management unit 137 manages the aforementioned emotion information in the emotion spatio-temporal information. In particular, when the emotion information management unit 137 receives a message including an emotion-based filtering specification (emotion information condition) and an information acquisition request from the terminal device 300, which will be described later, based on the emotion-based filtering specification as described below, Generate filtered emotion spatio-temporal information by partially extracting information (information that matches the conditions of emotion information such as type and intensity of emotion) from the emotion spatio-temporal information, and generate the filtered emotion Data of spatio-temporal information is transmitted to the terminal device 300 .

人物同一性情報管理部138は、感情時空間情報における前述のユーザーID情報を管理する。特に、人物同一性情報管理部138は、後述する端末装置300から人物同一性によるフィルタリング指定(人物同一性情報の条件)と情報の取得要求を含むメッセージを受信した場合、後述のように人物同一性によるフィルタリング指定に基づいて、感情時空間情報から部分的に情報(人物同一性が確認された情報)を抽出することによってフィルタ済の感情時空間情報を生成し、人物同一性が確認された情報によるフィルタリング済の感情時空間情報のデータを該端末装置300へ送信する。 The person identity information management unit 138 manages the aforementioned user ID information in the emotion spatio-temporal information. In particular, when the person identity information management unit 138 receives a message including filtering designation (person identity information conditions) and an information acquisition request from the terminal device 300 (to be described later), the person identity information management unit 138 Generate filtered emotional spatiotemporal information by partially extracting information (personal identity confirmed information) from the emotional spatiotemporal information based on the filtering designation by gender, and confirm the person's identity Data of emotional spatio-temporal information filtered by information is transmitted to the terminal device 300 .

感情変化情報生成部132は、感情時空間情報のデータを基に前述の経時的変化(同一のユーザーID情報に紐づけられた感情情報の経時的変化)の情報を算出し生成する。前記経時的変化の情報は、予め生成して記憶部120に記憶される必要はなく、たとえば後述する端末装置300からの情報の取得要求や後述するフィルタリング指定を含むメッセージの受信を契機に生成されてもよい。 The emotion change information generation unit 132 calculates and generates information on the above-described change over time (change over time of emotion information linked to the same user ID information) based on the data of the emotion spatio-temporal information. The information on the change over time does not need to be generated in advance and stored in the storage unit 120. For example, the information may be generated upon reception of an information acquisition request from the terminal device 300 described later or a message including a filtering designation described later. may

前述では、経時的変化の情報の例として任意の2時点間の感情強度の差分量を挙げたが、該情報の指標はそれに限定されない。たとえば、2時点間の感情強度の増加率や、単位時間あたりの感情強度の増減量(微分値)、所定の時間幅における感情強度の代表値(平均値、中央値、最頻値等)、所定の時間幅における感情強度の変動量(分散値)、感情に変化がない状態の継続時間長、所定の時間幅における感情のカテゴリの変化回数等を経時的変化の情報の指標としてもよい。なお、感情変化情報生成部132は、同一のユーザーID情報に紐づけられた感情情報及び位置情報の経時的変化の情報を算出してもよい。 In the above description, the amount of difference in emotional intensity between arbitrary two points in time was given as an example of information on changes over time, but the index of the information is not limited to this. For example, the rate of increase in emotional intensity between two time points, the amount of increase or decrease in emotional intensity per unit time (differential value), the representative value of emotional intensity in a predetermined time span (average value, median value, mode value, etc.), The amount of change in emotion intensity (variance value) in a predetermined time span, the length of time during which no change in emotion lasts, the number of times the emotion category changes in a predetermined time span, etc. may be used as indexes of information on changes over time. Note that the emotion change information generation unit 132 may calculate information about changes over time in emotion information and position information linked to the same user ID information.

感情時空間系列情報管理部140は、前述の感情時空間情報から後述する「感情時空間系列情報」を生成し、生成した感情時空間系列情報のデータを記憶部120の感情時空間情報DB121に記録する。 The emotion spatio-temporal series information management unit 140 generates the "emotion spatio-temporal series information" described later from the emotion spatio-temporal information described above, and stores the generated emotion spatio-temporal series information data in the emotion spatio-temporal information DB 121 of the storage unit 120. Record.

感情時空間系列情報は、前述の感情時空間情報を、前述のユーザーID情報毎に時間的前後関係を有する順序を持ったデータの組とした系列構造の情報である。具体的な例としては、感情時空間系列情報は、ユーザーID情報毎に時系列にされた位置情報および感情情報の系列情報である。なお、感情時空間系列情報と前述の経時的変化の情報との違いは、経時的変化の情報は複数の感情時空間情報から演算により求められた単一的情報であるのに対し、感情時空間系列情報は複数の情報の組であることであり、その各情報間の時間的前後関係の情報が構造として含まれることである。感情時空間系列情報は、典型的にはユーザーID情報毎に時系列にされた位置情報および感情情報の系列情報であってよいが、ユーザーID情報毎に時系列にされた位置情報のみの系列情報であってもよいし、ユーザーID情報毎に時系列にされた感情情報のみの系列情報であってもよい。 The emotion spatio-temporal series information is information of a series structure in which the above-mentioned emotion spatio-temporal information is a set of ordered data having a temporal anteroposterior relationship for each of the above-mentioned user ID information. As a specific example, the emotion spatio-temporal series information is sequence information of position information and emotion information arranged in time series for each user ID information. The difference between the emotion spatiotemporal series information and the above-mentioned temporal change information is that the temporal change information is a single piece of information obtained by calculation from a plurality of emotional spatiotemporal information. Spatial sequence information is a set of a plurality of pieces of information, and includes information on the temporal context between each piece of information as a structure. The emotion spatio-temporal series information may typically be position information and emotion information series information chronologically arranged for each user ID information. It may be information, or it may be series information of only emotion information arranged in time series for each user ID information.

系列情報パターン照合部141は、感情時空間系列情報およびそれに基づく推薦情報が提供されるユーザーの感情時空間系列情報(第1の系列情報)に類似した当該ユーザーとはIDが異なるユーザー900の過去の感情時空間系列情報(第2の系列情報)を検索(パターン照合)し、取得する。以下では、「第1の系列情報」を「対象ユーザーの系列情報」とも言い、「第2の系列情報」を「高類似度の系列情報」とも言う。なお、IDが異なるユーザー同士は、IDが異なる別のユーザーであってもよいし、IDが異なる同一のユーザーであってもよい。 The series information pattern matching unit 141 compares the past of the user 900 whose ID is different from that of the user who is similar to the emotion spatio-temporal series information (first series information) of the user to whom the emotion spatio-temporal series information and recommended information based thereon is provided. is retrieved (pattern matching) and acquired. Hereinafter, the “first series information” is also referred to as “target user series information”, and the “second series information” is also referred to as “high similarity series information”. Users with different IDs may be different users with different IDs, or may be the same user with different IDs.

ここで、系列情報パターン照合部141は、記憶部120の感情時空間情報DB121に記録された感情時空間系列情報から対象ユーザーの系列情報とパターンの類似度が最も高い感情時空間系列情報を高類似度の系列情報として選択してもよい。あるいは、系列情報パターン照合部141は、記憶部120の感情時空間情報DB121に記録された感情時空間系列情報から対象ユーザーの系列情報とパターンの類似度が閾値よりも高い感情時空間系列情報を高類似度の系列情報として選択してもよい。 Here, the series information pattern matching unit 141 selects the emotion spatio-temporal series information having the highest degree of pattern similarity with the series information of the target user from the emotion spatio-temporal series information recorded in the emotion spatio-temporal information DB 121 of the storage unit 120. It may be selected as similarity series information. Alternatively, the series information pattern matching unit 141 selects emotion spatio-temporal series information whose pattern similarity to the series information of the target user is higher than a threshold from the emotion spatio-temporal series information recorded in the emotion spatio-temporal information DB 121 of the storage unit 120. It may be selected as series information with a high degree of similarity.

あるいは、系列情報パターン照合部141は、対象ユーザーの系列情報とパターンの類似度が最も高い感情時空間系列情報またはパターンの類似度が閾値よりも高い感情時空間系列情報から所定の条件に適合する系列情報を高類似度の第2の系列情報として選択してもよい。たとえば、前記所定の条件は、ユーザーのポジティブ度(ポジティブ感情の高さ)が現在のポジティブ度よりも高くなるという条件であってもよいし、ユーザーがそのエリアに訪れた場合にできるだけユーザーのポジティブ度が高くなるという条件であってもよい。 Alternatively, the series information pattern matching unit 141 matches the predetermined condition from the emotion spatio-temporal series information having the highest degree of pattern similarity with the series information of the target user or from the emotion spatio-temporal series information having a pattern similarity higher than a threshold. Series information may be selected as second series information with high similarity. For example, the predetermined condition may be a condition that the user's degree of positivity (the level of positive emotion) is higher than the current degree of positivity, or a condition that the user's positivity is as high as possible when the user visits the area. It may be a condition that the degree is high.

また、所定の条件は、かかる例に限定されない。たとえば、所定の条件は、かかる感情に関する条件の代わりに、または、感情に関する条件に追加して、対象ユーザーの現在の位置から最も近いという条件を含んでもよいし、対象ユーザーの現在位置から最も近いという条件を含んでもよい。あるいは、所定の条件は、感情に関する条件の代わりに、または、感情に関する条件に追加して、対象ユーザーの現在位置を起点とした移動経路に障害となる物体(たとえば、階段など)がないという条件を含んでもよい。 Also, the predetermined condition is not limited to this example. For example, the predetermined condition may include, instead of or in addition to the emotion-related condition, the condition of being closest to the current location of the target user, or the condition of being closest to the current location of the target user. may include the condition Alternatively, the predetermined condition is, instead of or in addition to the emotion-related condition, the condition that there are no obstacles (such as stairs) in the movement route starting from the current position of the target user. may include

ここで、図6、図7、図8、図9を参照して、感情時空間系列情報について具体的に説明する。 Here, the emotion spatio-temporal series information will be specifically described with reference to FIGS.

図6は、感情時空間系列情報の基になるユーザー900の行動(位置情報)の変化の例を説明するための説明図である。図7は、図6に応じた感情時空間系列情報が感情時空間情報DB121に記憶されたデータテーブルの一例を示す説明図である。図8は、感情時空間系列情報の基になるユーザー900の感情の変化の例を説明するための説明図である。図9は、図8に応じた感情時空間系列情報が感情時空間情報DB121に記憶されたデータテーブルの一例を示す説明図である。 FIG. 6 is an explanatory diagram for explaining an example of changes in behavior (positional information) of the user 900 on which emotion spatio-temporal series information is based. FIG. 7 is an explanatory diagram showing an example of a data table in which the emotion spatio-temporal series information corresponding to FIG. 6 is stored in the emotion spatio-temporal information DB 121. As shown in FIG. FIG. 8 is an explanatory diagram for explaining an example of changes in the emotions of the user 900 on which the emotion spatio-temporal series information is based. FIG. 9 is an explanatory diagram showing an example of a data table in which the emotion spatio-temporal series information corresponding to FIG. 8 is stored in the emotion spatio-temporal information DB 121. As shown in FIG.

図6には、あるショッピングモール(やエキナカ)の一部を示す平面図が例として示されている。前記ショッピングモールには、A~Fまでの6つの店舗と、その間を通る通路が例として示されている。店舗A~F間は互いに自由に行き来することができる。ここで、前記ショッピングモールを訪れた過去のユーザー900Xについて、その感情時空間系列情報をXで表す。tは時間的前後関係の順序を示し、X、X、X…はその時系列順序でユーザー900Xの位置情報および感情情報が生成されたことを表す。同様に、過去のユーザー900Yの感情時空間系列情報は、Y、Y、Y…と表され、過去のユーザー900Zの感情時空間系列情報は、Z、Z、Z…と表される。さらに、感情時空間系列情報および推薦情報が提供されるユーザー900Sの現在(感情時空間系列情報が提供される時点)の感情時空間系列情報をSと表す。この時、Sのひとつ前の系列データはS-1、ふたつ前の系列データはS-2、と表される。 FIG. 6 shows, as an example, a plan view showing a part of a certain shopping mall (or station). In the shopping mall, six stores A to F and passages between them are shown as an example. Stores A to F are freely accessible to each other. Here, regarding the user 900X who has visited the shopping mall in the past, the emotion spatio-temporal series information is represented by Xt . t indicates the order of temporal context, and X 1 , X 2 , X 3 . Similarly, past user 900Y's emotional spatio -temporal series information is expressed as Y 1 , Y 2 , Y 3 . expressed. Furthermore, the present (at the time of providing the emotion spatio-temporal series information) emotion spatio-temporal series information of the user 900S to whom the emotion spatio-temporal series information and recommended information are provided is denoted by S0 . At this time, the series data one before S 0 is expressed as S −1 , and the series data two before S 0 is expressed as S −2 .

図6は、位置情報の変化を主とした場合の感情時空間系列情報の例である。ユーザー900Sは現在店舗Cにいる(S=エリアC)。ユーザー900Sはその直前には店舗Bにおり(S-1=エリアB)、さらにその前には店舗Aにいた(S-2=エリアA)。 FIG. 6 is an example of emotion spatio-temporal series information when mainly changes in position information. User 900S is currently at store C (S 0 = area C). User 900S was at store B immediately before (S −1 =area B) and before that at store A (S −2 =area A).

ここで、系列情報パターン照合部141は、ユーザー900Sに推薦情報を提供するために、ユーザー900Sの感情時空間系列情報と類似した当該ユーザーとはIDが異なるユーザー900の過去の感情時空間系列情報を検索する。まず、系列情報パターン照合部141は、ユーザー900Sが現在いる店舗C(エリアC)をデータの一部に含む感情時空間系列情報を感情時空間情報DB121から検索する。ここでは例として、ユーザー900X、900Y、900Zの感情時空間系列情報が該当する候補となった。ユーザー900Sの情報形式に合わせ、ユーザー900X、900Y、900Zのデータも、店舗Cにいた時点をそれぞれX、Y、Z(=エリアC)と表す。 Here, in order to provide recommended information to user 900S, series information pattern matching unit 141 extracts past emotion spatio-temporal series information of user 900 similar to user 900S and having an ID different from that of the user. Search for First, the series information pattern matching unit 141 searches the emotion spatio-temporal information DB 121 for emotion spatio-temporal series information including store C (area C) where the user 900S is currently located as part of the data. Here, as an example, the emotion spatio-temporal series information of users 900X, 900Y, and 900Z are candidates. In accordance with the information format of the user 900S, the data of the users 900X, 900Y, and 900Z also represent the times when they were at the store C as X 0 , Y 0 , and Z 0 (=area C), respectively.

図6より、たとえばユーザー900Yは過去に店舗D→店舗B→店舗Cの順で移動したため、それに対応してY-2=エリアD、Y-1=エリアB、Y=エリアC、という感情時空間系列情報が生成される。また、ユーザー900Zの感情時空間系列情報としては、Z-2=エリアE、Z-1=エリアF、Z=エリアC、という感情時空間系列情報が生成される。さらに、ユーザー900X、900Y、900Zそれぞれの感情時空間系列情報は過去のデータであるため、ユーザー900X、900Y、900Zが店舗Cの後にそれぞれ訪れた店舗の情報も、たとえば、X+1=エリア…、X+2=エリア…、のように感情時空間系列情報のデータとして感情時空間情報DB121に記憶されている(なお、ユーザー900Sは現在のユーザーであるため、X+1以降のデータはまだ存在しない:(No Data))。 From FIG. 6, for example, user 900Y moved in the order of store D→store B→store C in the past, so correspondingly, Y −2 = area D, Y −1 = area B, Y 0 = area C. Spatio-temporal series information is generated. Also, as the emotion spatio-temporal series information of user 900Z, emotion spatio-temporal series information of Z −2 =area E, Z −1 =area F, and Z 0 =area C is generated. Furthermore, since the emotional spatio-temporal series information of each of users 900X, 900Y, and 900Z is past data, the information of the stores visited by users 900X, 900Y, and 900Z after store C is also available, for example, X +1 = area . . . is stored in the emotional spatio-temporal information DB 121 as data of emotional spatio-temporal series information such as X +2 = area (because user 900S is the current user, data after X +1 does not yet exist: (No Data)).

図7は、上記で説明した図6のユーザー900X、900Y、900Z、900Sの行動(位置情報の変化)に対応した感情時空間系列情報のデータテーブルの例である。ここで、例示したt=-2~0の範囲を見ると、ユーザー900Sの感情時空間系列情報と比較して、ユーザー900Xはt=-2、-1、0の3個、ユーザー900Yはt=-1、0の2個、ユーザー900Zはt=0の1個、同一のデータ値を有している。すなわち、この範囲でユーザー900Sに最も類似度が高い感情時空間系列情報を持つ過去のユーザーは、3名の中で最も同一のデータ値の数が多かったユーザー900Xである。ユーザー900Sの推薦情報を生成する際は、3名の中ではユーザー900Xのデータ(特にt=+1以上の範囲のユーザー900Xの感情時空間系列情報のデータ)を利用すると最も推定精度(適合性)の高い推薦情報を提供し得る。 FIG. 7 is an example of a data table of emotion spatio-temporal series information corresponding to the actions (changes in position information) of users 900X, 900Y, 900Z, and 900S in FIG. 6 described above. Here, looking at the exemplified range of t = -2 to 0, compared with the emotion spatio-temporal series information of user 900S, user 900X has three t = -2, -1, and 0, and user 900Y has t =-1, 0, and user 900Z has one at t=0, the same data value. That is, the past user having the emotion spatio-temporal series information with the highest degree of similarity to the user 900S in this range is the user 900X with the largest number of identical data values among the three users. When generating recommendation information for user 900S, the data for user 900X (especially data for user 900X's emotional spatio-temporal series within the range of t = +1 or more) among the three users is the best estimation accuracy (adaptability). can provide highly recommended information.

図8、図9には、上述の図6、図7の位置情報の例を、感情情報で説明した場合の例が示されている。なお、人物アイコン額部のP(Positive)はポジティブ度:高、N(Negative)はポジティブ度:低、T(neuTral)はポジティブ度:中、の感情状態であることを示している。こちらの例では、t=-2~0の範囲で主に感情情報が変化しており、位置情報時と同様に、ユーザー900Sの感情時空間系列情報と比較して、ユーザー900Xはt=-2、-1、0の3個、ユーザー900Yはt=-1、0の2個、ユーザー900Zはt=0の1個、同一のデータ値を有している。この場合も、3名の中ではユーザー900Xのデータを利用すると最も推定精度の高い推薦情報を提供し得る。 FIGS. 8 and 9 show examples of the position information shown in FIGS. 6 and 7 described above in terms of emotion information. It should be noted that P (Positive) in the forehead portion of the person icon indicates an emotional state of high positivity, N (Negative) indicates low positivity, and T (neuTral) indicates medium positivity. In this example, the emotion information mainly changes in the range of t = -2 to 0. Similar to the time of location information, compared with user 900S's emotion spatio-temporal series information, user 900X has t = - The user 900Y has two data values of t=-1 and 0, and the user 900Z has one data value of t=0. In this case as well, among the three users, using the data of user 900X can provide recommendation information with the highest estimation accuracy.

上記では、説明のため位置情報または感情情報それぞれを主にした場合の感情時空間系列情報の例で説明したが、同様の情報処理は位置情報及び感情情報の組み合わせに対しても可能である。たとえば、図8では、ユーザー900X、900Y、900Z、900Sとも、t=-2~0の範囲では位置情報は同じパターン(エリアA→B→C)を示しておりその部分では類似度の高さに差は見られないが、感情情報を加味することで、ユーザー900Xがユーザー900Sに最もパターンの類似度が高いユーザーであると判定することができる。 In the above description, an example of emotion spatio-temporal series information in the case of mainly position information or emotion information was explained for the sake of explanation, but similar information processing is also possible for a combination of position information and emotion information. For example, in FIG. 8, users 900X, 900Y, 900Z, and 900S show the same pattern of location information (area A→B→C) in the range of t=-2 to 0, and the similarity is high in that portion. Although there is no difference in , it can be determined that the user 900X has the highest pattern similarity to the user 900S by adding emotional information.

なお、前記組み合わせの場合に、パターンの類似度の高さの算出処理において、位置情報と感情情報のそれぞれに異なる重み係数が感情時空間系列情報管理部140により予め設定され、重み係数に基づく処理後のデータが感情時空間情報DB121に記録されてもよい。このデータにより、位置情報もしくは感情情報ベースでそれぞれ異なるパターンに対し同程度の類似度の高さが算出された場合も、最終的にどちらのパターンの類似度が高いかを系列情報パターン照合部141が決定できる。 In the case of the combination, different weighting coefficients are set in advance for the position information and the emotion information by the emotion spatio-temporal series information management unit 140 in the process of calculating the degree of similarity of the patterns, and the processing based on the weighting coefficients is performed. Later data may be recorded in the emotion spatio-temporal information DB 121 . Based on this data, even if similar degrees of similarity are calculated for different patterns based on location information or emotion information, the sequence information pattern matching unit 141 finally determines which pattern has the highest degree of similarity. can be determined.

さらに、系列情報パターン照合部141は、類似度が高いパターンを持つ過去のユーザーの感情時空間系列情報群の中から、所定の条件に適合した感情時空間系列情報を選択してもよい。たとえば、同程度のパターン類似度の高さを有したふたつの過去の感情時空間系列情報M、Nがあるとする。MはM+1で感情のポジティブ度が高くなる傾向があり、NはN+1で感情のポジティブ度が低くなる傾向があって、本システムの目的が情報提供する対象のユーザー900の感情のポジティブ度を高めることであった場合、系列情報パターン照合部141は、NよりもMの方の感情時空間系列情報に高い優先度をつけて取得し、推薦情報生成部142に送信してもよい。 Furthermore, the series information pattern matching unit 141 may select emotion spatio-temporal series information that meets a predetermined condition from past users' emotion spatio-temporal series information groups having patterns with a high degree of similarity. For example, assume that there are two pieces of past emotion spatio-temporal series information M t and N t that have the same level of pattern similarity. M t tends to increase the positivity of emotion at M + 1 , and N t tends to decrease the positivity of emotion at N + 1 . If it is to increase the degree of positivity, the series information pattern matching unit 141 assigns a higher priority to the emotion spatio-temporal series information of M t than N t , acquires it, and transmits it to the recommendation information generation unit 142. may

以上により、感情時空間系列情報管理部140は、前記ショッピングモールの過去のユーザー900群の感情時空間系列情報を生成してそのデータを管理し、また、系列情報パターン照合部141は、あるユーザー900の感情時空間系列情報とパターンの類似度が高く所定の条件に適合した感情時空間系列情報を検索し、該情報のデータを後述する推薦情報生成部142に送信することができる。 As described above, the emotion spatio-temporal series information management unit 140 generates the emotion spatio-temporal series information of the past users 900 of the shopping mall and manages the data. Emotion spatio-temporal series information that has a high pattern similarity with the emotion spatio-temporal series information 900 and satisfies a predetermined condition can be searched, and the data of the information can be transmitted to the recommendation information generation unit 142 described later.

なお、系列情報パターン照合部141が行う系列情報のパターン照合処理は、上記の方法に限定されない。パターン間の類似度の高さの算出方法として、DPマッチング(Dynamic Programming Matching)、隠れマルコフモデル(Hidden Markov Models)、相互相関、条件付き確率場(Conditional Random Field)、等の既存の方法を用いても構わない(それぞれ公知の方法であるため内容説明は省略する)。また、系列データの間隔・距離は系列内/間で均一である必要はなく、パターン照合処理の際にその調整のため動的時間伸縮法(Dynamic Time Wrapping)等の処理を行っても構わない。 The sequence information pattern matching process performed by the sequence information pattern matching unit 141 is not limited to the above method. Existing methods such as DP matching (Dynamic Programming Matching), Hidden Markov Models, cross-correlation, Conditional Random Field, etc. are used to calculate the degree of similarity between patterns. (Because each method is a known method, the explanation of the contents is omitted.). In addition, the intervals and distances of series data need not be uniform within/between series, and processing such as dynamic time wrapping may be performed for adjustment during pattern matching processing. .

推薦情報生成部142は、系列情報パターン照合部141から、あるユーザー900の感情時空間系列情報と類似度の高い過去のユーザーの感情時空間系列情報を受信し、受信した感情時空間系列情報に基づいて推薦情報を生成して、通信部110を介して該ユーザー900に紐づいた後述する端末装置300へ送信する。推薦情報は、たとえば、前記ユーザー900が次に訪れた場合に、該ユーザー900のポジティブ感情が高くなると推定される(すなわち、類似度が高い過去のユーザーが現在位置の次に訪れてポジティブ感情が高くなった)場所(位置)の情報でもよい。 The recommendation information generation unit 142 receives, from the series information pattern matching unit 141, the emotion spatio-temporal series information of a past user that is highly similar to the emotion spatio-temporal series information of a certain user 900, and applies the received emotion spatio-temporal series information to the Based on this, recommendation information is generated and transmitted to the terminal device 300 (to be described later) associated with the user 900 via the communication unit 110 . The recommendation information is, for example, estimated that the positive emotion of the user 900 will be high when the user 900 visits next time (that is, a past user with a high degree of similarity will visit next to the current location and have a positive emotion). It may be the information of the raised place (position).

具体的に、推薦情報生成部142は、高類似度の系列情報に基づいてユーザーに提示される推薦情報を生成する。たとえば、推薦情報生成部142は、パターン照合によって高類似度の系列情報から対象ユーザーの系列情報との対応箇所が特定されると、高類似度の系列情報のうち対応箇所よりも後段の系列情報に基づいて推薦情報を生成する。 Specifically, the recommendation information generation unit 142 generates recommendation information to be presented to the user based on series information with a high degree of similarity. For example, when a corresponding portion corresponding to the series information of the target user is identified from the series information with high similarity by pattern matching, the recommendation information generation unit 142 generates the series information after the corresponding portion in the series information with high similarity. Generate recommendations based on

図7および図9に示した例において、「対象ユーザーの系列情報」がユーザー900Sの感情時空間系列情報であるとし、「高類似度の系列情報」がユーザー900X、ユーザー900Y、ユーザー900Zそれぞれの感情時空間系列情報であるとすると、対応箇所は少なくともt=-2~0の範囲を含み、t=+1、+2の範囲はその後段に当たる。すなわち、推薦情報生成部142は、ユーザー900X、ユーザー900Y、ユーザー900Zそれぞれの感情時空間系列情報のうち、後段に当たるt=+1、+2の少なくともいずれかの感情時空間系列情報に基づいて推薦情報を生成すればよい。 In the examples shown in FIGS. 7 and 9, it is assumed that the "target user's series information" is the emotion spatio-temporal series information of the user 900S, and the "high similarity series information" is the user 900X, the user 900Y, and the user 900Z. Assuming that it is emotional spatio-temporal series information, the corresponding part includes at least the range of t=-2 to 0, and the range of t=+1, +2 corresponds to the subsequent stage. That is, the recommendation information generating unit 142 generates recommendation information based on at least one of the emotion spatio-temporal series information of t=+1 or +2 corresponding to the latter stage among the emotion spatio-temporal series information of each of the user 900X, the user 900Y, and the user 900Z. should be generated.

たとえば、対象ユーザーの系列情報および高類似度の系列情報それぞれが位置情報を含む場合には、推薦情報生成部142は、高類似度の系列情報のうち後段の系列情報に含まれる位置情報に基づいて推薦情報を生成すればよい。図7に示した例において推薦情報生成部142は、ユーザー900X、ユーザー900Y、ユーザー900Zそれぞれの感情時空間系列情報のうち、後段に当たるt=+1、+2の少なくともいずれかの感情時空間系列情報に含まれる位置情報(エリア)に基づいて推薦情報を生成すればよい。 For example, when each of the series information of the target user and the high-similarity series information includes location information, the recommended information generation unit 142 generates a to generate recommendation information. In the example shown in FIG. 7, the recommendation information generation unit 142 selects at least one of the emotion spatio-temporal series information of t=+1 or +2 corresponding to the latter stage among the emotion spatio-temporal series information of the user 900X, the user 900Y, and the user 900Z. Recommendation information may be generated based on the included location information (area).

また、対象ユーザーの系列情報および高類似度の系列情報それぞれが感情情報を含む場合には、推薦情報生成部142は、高類似度の系列情報のうち後段の系列情報に含まれる感情情報に基づいて推薦情報を生成すればよい。図8に示した例において推薦情報生成部142は、ユーザー900X、ユーザー900Y、ユーザー900Zそれぞれの感情時空間系列情報のうち、後段に当たるt=+1、+2の少なくともいずれかの感情時空間系列情報に含まれる感情情報に基づいて推薦情報を生成すればよい。 Further, when each of the target user's series information and the high-similarity series information includes emotion information, the recommendation information generation unit 142 generates a to generate recommendation information. In the example shown in FIG. 8, the recommendation information generation unit 142 selects at least one of the emotion spatio-temporal series information of t=+1 and +2 corresponding to the latter stage among the emotion spatio-temporal series information of the user 900X, the user 900Y, and the user 900Z. Recommendation information may be generated based on included emotion information.

次に、図10を参照して、本実施形態に係る「端末装置300」の機能構成の一例を説明する。端末装置300は、ユーザー900からの入力に応じて他のユーザー900へ通信要求処理を行ったり、他のユーザー900の感情情報を取得して該ユーザー900へ情報提示したりすることができる。さらに、端末装置300は、ユーザー900から後述する行動や生体反応の計測データを取得してもよい。一例として、端末装置300は汎用的なスマートフォンやタブレット端末であってもよい。また、図1では端末装置300は1名のユーザー900に対応して1台存在するように図示されているが、複数のユーザー900に共用される共有型端末であってもよい。さらに別の一例として、端末装置300は映像通信機能付の駅自動券売機、現金自動預け払い機VTM(Video Teller Machine)、ビジュアルコールセンターシステム等の表示部付の筐体装置であってもよい。 Next, an example of the functional configuration of the "terminal device 300" according to this embodiment will be described with reference to FIG. The terminal device 300 can perform communication request processing to another user 900 according to an input from the user 900 , acquire emotion information of the other user 900 and present the information to the user 900 . Furthermore, the terminal device 300 may acquire measurement data of behavior and biological reactions, which will be described later, from the user 900 . As an example, the terminal device 300 may be a general-purpose smart phone or tablet terminal. In addition, although FIG. 1 illustrates that one terminal device 300 exists for one user 900, it may be a shared terminal shared by a plurality of users 900. FIG. As still another example, the terminal device 300 may be a station automatic ticket vending machine with a video communication function, a VTM (Video Teller Machine), a visual call center system, or other housing device with a display unit.

図10は、本実施形態に係る端末装置300の機能構成の一例を示すブロック図である。図10を参照すると、端末装置300は、通信部310、記憶部320、制御部330、入力部340、表示部350、センサ部360及び位置情報取得部370を備える。 FIG. 10 is a block diagram showing an example of the functional configuration of the terminal device 300 according to this embodiment. Referring to FIG. 10 , terminal device 300 includes communication section 310 , storage section 320 , control section 330 , input section 340 , display section 350 , sensor section 360 and location information acquisition section 370 .

通信部310は、他の装置と通信する。たとえば、通信部310は、LAN50に直接的に接続され、感情情報管理サーバ100と通信する。なお、通信部310は、通信インタフェース811により実装され得る。 Communication unit 310 communicates with other devices. For example, communication unit 310 is directly connected to LAN 50 and communicates with emotion information management server 100 . Note that the communication unit 310 can be implemented by the communication interface 811 .

記憶部320は、端末装置300の動作のためのプログラム及びデータを記憶する。
なお、記憶部320は、記憶装置809により実装され得る。
The storage unit 320 stores programs and data for operating the terminal device 300 .
Note that the storage unit 320 can be implemented by the storage device 809 .

制御部330は、端末装置300の様々な機能を提供する。なお、制御部330は、CPU803、ROM805及びRAM807により実装され得る。 The control unit 330 provides various functions of the terminal device 300 . Note that the control unit 330 can be implemented by the CPU 803 , ROM 805 and RAM 807 .

入力部340は、ユーザー900からの入力を受け付ける。そして、入力部340は、入力結果を制御部330へ提供する。前記ユーザー900からの入力とは、たとえば、前述の感情時空間情報を感情情報管理サーバ100に要求する指示を行うものである。また、前記ユーザー900からの入力とは、たとえば、前記感情時空間情報を要求する際に、時刻、位置、感情、またはユーザーIDの情報による後述のフィルタリング指定を行うものである。なお、入力部340は、入力装置815により実装され得る。 Input unit 340 receives input from user 900 . The input unit 340 then provides the input result to the control unit 330 . The input from the user 900 is, for example, an instruction to request the emotional spatio-temporal information from the emotion information management server 100 . Further, the input from the user 900 is, for example, when requesting the spatio-temporal emotion information, it is to specify filtering according to time, position, emotion, or user ID information, which will be described later. Note that the input unit 340 may be implemented by the input device 815 .

表示部350は、多様な表示画面を表示する。たとえば、表示部350は、感情情報管理サーバ100から受信した感情時空間情報のデータを所定の空間(オフィスや駅構内等)の情報に対応させた様態で情報提示する。また、表示部350は、時刻、位置、感情、またはユーザーIDの情報による後述のフィルタリング指定を行った感情時空間情報を情報提示してもよい。なお、表示部350は、例えば表示装置823により実現され得る。 The display unit 350 displays various display screens. For example, the display unit 350 presents the data of the emotion spatio-temporal information received from the emotion information management server 100 in a manner corresponding to the information of a predetermined space (office, station premises, etc.). In addition, the display unit 350 may present emotion spatio-temporal information that has undergone filtering designation, which will be described later, based on time, location, emotion, or user ID information. Note that the display unit 350 can be realized by the display device 823, for example.

センサ部360は、ユーザー900の行動や生理反応を外的に計測してデータを取得する。前記行動や生体反応のデータは、たとえば、カメラにより計測される顔表情や身体姿勢の状態内容を含む画像データ、マイクロフォンにより計測される音声データ、加速度センサにより計測される身体動作の加速度データ、キーボード・マウス・タッチパネル等の入力装置により計測される機器操作データ、各種生体センサにより計測される自律神経系活動(心拍活動、皮膚電気活動、血圧、発汗、呼吸、皮膚・深部体温等)のデータ、中枢神経系活動(脳波、脳血流等)のデータ、視線計測装置により計測される視線運動・瞳孔径・瞬目数等のデータ、唾液または血中の免疫成分のデータ等を含む。これらの計測指標の算出処理は、制御部330により端末装置300内で行われてもよいし、端末装置300から感情情報管理サーバ100へ生の測定データを送信し感情情報管理サーバ100内で行われてもよい。なお、センサ部360は、センサ813により実装され得る。 The sensor unit 360 externally measures the actions and physiological reactions of the user 900 to acquire data. The data of behavior and biological reaction are, for example, image data including facial expression and body posture state content measured by a camera, audio data measured by a microphone, acceleration data of body movement measured by an acceleration sensor, keyboard・Device operation data measured by input devices such as mice and touch panels, data on autonomic nervous system activity (heartbeat activity, electrodermal activity, blood pressure, perspiration, respiration, skin/deep body temperature, etc.) measured by various biosensors, It includes data on central nervous system activity (brain waves, cerebral blood flow, etc.), data on gaze movements, pupil diameter, number of blinks, etc. measured by eye tracking devices, data on immune components in saliva or blood, and the like. The processing for calculating these measurement indices may be performed within the terminal device 300 by the control unit 330, or may be performed within the emotion information management server 100 by transmitting raw measurement data from the terminal device 300 to the emotion information management server 100. may be broken. Note that the sensor unit 360 can be implemented by the sensor 813 .

センサ部360のセンサ813は、ユーザーへの非接触式でも接触式でもよい。接触式の場合、たとえば端末装置300は腕時計等の形状をしたウェアラブル端末であっても構わない。あるいは、端末装置300は、HMD(Head Mounted Display)であっても構わない。HMDのタイプは、ゴーグル型であっても構わないし、グラス型であっても構わない。また、端末装置300は、カメラ、マイクロフォン、加速度センサ、通信部等を備えたスマートフォンやタブレット端末であっても構わない。 The sensor 813 of the sensor unit 360 may be non-contact or contact to the user. In the case of the contact type, the terminal device 300 may be a wearable terminal in the shape of a wristwatch, for example. Alternatively, the terminal device 300 may be an HMD (Head Mounted Display). The type of HMD may be a goggles type or a glasses type. Also, the terminal device 300 may be a smartphone or a tablet terminal equipped with a camera, a microphone, an acceleration sensor, a communication unit, and the like.

位置情報取得部370は、外部からの取得信号に基づいて端末装置300の現在位置を検知する。具体的には、たとえば位置情報取得部370は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、端末装置300が存在している位置を検知し、検知した位置情報を制御部330に出力する。また、位置情報取得部370は、GPSの他、例えばWi-Fi、Bluetooth、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。なお、ユーザー900が端末装置300を感情時空間情報の入手のみに利用し前記計測データの取得には利用しない場合、端末装置300はセンサ部360や位置情報取得部370を備えなくても構わない。 The positional information acquisition unit 370 detects the current position of the terminal device 300 based on an externally acquired signal. Specifically, for example, the position information acquisition unit 370 is implemented by a GPS (Global Positioning System) positioning unit, receives radio waves from GPS satellites, detects the position where the terminal device 300 exists, and detects the position. The position information is output to control section 330 . In addition to GPS, the position information acquisition unit 370 may detect the position by, for example, Wi-Fi, Bluetooth, transmission/reception with a mobile phone/PHS/smartphone, or short-distance communication. Note that if the user 900 uses the terminal device 300 only to obtain the spatio-temporal emotion information and not to obtain the measurement data, the terminal device 300 does not have to include the sensor unit 360 and the position information acquisition unit 370. .

ここで、端末装置300を用いた、時刻、位置、感情、またはユーザーIDの情報によるフィルタリング指定について説明する。前述のように、ユーザー900は、端末装置300を用いて、感情情報管理サーバ100に前記感情時空間情報のデータを要求し、感情情報管理サーバ100から送信される感情時空間情報のデータを受信して、表示部350に情報提示することができる。その際、ユーザー900が、対象となる空間(オフィスや駅構内等)に関わるすべての感情時空間情報を得たいわけではなく、限られた条件に適合する情報だけを得たい場合、該すべての感情時空間情報を感情情報管理サーバ100から端末装置300に受信するのは通信帯域やシステムの演算処理リソースの無駄な使用につながる。そこで、ユーザー900は、端末装置300から感情情報管理サーバ100に前記感情時空間情報のデータを要求する際に、前記限られた条件に適合する情報のデータだけを送信するように感情情報管理サーバ100に要求することができ、それをフィルタリング指定と呼ぶ。 Here, filtering specification based on time, location, emotion, or user ID information using the terminal device 300 will be described. As described above, the user 900 uses the terminal device 300 to request the emotion spatio-temporal information data from the emotion information management server 100 and receive the emotion spatio-temporal information data transmitted from the emotion information management server 100. Then, information can be presented on the display unit 350 . At that time, if the user 900 does not want to obtain all emotional spatio-temporal information related to the target space (office, station premises, etc.), but only information that satisfies limited conditions, all of the information may be obtained. Receiving the emotion spatio-temporal information from the emotion information management server 100 to the terminal device 300 leads to wasteful use of the communication band and the arithmetic processing resources of the system. Therefore, when the user 900 requests the emotion spatio-temporal information data from the terminal device 300 to the emotion information management server 100, the emotion information management server 100 transmits only the data of the information that meets the limited conditions. 100, which is called a filtering specification.

時刻、位置、感情、またはユーザーIDの情報によるフィルタリング指定の例として、たとえば、(時間情報によるフィルタリング指定の例)A駅の平日午前7時~9時の間の感情時空間情報による通勤時間帯の状況を強く反映した感情時空間情報、(位置情報によるフィルタリング指定の例)B駅のW線ホームのエリアの感情時空間情報による自身が利用する車線に限定した感情時空間情報、(感情情報によるフィルタリング指定の例)C駅の怒り感情度が高いユーザーのデータに限定した感情時空間情報、(ユーザーID情報によるフィルタリング指定の例)D駅の人物同一性が高い(たとえば人物追跡処理が多くの時間で成功した)ユーザーのデータに限定した感情時空間情報、などが挙げられる。 As an example of specifying filtering based on time, location, emotion, or user ID information, for example, (example of specifying filtering based on time information) Commuting hours based on emotional spatio-temporal information between 7:00 and 9:00 a.m. on weekdays at Station A Emotional spatio-temporal information that strongly reflects the (filtering designation by position information) Emotional spatio-temporal information limited to the lane used by himself based on the emotional spatio-temporal information of the W line platform area of B station (Filtering by emotional information Designation example) Emotion spatio-temporal information limited to data of users with a high degree of anger and emotion at C station (Example of filtering designation by user ID information) Person identity at D station is high (e.g. (succeeded in )) Emotional spatio-temporal information limited to user data.

さらに、前述の感情変化情報生成部132が生成する経時的変化の情報によるフィルタリング指定を行っても構わない。たとえば、単位時間あたりの感情強度の差分量(微分値)が所定の値以上であったデータに限定した感情時空間情報や、逆に感情に変化がない状態の継続時間長が所定の長さ以上であったデータを除いた感情時空間情報を得られるようにフィルタリング指定を行ってもよい。これにより、ユーザーは、大きな感情変化を起こす突発的なイベント(たとえば、電車の遅延や事故発生の影響等により混雑率が平常よりも大きくなった電車の到着とユーザーの一斉降車等)の発生を感情時空間情報から推測・判断したり、逆にそのような突発的なイベントの影響をノイズ要因として除いた安定性の高い感情時空間情報を得たりすることができる。 Furthermore, it is also possible to specify filtering based on the information on changes over time generated by the emotion change information generation unit 132 described above. For example, spatio-temporal emotion information limited to data in which the amount of difference (differential value) in emotional intensity per unit time was greater than or equal to a predetermined value, or conversely, the duration of a state in which there is no change in emotion is a predetermined length. Filtering may be specified so that spatio-temporal emotion information excluding the above data can be obtained. As a result, users will be able to prevent sudden events that cause significant emotional changes (for example, the arrival of a train with a higher congestion rate than usual due to the effects of train delays or accidents, etc.). It is possible to make inferences and judgments from emotional spatio-temporal information, and conversely, obtain highly stable emotional spatio-temporal information that excludes the influence of such sudden events as noise factors.

感情情報管理サーバ100は、前記フィルタリング指定の情報を含むデータ要求メッセージを端末装置300から受信すると、フィルタリング指定がたとえば時刻情報による場合は感情時空間情報管理部133が、位置情報による場合は位置情報管理部136が、感情情報による場合は感情情報管理部137が、ユーザーID情報による場合は人物同一性情報管理部138が、記憶部120の感情時空間情報DB121等からフィルタリング指定の条件に適合した感情時空間情報の部分的なデータを抽出し、該端末装置300へ送信する。また、フィルタリング指定が経時的変化(感情情報の経時的変化、または、感情情報及び位置情報の経時的変化)の情報による場合は、感情変化情報生成部132がフィルタリング指定の条件に適合した感情時空間情報の部分的なデータを抽出しても構わない。 When the emotion information management server 100 receives the data request message including the information specifying the filtering from the terminal device 300, the emotion spatio-temporal information management unit 133 receives the filtering specification, for example, when the time information is used, and when the filtering specification is based on the location information, the location information. If the management unit 136 is based on emotion information, the emotion information management unit 137, and if it is based on the user ID information, the person identity information management unit 138 matches the filtering designation condition from the emotion spatio-temporal information DB 121 of the storage unit 120. Partial data of the emotion spatio-temporal information is extracted and transmitted to the terminal device 300 . Further, when the filtering designation is based on information of changes over time (changes over time of emotion information, or changes over time of emotion information and location information), the emotion change information generation unit 132 Partial data of spatial information may be extracted.

前記フィルタリング指定より、ユーザー900は、前記感情時空間情報のデータを、所望の情報の含有率が多く不要な情報が削減されたより少ない通信データ量で、端末装置300に受信できるようになる。 By specifying the filtering, the user 900 can receive the data of the emotional spatio-temporal information in the terminal device 300 with a smaller amount of communication data in which the content rate of desired information is high and unnecessary information is reduced.

特に、時間情報によるフィルタリング指定は本情報通信システムの実運用を考慮しても重要である。多くの場合、建築物は時間経過に伴い部分的な改修工事が各所で発生する。駅でいえば、ホームや通路の位置が改修工事によって変わったり、構内店舗が入れ替わったりする。そのような場合、同じ位置であっても改修工事以前とはその場の環境条件が変わったり、場合によってはその位置自体が駅の構外に変わったりしてしまう。この場合、感情情報の質も変わってしまう可能性が高いため、ユーザーはたとえば改修工事以前と以後とで感情時空間情報を分けて得たいであろう。本情報通信システムは、時刻情報のデータを管理する仕組み(時刻情報管理部135や時間情報によるフィルタリング指定機能等)を有することにより、時間とともに必然的に生じる建築物や環境の変化にも対応できる感情時空間情報をユーザーに提供できる。 In particular, specifying filtering based on time information is important even when considering the actual operation of this information communication system. In many cases, partial renovation work occurs in various places in buildings over time. In the case of a station, the positions of platforms and aisles change due to renovation work, and the shops on the premises are replaced. In such a case, even if the location is the same, the environmental conditions of the spot may change from before the repair work, and depending on the situation, the location itself may change outside the station premises. In this case, there is a high possibility that the quality of the emotion information will also change, so the user would like to obtain the emotion spatio-temporal information separately before and after the repair work, for example. This information communication system has a mechanism for managing time information data (time information management unit 135, filtering designation function based on time information, etc.), so it can respond to changes in buildings and environments that inevitably occur over time. Emotional spatio-temporal information can be provided to the user.

端末装置300において、制御部330は、感情情報管理サーバ100から通信部310を介して感情時空間情報の全部または一部を取得し、表示部350は、感情時空間情報の全部または一部を表示する。例えば、通信部310が、フィルタリング指定と情報の取得要求とを含むメッセージを感情情報管理サーバ100からに送信した場合、制御部330は、感情情報管理サーバ100からフィルタ済の感情時空間情報を取得し、フィルタ済の感情時空間情報を表示する。一例として、制御部330は、時刻情報の条件及び位置情報の条件の少なくともいずれか一方に基づいて感情時空間情報から部分的に抽出された情報を取得し、表示部350は、部分的に抽出された情報を表示する。 In the terminal device 300, the control unit 330 acquires all or part of the emotion spatiotemporal information from the emotion information management server 100 via the communication unit 310, and the display unit 350 acquires all or part of the emotion spatiotemporal information. indicate. For example, when the communication unit 310 transmits a message including a filtering designation and an information acquisition request from the emotion information management server 100, the control unit 330 acquires filtered emotion spatio-temporal information from the emotion information management server 100. and display filtered spatio-temporal emotional information. As an example, the control unit 330 acquires information partially extracted from the emotional spatio-temporal information based on at least one of the time information condition and the position information condition, and the display unit 350 acquires the partially extracted information display the information provided.

図11は、端末装置300の表示部350に情報提示された表示画面の一例を説明するための説明図である。図11には、図1の拠点bBC(たとえばサテライトオフィス)に対応する感情時空間情報の提示例が示されている。拠点bBCの時刻情報と位置情報に対応して感情情報が位置情報に応じて配置表示されており、当拠点の南側方面にネガティブな感情のユーザーが集まっており雰囲気が悪くなっていることが提示情報から伺える。 FIG. 11 is an explanatory diagram for explaining an example of a display screen on which information is presented on the display unit 350 of the terminal device 300. As shown in FIG. FIG. 11 shows a presentation example of emotional spatio-temporal information corresponding to the base bBC (for example, satellite office) in FIG. Emotional information is displayed according to the time information and location information of base bBC, showing that users with negative emotions are gathering in the south side of this base and the atmosphere is getting worse. I can tell from the information.

図12は、端末装置300の表示部350に情報提示された表示画面の別の一例を説明するための説明図である。図12には、ある駅の構内空間の一部に対応する、フィルタリング指定のない感情時空間情報の提示例が示されている。図の中央上部に通路A、中央下部に通路Bの空間射影図が示され、当該通路を通過したユーザーの感情情報が位置情報に応じて配置表示されている。通路Aの方が通路Bよりもユーザー数(感情情報のデータ数)がやや多そうなことはわかるが、全体として感情情報の数が多すぎ、雰囲気の差はよくわからない。 FIG. 12 is an explanatory diagram for explaining another example of the display screen on which information is presented on the display unit 350 of the terminal device 300. As shown in FIG. FIG. 12 shows a presentation example of emotion spatio-temporal information without filtering designation, corresponding to a part of the premises space of a certain station. A spatial projection view of a passage A is shown in the upper center of the drawing, and a spatial projection view of a passage B is shown in the lower center of the figure, and the emotional information of the user who has passed through the passage is arranged and displayed according to the position information. It can be seen that the number of users (the number of emotional information data) seems to be slightly larger in passage A than in passage B, but overall the amount of emotional information is too large to understand the difference in atmosphere.

なお、前記空間射影図を生成するために必要な建築物(たとえば駅)の空間構造データ(たとえば該建築物設定の際につくられた3D-CADデータ)は、感情情報管理サーバ100の記憶部120に予め記憶されており、該空間構造データの一部が、感情情報管理サーバ100から端末装置300に送信されても構わない。また、該空間構造データのワールド座標と、端末装置300から収集した該端末装置の位置のワールド座標の、互いの原点や軸方向が異なっていた場合、感情情報管理サーバ100は複数の位置情報のワールド座標の原点や軸方向を合わせる位置情報データの変換処理を行ってもよい。 Spatial structure data (eg, 3D-CAD data created when setting up the building) of a building (eg, a station) necessary for generating the spatial projection diagram is stored in the storage unit of the emotion information management server 100. 120 in advance, and part of the spatial structure data may be transmitted from the emotion information management server 100 to the terminal device 300 . Further, when the world coordinates of the spatial structure data and the world coordinates of the position of the terminal device collected from the terminal device 300 are different from each other in origin or axis direction, the emotion information management server 100 collects a plurality of pieces of position information. Transformation processing of the position information data may be performed to match the origin and axis direction of the world coordinates.

ただし、本発明の実施形態の実施にあたって、前記空間構造データが予め用意されていることは必須ではない。前記建築物を利用したユーザー900群の過去の位置情報データを用いて、該建築物の空間構造データを感情情報管理サーバ100が生成してもよい。該構建築物の構造物(壁や柱等)内に人間は存在できず、通常は該構造物を避けて移動するため、該構造物の内部空間にユーザー900が位置するということはあり得ない。すると、これまで前記建築物を利用してきた過去の多数のユーザー900群の位置情報を合わせると、ユーザー900の位置情報が存在しない空間領域には該建築物の構造物が存在する可能性が高い(逆に、ユーザー900の位置情報が存在した空間領域は、該構造物が存在しない空間である可能性が高い)。このように、前記ユーザー900群の位置情報が多数あれば、その存在の有無のデータを用いて該建築物の構造(どこに該構造物が存在するかの空間分布)を当情報管理システム内で新たに生成することができる。 However, in carrying out the embodiment of the present invention, it is not essential that the spatial structure data be prepared in advance. The emotion information management server 100 may generate the spatial structure data of the building using the past location information data of the group of users 900 who have used the building. Humans cannot exist within the structures (walls, pillars, etc.) of the building, and they usually move around avoiding the structures. . Then, by combining the positional information of many users 900 who have used the building in the past, there is a high possibility that the structure of the building exists in a spatial region where the positional information of the user 900 does not exist. (Conversely, there is a high possibility that the spatial region where the position information of the user 900 exists is a space where the structure does not exist). In this way, if there is a large amount of location information for the user 900 group, the structure of the building (spatial distribution of where the structure is located) can be determined within the information management system using data on the presence or absence of the user 900 group. Can be newly generated.

また、前述した感情時空間情報DB121には、駅の改修箇所や時期などの情報を含む「環境変化情報」が併せて記憶されていてもよい。前記環境変化情報は、図13のように、端末装置300の表示部350に情報提示されてもよい。 In addition, "environmental change information" including information such as the repair location and time of the station may also be stored in the emotion spatio-temporal information DB 121 described above. The environmental change information may be presented on the display unit 350 of the terminal device 300 as shown in FIG.

図14は、端末装置300の表示部350に情報提示された表示画面のさらに別の一例を説明するための説明図である。図14には、図12と同じ駅構内空間に対応する、第1の時刻情報によるフィルタリング指定がなされた感情時空間情報の提示例が示されている。ここでは、第1の時刻情報によるフィルタリング指定によって、通勤時間帯を想定した平日午前7時~9時の間の感情時空間情報の例が示されている。通路Aと通路Bではユーザー数に大きな差はないが、この時間帯は全体的にネガティブな感情のユーザーが多いことが伺える。 FIG. 14 is an explanatory diagram for explaining still another example of the display screen on which information is presented on the display unit 350 of the terminal device 300. As shown in FIG. FIG. 14 shows a presentation example of emotional spatio-temporal information for which filtering is designated by the first time information, corresponding to the same station space as in FIG. 12 . Here, an example of emotion spatio-temporal information from 7:00 am to 9:00 am on weekdays assuming a commuting time zone is shown by specifying filtering based on the first time information. There is no big difference in the number of users between Aisle A and Aisle B, but it can be seen that there are many users with negative emotions overall during this time period.

図15は、端末装置300の表示部350に情報提示された表示画面のさらに別の一例を説明するための説明図である。図15には、図12と同じ駅構内空間に対応する、第2の時刻情報によるフィルタリング指定がなされた感情時空間情報の提示例が示されている。 FIG. 15 is an explanatory diagram for explaining still another example of the display screen on which information is presented on the display unit 350 of the terminal device 300. As shown in FIG. FIG. 15 shows a presentation example of emotional spatio-temporal information for which filtering is designated by the second time information, corresponding to the same station space as in FIG.

ここでは、第2の時刻情報によるフィルタリング指定によって、平日昼過ぎの14時~15時の間の感情時空間情報の例が示されている。通路Bよりも通路Aの方がユーザー数が多く、ポジティブな感情のユーザーが多いことが見てとれる。もしかしたら、この時間帯には通路Aの方にのみ何か特別なイベントや展示が開かれているのかもしれない。ユーザーは本提示情報を見て、平日昼過ぎに当駅を利用するのであれば通路Aの方を利用した方が良い雰囲気のなか移動ができるかもしれない、と判断を行うことができる。以上の図12から図15の例示により、本発明の実施形態に係るフィルタリング指定機能を利用することによって、遠隔地の全体的な感情分布状況や雰囲気をより詳細に把握できる可能性を示した。 Here, an example of emotion spatio-temporal information from 14:00 to 15:00 in the afternoon on weekdays is shown by specifying filtering based on the second time information. It can be seen that there are more users in passage A than in passage B, and there are many users with positive emotions. Perhaps there is some kind of special event or exhibition being held only in Passage A during this time. The user can look at this presented information and judge that if he uses this station in the early afternoon on weekdays, he may be able to move in a better atmosphere if he uses passage A. The above examples of FIGS. 12 to 15 show the possibility of grasping the overall emotional distribution and atmosphere of a remote location in more detail by using the filtering designation function according to the embodiment of the present invention.

図16は、端末装置300の表示部350に情報提示された表示画面のさらに別の一例を説明するための説明図である。図16には、端末装置300が感情情報管理サーバ100の推薦情報生成部142から受信した推薦情報(データ)の提示例が示されている。図の例では、ショッピングモール(やエキナカ)のマップ(平面図)が示されており、本システムから推薦情報が提供されるユーザー900の現在の位置情報と感情情報が示されている。 FIG. 16 is an explanatory diagram for explaining still another example of the display screen on which information is presented on the display unit 350 of the terminal device 300. As shown in FIG. FIG. 16 shows an example of presentation of recommendation information (data) received by the terminal device 300 from the recommendation information generation unit 142 of the emotion information management server 100 . In the example of the figure, a map (plan view) of a shopping mall (or station) is shown, and current position information and emotional information of a user 900 to whom recommendation information is provided from this system are shown.

たとえば、ユーザー900の感情時空間系列情報と比較して、行動変化パターン(位置情報の変化パターン)の類似度が高く、かつ、感情のポジティブ度が高くなるという条件が満たされる感情時空間系列情報として、ユーザー900X、ユーザー900Y、ユーザー900Zそれぞれの感情時空間系列情報が選択されたとする。このとき、上記したように、ユーザー900X、ユーザー900Y、ユーザー900Zそれぞれの感情時空間系列情報のうち、後段に当たるt=+1、+2の少なくともいずれかの感情時空間系列情報に基づいて推薦情報が生成されればよい。 For example, the emotion spatio-temporal series information that satisfies the conditions that the behavior change pattern (location information change pattern) has a higher similarity and the emotion has a higher degree of positivity than the user 900's emotion spatio-temporal series information. , the emotion spatio-temporal series information of each of user 900X, user 900Y, and user 900Z is selected. At this time, as described above, among the emotion spatio-temporal series information of each of the users 900X, 900Y, and 900Z, recommendation information is generated based on at least one of the emotion spatio-temporal series information of t=+1 or +2 corresponding to the latter stage. I wish I could.

図16を参照すると、ユーザー900Xのt=+1における位置情報および感情情報が表示されている(推薦エリア1=飲食店)。また、図16には、ユーザー900Yのt=+1における位置情報および感情情報が表示され、ユーザー900Yのt=+2における位置情報および感情情報が表示されている(推薦エリア2=洋服店)。ユーザー900Yは、t=+1からt=+2に掛けて同じエリア内を移動するとともに、感情のポジティブ度が高くなっている。さらに、図16には、ユーザー900Zのt=+1における位置情報および感情情報が表示され(推薦エリア3=書店)、ユーザー900Zのt=+2における位置情報および感情情報が表示されている(エリア=ゲームセンター)。 Referring to FIG. 16, position information and emotion information of user 900X at t=+1 are displayed (recommended area 1=restaurant). FIG. 16 also displays the positional information and emotional information of user 900Y at t=+1, and the positional information and emotional information of user 900Y at t=+2 (recommended area 2=clothing store). The user 900Y moves within the same area from t=+1 to t=+2 and has a high degree of positive emotion. Furthermore, FIG. 16 displays the positional information and emotional information of user 900Z at t=+1 (recommended area 3=bookstore), and displays the positional information and emotional information of user 900Z at t=+2 (area= Arcade).

端末装置300は、前記検索結果の感情時空間系列情報や推薦情報を感情情報管理サーバ100から受信し、3つ検索結果の位置(エリア)や移動後に変化されると予測される感情情報を示す情報を、前記ショッピングモールのマップ上に図16のように重畳表示させても構わない。 The terminal device 300 receives the emotion spatio-temporal series information and recommended information of the search results from the emotion information management server 100, and indicates the location (area) of the three search results and emotion information that is predicted to change after movement. Information may be superimposed on the map of the shopping mall as shown in FIG.

続いて、図17及び図18を参照して、本実施形態に係る情報処理動作の例を説明する。図17及び図18は、本実施形態に係る情報通信システムの動作シーケンスの一例を示す説明図である。図17は、システムのユーザー900からの計測データの収集と感情時空間情報の生成処理を説明し、図18は、システムのユーザー900への感情時空間情報の提示処理を説明している。 Next, an example of an information processing operation according to this embodiment will be described with reference to FIGS. 17 and 18. FIG. 17 and 18 are explanatory diagrams showing an example of an operation sequence of the information communication system according to this embodiment. FIG. 17 explains the process of collecting measurement data from the user 900 of the system and generating spatio-temporal emotion information, and FIG. 18 explains the process of presenting the spatio-temporal emotion information to the user 900 of the system.

図17に示したように、ステップS1101で、感情情報管理サーバ100は、実世界やユーザー900の行動や生理反応等の計測データの収集処理を開始する。 As shown in FIG. 17, in step S1101, the emotion information management server 100 starts collecting measurement data such as the real world and the user's 900 actions and physiological reactions.

ステップS1103で、感情情報管理サーバ100は構内カメラ200へ、ステップS1105で、感情情報管理サーバ100は端末装置300へ、データ要求メッセージを送信する。なお、データ要求メッセージの送信タイミングは限定されない。 The emotion information management server 100 transmits a data request message to the premises camera 200 in step S1103, and to the terminal device 300 in step S1105. Note that the transmission timing of the data request message is not limited.

たとえば、感情情報管理サーバ100は、端末装置300が駅構内に入ったことが検知された場合、端末装置300へ、データ要求メッセージを送信してもよい。たとえば、端末装置300が駅構内に入ったことは、ユーザーが駅の改札口を通るときや、駅の店舗での買い物をするときに 該ユーザーの端末装置300に含まれるICチップを利用する場合には、該ICチップが読み取られたことによって検知されてもよいし、駅に設置されている通信基地局に端末装置300が無線接続されたことによって検知されてもよい。さらに、前記買い物や改札口の通過は、前記ICチップの使用に限定されず、端末装置300で駅構内に存在するバーコードや二次元コードを読み取ることにより実施されてもよい。なお、感情情報管理サーバ100は、端末装置300が構内に入ったことが検知される前から、端末装置300へ、データ要求メッセージを送信してもよい。 For example, emotion information management server 100 may transmit a data request message to terminal device 300 when it is detected that terminal device 300 has entered the station premises. For example, when the terminal device 300 enters the station premises, the user uses the IC chip included in the terminal device 300 when the user passes through the ticket gate of the station or when shopping at the station store. can be detected by reading the IC chip, or by wirelessly connecting the terminal device 300 to a communication base station installed at a station. Furthermore, the shopping and passing through the ticket gate are not limited to the use of the IC chip, and may be performed by reading a bar code or two-dimensional code present in the station premises with the terminal device 300 . Emotion information management server 100 may transmit the data request message to terminal device 300 before it is detected that terminal device 300 has entered the premises.

また、たとえば、感情情報管理サーバ100は、構内カメラ200からのデータに基づいて人(または人の感情)が検知された場合、構内カメラ200へ、データ要求メッセージを送信してもよい。感情情報管理サーバ100は、構内カメラ200からのデータに基づいて人(または人の感情)が検知されなくなった場合、構内カメラ200へ、データ要求メッセージの送信を停止してもよい。 Further, for example, emotion information management server 100 may transmit a data request message to local camera 200 when a person (or human emotion) is detected based on data from local camera 200 . Emotion information management server 100 may stop sending the data request message to on-premises camera 200 when a person (or human emotion) is no longer detected based on data from on-premises camera 200 .

ステップS1107で、構内カメラ200は、ステップS1109で、端末装置300は、前記ユーザー900の行動や生理反応等の計測データの取得を行う。 In step S1107, the premises camera 200 acquires measurement data such as behavior and physiological reaction of the user 900 in step S1109.

ステップS1111で、構内カメラ200は、ステップS1113で、端末装置300は、感情情報管理サーバ100へ前記ユーザー900の行動や生理反応等の計測データを送信する。 In step S1111, the premises camera 200 transmits measurement data such as behavior and physiological reaction of the user 900 to the emotion information management server 100 in step S1113.

ステップS1115で、感情情報管理サーバ100は、構内カメラ200や端末装置300から受信したユーザー900の行動や生理反応等の計測データを受信し、感情時空間情報管理部133の処理により該計測データから感情時空間情報のデータを生成する。 In step S1115, the emotion information management server 100 receives measurement data such as the behavior and physiological reaction of the user 900 received from the premises camera 200 and the terminal device 300, and the emotion spatiotemporal information management unit 133 processes the measurement data to Generate data of emotional spatio-temporal information.

また、ステップS1117で、ユーザー900は端末装置300を使用して、ある実空間に対応する感情時空間情報を要求する入力を行う。 In step S1117, user 900 uses terminal device 300 to input a request for emotional spatio-temporal information corresponding to a certain real space.

ステップS1119で、端末装置300は、感情時空間情報のデータ要求メッセージを生成し、感情情報管理サーバ100へ送信する。前記データ要求メッセージには、前記時刻、位置、感情、またはユーザーIDの情報によるフィルタリング指定に係る情報のデータが含まれていてもよい。 In step S<b>1119 , terminal device 300 generates a data request message for emotion spatio-temporal information and transmits it to emotion information management server 100 . The data request message may include information data related to filtering designation based on the time, location, emotion, or user ID information.

ステップS1121で、感情情報管理サーバ100は、端末装置300から受信した感情時空間情報のデータ要求メッセージを受信し、もし前記フィルタリング指定に係る情報のデータが含まれていた場合は、該フィルタリング指定の条件に適合した感情時空間情報の部分的なデータを抽出する処理を行う。 In step S1121, the emotion information management server 100 receives the emotion spatio-temporal information data request message from the terminal device 300, and if the information data related to the filtering designation is included, A process of extracting partial data of emotion spatio-temporal information that matches the conditions is performed.

ステップS1123で、感情情報管理サーバ100は、端末装置300へ感情時空間情報のデータを送信する。 In step S<b>1123 , emotion information management server 100 transmits data of emotion spatio-temporal information to terminal device 300 .

ステップS1125で、端末装置300は、感情情報管理サーバ100から感情時空間情報のデータを受信し、表示部350からユーザー900へ情報提示する。 In step S 1125 , terminal device 300 receives the data of emotion spatio-temporal information from emotion information management server 100 and presents the information to user 900 from display unit 350 .

なお、ステップS1119からS1125で示したような、感情情報管理サーバ100から端末装置300への感情時空間情報のデータの送信は必ずしもユーザー900の操作入力を契機として発生する必要はなく、感情情報管理サーバ100と通信可能な状態にある端末装置300へ感情情報管理サーバ100からプッシュ型で感情時空間情報のデータを配信してもよい。 The transmission of the emotion spatio-temporal information data from the emotion information management server 100 to the terminal device 300 as shown in steps S1119 to S1125 does not necessarily have to be triggered by an operation input by the user 900. The emotion spatio-temporal information data may be delivered in a push type from the emotion information management server 100 to the terminal device 300 that is in a state of being able to communicate with the server 100 .

(2.第2の実施形態)
次に、本発明の第2の実施形態に係る情報通信システムについて説明する。
(2. Second embodiment)
Next, an information communication system according to a second embodiment of the present invention will be described.

本発明の第2の実施形態では、感情情報管理サーバ100が、制御部130に確度情報生成部139および関連情報生成部143をさらに含む(図19)。確度情報生成部139は、感情時空間情報管理部133が生成する感情時空間情報の確度情報を生成する。確度情報とは、情報の確からしさに対応する情報であり、たとえば情報のデータ数と関連する。より具体的に、確度情報生成部139は、単位空間あたりの感情時空間情報のデータ数に基づいて、該単位空間における感情情報の代表値の確度情報を生成してもよい。 In the second embodiment of the present invention, emotion information management server 100 further includes accuracy information generation section 139 and related information generation section 143 in control section 130 (FIG. 19). The accuracy information generation unit 139 generates accuracy information of the emotion spatio-temporal information generated by the emotion spatio-temporal information management unit 133 . Accuracy information is information corresponding to the certainty of information, and is related to the number of information data, for example. More specifically, the accuracy information generating section 139 may generate the accuracy information of the representative value of the emotion information in the unit space based on the number of pieces of emotion spatio-temporal information data per unit space.

感情時空間情報が端末装置300の表示部350上で情報提示される際、表示スペースの関係から、感情時空間情報は必ずしも個々の単位ですべて表示されなくてもよく、互いに近い位置情報である(すなわち、単位空間に存在する)複数の感情情報の代表値(平均値、中央値、最頻値等)が表示されても良い。その際に、確度情報生成部139は、前記代表値の基になった感情時空間情報のデータ数を確度情報として算出し、端末装置300において、制御部330は、前記代表値と前記確度情報とを対応づけ、表示部350は、対応づけられた前記代表値と前記確度情報とを情報提示してもよい。 When the emotional spatio-temporal information is presented on the display unit 350 of the terminal device 300, the emotional spatio-temporal information does not necessarily have to be displayed in individual units because of the display space. A representative value (average value, median value, mode value, etc.) of a plurality of emotion information (that is, existing in a unit space) may be displayed. At that time, the accuracy information generation unit 139 calculates the number of data of the emotional spatio-temporal information on which the representative value is based as accuracy information, and in the terminal device 300, the control unit 330 generates the representative value and the accuracy information. may be associated with each other, and the display unit 350 may present information on the associated representative value and the accuracy information.

図20は、端末装置300の表示部350に情報提示された表示画面の一例を説明するための説明図である。図20には、ある駅の構内空間の一部に対応する、代表値を用いない個々の感情時空間情報の提示例が示されている。 FIG. 20 is an explanatory diagram for explaining an example of a display screen on which information is presented on the display unit 350 of the terminal device 300. As shown in FIG. FIG. 20 shows a presentation example of individual spatio-temporal emotion information that does not use representative values and corresponds to a part of the premises space of a certain station.

通路Aの感情情報のデータ数は5、通路Bの感情情報のデータ数は1である。一方、図21は、端末装置300の表示部350に情報提示された表示画面の別の一例を説明するための説明図である。図21には、図20と同じ駅構内空間に対応する、代表値を用いた個々の感情時空間情報の提示例が示されている。 The number of emotional information data in path A is five, and the number of emotional information data in path B is one. On the other hand, FIG. 21 is an explanatory diagram for explaining another example of the display screen on which information is presented on the display unit 350 of the terminal device 300. As shown in FIG. FIG. 21 shows a presentation example of individual emotional spatio-temporal information using representative values corresponding to the same station space as in FIG.

通路Aに対応して提示されている感情時空間情報の数は代表値の1つにまとめられ、その近傍に感情時空間情報のデータ数である「5」が提示されている。一方、通路Bに対応して提示されている感情時空間情報にはその近傍にデータ数の「1」が提示されている(1つの感情時空間情報がそのまま代表値になっている)。 The number of emotional spatio-temporal information presented corresponding to path A is grouped into one representative value, and "5", which is the number of data of emotional spatio-temporal information, is presented near it. On the other hand, in the emotional spatio-temporal information presented corresponding to the path B, the number of data "1" is presented near it (one emotional spatio-temporal information is the representative value as it is).

通路Aと通路Bの感情時空間情報の代表値は同じポジティブ感情と強度を示す表示を行っているが、通路Aの感情時空間情報の代表値の方が多くのデータ数に基づき算出されていることから、確からしさは高いといえる(データ数が多くなるほど確からしさが上がる)。一方で、通路Bの感情時空間情報の代表値は1つであるため、該感情時空間情報に対応する1人のユーザーが偶然にその感情を示しただけかもしれず、感情喚起の個人差も考慮すると、通路Aの感情時空間情報の代表値と比較しても確からしさは低い。 The representative values of the spatio-temporal emotion information for path A and path B are displayed to indicate the same positive emotion and intensity, but the representative value for the spatio-temporal emotion information for path A is calculated based on a larger number of data. Therefore, it can be said that the probability is high (the higher the number of data, the higher the probability). On the other hand, since there is only one representative value of the spatio-temporal emotion information in passage B, it is possible that one user corresponding to the spatio-temporal emotion information simply showed that emotion by chance. Considering this, the probability is low even when compared with the representative value of the emotion spatio-temporal information of the passage A.

図21の場合、通路Aと通路Bの感情時空間情報の代表値と確度情報を端末装置300から提示されたユーザーは、通路Aを選んで行った方が、より確実に感情時空間情報と同様のポジティブ感情の雰囲気を感じられる可能性が高い。なお、図21では、感情時空間情報を通路単位でまとめる例が示されている。しかし、感情時空間情報をまとめる単位は、通路単位に限定されない。たとえば、感情時空間情報をまとめる単位は、他のエリア単位であってもよい。 In the case of FIG. 21, the user presented with the representative value and the accuracy information of the emotional spatio-temporal information of the path A and the path B from the terminal device 300 selects the path A more reliably. You are likely to feel a similar atmosphere of positive emotion. Note that FIG. 21 shows an example in which the spatio-temporal emotion information is summarized for each passage. However, the unit for summarizing the spatio-temporal emotion information is not limited to the passage unit. For example, the unit for summarizing the spatio-temporal emotion information may be another area unit.

このように、確度情報生成部139が生成する確度情報を得られることで、ユーザー900は、感情時空間情報の代表値を表示する情報提示モードであっても、遠隔地の全体的な感情分布状況や雰囲気をより高い確からしさで知ることができる。なお、ここでは確度情報の指標例としてデータ数を挙げたが、それに限定されず、前記複数の感情時空間情報のデータ特性をあらわす基本統計量(たとえば範囲(たとえば最大値と最小値との差分)、標準偏差、尖度、歪度等)を確度情報の別の指標としてさらに算出し、情報提示してもよい。さらに、感情情報管理サーバ100は、前述のフィルタリング指定処理を前記確度情報により行っても構わない。 By obtaining the accuracy information generated by the accuracy information generation unit 139 in this way, the user 900 can easily understand the overall emotional distribution of the remote location even in the information presentation mode that displays the representative value of the emotion spatiotemporal information. You can know the situation and atmosphere with a higher degree of certainty. Although the number of data is used as an example of the index of accuracy information here, the number of data is not limited to this. ), standard deviation, kurtosis, skewness, etc.) may be further calculated as another indicator of the accuracy information and presented. Furthermore, the emotion information management server 100 may perform the filtering designation process described above based on the certainty information.

本発明の実施形態においては、端末装置300の表示部350に情報提示される前記空間射影図の表示範囲を変更する拡大・縮小表示処理を、端末装置300が行ってもよい。さらに、前記拡大・縮小表示処理に応じて、前記感情時空間情報の代表値や確度情報の基とする前記個々の感情時空間情報の選択対象を変更してもよい。前記縮小表示処理の縮小度を大きくしていくと、表示部350に情報提示される前記ユーザーの感情情報の数も増えていき、端末装置300の表示部350のハードウェアの表示解像度(表示画素の素子数)は有限であるので、該ユーザーの感情情報の表示画素数や表示サイズも小さくなっていき、前記端末装置300のユーザーから表示される感情情報が視認しにくくなる。 In the embodiment of the present invention, the terminal device 300 may perform enlargement/reduction display processing for changing the display range of the spatial projection diagram presented on the display unit 350 of the terminal device 300 . Furthermore, the selection target of each of the emotion spatio-temporal information based on the representative value of the emotion spatio-temporal information and the accuracy information may be changed according to the enlargement/reduction display processing. As the reduction degree of the reduction display process is increased, the number of the user's emotional information presented on the display unit 350 also increases, and the display resolution (display pixels) of the hardware of the display unit 350 of the terminal device 300 increases. ) is finite, the number of display pixels and the display size of the user's emotional information also decrease, making it difficult for the user of the terminal device 300 to visually recognize the displayed emotional information.

そこで、本発明の実施形態に係るシステム(端末装置300や感情情報管理サーバ100)は、前記縮小表示処理の縮小度の大きさに応じて、前記代表値を算出する際に基にする前記個々の感情時空間情報が存在する対象空間範囲を変更してもよい。たとえば、前記空間射影図を解像度2分の1の表示サイズに縮小表示処理した場合には、前記代表値の基にする前記感情時空間情報の対象空間範囲も2倍の広さとしてもよい。すなわち、2倍の広さの領域内に存在する前記感情時空間情報の代表値や確度情報を求め、表示部350に情報提示させてもよい。 Therefore, the system (the terminal device 300 or the emotion information management server 100) according to the embodiment of the present invention provides the individual may be changed. For example, when the spatial projection map is displayed in a reduced display size of half the resolution, the target spatial range of the emotion spatio-temporal information on which the representative value is based may be doubled. That is, the representative value and the accuracy information of the emotion spatio-temporal information existing in the double area may be obtained and displayed on the display unit 350 .

また、複数の感情情報の代表値(平均値、中央値、最頻値等)は、推薦情報が生成される際にも利用され得る。たとえば、上記した高類似度の系列情報が複数選択される場合も想定される。このとき、複数の高類似度の系列情報のうち対象ユーザーの系列情報との対応箇所よりも後段の系列情報に含まれる対応する位置情報同士が同じエリアに該当する場合も想定される。かかる場合には、推薦情報生成部142は、当該後段の系列情報に含まれる対応する感情情報の代表値に基づいて、推薦情報を生成してもよい。 Also, representative values (average value, median value, mode value, etc.) of a plurality of pieces of emotion information can be used when recommendation information is generated. For example, it is conceivable that a plurality of pieces of series information with high similarity as described above are selected. At this time, it is conceivable that the corresponding location information contained in the series information in the latter stage of the series information corresponding to the target user's series information among the plurality of pieces of series information with high similarity may correspond to the same area. In such a case, the recommendation information generation unit 142 may generate recommendation information based on the representative value of the corresponding emotion information included in the subsequent series information.

図22は、端末装置300の表示部350に情報提示された表示画面のさらに別の一例を説明するための説明図である。図22を参照すると、図16に示した例と同様に、推薦情報(位置情報および感情情報)が提示されている。さらに、ここでは5つの高類似度の系列情報に含まれるt=+1における位置情報同士が「推薦エリア1」に該当し、そのうちの3つの系列情報に含まれるt=+1における感情のポジティブ度が高くなり、残りの2つの系列情報に含まれるt=+1における感情のポジティブ度が低くなった場合を想定する。 FIG. 22 is an explanatory diagram for explaining still another example of the display screen on which information is presented on the display unit 350 of the terminal device 300. As shown in FIG. Referring to FIG. 22, recommendation information (positional information and emotion information) is presented as in the example shown in FIG. Furthermore, here, the position information at t = +1 included in the five high-similarity series information corresponds to the "recommended area 1", and the positivity of the emotion at t = +1 included in the three series information among them is It is assumed that the positivity of emotions at t=+1 included in the remaining two pieces of series information is low.

このとき、たとえば、推薦情報生成部142は、「推薦エリア1」のt=+1における感情情報の代表値(たとえば、最頻値=ポジティブ度:高)を推薦情報として生成してもよく、図22の「推薦エリア1」に示されるように、当該代表値(ポジティブ度:高)に対応する人物アイコンが提示されてもよい。また、関連情報生成部143は、当該代表値の推定精度(60%)を関連情報として生成してもよく、図22の「推薦エリア1」に示されるように、当該代表値の推定精度(60%)が提示されてもよい。 At this time, for example, the recommendation information generation unit 142 may generate, as recommendation information, a representative value (for example, mode = positive degree: high) of emotion information at t=+1 in “recommended area 1”. As shown in “recommended area 1” 22, a person icon corresponding to the representative value (positivity: high) may be presented. In addition, the related information generating unit 143 may generate the estimated accuracy (60%) of the representative value as related information. 60%) may be presented.

なお、推定精度の代わりに、または、推定精度とともに、他の情報が関連情報生成部143によって生成されて端末装置300によって提示されてもよい。たとえば、関連情報生成部143によって代表値の尤度が生成され、端末装置300によって提示されてもよい。あるいは、関連情報生成部143によって代表値の基になった高類似度の系列情報のデータ数(ここでは5つ)が確度情報として生成され、端末装置300によって提示されてもよい。あるいは、関連情報生成部143によって対象ユーザーの系列情報と高類似度の系列情報との類似度または類似度に関連する情報(類似度の高いほうから何番目に該当するかを示す順位など)が生成され、端末装置300によって提示されてもよい。 Note that other information may be generated by the relevant information generation unit 143 and presented by the terminal device 300 instead of the estimation accuracy or together with the estimation accuracy. For example, the likelihood of the representative value may be generated by the relevant information generation unit 143 and presented by the terminal device 300 . Alternatively, the related information generation unit 143 may generate the number of pieces of data of series information with high similarity (here, five) on which the representative value is based as accuracy information, and the terminal device 300 may present it. Alternatively, the related information generation unit 143 generates the similarity between the series information of the target user and the series information of the high similarity or information related to the similarity (such as the order indicating which number corresponds from the highest similarity). may be generated and presented by the terminal device 300 .

図22を参照すると、「推薦エリア2」および「推薦エリア3」それぞれにおける感情に対応する人物アイコンおよび当該感情の推定精度も提示されている。「推薦エリア2」では、t=+1における感情(ポジティブ度:高)が推定精度(90%)にて推定され、t=+2における感情(ポジティブ度:超高)が推定精度(80%)にて推定されている。一方、「推薦エリア3」では、t=+1において感情(ポジティブ度:高)が推定精度(40%)にて推定されている。 Referring to FIG. 22, person icons corresponding to emotions in “recommended area 2” and “recommended area 3” and estimation accuracies of the emotions are also presented. In "recommended area 2", the emotion (positivity: high) at t = +1 is estimated with an estimation accuracy (90%), and the emotion (positivity: very high) at t = +2 is estimated with an estimation accuracy (80%). estimated as On the other hand, in the “recommended area 3”, the emotion (positivity: high) is estimated with an estimation accuracy (40%) at t=+1.

(3.第3の実施形態)
次に、本発明の第3の実施形態に係る情報通信システムについて説明する。
(3. Third Embodiment)
Next, an information communication system according to a third embodiment of the present invention will be described.

本発明の第3の実施形態では、感情情報管理サーバ100が、制御部130にエリア分割部144をさらに含む(図23)。エリア分割部144は前記感情時空間系列情報における位置情報の分解能を規定するエリアの分割処理を行う。 In the third embodiment of the present invention, emotion information management server 100 further includes area division section 144 in control section 130 (FIG. 23). The area division unit 144 performs area division processing that defines the resolution of position information in the emotion spatio-temporal series information.

前述の位置情報について、その分解能については説明しなかった。前記分解能は低すぎると本システムの機能の有効性を損なう恐れがある(たとえば、複数種類の店舗がひとつのエリアとしてまとめて扱われてしまう等)が、一方で、分解能を高くしすぎる(たとえば1mm単位等)と、前述の類似度の算出演算処理量が大きくなったり、感情情報管理サーバ100に記憶される感情時空間系列情報のデータ量が大きくなりすぎたりしてしまう恐れがある。その解決策として、本第3の実施形態では、前記位置情報の分解能やエリア毎の境界設定を好適に設定することができるエリア分割部144を、感情情報管理サーバ100が含む。 The resolution of the aforementioned position information has not been explained. If the resolution is too low, the effectiveness of the functions of this system may be impaired (for example, multiple types of shops are treated as one area), but on the other hand, if the resolution is too high (for example, 1 mm unit, etc.), there is a risk that the above-mentioned similarity calculation calculation processing amount will become large, or the data amount of the emotion spatio-temporal series information stored in the emotion information management server 100 will become too large. As a solution to this problem, in the third embodiment, the emotion information management server 100 includes an area division unit 144 capable of appropriately setting the resolution of the position information and the boundary setting for each area.

前記エリア毎の境界設定の方法として、1つ目の方法は、手動設定である。本システムの管理者等により、予め境界設定が定められたり、ショッピングモールの店舗毎にエリアの境界が設定され、エリア分割部144は該設定情報を管理する。 As a method of setting boundaries for each area, the first method is manual setting. An administrator or the like of this system predetermines boundary settings, or sets an area boundary for each store in the shopping mall, and the area division unit 144 manages the setting information.

2つ目の方法は、ユーザーの「滞留時間」のデータを利用することである。ここで、計測対象のユーザーは特定のユーザーであってもよいが、IDを持つすべてのユーザーであってよい。また、「滞留時間」は、その位置に存在した時間の個人ごとの合計時間を計測対象のユーザーすべてについて平均した量であってよい。図6の例でいえば、店舗A~Fと比較して、移動用の通路へのユーザーの滞留時間は平均して短くなると考えられる。また、店舗の種類によっても、たとえば立ち食い蕎麦店と高級フレンチ料理店では、ユーザーのその場所への滞留時間に平均的に大きな差が生じるであろう。そのように滞留時間の差が大きい位置群を境界線に設定すると、自動で好適なエリア境界設定の情報を生成し得る。エリア分割部144は、前述の位置情報管理部136や時刻情報管理部135から情報を収集し、ユーザー900の滞留時間の情報を求めて、エリア境界設定の情報を生成する。 The second method is to use the user's "dwell time" data. Here, the user to be measured may be a specific user, or may be all users having an ID. In addition, the "residence time" may be an amount obtained by averaging the total time for each individual that existed at that location for all the users to be measured. In the example of FIG. 6, compared to stores A to F, it is conceivable that the user's residence time in the aisle for movement will be shorter on average. Also, depending on the type of store, for example, between a stand-up soba restaurant and a high-end French restaurant, there will be a large difference in the average amount of time users spend at that location. By setting a group of positions with such a large difference in residence time as a boundary, it is possible to automatically generate suitable area boundary setting information. The area division unit 144 collects information from the location information management unit 136 and the time information management unit 135 described above, obtains information on the stay time of the user 900, and generates area boundary setting information.

図24は、エリア分割の方法について具体的に説明するための図である。ここでは、図24に示すように、空間における水平方向の位置をxy座標として表現し、各位置(xy座標)における計測対象のユーザーの滞留時間の平均をz座標として表現する。エリア分割部144は、ユーザー群(計測対象のユーザー)の位置(xy座標)ごとの滞留時間の情報に基づいて、滞留時間が所定の度合いよりも急激に変化する位置群をエリアの境界として設定する。 FIG. 24 is a diagram for specifically explaining the area division method. Here, as shown in FIG. 24, the horizontal position in space is expressed as xy coordinates, and the average dwell time of the user to be measured at each position (xy coordinates) is expressed as z coordinate. The area dividing unit 144 sets, as area boundaries, a group of positions where the residence time changes more rapidly than a predetermined degree, based on the information on the residence time for each position (xy coordinates) of the user group (users to be measured). do.

たとえば、水平方向(xy平面方向)の変化量ΔAに対する滞留時間の平均(z軸方向)の変化量Δzの割合(変化率)が所定の割合よりも大きい位置(たとえば、ΔAに相当する幅の中点A1)の集合がエリアの境界として設定されてよい。このとき、滞留時間の平均が相対的に高い領域R1が施設(たとえば、店舗など)が存在する領域になり、滞留時間の平均が相対的に低い領域R2が通路が存在する領域になることが主に想定される。 For example, a position where the ratio (rate of change) of the change amount Δz of the average (z-axis direction) of the dwell time to the change amount ΔA in the horizontal direction (xy plane direction) is larger than a predetermined ratio (for example, the width corresponding to ΔA) A set of midpoints A1) may be set as the boundary of the area. At this time, a region R1 with a relatively high average dwell time may be a region where facilities (for example, stores) exist, and a region R2 with a relatively low average dwell time may be a region where aisles exist. mainly assumed.

3つ目の方法は、ユーザーの「感情情報の絶対量や変化量」のデータを利用することである。ショッピングモールの例でいえば、玩具店や飲食店等にいる場合と比較し、通路やトイレ等にいる時には平均的にユーザーの感情情報の変化が乏しい(たとえば中性感情付近で停滞する)可能性が高い。また、店舗の種類毎にも対応する感情情報の量に違いが生じるであろう。そのように感情情報の絶対量や変化量の差が大きい位置群を境界線に設定すると、自動で好適なエリア境界設定の情報を生成し得る。エリア分割部144は、前述の位置情報管理部136や時刻情報管理部135に加えて感情推定部131や感情変化情報生成部132から情報を収集し、ユーザー900の絶対量や変化量を求めて、エリア境界設定の情報を生成する。 The third method is to use the data of the user's "absolute amount and change amount of emotional information". In the example of a shopping mall, compared to when you are in a toy store, restaurant, etc., it is possible that the user's emotional information does not change on average when you are in the aisles or toilets (for example, it stagnate around neutral emotions). highly sexual. Also, the amount of emotional information corresponding to each type of store will be different. By setting a group of positions with such large differences in the absolute amount of emotional information and the amount of change as the boundary line, it is possible to automatically generate suitable area boundary setting information. The area division unit 144 collects information from the emotion estimation unit 131 and the emotion change information generation unit 132 in addition to the position information management unit 136 and the time information management unit 135 described above, and obtains the absolute amount and change amount of the user 900. , to generate area demarcation information.

具体的には、図24に示した説明図におけるz軸を「計測対象のユーザーの滞留時間の平均」の代わりに、「計測対象のユーザーの感情情報(たとえば、ポジティブ度の高さ等)の絶対量または変化量の平均」とすれば、図24を参照しながら説明した方法と同様の方法によって3つ目の方法も実現され得る。すなわち、エリア分割部144は、ユーザー群(計測対象のユーザー)の位置(xy座標)ごとの感情情報の絶対量または変化量の情報に基づいて、感情情報の絶対量または変化量が所定の度合いよりも急激に変化する位置群をエリアの境界として設定すればよい。 Specifically, the z-axis in the explanatory diagram shown in FIG. Absolute amount or average of variation", the third method can also be realized by a method similar to the method described with reference to FIG. That is, the area dividing unit 144 determines whether the absolute amount or the amount of change of the emotional information is determined to a predetermined degree based on the information of the absolute amount or the amount of change of the emotional information for each position (xy coordinates) of the user group (users to be measured). A group of positions that change more rapidly than is set as the boundary of the area.

上記のようにして、本発明の第3の実施形態では、本システムは、感情時空間系列情報におけるエリア分割処理を好適に行う機能をさらに有することができる。 As described above, in the third embodiment of the present invention, the present system can further have a function of suitably performing area division processing on emotion spatio-temporal series information.

なお、本発明の実施形態では、ユーザーの位置情報や感情情報の系列情報を主な処理対象情報として説明したが、本発明の実施形態が扱う情報の種類はそれ限定されない。たとえば、感情のネガティブ度の情報に加えて(たとえば、バイタルセンサによってセンシングされた)ユーザーの身体的状況(傷病等)に係る情報を収集できれば、本システムは「災害時の避難支援」用途にも利用できるであろう(推薦情報により、被災地において、心理的・肉体的に安全な状況のエリアに関する情報をユーザーが本システムから得ることができる)。 In the embodiment of the present invention, the user's location information and series information of emotion information have been described as main information to be processed, but the type of information handled by the embodiment of the present invention is not limited to this. For example, if it is possible to collect information on the user's physical condition (such as injury or illness) in addition to information on the degree of emotional negativity (for example, sensed by a vital sensor), this system can also be used for "evacuation support in times of disaster." (Recommendation information allows the user to obtain information from the system regarding areas with psychological and physical safety conditions in the disaster area).

(4.まとめ)
以上のように、本発明の実施形態によれば、ユーザーが端末装置を用いて、遠隔地(オフィスや駅構内等)の全体的な感情分布状況や雰囲気を、システムからのレコメンド(推薦)情報によって、知ることができる。さらに、時刻情報等によるフィルタリング指定機能を用いて、前記感情分布状況や雰囲気の情報を、所望の情報の含有率が多く不要な情報が削減されたより少ない通信データ量で得ることができる。また、本発明の実施形態は、感情情報と個人情報とを紐づけることなく動作可能であるため、駅など不特定多数のユーザーが利用する公共空間においても、個人情報の安全管理のためのコストをかけずに実施できる。
(4. Summary)
As described above, according to the embodiment of the present invention, a user uses a terminal device to obtain information about the overall emotional distribution and atmosphere of a remote location (office, station premises, etc.) based on recommendation information from the system. can be known by Furthermore, by using a filtering specification function based on time information, etc., it is possible to obtain the information on the emotional distribution situation and atmosphere with a smaller amount of communication data in which the content rate of desired information is high and unnecessary information is reduced. In addition, since the embodiment of the present invention can operate without linking emotional information and personal information, even in a public space such as a station used by an unspecified number of users, the cost for safe management of personal information can be reduced. can be implemented without

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention belongs can conceive of various modifications or modifications within the scope of the technical idea described in the claims. It is understood that these also naturally belong to the technical scope of the present invention.

100 感情情報管理サーバ
110 通信部
120 記憶部
121 感情時空間情報DB
130 制御部
131 感情推定部
132 感情変化情報生成部
133 感情時空間情報管理部
135 時刻情報管理部
136 位置情報管理部
137 感情情報管理部
138 人物同一性情報管理部
139 確度情報生成部
140 感情時空間系列情報管理部
141 系列情報パターン照合部
142 推薦情報生成部
143 関連情報生成部
144 エリア分割部
200 構内カメラ
210 通信部
220 計測部
230 制御部
300 端末装置
310 通信部
320 記憶部
330 制御部
340 入力部
350 表示部
360 センサ部
370 位置情報取得部
100 emotion information management server 110 communication unit 120 storage unit 121 emotion spatio-temporal information DB
130 control unit 131 emotion estimation unit 132 emotion change information generation unit 133 emotion spatio-temporal information management unit 135 time information management unit 136 position information management unit 137 emotion information management unit 138 person identity information management unit 139 accuracy information generation unit 140 emotion time Spatial sequence information management unit 141 Sequence information pattern matching unit 142 Recommended information generation unit 143 Related information generation unit 144 Area division unit 200 Premises camera 210 Communication unit 220 Measurement unit 230 Control unit 300 Terminal device 310 Communication unit 320 Storage unit 330 Control unit 340 Input unit 350 Display unit 360 Sensor unit 370 Position information acquisition unit

Claims (3)

ユーザーの計測データに基づいて生成された感情情報を含む第1の時系列情報と、過去の感情情報を含む1または複数の時系列情報それぞれとの類似度をパターン照合により得る時系列情報パターン照合部と、
前記類似度に応じて選択された第2の時系列情報から前記パターン照合によって前記第1の時系列情報との対応箇所が特定されると、前記第2の時系列情報のうち前記対応箇所よりも後の時間の時系列情報に基づいて前記ユーザーに提示される推薦情報を生成する推薦情報生成部と、
を備え
前記第1の時系列情報および前記第2の時系列情報それぞれは位置情報をさらに含み、
前記推薦情報生成部は、複数の第2の時系列情報が選択された場合、かつ、前記複数の第2の時系列情報のうち前記後の時間の時系列情報に含まれる対応する位置情報同士が同じエリアに該当する場合、前記後の時間の時系列情報に含まれる対応する感情情報の代表値に基づいて、前記推薦情報を生成する、
サーバ装置。
Time-series information pattern matching for obtaining similarity between first time-series information including emotion information generated based on user measurement data and one or more pieces of time-series information including past emotion information by pattern matching Department and
When a corresponding portion with the first time-series information is specified by the pattern matching from the second time-series information selected according to the similarity, from the corresponding portion in the second time-series information a recommendation information generation unit that generates recommendation information to be presented to the user based on time-series information of a later time;
with
Each of the first time-series information and the second time-series information further includes location information,
When a plurality of pieces of second time-series information are selected, the recommendation information generation unit generates corresponding position information included in the time-series information of the later time among the plurality of pieces of second time-series information. corresponds to the same area, the recommended information is generated based on the representative value of the corresponding emotional information included in the time-series information of the later time.
Server device.
前記サーバ装置は、前記代表値の確度情報を前記ユーザーに提示される関連情報として生成する関連情報生成部を備える、
請求項に記載のサーバ装置。
The server device includes a related information generation unit that generates the accuracy information of the representative value as related information to be presented to the user,
The server device according to claim 1 .
ユーザーの位置情報を含む第1の時系列情報と、過去の位置情報を含む1または複数の時系列情報それぞれとの類似度をパターン照合により得る時系列情報パターン照合部と、
前記類似度に応じて選択された第2の時系列情報から前記パターン照合によって前記第1の時系列情報との対応箇所が特定されると、前記第2の時系列情報のうち前記対応箇所よりも後の時間の時系列情報に基づいて前記ユーザーに提示される推薦情報を生成する推薦情報生成部と、
ユーザー群の位置ごとの感情情報の絶対量または変化量の情報に基づいて、前記絶対量または前記変化量の変化の度合いが所定の度合いよりも大きい位置群を前記位置情報に対応するエリアの境界として設定するエリア分割部と、
を備える、サーバ装置。
a time-series information pattern matching unit for obtaining, by pattern matching, a degree of similarity between first time-series information including user location information and one or more pieces of time-series information including past location information;
When a corresponding portion with the first time-series information is specified by the pattern matching from the second time-series information selected according to the similarity, from the corresponding portion in the second time-series information a recommendation information generation unit that generates recommendation information to be presented to the user based on time-series information of a later time;
Based on the information of the absolute amount or the change amount of the emotional information for each position of the user group, a group of positions where the degree of change in the absolute amount or the change amount is larger than a predetermined degree is defined as the boundary of the area corresponding to the position information. an area division part set as
A server device.
JP2018181667A 2018-09-27 2018-09-27 Server equipment Active JP7266984B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018181667A JP7266984B2 (en) 2018-09-27 2018-09-27 Server equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018181667A JP7266984B2 (en) 2018-09-27 2018-09-27 Server equipment

Publications (2)

Publication Number Publication Date
JP2020052748A JP2020052748A (en) 2020-04-02
JP7266984B2 true JP7266984B2 (en) 2023-05-01

Family

ID=69997249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018181667A Active JP7266984B2 (en) 2018-09-27 2018-09-27 Server equipment

Country Status (1)

Country Link
JP (1) JP7266984B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021189471A (en) * 2020-05-25 2021-12-13 パナソニックIpマネジメント株式会社 Event information evaluation device, biological information extraction system, event information evaluation system, and biological information extraction device
JP7359095B2 (en) 2020-07-27 2023-10-11 トヨタ紡織株式会社 Mobile space provision system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073634A (en) 2000-09-05 2002-03-12 Alpine Electronics Inc Device for processing behavioral pattern
JP2002140362A (en) 2000-10-31 2002-05-17 Toshiba Corp System and method for providing information to moving body
JP2009116541A (en) 2007-11-05 2009-05-28 Ntt Docomo Inc Positional information analyzer, information distribution system and positional information analyzing method
JP2016066389A (en) 2014-09-22 2016-04-28 ヤマハ株式会社 Reproduction control device and program
JP2016194614A (en) 2015-03-31 2016-11-17 株式会社エクシング Music recommendation system, program, and music recommendation method
JP2017041136A (en) 2015-08-20 2017-02-23 ヤフー株式会社 Determination device, determination method, determination program, terminal device, and music piece reproduction program
WO2018037446A1 (en) 2016-08-22 2018-03-01 三菱電機株式会社 Information presentation device, information presentation system, and information presentation method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073634A (en) 2000-09-05 2002-03-12 Alpine Electronics Inc Device for processing behavioral pattern
JP2002140362A (en) 2000-10-31 2002-05-17 Toshiba Corp System and method for providing information to moving body
JP2009116541A (en) 2007-11-05 2009-05-28 Ntt Docomo Inc Positional information analyzer, information distribution system and positional information analyzing method
JP2016066389A (en) 2014-09-22 2016-04-28 ヤマハ株式会社 Reproduction control device and program
JP2016194614A (en) 2015-03-31 2016-11-17 株式会社エクシング Music recommendation system, program, and music recommendation method
JP2017041136A (en) 2015-08-20 2017-02-23 ヤフー株式会社 Determination device, determination method, determination program, terminal device, and music piece reproduction program
WO2018037446A1 (en) 2016-08-22 2018-03-01 三菱電機株式会社 Information presentation device, information presentation system, and information presentation method

Also Published As

Publication number Publication date
JP2020052748A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
US10209516B2 (en) Display control method for prioritizing information
JP6898165B2 (en) People flow analysis method, people flow analyzer and people flow analysis system
JP2021082310A (en) Systems and methods for augmented reality and virtual reality
US20180032126A1 (en) Method and system for measuring emotional state
JP7438653B2 (en) Emotional information management server device, emotional information management method, program and information communication system
US20130245396A1 (en) Mental state analysis using wearable-camera devices
JP2019532532A (en) Systems and methods for identifying and / or identifying and quantifying pain, fatigue, mood, and intent of persons with privacy protection
US20140250200A1 (en) Using biosensors for sharing emotions via a data network service
CN112034977A (en) Method for MR intelligent glasses content interaction, information input and recommendation technology application
US20210161482A1 (en) Information processing device, information processing method, and computer program
US10754864B2 (en) Information processing system and information processing method to specify persons with good affinity toward each other
US20220301002A1 (en) Information processing system, communication device, control method, and storage medium
JP6930277B2 (en) Presentation device, presentation method, communication control device, communication control method and communication control system
CN107148636A (en) Navigation system, client terminal apparatus, control method and storage medium
US20220346683A1 (en) Information processing system and information processing method
US11687849B2 (en) Information processing apparatus, information processing method, and program
JP7266984B2 (en) Server equipment
CN111465949A (en) Information processing apparatus, information processing method, and program
JP7306152B2 (en) Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method, and emotion estimation system
JP7479735B2 (en) Information output device, design support system, information output method, and information output program
KR101766438B1 (en) A mobile device for detecting abnormal activity and system including the same for supporting management of members in a group
WO2020058942A1 (en) System and method to integrate emotion data into social network platform and share the emotion data over social network platform
Burns et al. Design and evaluation of a smartphone based wearable life-logging and social interaction system
Fedotov et al. Towards estimating emotions and satisfaction level of tourist based on eye gaze and head movement
JP2020024117A (en) Information management server, information management method, program, information presentation terminal, and information communication system

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221012

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221021

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221025

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20221104

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20221108

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221213

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230110

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230314

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230418

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230419

R150 Certificate of patent or registration of utility model

Ref document number: 7266984

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150