WO2016199458A1 - 情報処理システム、情報処理装置、情報処理方法、および記憶媒体 - Google Patents

情報処理システム、情報処理装置、情報処理方法、および記憶媒体 Download PDF

Info

Publication number
WO2016199458A1
WO2016199458A1 PCT/JP2016/056243 JP2016056243W WO2016199458A1 WO 2016199458 A1 WO2016199458 A1 WO 2016199458A1 JP 2016056243 W JP2016056243 W JP 2016056243W WO 2016199458 A1 WO2016199458 A1 WO 2016199458A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
terminal
information
happiness
unit
Prior art date
Application number
PCT/JP2016/056243
Other languages
English (en)
French (fr)
Inventor
正道 飛鳥井
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/578,072 priority Critical patent/US11138282B2/en
Priority to CN201680031991.7A priority patent/CN107636721A/zh
Publication of WO2016199458A1 publication Critical patent/WO2016199458A1/ja
Priority to US17/474,243 priority patent/US20210406331A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases

Definitions

  • the present disclosure relates to an information processing system, an information processing apparatus, an information processing method, and a storage medium.
  • the above-described conventional technique only measures the happiness of each individual, and has not proposed a technique for measuring the happiness of people associated with a place. For example, if quantified happiness is defined as ⁇ happiness level '' based on the assumption that it is more enjoyable to spend two people than one person, the happiness level is where there are many groups of people or where there are couples. Can be said to be a high place.
  • Patent Document 1 proposes a technique for obtaining group information by grouping mobile terminal devices having common position information over a predetermined time interval.
  • the group information provides optimal information for the group.
  • no consideration is given to a method for simply measuring the happiness level of the place.
  • an information processing system an information processing apparatus, an information processing method, and a storage medium that can extract a group terminal from a plurality of detected peripheral information processing terminals and calculate a peripheral happiness degree are provided. suggest.
  • a communication unit that receives identification information by a detection device that detects identification information of surrounding terminal devices, and a plurality of detection units detected by the detection device within a predetermined time received by the communication unit.
  • a plurality of pieces of identification information representing terminal devices are extracted as group terminal devices, and an information processing system is provided that includes a control unit that calculates the happiness level around the detection device according to the extraction result.
  • a detection unit that detects identification information of surrounding terminal devices, and a plurality of identification information that represents a plurality of terminal devices detected by the detection unit within a predetermined time are extracted as group terminal devices
  • An information processing apparatus comprising: a control unit that calculates a happiness level around the detection unit based on an extraction result.
  • the detection device that detects the identification information of the surrounding terminal devices receives the identification information by the communication unit, and is detected by the detection device within a predetermined time received by the communication unit.
  • the present invention proposes an information processing method including extracting a plurality of pieces of identification information representing a plurality of terminal devices as a group terminal device, and calculating a happiness level around the detection device by a control unit according to the extraction result.
  • a computer includes a detection unit that detects identification information of surrounding terminal devices and a plurality of identification information that represents the plurality of terminal devices detected by the detection unit within a predetermined time as group terminal devices.
  • a computer-readable storage medium that stores a program for functioning as a control unit that extracts and calculates a happiness level around the detection unit based on the extraction result is proposed.
  • Embodiment 1A It is a figure explaining the outline
  • 5 is a flowchart illustrating a happiness level display process according to Embodiment 1A.
  • 6 is a diagram illustrating reception of a happiness level from another information processing apparatus in Embodiment 1B.
  • FIG. It is a figure which shows the function structural example of the information processing apparatus by Embodiment 1B.
  • Embodiment 1C It is a figure explaining the outline
  • Embodiment 1A It is a figure which shows the function structural example of the information processing apparatus by Embodiment 1A.
  • 5 is a flowchart illustrating a happiness level display process according to Embodiment 1A.
  • Embodiment 1C It is a flowchart which shows the happiness degree display process by Embodiment 1C. It is a figure which shows the function structural example of the happiness degree calculation system by Embodiment 1D. It is a flowchart which shows the happiness degree display process by Embodiment 1D. It is a figure which shows an example of the terminal information memorize
  • Embodiment 3B It is a figure which shows the function structural example of the information processing apparatus by Embodiment 3C. It is a flowchart which shows the happiness degree display process by Embodiment 3C. It is a figure which shows an example of the location information by 3rd Embodiment. It is a figure which shows an example of the happiness coefficient correct
  • Embodiments 2-1 First Embodiment (2-1-1. Embodiment 1A) (2-1-2. Embodiment 1B) (2-1-3. Embodiment 1C) (2-1-4. Embodiment 1D) (2-1-5. Group terminal extraction process) (2-1-6. Happiness degree calculation processing) (2-1-7. Happiness degree display example) 2-2. Second embodiment 2-3. Third Embodiment (2-3-1. Embodiment 3A) (2-3-2. Embodiment 3B) (2-3-3. Embodiment 3C) (2-3-4. Happiness level calculation process considering recognition status) 2-4. Fourth embodiment 2-5. 2. Hardware configuration Summary
  • FIG. 1 is a diagram illustrating an overview of a happiness level calculation system according to an embodiment of the present disclosure.
  • an information processing terminal (not used) held by a person passing through the periphery is detected by the detection devices 1a and 1b installed in various places such as a town, a station, a park, and a theme park. Is detected).
  • the information processing terminal is, for example, a mobile terminal such as a smartphone or a mobile phone terminal, or a wearable terminal such as a smart watch, a smart band, a smart eyeglass, or a smart neck.
  • the detection devices 1a and 1b have a function of detecting information processing terminals that emit radio waves such as Wi-Fi (registered trademark) and BLE (Bluetooth (registered trademark) Low Energy) existing in the vicinity, and have a time stamp. Terminal information such as the terminal ID of the information processing terminal and the radio wave intensity is acquired every time.
  • radio waves such as Wi-Fi (registered trademark) and BLE (Bluetooth (registered trademark) Low Energy
  • the happiness degree calculation system extracts information processing terminals that exist as two couples or information processing terminals that exist as a group of three or more based on the terminal information detected by the detection device 1 to obtain group information. And the happiness level at a location around the detection device 1 is calculated based on the group information. For example, a place where there are many couples or multiple-person groups is calculated with a high happiness level. Moreover, it is possible to easily recognize the happiness level of the place by presenting the happiness level of the place calculated in this way together with the map image.
  • Such processing of the happiness level calculation system according to the first embodiment may be realized entirely by the integrated information processing apparatus 100, or a cloud type in which part of the processing is performed on the cloud (server 200 side). It may be. Further, the terminal detection unit that detects the information processing terminal, the happiness level calculation unit, and the display unit that displays the happiness level may be performed by separate devices (for example, the detection device 400, the server 200, and the display device 500). Good.
  • a configuration example of the happiness level calculation system according to the first embodiment and an operation process thereof will be described (Embodiments 1A to 1D), and then a specific method of group terminal extraction processing and happiness level calculation processing from terminal information will be described. Finally, an example of a happiness level display screen will be described using a specific example.
  • FIG. 2 is a diagram illustrating a functional configuration example of the information processing apparatus 100-1 according to the first embodiment of the present disclosure.
  • the information processing apparatus 100-1 can be realized by an installation terminal apparatus such as a mobile terminal apparatus or digital signage, for example.
  • the information processing apparatus 100-1 includes a terminal detection unit 101, a terminal information storage unit 102, a group terminal extraction unit 103, a happiness level calculation unit 104, a display control unit 105, and a display unit 106.
  • the terminal detection unit 101 detects terminal information of information processing terminals existing in the vicinity. Specifically, for example, information processing terminals that generate radio waves such as neighboring Wi-Fi and BLE are detected, and terminal information such as the terminal ID of the information processing terminal and radio wave intensity is acquired for each time stamp.
  • the terminal information storage unit 102 accumulates the terminal information output from the terminal detection unit 101 and the group information output from the group terminal extraction unit 103.
  • the group terminal extraction unit 103 is information regarding two information processing terminals that exist as a couple and three or more information processing terminals that exist as a group (group information). Extract). A specific method for extracting group terminals will be described later.
  • the happiness level calculation unit 104 calculates the happiness level of a place around the information processing apparatus 100-1 based on the group information. A specific method for calculating the happiness level will be described later.
  • the display control unit 105 controls information display on the display unit 106. Specifically, the display control unit 105 generates a screen indicating the happiness level calculated by the happiness level calculation unit 104 (for example, a map image on which an icon indicating the happiness level is superimposed) and displays the screen on the display unit 106. Control to do.
  • a screen indicating the happiness level calculated by the happiness level calculation unit 104 for example, a map image on which an icon indicating the happiness level is superimposed
  • the display unit 106 is realized by, for example, a liquid crystal display or the like, and displays a screen indicating the calculated happiness level under the control of the display control unit 105.
  • FIG. 3 is a flowchart showing the happiness level display process of the information processing apparatus 100-1 according to the first embodiment.
  • the terminal detection unit 101 of the information processing apparatus 100-1 detects information processing terminals existing in the vicinity (S103). For example, when the information processing apparatus 100-1 is a digital signage installed in a city, the information processing apparatus 100-1 detects a Wi-Fi radio wave or the like transmitted from an information processing terminal possessed by a person passing through the periphery. Then, terminal information such as the terminal ID and the radio field intensity of the information processing terminal is acquired.
  • the terminal detection unit 101 stores the detected terminal information in the terminal information storage unit 102 (S106).
  • the group terminal extraction unit 103 extracts group terminals based on the terminal information stored in the terminal information storage unit 102, and generates group information (S109).
  • the happiness level calculation unit 104 calculates the happiness level based on the group information generated by the group terminal extraction unit 103 (S112).
  • the display control unit 105 causes the display unit 106 to display the happiness level calculated by the happiness level calculation unit 104 (S115).
  • the information processing apparatus 100-1 realized by digital signage or the like can calculate the happiness level around the place where the apparatus is installed and display it on the display unit 106.
  • the information processing apparatus 100-2 receives the happiness level from the information processing apparatus 100-2 installed at another location, and the information processing apparatus 100-2 around the location where the other information processing apparatus 100-2 is installed It is possible to display the happiness level together.
  • FIG. 4 is a diagram for explaining reception of the happiness level from another information processing apparatus 100-2 according to the present embodiment.
  • the information processing apparatus 100-2a when there are information processing apparatuses 100-2a, 100-2b, and 100-2c that are all realized by digital signage and are installed in different places, for example, the information processing apparatus 100-2a
  • the happiness level calculated in each device is received from the information processing devices 100-2b and 100-2c.
  • the information processing apparatus 100-2a can present the happiness level at the place where the information processing apparatuses 100-2b and 100-2c are installed.
  • FIGS. 5 and 6 the functional configuration and operation processing of this embodiment will be described with reference to FIGS. 5 and 6.
  • FIG. 5 is a diagram illustrating a functional configuration example of the information processing apparatus 100-2 according to the present embodiment.
  • the information processing apparatus 100-2 includes a terminal detection unit 101, a terminal information storage unit 102, a group terminal extraction unit 103, a happiness level calculation unit 104, a display control unit 105, a display unit 106, and network communication. Part 107.
  • the network communication unit 107 transmits / receives data to / from another information processing apparatus 100-2 via the network. For example, the network communication unit 107 receives or transmits the happiness level from the other information processing apparatus 100-2.
  • the display control unit 105 calculates the happiness level of the location around its own device calculated by the happiness level calculation unit 104 and the happiness level of the location around the other information processing device 100-2 received by the network communication unit 107.
  • the display unit 106 is controlled to display. At this time, the display control unit 105 may display the happiness level of each place on the map image.
  • FIG. 6 is a flowchart showing the happiness level display process of the information processing apparatus 100-2 according to the present embodiment.
  • the information processing apparatus 100-2 first detects peripheral information processing terminals, accumulates terminal information acquired from the detected information processing terminals, and selects group terminals from the accumulated many terminal information. Extraction is performed, and the happiness level around the device is calculated (S123 to S132).
  • the network communication unit 107 of the information processing apparatus 100-2 receives the happiness level from the other information processing apparatus 100-2 (S135).
  • the happiness level from the other information processing apparatus 100-2 may be acquired by inquiring periodically from the other information processing apparatus 100-2, or after waiting for transmission from the other information processing apparatus 100-2. May be.
  • the display control unit 105 causes the display unit 106 to display the happiness level around the device itself and the happiness level around the location where the other information processing apparatus 100-2 is installed (S138).
  • the display control unit 105 may be configured to easily grasp the happiness level of each place by superimposing and displaying the happiness level of each place on the corresponding map image.
  • the information processing apparatus 100-2 realized by, for example, digital signage or the like can display on the display unit 106 the happiness level around the place where the apparatus is installed and other places. .
  • Embodiment 1C according to the present disclosure will be described.
  • the happiness level is calculated by the information processing apparatus 100.
  • the configuration of the first embodiment is not limited to this, and the happiness level is calculated using, for example, a cloud. It may be performed on the server side.
  • a happiness level calculation system for calculating the happiness level on the server side will be described with reference to FIGS. 7 and 8.
  • FIG. 7 is a diagram showing a functional configuration of the happiness level calculation system according to the present embodiment.
  • the happiness degree calculation system according to the present embodiment includes an information processing apparatus 100-3 and a server 200-1, and each apparatus is connected via a network 3.
  • the information processing apparatus 100-3 is realized by digital signage, for example.
  • the information processing apparatus 100-3 includes a terminal detection unit 101, a network communication unit 107, a display control unit 105, and a display unit 106.
  • the network communication unit 107 transmits the terminal information of the information processing terminal detected by the terminal detection unit 101 to the server 200-1 together with the detection device ID of the information processing device 100-3 for each time stamp.
  • the display control unit 105 controls the display unit 106 to display the happiness degree calculated by the server 200-1 received by the network communication unit 107.
  • the server 200-1 includes a network communication unit 201, a terminal information storage unit 202, a group terminal extraction unit 203, and a happiness level calculation unit 204.
  • the terminal information storage unit 202 stores terminal information (specifically, terminal information associated with a time stamp and a detection device ID) transmitted from the information processing apparatus 100-3 and received by the network communication unit 201.
  • the group terminal extraction unit 203 extracts, from the terminal information stored in the terminal information storage unit 202, an information processing terminal that is likely to exist together (that is, a user who is performing a group action) as a group terminal.
  • Information related to group terminals that is, group information is stored in the terminal information storage unit 202.
  • the happiness level calculation unit 204 calculates the happiness level of a place around the information processing apparatus 100-3 based on the group information generated by the group terminal extraction unit 203 and accumulated in the terminal information storage unit 202.
  • the calculated happiness level is returned to the information processing apparatus 100-3 by the network communication unit 201.
  • the server 200-1 may generate screen information for displaying the happiness level (for example, information on a screen in which an icon indicating the happiness level is superimposed on the map image) and transmit the generated information to the information processing apparatus 100-3. .
  • FIG. 8 is a flowchart showing the happiness level display process according to the present embodiment.
  • the information processing apparatus 100-3 first detects a nearby information processing terminal (S153), and sends the terminal information acquired from the detected information processing terminal to the server 200-1 via the network 3. Transmit (S156).
  • the server 200-1 stores the terminal information transmitted from the information processing apparatus 100-3 in the terminal information storage unit 202 (S159).
  • the group terminal extraction unit 203 extracts group terminals from the accumulated terminal information (S162), and the happiness level calculation unit 204 calculates the happiness level around the information processing apparatus 100-3. (S165).
  • the network communication unit 201 of the server 200-1 transmits the happiness level to the information processing apparatus 100-3 (S168).
  • the display control unit 105 of the information processing apparatus 100-3 displays the happiness level transmitted from the server 200-1 on the display unit 106 (S171).
  • the server 200-1 may transmit, to the information processing apparatus 100-3, the happiness level of other places in addition to the happiness level of places around the information processing apparatus 100-3.
  • the information processing apparatus 100-3 can display the happiness level at other locations in addition to the happiness level around the device itself.
  • the group terminal extraction unit 203 of the server 200-1 can refer to terminal information acquired at a plurality of locations when extracting group terminals that are likely to exist together. Accuracy can be improved. For example, when a combination of information processing terminals detected together at a certain location is detected at another location, the possibility of being a group terminal becomes higher.
  • Embodiment 1D according to the present disclosure will be described.
  • the group terminal extraction function and the happiness level calculation function are performed on the server 200 side, and the terminal detection function and the happiness level display function are realized separately.
  • One or a plurality of detection devices 400 having a terminal detection function may be provided.
  • FIGS. 9 and 10 a specific description will be given with reference to FIGS. 9 and 10.
  • FIG. 9 is a diagram illustrating a functional configuration example of the happiness level calculation system according to the present embodiment.
  • the happiness level calculation system according to the present embodiment includes a detection device 400 (400a, 400b, 400c,...), A server 200-2, and a display device 500. Connected through.
  • the display device 500 is realized by, for example, a digital signage or a mobile terminal.
  • the detection device 400 is a monitor node having a terminal detection unit 401 and a network communication unit 402.
  • the network communication unit 402 transmits the terminal information of the information processing terminal detected by the terminal detection unit 401 to the server 200-2 together with the detection device ID of the detection device 400 for each time stamp.
  • the detection apparatus 400 may be plural as shown in FIG. In this case, the plurality of detection devices 400a, 400b, and 400c are arranged within a certain range (for example, an event venue, a theme park, a station premises, etc.) that is an observation target of the happiness level.
  • the server 200-2 has the same configuration as the server 200-1 of the embodiment 1C described with reference to FIG.
  • Terminal information transmitted from the detection device 400 (400a, 400b, 400c,...)
  • To the terminal information storage unit 202 and received by the network communication unit 201 (specifically, a terminal associated with the time stamp and the detection device ID) Information) is accumulated.
  • the happiness level calculation unit 204 calculates the happiness level of each place around each detection device 400 based on the group information generated by the group terminal extraction unit 203 and accumulated in the terminal information storage unit 202.
  • the calculated happiness levels are transmitted to the display device 500 by the network communication unit 201 in association with the detection device ID (or latitude / longitude) of each detection device 400, for example.
  • the server 200-2 may generate screen information for displaying the happiness level (for example, information on a screen in which an icon indicating the happiness level is superimposed on the map image) and transmit the generated screen information to the display device 500.
  • the display device 500 includes a network communication unit 501, a display control unit 502, and a display unit 503.
  • the display control unit 502 controls the display unit 503 to display the happiness degree calculated by the server 200-2 received by the network communication unit 501.
  • FIG. 10 is a flowchart showing the happiness level display process according to the present embodiment.
  • the detection apparatus 400 first detects a nearby information processing terminal (S183), and transmits terminal information acquired from the detected information processing terminal to the server 200-2 via the network 3 ( S186).
  • the server 200-2 accumulates the terminal information transmitted from the detection device 400 in the terminal information storage unit 202 (S189).
  • the server 200-2 uses the group terminal extraction unit 203 to extract group terminals from the accumulated terminal information (S192).
  • the server 200-2 places the detection device 400 (or a plurality of detection devices 400a, 400b, 400c) by the happiness level calculation unit 204.
  • the happiness level of the surrounding area is calculated (S198).
  • the network communication unit 201 of the server 200-2 transmits the happiness level to the display device 500 (S201).
  • the display control unit 502 of the display device 500 causes the display unit 503 to display the happiness level transmitted from the server 200-2 (S204). Specifically, the display control unit 502 controls to display the happiness level around the place where the detection device 400 is disposed.
  • the display control unit 502 may display the happiness level transmitted from the server 200-2 as the happiness level around the own device. Further, when the display device 500 receives the happiness level of another location from the server 200-2, the display device 500 can also display the happiness level of the other location together with, for example, a map image.
  • Embodiment 1D processing such as group terminal extraction and happiness level calculation is performed on the cloud, and the detection function and display function of the information processing terminal can be realized separately.
  • a plurality of devices detection devices 400 having a detection function. For example, when calculating the happiness level of a place within a certain range such as an event venue, the accuracy of group terminal extraction is improved by arranging a plurality of detection devices 400 with a narrow detection range at various locations in the event venue, The degree of happiness can be calculated more accurately.
  • the group terminal extraction unit 203 extracts, from the terminal information stored in the terminal information storage unit 202, two information processing terminals that exist as a couple and three or more information processing terminals that exist as a group as group terminals. . Specifically, for example, the group terminal extraction unit 203 counts information processing terminals detected at the same time for each time stamp as a co-occurrence frequency, and uses the magnitude of the co-occurrence rate (group terminal). May be extracted.
  • the terminal information storage unit 202 includes a time stamp, a detection device ID (identification information of a device that performed detection), and a terminal ID list (a list of identification information of detected information processing terminals). It is accumulated in association.
  • a list of terminal IDs simultaneously detected in each time stamp is listed for each time stamp in one detection device (detection device ID: MN0F876E6D).
  • the time stamp indicates the observation time, but it may indicate the start time of the observation time of several seconds to several tens of seconds, for example.
  • the time stamp shown in FIG. 11 is shown as UNIX (registered trademark) time counting the number of seconds elapsed from a predetermined reference time as an example, but the form of the time stamp according to the present embodiment is not limited to this. .
  • the group terminal extraction unit 203 extracts group terminals for a certain period based on such accumulated terminal information, first, the number of all terminals detected in that period is set to N, and the information processing terminal P An N ⁇ N matrix for counting the co-occurrence frequency n between terminals (namely, a combination of two) in 1 to P N is generated.
  • FIG. 12 shows an N ⁇ N matrix for counting the co-occurrence frequencies of all information processing terminals detected in the target period of group terminal extraction.
  • the group terminal extraction unit 203 adds three combinations of “4E14D94C / E26DBA29”, “4E14D94C / 42CC63CE”, and “E26DBA29 / 42CC63CE” to the co-occurrence frequency as couple terminal candidates, respectively.
  • the group terminal extraction unit 203 extracts a combination of information processing terminals having a high co-occurrence rate as a couple terminal candidate from the co-occurrence rate matrix as shown in FIG.
  • the group terminal extraction unit 203 provides a co-occurrence rate threshold value Cth and a co-occurrence frequency threshold value Nth, and the co-occurrence rate is larger than the threshold value Cth and the co-occurrence frequency is larger than the threshold value Nth.
  • An example of couple terminal candidates extracted in this way is shown in the upper part of FIG. In the upper part of FIG. 14, terminal IDs of the extracted couple terminal candidates are listed.
  • the group terminal extraction unit 203 separates a group terminal (broad sense) including two couple terminals and three or more group terminals (narrow sense) from the couple terminal candidates as shown in the upper part of FIG.
  • a group terminal broad sense
  • the group terminal extraction unit 203 includes a combination including the same terminal among the couple terminal candidates if the co-occurrence rate threshold Cth is sufficiently high, and includes three or more terminals including those terminals. It can be a group terminal.
  • a couple terminal candidate is first extracted, and then a couple terminal and a group terminal (in a narrow sense) are separated from the couple terminal candidate, thereby separately calculating three or more co-occurrence rates separately.
  • FIG. 15 is a flowchart showing group terminal extraction processing according to the first embodiment.
  • the group terminal extraction unit 203 acquires terminal information in the extraction target period from the terminal information storage unit (S213), and calculates the co-occurrence frequency of each terminal (S216).
  • the group terminal extraction unit 203 calculates the co-occurrence rate of each terminal. This is performed (S222).
  • the group terminal extraction unit 203 extracts a couple terminal candidate based on the calculated co-occurrence rate (S225), and separates the group terminal (broad sense) including the couple terminal from the extracted couple terminal candidate (S228).
  • the group terminal extraction by the group terminal extraction unit 203 has been specifically described above. Note that the extracted information (group information) about the group terminal can be stored in the terminal information storage unit 202.
  • FIG. 16 is a diagram illustrating an example of group information stored in the terminal information storage unit 202.
  • information on group terminals extracted during a predetermined observation time is shown for each detection device ID. . That is, the number N 2 of couple terminals appearing during a predetermined observation time, the number N 3 of group terminals consisting of three terminals, and a group consisting of four or more terminals around the installation location of each detection device ID
  • the number of terminals N 4 is shown.
  • the detection device MN0F876E6D in the vicinity of the detection device MN0F876E6D, 5 sets of couple terminals, 3 sets of group terminals consisting of 3 terminals, and 1 set of group terminals consisting of 4 or more terminals are detected. I understand that.
  • the happiness level calculation unit 204 calculates the happiness level around the installation location of each detection device based on such group information. Specifically, the happiness level calculation unit 204 calculates the happiness level by, for example, the following Equation 3 based on the number of group terminals (that is, the number of groups) extracted by the group terminal extraction unit 203 and the happiness coefficient.
  • FIG. 17 shows an example of the happiness coefficient.
  • the happiness coefficient of a group terminal having two terminals (coupled terminals) is 2.0
  • the happiness coefficient of a group terminal having three terminals is 1.0
  • the happiness of a group terminal having four or more terminals is shown.
  • the coefficient is 0.5.
  • the happiness level calculation unit 204 calculates the happiness level h around the detection device MN0F876E6D according to the following equation 3 based on the happiness level and the group information of the detection device MN0F876E6D shown in the first row of FIG. That is, in the group information of the detection apparatus MN0F876E6D, two couple terminals are set in five groups, three group terminals composed of three terminals are three sets, and a group terminal composed of four or more terminals is one set. Thus, the happiness degree h is calculated as “13.5”.
  • the happiness level calculation by the happiness level calculation unit 204 has been specifically described above.
  • the degree of happiness calculated in this manner is presented to the user by a predetermined display method corresponding to the display control units 105 and 502.
  • the happiness level calculation method is not limited to the above-described example, and for example, the number of terminals constituting the group may be further considered.
  • the happiness degree calculation unit 204 calculates the number of group terminals (that is, the number of groups).
  • the happiness level can be calculated based on the number of terminals in the group and the happiness coefficient.
  • FIG. 18 is a diagram showing an example of a display screen that displays the happiness level according to the first embodiment.
  • a map image and smile icons 601 to 604 having sizes corresponding to the happiness level are displayed on the display screen 600.
  • the display positions of the smile icons 601 to 604 indicating the happiness level on the map image correspond to the installation positions of the detection device 400 (or information processing devices 100-1, 100-2, 100-3 having a detection function). .
  • the installation position is registered in advance in the system as detailed information of the detection device.
  • the height of the happiness level is indicated by the size of the smile icons 601 to 604, but the present embodiment is not limited to this, and may be expressed by, for example, a smile icon expression.
  • the display screen 600 may display the happiness level for each location of the current date and time in real time, or may display the happiness level in an observation time period such as several days to several months, or specified by the user.
  • the happiness level of the date and time may be displayed, or the average happiness level for each day of the week or each time zone may be displayed.
  • FIG. 19 is a diagram illustrating an example of a display screen that displays the happiness level according to the first embodiment.
  • the happiness level calculated for each unit time is displayed in a graph on the display screen 610. In this case, it is possible to intuitively recognize what kind of group is present for each hour at a certain place and the happiness level for each hour.
  • group information may be displayed as shown in FIGS. 20 and 21, for example.
  • 20 and 21 are diagrams illustrating an example of a display screen that displays group information according to the first embodiment.
  • the display screen 620 displays a map image and icons 621 to 625 each having a size corresponding to the number of groups and indicating the number of terminals constituting the group.
  • the icons 622, 623, and 625 indicate the presence of a couple terminal including two terminals
  • the icons 621 and 624 indicate the presence of a group terminal including three terminals.
  • the display screen 630 displays icons 631 to 635 having a map image and a size corresponding to the number of groups, and indicating the number of terminals constituting the group by numbers.
  • the icons 632, 633, and 635 indicate the presence of a couple terminal including two terminals
  • the icons 631 and 634 indicate the presence of a group terminal including three terminals.
  • FIG. 22 is a diagram showing an example of a display screen that displays the happiness level according to the first embodiment.
  • a map image and a heat map indicating the happiness level are displayed on the display screen 640.
  • the happiness level of the point 642 is higher than the happiness levels of the other points 641, 643, and 644, and therefore, it is expressed in a dark color.
  • FIG. 23 is a diagram showing an example of a display screen that displays the happiness level according to the first embodiment.
  • the flow of the happiness level for each elapsed time is displayed on the display screens 650-1, 650-2, and 650-3. That is, for example, on the display screen 650-1, smile icons 651-1, 652-1, 653-1 indicating the happiness level at each place from 10:00 to 12:00 are displayed, and on the next display screen 650-2, 14:00 Smile icons 651-2, 652-2, 653-2, and 654-2 indicating the happiness level at each place from 16:00 to 16:00 are displayed.
  • smile icons 651-3, 652-3, 653-3, and 654-3 indicating the happiness level at each place from 18:00 to 20:00 are displayed.
  • display screens 650-1, 650-2, and 650-3 it is possible to intuitively grasp the transition of the happiness level of each place. Since the smile icon 650 displayed on these display screens is displayed in a size corresponding to the height of the happiness level, the happiness level is higher in the place where the larger smile icon 650 is displayed. I understand.
  • the happiness level calculation system has been described above. According to the first embodiment, by detecting a nearby information processing terminal and extracting a terminal having a high possibility of acting together (determined using the co-occurrence rate as an example) as a group terminal, the happiness of the place The degree can be easily calculated. In addition, by calculating the happiness level of a place and presenting it to the user, for example, in stores around the place, products that are likely to be bought by people with a high happiness level can be arranged at the storefront, and sales are expected to improve. it can. In addition, digital signage installed in places with a high happiness level can be expected to improve the advertising effect by displaying event guidance and product promotions for people with a high happiness level. It should be noted that the contents of products and events intended for people with a high degree of happiness can be determined from the accumulation of product purchase behavior and event participation behavior in places with a high degree of happiness.
  • the group terminal extraction unit 203 may exclude a couple terminal having a very high co-occurrence rate when separating the group terminal from the couple terminal candidate (see FIG. 14). That is, it is not uncommon for one person to have a plurality of information processing terminals, considering that two smartphones and the number of wearable terminals will increase in the future. Therefore, for example, by excluding a couple terminal having a co-occurrence rate of approximately 1.0 or a group terminal composed of three or more terminals except for one representative terminal, the extraction accuracy of the group terminal can be improved.
  • the group terminal extraction unit 203 may exclude information processing terminals detected by the specific terminal detection unit 101. That is, for example, a plurality of information processing terminals detected at the same time by the terminal detection unit 101 installed in a gate that can pass only one by one or a toilet that can only enter one by one are information processing terminals possessed by a single person. Since there is a high possibility, it is excluded except for one representative terminal.
  • the group terminal extraction unit 203 may exclude fixed terminals.
  • the group terminal extraction unit 203 can exclude fixed terminals installed in the vicinity by excluding terminals that are continuously detected at a high frequency by the terminal detection unit 101.
  • FIG. 24 is a flowchart showing group terminal extraction processing according to the second embodiment.
  • the group terminal extraction unit 203 acquires terminal information in the extraction target period from the terminal information storage unit (S233), and calculates the co-occurrence frequency of each terminal (S236).
  • the group terminal extraction unit 203 calculates the co-occurrence rate of each terminal. This is performed (S242).
  • the group terminal extraction unit 203 extracts a couple terminal candidate based on the calculated co-occurrence rate (S245).
  • the group terminal extraction unit 203 excludes non-coupled terminals from the couple terminal candidates (S248).
  • the non-coupled terminal is a couple terminal / group terminal (in a narrow sense) having a very high co-occurrence rate (nearly 1.0), or a couple terminal / group terminal (in a narrow sense) detected by a specific terminal detection unit 101.
  • the group terminal extraction unit 203 separates the group terminal (broad sense) including the couple terminal from the remaining couple terminal candidates excluding the non-couple terminal (S251).
  • the happiness level calculation accuracy can be improved by adjusting the happiness level in consideration of the situation around the terminal detection unit 101.
  • Ambient conditions include, for example, place categories (examples of attribute information) such as office districts, amusement parks, time categories such as weekday daytime, nighttime, and holidays, and discomfort indices based on temperature and humidity (examples of the surrounding environment). is there. That is, for example, even when a couple terminal or a group terminal (narrow sense) is extracted, there is a possibility that the couple terminal in the daytime in the office district is detected when two people work in pairs. This is because the happiness level is not always high in such a situation.
  • the configuration of the happiness level calculation system according to the third embodiment may be realized entirely by the integrated information processing apparatus 100 as in the first embodiment, or a part of processing may be performed on the cloud (server 200 side) may be used. Further, the terminal detection unit that detects the information processing terminal, the happiness level calculation unit, and the display unit that displays the happiness level may be performed by separate devices (for example, the detection device 410, the server 200, and the display device 500). Good.
  • a configuration example of a happiness level calculation system according to the third embodiment and an operation process thereof will be described (Embodiments 3A to 3C), and then a happiness level calculation method considering a recognized situation will be specifically described.
  • FIG. 25 is a diagram illustrating a functional configuration example of the information processing apparatus 100-4 according to Embodiment 3A.
  • the information processing apparatus 100-4 can be realized by, for example, an installation terminal apparatus such as a mobile terminal apparatus or digital signage.
  • the information processing apparatus 100-4 includes a terminal detection unit 101, a terminal information storage unit 102, a group terminal extraction unit 103, a happiness level calculation unit 104, a display control unit 105, a display unit 106, and a situation recognition Part 108.
  • the situation recognition unit 108 has a function of recognizing the situation around the information processing apparatus 100-4. For example, the situation recognition unit 108 acquires location information based on position information (for example, latitude / longitude) of the information processing apparatus 100-4.
  • the location information may be acquired from a location information storage unit (not shown) stored in advance in the information processing apparatus 100-3, or in the case where a network communication unit is provided, a location information database on the cloud (not shown). May be obtained from Further, when the information processing apparatus 100-4 does not move, the location information may be recorded as a fixed value.
  • the location information is a location category such as an office district or an amusement park.
  • the situation recognition unit 108 is not limited to the acquisition of the location information, but may acquire the discomfort index that can be calculated from the time category based on the current date and time, the ambient temperature, and the humidity. Both are used to determine the happiness coefficient for calculating the happiness level.
  • the recognition result by the situation recognition unit 108 is accumulated in the terminal information storage unit 202 together with the terminal information and the group information.
  • the happiness degree calculation unit 104 acquires the peripheral situation (for example, location information) recognized by the situation recognition unit 108 and the group information generated by the group terminal extraction unit 103 from the terminal information storage unit 202, and considers the peripheral situation.
  • the degree of happiness is calculated.
  • a method for calculating the happiness level according to the present embodiment will be described later with reference to FIGS. 31 and 32.
  • FIG. 26 is a flowchart illustrating a happiness level display process according to Embodiment 3A. As shown in FIG. 26, first, the terminal detection unit 101 of the information processing apparatus 100-4 detects information processing terminals existing in the vicinity (S303).
  • the situation recognition unit 108 recognizes the surrounding situation (S304). Note that the processing of S303 and S304 may be performed before or after, or may be performed simultaneously.
  • the information processing apparatus 100-4 uses the terminal information acquired from the information processing terminal detected by the terminal detection unit 101 and the result of the peripheral situation recognized by the situation recognition unit 108 (here, for example, location information). It memorize
  • the group terminal extraction unit 103 extracts group terminals based on the terminal information stored in the terminal information storage unit 102, and generates group information (S309).
  • the happiness level calculation unit 104 calculates the happiness level based on the group information generated by the group terminal extraction unit 103 and the location information (S312).
  • the display control unit 105 causes the display unit 106 to display the happiness level calculated by the happiness level calculation unit 104 (S315).
  • the information processing apparatus 100-4 realized by digital signage or the like increases the accuracy of the happiness level calculation by calculating the happiness level in consideration of the situation around the place where the apparatus is installed. Can be improved.
  • Embodiment 3B according to the present disclosure will be described.
  • the happiness level is calculated by the information processing apparatus 100-4.
  • the configuration of the third embodiment is not limited to this, and the happiness level is calculated using, for example, a cloud. It may be performed on the server side.
  • a happiness level calculation system for calculating the happiness level on the server side will be described with reference to FIGS. 27 and 28.
  • FIG. 27 is a diagram illustrating a functional configuration of the happiness degree calculating system according to the present embodiment.
  • the happiness degree calculation system according to the present embodiment includes an information processing apparatus 100-5 and a server 200-3, and the apparatuses are connected via a network 3.
  • the information processing apparatus 100-5 is realized by digital signage, for example.
  • the information processing apparatus 100-5 includes a terminal detection unit 101, a situation recognition unit 108, a network communication unit 107, a display control unit 105, and a display unit 106.
  • the network communication unit 107 detects the terminal information of the information processing terminal detected by the terminal detection unit 101 and the result of the surrounding situation recognized by the situation recognition unit 108 for each time stamp by the information processing apparatus 100-5. Along with the device ID, it is transmitted to the server 200-3.
  • the display control unit 105 controls the display unit 106 to display the happiness degree calculated by the server 200-3 received by the network communication unit 107.
  • the server 200-3 includes a network communication unit 201, a terminal information storage unit 202, a group terminal extraction unit 203, and a happiness level calculation unit 204.
  • terminal information (specifically, terminal information associated with the time stamp and the detection device ID) transmitted from the information processing apparatus 100-5 and received by the network communication unit 201, and the surrounding situation Recognition results are accumulated.
  • the terminal information storage unit 202 also stores group information generated by the group terminal extraction unit 203.
  • the happiness level calculation unit 204 calculates the happiness level of the location around the information processing apparatus 100-5 based on the group information accumulated in the terminal information storage unit 202 and the recognition result of the surrounding situation. The calculated happiness level is returned to the information processing apparatus 100-5 by the network communication unit 201.
  • FIG. 28 is a flowchart showing the happiness level display process according to the present embodiment.
  • the terminal detection unit 101 of the information processing apparatus 100-5 first detects a peripheral information processing terminal, and acquires terminal information from the detected information processing terminal (S323).
  • the situation recognition unit 108 recognizes the surrounding situation (S326).
  • the situation recognition unit 108 acquires a place situation as an example.
  • the network communication unit 107 transmits the terminal information acquired by the terminal detection unit 101 and the location information acquired by the situation recognition unit 108 to the server 200-3 via the network 3 (S329).
  • the server 200-3 stores the terminal information and the location information transmitted from the information processing apparatus 100-5 in the terminal information storage unit 202 (S331).
  • the server 200-3 uses the group terminal extraction unit 203 to extract group terminals from the accumulated terminal information (S334).
  • the group information regarding the group terminal extracted by the group terminal extraction unit 203 is accumulated in the terminal information storage unit 202.
  • the happiness level calculation unit 204 calculates the happiness level around the information processing apparatus 100-5 based on the group information and the location information (S337).
  • the network communication unit 201 transmits the calculated happiness level to the information processing apparatus 100-5 (S340).
  • the display control unit 105 of the information processing apparatus 100-5 causes the display unit 106 to display the happiness level transmitted from the server 200-3 (S343).
  • processing such as group terminal extraction and happiness level calculation can be performed on the cloud.
  • the server 200-3 on the cloud can calculate the happiness level in consideration of the situation recognition result around the information processing apparatus 100-4, thereby calculating a more accurate happiness level.
  • Embodiment 3C according to the present disclosure will be described.
  • the group terminal extraction function and the happiness level calculation function are performed on the server 200 side, and the terminal detection function and the happiness level display function are realized separately.
  • One or a plurality of detection devices 410 having a terminal detection function may be provided.
  • FIGS. 29 and 30 a specific description will be given with reference to FIGS. 29 and 30.
  • FIG. 29 is a diagram illustrating a functional configuration example of the happiness level calculation system according to the present embodiment.
  • the happiness degree calculation system according to the present embodiment includes a detection device 410 (410a, 410b, 410c,...), A server 200-4, and a display device 500. Connected through.
  • the display device 500 is realized by, for example, a digital signage or a mobile terminal.
  • the detection device 410 is a monitor node having a terminal detection unit 401, a situation recognition unit 403, and a network communication unit 402.
  • the network communication unit 402 displays the terminal information of the information processing terminal detected by the terminal detection unit 401 and the recognition result of the surrounding situation recognized by the situation recognition unit 403 together with the detection device ID of the detection device 410 for each time stamp. Transmit to server 200-4. If the detection device 410 is a stationary device that does not move, the network communication unit 402 may separately transmit the fixed value of the location information to the server 200-4 together with the detection device ID of the detection device 410. Further, a plurality of detection devices 410 may be provided as shown in FIG. In this case, the plurality of detection devices 410a, 410b, 410c are arranged within a certain range (for example, an event venue, a theme park, a station premises, etc.) that is an object of observation of the happiness level.
  • a certain range for example, an event venue, a theme park, a station premises, etc
  • the server 200-4 includes a network communication unit 201, a terminal information storage unit 203, a group terminal extraction unit 203, and a happiness level calculation unit 204.
  • the terminal information storage unit 202 stores terminal information (specifically, terminal information associated with a time stamp and a detection device ID) transmitted from the detection device 410 and received by the network communication unit 201.
  • the terminal information storage unit 202 stores the situation recognition results transmitted from the detection device 410 and received by the network communication unit 201.
  • group information generated by the group terminal extraction unit 203 is accumulated in the terminal information storage unit 202.
  • the happiness level calculation unit 204 calculates the happiness level of a place around the detection device 410 based on the group information accumulated in the terminal information storage unit 202 and the recognition result of the surrounding situation. The calculated happiness level is transmitted to the display device 500 by the network communication unit 201.
  • the display device 500 includes a network communication unit 501, a display control unit 502, and a display unit 503.
  • the display control unit 502 controls the display unit 503 to display the happiness degree calculated by the server 200-4 received by the network communication unit 501.
  • FIG. 30 is a flowchart showing the happiness level display process according to this embodiment. As illustrated in FIG. 30, first, the terminal detection unit 401 of the detection device 410 detects a peripheral information processing terminal, and acquires terminal information from the detected information processing terminal (S353).
  • the situation recognition unit 403 recognizes the surrounding situation (S356).
  • the situation recognition unit 108 acquires a place situation as an example.
  • the network communication unit 402 transmits the terminal information acquired by the terminal detection unit 401 and the location information acquired by the situation recognition unit 403 to the server 200-4 via the network 3 (S359).
  • the server 200-4 accumulates the terminal information and the location information transmitted from the detection device 410 in the terminal information storage unit 202 (S362).
  • the group terminal extraction unit 203 extracts group terminals from the accumulated terminal information (S365).
  • the group information regarding the group terminal extracted by the group terminal extraction unit 203 is accumulated in the terminal information storage unit 202.
  • the server 200-4 arranges the detection device 410 (or a plurality of detection devices 410a, 410b, 410c) by the happiness level calculation unit 204.
  • the happiness level of the surrounding location is calculated (S371).
  • the happiness level calculation unit 204 calculates the happiness level in consideration of location information around the detection device 410.
  • the network communication unit 201 of the server 200-4 transmits the happiness level to the display device 500 (S374).
  • the display control unit 502 of the display device 500 causes the display unit 503 to display the happiness level transmitted from the server 200-2 (S204). Specifically, the display control unit 502 controls to display the happiness level around the place where the detection device 410 is disposed.
  • the display control unit 502 may display the happiness level transmitted from the server 200-4 as the happiness level around the own device.
  • the display device 500 receives the happiness level of another location from the server 200-4, the happiness level of the other location can be displayed together with, for example, a map image.
  • Embodiment 3C processing such as group terminal extraction and happiness level calculation is performed on the cloud, and the detection function and display function of the information processing terminal can be realized separately. Become. Further, the server 200-3 on the cloud can calculate a happiness level more accurately by calculating the happiness level in consideration of the situation recognition result around the detection apparatus 410.
  • FIG. 31 is a diagram showing an example of location information for each detection device ID.
  • location information acquired based on the latitude and longitude of the information processing apparatus 100-5 (or the detection apparatus 410) recognized by the situation recognition unit 108 (or the situation recognition unit 403) is displayed. ing.
  • location categories such as an office district, a residential district, and an amusement park are used.
  • location information is shown in FIG. 31 as an example of the situation recognition result, the present embodiment is not limited to this, and the situation recognition result may be a time category or a discomfort index.
  • the happiness level calculation unit 204 calculates the happiness level in consideration of the recognition result of the surrounding situation of the target location as shown in FIG.
  • the calculation of the happiness level by the happiness level calculation unit 204 can be performed based on the number of extracted group terminals (that is, the number of groups) and the happiness coefficient, as in the first embodiment.
  • the happiness coefficient used at this time corresponds to the recognition result of the surrounding situation. An example of such a happiness coefficient is shown in FIG.
  • FIG. 32 is a diagram illustrating an example of a happiness coefficient corrected according to the situation according to the third embodiment.
  • happiness coefficients corresponding to the number of group terminals according to the location category and the time category are shown.
  • the happiness coefficient of a group terminal (coupled terminal) with two terminals is 2.0 when the status of the target place is “6 am to 6 pm” in the “amusement park”, and “18:00 to 6” If it is “hours”, it will be 3.0, if it is “weekdays from 6 am to 6 pm”, it will be 0.1, and if it is “weekdays other than 6 am to 6 pm”, it will be 2.0.
  • the happiness degree h of the target location is calculated as 20.5 by the following formula 5.
  • the happiness level h of the target location is calculated as 0.9 by the following formula 6.
  • the happiness level of a place can be calculated more accurately by using the happiness coefficient corrected according to the situation recognition result around the detection device (terminal detection unit). It becomes possible.
  • a happiness level calculation system according to the fourth embodiment of the present disclosure will be described.
  • a group terminal that is, a group action
  • a single terminal single terminal acting almost alone
  • the one person is extracted.
  • FIG. 33 is a diagram illustrating a configuration example of an information processing apparatus 100-6 according to the fourth embodiment.
  • the information processing apparatus 100-6 can be realized by an installation terminal apparatus such as a mobile terminal apparatus or digital signage, for example.
  • the information processing apparatus 100-6 includes a terminal detection unit 101, a terminal information storage unit 102, a group terminal extraction unit 103, a single terminal extraction unit 109, a happiness level calculation unit 104, a display control unit 105, and A display unit 106 is included.
  • One terminal reading unit 109 is acquired by the terminal detection unit 101 extracts the person terminal P b that are acting alone from the terminal information stored in the terminal information storage unit 102.
  • a single terminal can be identified using, for example, a co-occurrence rate. A specific method of extracting a single terminal will be described later with reference to FIG.
  • the happiness level calculation unit 104 calculates the happiness level with reference to single-terminal information. A specific method of calculating the happiness level with reference to single-terminal information will be described later with reference to FIG.
  • the happiness level display process according to the fourth embodiment is the same as the process of steps S103 to S118 shown in FIG. 3 according to the first embodiment except that the process of step S109 is changed to a terminal extraction process described below. Can be done.
  • FIG. 34 is a flowchart showing terminal extraction processing according to the fourth embodiment.
  • the group terminal extraction unit 103 acquires terminal information in the extraction target period from the terminal information storage unit 102 (S403), and calculates the co-occurrence frequency of each terminal (S406).
  • the group terminal extraction unit 103 calculates the co-occurrence rate of each terminal. This is performed (S412).
  • the group terminal extraction unit 103 extracts couple terminal candidates based on the calculated co-occurrence rate (S415).
  • the group terminal extraction unit 103 separates the group terminal (broad sense) including the couple terminal from the extracted couple terminal candidate (S418). Group information related to the separated group terminals is stored in the terminal information storage unit 102.
  • the one-person terminal extraction unit 109 extracts one-person terminals based on the calculated co-occurrence rate (S421).
  • FIG. 35 shows an example of the co-occurrence rate matrix of each terminal.
  • One terminal P b can be defined as shown in FIG. 35, the terminal co-occurrence rate of all the terminals P other than its own is less than the threshold Cth (e.g., 0.1).
  • the threshold Cth e.g. 0.
  • a single terminal is a subset of terminals that are not extracted as a couple terminal.
  • the extracted single terminal information regarding the single terminal is stored in the terminal information storage unit 102.
  • the happiness level calculation unit 104 calculates the happiness level.
  • FIG. 36 shows an example of a happiness coefficient corresponding to the number of terminals including the happiness coefficient of a single terminal.
  • the happiness coefficient is set to “ ⁇ 0.1”, for example.
  • the happiness level h is calculated as “13.1”.
  • FIG. 37 is a diagram illustrating a hardware configuration of the information processing apparatus 1000 according to an embodiment of the present disclosure.
  • the information processing apparatus 1000 includes a CPU (Central Processing Unit) 1010, a ROM (Read Only Memory) 1020, a RAM (Random Access Memory) 1030, a bridge 1040, an input unit 1050, An output unit 1060, a storage unit 1070, a network I / F (interface) 1080, and a wireless communication I / F 1090 are provided.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 1010 functions as an arithmetic processing unit, and cooperates with various programs to function in the information processing apparatus 1000 (for example, the terminal detection unit 101, the group terminal extraction unit 103, the happiness degree calculation unit 104, the display control unit 105, the status)
  • the operation of the recognition unit 108, the one-person terminal extraction unit 109, etc. is realized.
  • the CPU 1010 may be a microprocessor.
  • the ROM 1020 stores a program or calculation parameters used by the CPU 1010.
  • the RAM 1030 temporarily stores programs used in the execution of the CPU 1010 or parameters that change as appropriate in the execution.
  • the CPU 1010, the ROM 1020, and the RAM 1030 are connected to each other via an internal bus including a CPU bus.
  • the input unit 1050 generates an input signal based on the input by the user, such as a mouse, a keyboard, a touch panel, a button, a microphone, a camera, a switch, and a lever, and an input by the user, and outputs the input signal to the CPU 1010 It consists of a control circuit.
  • a user of the information processing apparatus 1000 can input various data or instruct a processing operation to the information processing apparatus 1000 by operating the input unit 1050.
  • the input unit 1050 may be a unit that detects sensor data using various sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, a position measurement sensor, a temperature sensor, and a biological sensor.
  • the output unit 1060 performs output to a display device such as a liquid crystal display (LCD) device or an OLED (Organic Light Emitting Diode) device. Furthermore, the output unit 1060 may perform audio output from a speaker or headphones.
  • a display device such as a liquid crystal display (LCD) device or an OLED (Organic Light Emitting Diode) device.
  • OLED Organic Light Emitting Diode
  • the output unit 1060 may perform audio output from a speaker or headphones.
  • the storage unit 1070 is a device for storing data.
  • the storage unit 1070 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage unit 1070 stores programs executed by the CPU 1010 and various data. Further, the storage unit 1070 may constitute the terminal information storage unit 102, for example.
  • the network I / F 1080 is a communication interface composed of communication devices for connecting to a network.
  • the network I / F 1080 may be a wireless LAN (Local Area Network) compatible communication device or an LTE (Long Term Evolution) compatible communication device.
  • the network I / F 1080 may constitute a part of the network communication unit 107, for example.
  • the wireless communication I / F 1090 is a communication interface for connecting to an information processing apparatus outside the information processing apparatus 1000 or a peripheral device. Note that, here, the wireless communication I / F 1090 is provided as an example, but a communication interface connected to an external information processing apparatus or peripheral device by wired communication may be used. For example, the wireless communication I / F 1090 forms part of the terminal detection unit 101, can receive Wi-Fi radio waves transmitted from the information processing terminal, and can acquire terminal information from the information processing terminal.
  • the information processing devices 100-1 to 100-6, the servers 200-1 to 200-4, the detection devices 400 and 410, or the hardware incorporated in the display device 500 such as a CPU, a ROM, and a RAM
  • Computer programs for causing the functions of the information processing apparatuses 100-1 to 100-6, the servers 200-1 to 200-4, the detection apparatuses 400 and 410, or the display apparatus 500 can also be created.
  • a computer-readable storage medium storing the computer program is also provided.
  • information of information processing terminals detected in the same time zone by a plurality of detection devices 400 arranged in the vicinity is analyzed, or a plurality of detections arranged at separated positions
  • analyzing information of information processing terminals detected at different times by the apparatus 400 it is possible to extract group terminals more accurately.
  • the detection device or terminal detection unit
  • a communication unit that receives the identification information by a detection device that detects identification information of surrounding terminal devices; A plurality of identification information representing a plurality of terminal devices detected by the detection device within a predetermined time received by the communication unit is extracted as a group terminal device, and the happiness level around the detection device according to the extraction result
  • a control unit for calculating An information processing system comprising: (2) The information processing system according to (1), wherein the communication unit transmits the happiness level to a display device capable of displaying the happiness level together with a map image. (3) The information processing unit according to (2), wherein the communication unit transmits to a display device capable of displaying a map image indicating a happiness level associated with position information representing physical positions of a plurality of detection devices.
  • the information processing system according to (2) or (3) wherein the display device is a device integrated with the detection device.
  • the control unit cancels the extraction as the group terminal device.
  • the control unit excludes the identification information at the time of extraction of the group terminal device when the identification information detected by the detection device is estimated to be a fixed terminal device, and any one of (1) to (5) The information processing system according to claim 1.
  • the control unit calculates the happiness level according to at least one of attribute information corresponding to the detection device, a time zone corresponding to the predetermined time, and a surrounding environment of the detection device, (1 The information processing system according to any one of (6) to (6). (8) The control unit extracts a plurality of pieces of identification information representing a plurality of terminal devices detected by the detection device within a predetermined time as a group terminal device according to the co-occurrence rate, and the detection based on the extraction result The information processing system according to any one of (1) to (7), wherein a happiness level around the device is calculated.
  • control unit extracts a terminal device having the co-occurrence rate equal to or less than a predetermined threshold as a single terminal device, and calculates a happiness level around the detection device based on the extraction result.
  • Information processing system extracts a terminal device having the co-occurrence rate equal to or less than a predetermined threshold as a single terminal device, and calculates a happiness level around the detection device based on the extraction result.
  • a detection unit for detecting identification information of surrounding terminal devices A control unit that extracts a plurality of identification information representing a plurality of terminal devices detected by the detection unit within a predetermined time as a group terminal device, and calculates a happiness level around the detection unit based on the extraction result;
  • An information processing apparatus comprising: (11) The control unit generates a map image indicating the happiness level associated with position information indicating a physical position of the information processing apparatus, The information processing apparatus according to (10), further including a display unit that displays the generated map image.
  • the information processing apparatus includes: A communication unit that receives a happiness level associated with position information representing a physical position of the information processing apparatus from a surrounding information processing apparatus; The information processing apparatus according to (11), wherein the control unit generates a map image indicating a happiness level associated with position information representing physical positions of a plurality of information processing apparatuses. (13) When the plurality of pieces of identification information extracted as the group terminal device are estimated to be a plurality of terminal devices carried by the same person, the control unit cancels the extraction as the group terminal device, (10 The information processing apparatus according to any one of (12) to (12). (14) The control unit excludes the identification information when extracting the group terminal device when the identification information detected by the detection unit is estimated to be a fixed terminal device. The information processing apparatus according to claim 1.
  • the control unit calculates the happiness degree according to at least one of attribute information corresponding to the information processing device, a time zone corresponding to the predetermined time, and a surrounding environment of the information processing device, (10) The information processing apparatus according to any one of (14). (16) The control unit extracts a plurality of identification information representing a plurality of terminal devices detected by the detection unit within a predetermined time as a group terminal device according to the co-occurrence rate, and the information based on the extraction result The information processing apparatus according to any one of (10) to (15), wherein a happiness level around the processing apparatus is calculated.
  • the said control part extracts the terminal device which is below the predetermined threshold value of the said co-occurrence rate as a single terminal device, and calculates the happiness degree around the said information processing apparatus based on an extraction result, The said (16).
  • Information processing device Receiving the identification information by a communication unit by a detection device that detects identification information of surrounding terminal devices; A plurality of identification information representing a plurality of terminal devices detected by the detection device within a predetermined time received by the communication unit is extracted as a group terminal device, and the happiness level around the detection device according to the extraction result Is calculated by the control unit, Including an information processing method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】検知された周辺の複数の情報処理端末からグループ端末を抽出して周辺のハピネス度を算出することが可能な情報処理システム、情報処理装置、情報処理方法、および記憶媒体を提供する。 【解決手段】周囲の端末装置の識別情報を検知する検知装置により当該識別情報を受信する通信部と、前記通信部により受信した、所定の時間内に前記検知装置に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に応じて前記検知装置の周囲のハピネス度を演算する制御部と、を備える、情報処理システム。

Description

情報処理システム、情報処理装置、情報処理方法、および記憶媒体
 本開示は、情報処理システム、情報処理装置、情報処理方法、および記憶媒体に関する。
 近年、脳波、脈拍、発汗量等の生体データを用いて人の感情を推測する技術が提案されている。これにより、例えばその人が幸福でいるか否かを計測することも可能となっていた。
特開2004-320217号公報
 しかしながら、上述した従来技術では、個々人の幸福を計測するのみであって、場所に紐付けられた人々の幸福を計測する技術は提案されていない。例えば一人よりも二人で過ごす方が楽しいといった仮定の元、定量化された幸せを「ハピネス度」と定義した場合、複数人のグループが多く集まっている場所やカップルが居る場所は、ハピネス度が高い場所と言える。
 ここで、特許文献1では、位置情報が所定の時間間隔にわたり共通する携帯端末装置同士をグループ化してグループ情報を獲得する技術が提案されているが、当該グループ情報はグループに最適な情報を提供する際に用いられるものであって、その場所のハピネス度を簡便に測定する方法については全く考慮されていない。
 そこで、本開示では、検知された周辺の複数の情報処理端末からグループ端末を抽出して周辺のハピネス度を算出することが可能な情報処理システム、情報処理装置、情報処理方法、および記憶媒体を提案する。
 本開示によれば、周囲の端末装置の識別情報を検知する検知装置により当該識別情報を受信する通信部と、前記通信部により受信した、所定の時間内に前記検知装置に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に応じて前記検知装置の周囲のハピネス度を演算する制御部と、を備える、情報処理システムを提案する。
 本開示によれば、周囲の端末装置の識別情報を検知する検知部と、所定の時間内に前記検知部に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に基づいて前記検知部の周囲のハピネス度を演算する制御部と、を備える、情報処理装置を提案する。
 本開示によれば、周囲の端末装置の識別情報を検知する検知装置により当該識別情報を通信部により受信することと、前記通信部により受信した、所定の時間内に前記検知装置に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に応じて前記検知装置の周囲のハピネス度を制御部により演算することと、を含む、情報処理方法を提案する。
 本開示によれば、コンピュータを、周囲の端末装置の識別情報を検知する検知部と、所定の時間内に前記検知部に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に基づいて前記検知部の周囲のハピネス度を演算する制御部と、として機能させるためのプログラムが記憶された、コンピュータ読み取り可能な記憶媒体を提案する。
 以上説明したように本開示によれば、検知された周辺の複数の情報処理端末からグループ端末を抽出して周辺のハピネス度を算出することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態によるハピネス度算出システムの概要を説明する図である。 実施形態1Aによる情報処理装置の機能構成例を示す図である。 実施形態1Aによるハピネス度表示処理を示すフローチャートである。 実施形態1Bにおける他の情報処理装置からのハピネス度の受信について説明する図である。 実施形態1Bによる情報処理装置の機能構成例を示す図である。 実施形態1Bによるハピネス度表示処理を示すフローチャートである。 実施形態1Cによるハピネス度算出システムの機能構成例を示す図である。 実施形態1Cによるハピネス度表示処理を示すフローチャートである。 実施形態1Dによるハピネス度算出システムの機能構成例を示す図である。 実施形態1Dによるハピネス度表示処理を示すフローチャートである。 第1の実施形態による端末情報記憶部に記憶されている端末情報の一例を示す図である。 第1の実施形態によるグループ端末抽出の対象期間において検知された全ての情報処理端末の共起頻度をカウントするためのN×Nのマトリクスを示す図である。 第1の実施形態による共起率マトリクスの一例を示す図である。 第1の実施形態によるカップル端末候補からグループ端末を分離した一例を示す図である。 第1の実施形態によるグループ端末抽出処理を示すフローチャートである。 第1の実施形態による端末情報記憶部に記憶されたグループ情報の一例を示す図である。 第1の実施形態によるハピネス係数の一例を示す図である。 第1の実施形態によるハピネス度を表示する表示画面の一例を示す図である。 第1の実施形態によるハピネス度を表示する表示画面の一例を示す図である。 第1の実施形態によるグループ情報を表示する表示画面の一例を示す図である。 第1の実施形態によるグループ情報を表示する表示画面の一例を示す図である。 第1の実施形態によるハピネス度を表示する表示画面の一例を示す図である。 第1の実施形態によるハピネス度を表示する表示画面の一例を示す図である。 第2の実施形態によるグループ端末抽出処理を示すフローチャートである。 実施形態3Aによる情報処理装置の機能構成例を示す図である。 実施形態3Aによるハピネス度表示処理を示すフローチャートである。 実施形態3Bによる情報処理装置の機能構成例を示す図である。 実施形態3Bによるハピネス度表示処理を示すフローチャートである。 実施形態3Cによる情報処理装置の機能構成例を示す図である。 実施形態3Cによるハピネス度表示処理を示すフローチャートである。 第3の実施形態による場所情報の一例を示す図である。 第3の実施形態による状況に応じて補正されたハピネス係数の一例を示す図である。 第4の実施形態による情報処理装置の機能構成例を示す図である。 第4の実施形態による端末抽出処理を示すフローチャートである。 第4の実施形態による共起率マトリクスの一例を示す図である。 第4の実施形態によるハピネス係数の一例を示す図である。 本開示の一実施形態による情報処理装置のハードウェア構成例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.各実施形態
  2-1.第1の実施形態
  (2-1-1.実施形態1A)
  (2-1-2.実施形態1B)
  (2-1-3.実施形態1C)
  (2-1-4.実施形態1D)
  (2-1-5.グループ端末抽出処理)
  (2-1-6.ハピネス度算出処理)
  (2-1-7.ハピネス度表示例)
  2-2.第2の実施形態
  2-3.第3の実施形態
  (2-3-1.実施形態3A)
  (2-3-2.実施形態3B)
  (2-3-3.実施形態3C)
  (2-3-4.認識状況を考慮したハピネス度算出処理)
  2-4.第4の実施形態
  2-5.ハードウェア構成
 3.まとめ
 <<1.本開示の一実施形態による情報処理システムの概要>>
 まず、本開示の一実施形態による情報処理システムの概要について、図1を参照して説明する。本実施形態による情報処理システムでは、一人よりも二人で過ごす方が楽しいといった仮定の元、定量化された幸せを「ハピネス度」と定義し、ある場所におけるグループ行動を解析してその場所のハピネス度を算出することを可能とする。
 図1は、本開示の一実施形態によるハピネス度算出システムの概要を説明する図である。本実施形態によるハピネス度算出システムでは、まず、例えば街中、駅、公園、テーマパーク等の様々な場所に設置された検知装置1a、1bにより、周辺を通過する人物が所持する情報処理端末(不図示)が検知される。情報処理端末は、例えばスマートフォンまたは携帯電話端末等のモバイル端末や、スマートウォッチ、スマートバンド、スマートアイグラス、またはスマートネック等のウェアラブル端末である。また、検知装置1a、1bは、周囲に存在する、Wi-Fi(登録商標)やBLE(Bluetooth(登録商標) Low Energy)等の電波を発する情報処理端末を検知する機能を有し、タイムスタンプごとに情報処理端末の端末IDや電波強度等の端末情報を取得する。
 次いで、ハピネス度算出システムは、検知装置1により検知された端末情報に基づいて、2個のカップルとして存在する情報処理端末や、3個以上でグループとして存在する情報処理端末を抽出してグループ情報を生成し、当該グループ情報に基づいて検知装置1周辺の場所におけるハピネス度を算出する。例えばカップルや複数人グループが多く存在する場所はハピネス度が高く算出される。また、このように算出した場所のハピネス度を、地図画像と共に提示することで、場所のハピネス度を容易に認識させることが可能となる。
 以上、ハピネス度算出システムの概要について説明した。続いて、ハピネス度算出システムの具体的な構成および動作処理について、複数の実施形態を用いて説明する。
 <<2.各実施形態>>
 <2-1.第1の実施形態>
 第1の実施形態によるハピネス度算出システムでは、周囲の情報処理端末を検知して取得した端末情報をタイムスタンプと共に蓄積し、蓄積した端末情報から一緒に存在する確率の高いグループ端末を抽出し、グループ端末のグループ数に基づいて、検知装置周辺の場所のハピネス度を算出する。これにより、場所のハピネス度を簡便に算出することが可能となる。また、検知装置が周囲の情報処理端末を自動的に検知するため、測定したい場所に検知装置を配置するだけで、その場所周辺のハピネス度を算出することが可能となる。また、ユーザが所持している情報処理端末側で位置測位等の特定の処理を実行させることなく、ユーザによる操作負担を掛けずに、情報処理端末を利用したハピネス度の算出を行うことができる。
 このような第1の実施形態によるハピネス度算出システムの処理は、一体化された情報処理装置100で全て実現されてもよいし、一部の処理をクラウド上(サーバ200側)で行うクラウド型であってもよい。また、情報処理端末を検知する端末検知部、ハピネス度算出部、およびハピネス度を表示する表示部が、それぞれ別体の装置(例えば検知装置400、サーバ200、表示装置500)で行われてもよい。以下、第1の実施形態によるハピネス度算出システムの構成例およびその動作処理について各々説明した後(実施形態1A~1D)、端末情報からのグループ端末抽出処理およびハピネス度算出処理の具体的な方法について説明し、最後にハピネス度の表示画面例について具体例を用いて説明する。
 (2-1-1.実施形態1A)
 (構成)
 まず、本開示の実施形態1Aによる情報処理装置100-1の構成について図2を参照して説明する。図2は、本開示の第1の実施形態による情報処理装置100-1の機能構成例を示す図である。情報処理装置100-1は、例えば携帯端末装置またはデジタルサイネージのような設置端末装置等により実現され得る。
 図2に示すように、情報処理装置100-1は、端末検知部101、端末情報記憶部102、グループ端末抽出部103、ハピネス度算出部104、表示制御部105、および表示部106を有する。
 端末検知部101は、周辺に存在する情報処理端末の端末情報を検知する。具体的には、例えば周辺のWi-FiやBLE等の電波を発生する情報処理端末を検知し、タイムスタンプごとに情報処理端末の端末IDや電波強度等の端末情報を取得する。
 端末情報記憶部102は、端末検知部101から出力された端末情報、およびグループ端末抽出部103から出力されたグループ情報を蓄積する。
 グループ端末抽出部103は、端末情報記憶部102に蓄積された端末情報に基づいて、2個でカップルとして存在する情報処理端末、および3個以上でグループとして存在する情報処理端末に関する情報(グループ情報と称す)を抽出する。グループ端末の具体的な抽出方法については、後述する。
 ハピネス度算出部104は、グループ情報に基づいて、情報処理装置100-1周辺の場所のハピネス度を算出する。なおハピネス度の具体的な算出方法については、後述する。
 表示制御部105は、表示部106における情報表示の制御を行う。具体的には、表示制御部105は、ハピネス度算出部104により算出されたハピネス度を示す画面(例えばハピネス度を示すアイコンが重畳表示された地図画像等)を生成し、表示部106に表示するよう制御する。
 表示部106は、例えば液晶ディスプレイ等により実現され、表示制御部105の制御に従って、算出されたハピネス度を示す画面を表示する。
 (動作処理)
 次に、情報処理装置100-1によるハピネス度の表示制御について図3を参照して説明する。図3は、第1の実施形態による情報処理装置100-1のハピネス度表示処理を示すフローチャートである。
 図3に示すように、まず、情報処理装置100-1の端末検知部101は、周辺に存在する情報処理端末を検知する(S103)。例えば情報処理装置100-1が街中に設置されているデジタルサイネージの場合、情報処理装置100-1は、周辺を通過する人物が所持する情報処理端末から発信されるWi-Fi電波等を検知し、当該情報処理端末の端末IDや電波強度等の端末情報を取得する。
 次に、端末検知部101は、検知した端末情報を端末情報記憶部102に記憶する(S106)。
 次いで、グループ端末抽出部103は、端末情報記憶部102に記憶された端末情報に基づいて、グループ端末の抽出を行い、グループ情報を生成する(S109)。
 次に、ハピネス度算出部104は、グループ端末抽出部103により生成されたグループ情報に基づいて、ハピネス度を算出する(S112)。
 続いて、表示制御部105は、ハピネス度算出部104により算出されたハピネス度を表示部106に表示させる(S115)。
 そして、上述したS103~S115の処理を、情報処理装置100-1におけるハピネス度表示処理の終了が指示されるまで繰り返す(S118)。
 (効果)
 以上説明したように、デジタルサイネージ等により実現される情報処理装置100-1は、自装置が設置されている場所周辺のハピネス度を算出し、表示部106に表示させることが可能となる。
 (2-1-2.実施形態1B)
 続いて、実施形態1Bについて説明する。本実施形態による情報処理装置100-2は、他の場所に設置されている情報処理装置100-2からハピネス度を受信し、当該他の情報処理装置100-2が設置されている場所周辺のハピネス度を併せて表示することが可能である。
 図4は、本実施形態による他の情報処理装置100-2からのハピネス度の受信について説明する図である。図4に示すように、いずれもデジタルサイネージにより実現され、異なる場所に設置されている情報処理装置100-2a、100-2b、100-2cが存在する場合、例えば情報処理装置100-2aは、情報処理装置100-2b、100-2cから、各装置において算出されたハピネス度を受信する。これにより情報処理装置100-2aは、情報処理装置100-2b、100-2cが設置されている場所におけるハピネス度を提示することが可能となる。以下、図5および図6を用いて、本実施形態の機能構成および動作処理について説明する。
 (構成)
 図5は、本実施形態による情報処理装置100-2の機能構成例を示す図である。図5に示すように、情報処理装置100-2は、端末検知部101、端末情報記憶部102、グループ端末抽出部103、ハピネス度算出部104、表示制御部105、表示部106、およびネットワーク通信部107を有する。
 ネットワーク通信部107は、ネットワークを介して他の情報処理装置100-2とデータの送受信を行う。例えばネットワーク通信部107は、他の情報処理装置100-2からハピネス度を受信したり、送信したりする。
 表示制御部105は、ハピネス度算出部104により算出された、自装置周辺の場所のハピネス度と、ネットワーク通信部107により受信した他の情報処理装置100-2周辺の場所のハピネス度とを、表示部106に表示させるよう制御する。この際、表示制御部105は、地図画像上に各場所のハピネス度を表示させてもよい。
 なお他の構成の機能は、図2を参照して説明した同符号の構成と同様であるため、ここでの説明は省略する。かかる機能構成の説明の省略は、以下の各実施形態においても同様である。
 (動作処理)
 続いて、本実施形態の動作処理について図6を参照して説明する。図6は、本実施形態による情報処理装置100-2のハピネス度表示処理を示すフローチャートである。
 図6に示すように、情報処理装置100-2は、まず、周辺の情報処理端末を検知し、検知した情報処理端末から取得した端末情報を蓄積し、蓄積した多数の端末情報からグループ端末を抽出し、自装置周辺のハピネス度を算出する(S123~S132)。
 次いで、情報処理装置100-2のネットワーク通信部107は、他の情報処理装置100-2からハピネス度を受信する(S135)。他の情報処理装置100-2からのハピネス度は、定期的に他の情報処理装置100-2に問い合わせて取得してもよいし、他の情報処理装置100-2からの送信を待って取得してもよい。
 次に、表示制御部105は、自装置周辺のハピネス度と、他の情報処理装置100-2が設置されている場所周辺のハピネス度とを表示部106に表示させる(S138)。具体的には、表示制御部105は、例えば各場所のハピネス度を、対応する地図画像上に重畳表示させることで、どの場所のハピネス度であるかを容易に把握できるようにしてもよい。
 そして、上述したS123~S138の処理を、情報処理装置100-2におけるハピネス度表示処理の終了が指示されるまで繰り返す(S141)。
 (効果)
 以上説明したように、例えばデジタルサイネージ等により実現される情報処理装置100-2は、自装置が設置されている場所周辺と他の場所のハピネス度を表示部106に表示させることが可能となる。
 (2-1-3.実施形態1C)
 次に、本開示による実施形態1Cについて説明する。上述した実施形態1A、1Bでは、情報処理装置100でハピネス度の算出を行っているが、第1の実施形態の構成はこれに限定されず、例えばクラウドを利用して、ハピネス度の算出をサーバ側で行うようにしてもよい。以下、図7および図8を参照してハピネス度の算出をサーバ側で行うハピネス度算出システムについて説明する。
 (構成)
 図7は、本実施形態によるハピネス度算出システムの機能構成を示す図である。本実施形態によるハピネス度算出システムは、図7に示すように、情報処理装置100-3およびサーバ200-1を含み、各装置はネットワーク3を介して接続している。情報処理装置100-3は、例えばデジタルサイネージにより実現される。
 情報処理装置100-3は、端末検知部101、ネットワーク通信部107、表示制御部105、および表示部106を有する。ネットワーク通信部107は、端末検知部101により検知された情報処理端末の端末情報を、タイムスタンプ毎に、情報処理装置100-3の検知装置IDと共に、サーバ200-1に送信する。表示制御部105は、ネットワーク通信部107により受信した、サーバ200-1で算出されたハピネス度を表示部106に表示するよう制御する。
 サーバ200-1は、ネットワーク通信部201、端末情報記憶部202、グループ端末抽出部203、およびハピネス度算出部204を有する。端末情報記憶部202には、情報処理装置100-3から送信され、ネットワーク通信部201により受信した端末情報(具体的にはタイムスタンプおよび検知装置IDと紐付けられた端末情報)が蓄積される。グループ端末抽出部203は、端末情報記憶部202に蓄積された端末情報から、一緒に存在する可能性の高い(すなわちグループ行動をしているユーザの)情報処理端末をグループ端末として抽出し、かかるグループ端末に関する情報(すなわちグループ情報)を端末情報記憶部202に蓄積する。ハピネス度算出部204は、グループ端末抽出部203により生成され、端末情報記憶部202に蓄積されたグループ情報に基づいて、情報処理装置100-3周辺の場所のハピネス度を算出する。算出されたハピネス度は、ネットワーク通信部201により情報処理装置100-3に返信される。なおサーバ200-1は、ハピネス度を表示する画面情報(例えばハピネス度を示すアイコンが地図画像上に重畳表示された画面の情報)を生成し、情報処理装置100-3に送信してもよい。
 (動作処理)
 図8は、本実施形態によるハピネス度表示処理を示すフローチャートである。図8に示すように、情報処理装置100-3は、まず、周辺の情報処理端末を検知し(S153)、検知した情報処理端末から取得した端末情報をネットワーク3を介してサーバ200-1へ送信する(S156)。
 次いで、サーバ200-1は、情報処理装置100-3から送信された端末情報を端末情報記憶部202に蓄積する(S159)。
 次に、サーバ200-1は、グループ端末抽出部203により、蓄積された端末情報からグループ端末を抽出し(S162)、ハピネス度算出部204により、情報処理装置100-3周辺のハピネス度を算出する(S165)。
 次いで、サーバ200-1のネットワーク通信部201は、ハピネス度を情報処理装置100-3へ送信する(S168)。
 そして、情報処理装置100-3の表示制御部105は、サーバ200-1から送信されたハピネス度を表示部106に表示させる(S171)。なお本実施形態において、サーバ200-1は、情報処理装置100-3に対して、情報処理装置100-3周辺の場所のハピネス度の他、他の場所のハピネス度を送信してもよい。これにより、情報処理装置100-3は、自装置周辺のハピネス度の他、他の場所のハピネス度も表示することが可能となる。
 (効果)
 以上説明したように、実施形態1Cでは、グループ端末の抽出やハピネス度の算出といった処理を、クラウド上で行うことが可能となる。この場合、サーバ200-1のグループ端末抽出部203は、一緒に存在する可能性の高いグループ端末を抽出する際に、複数の場所で各々取得された端末情報を参照できるため、グループ端末抽出の精度を向上させることができる。例えば、ある場所で一緒に検知された情報処理端末の組み合わせが他の場所でも検知された場合、グループ端末である可能性がより高くなる。
 (2-1-4.実施形態1D)
 続いて、本開示による実施形態1Dについて説明する。本実施形態では、クラウドを利用することで、グループ端末抽出機能およびハピネス度算出機能をサーバ200側で行い、また、端末検知機能とハピネス度の表示機能を別体で実現する。端末検知機能を有する検知装置400は、単数または複数であってもよい。以下、図9および図10を参照して具体的に説明する。
 (構成)
 図9は、本実施形態によるハピネス度算出システムの機能構成例を示す図である。本実施形態によるハピネス度算出システムは、図9に示すように、検知装置400(400a、400b、400c、…)と、サーバ200-2と、表示装置500とを含み、各装置はネットワーク3を介して接続している。表示装置500は、例えばデジタルサイネージや携帯端末等により実現される。
 検知装置400は、端末検知部401およびネットワーク通信部402を有するモニターノードである。ネットワーク通信部402は、端末検知部401により検知された情報処理端末の端末情報を、タイムスタンプ毎に、検知装置400の検知装置IDと共に、サーバ200-2に送信する。また、検知装置400は、図9に示すように複数であってもよい。この場合、複数の検知装置400a、400b、400cは、ハピネス度の観測対象である一定範囲内(例えばイベント会場、テーマパーク、駅構内等)に配置される。
 サーバ200-2は、図7を参照して説明した実施形態1Cのサーバ200-1と同様の構成である。端末情報記憶部202には、検知装置400(400a、400b、400c、…)から送信され、ネットワーク通信部201により受信した端末情報(具体的にはタイムスタンプおよび検知装置IDと紐付けられた端末情報)が蓄積される。ハピネス度算出部204は、グループ端末抽出部203により生成され、端末情報記憶部202に蓄積されたグループ情報に基づいて、各検知装置400周辺のそれぞれの場所のハピネス度を算出する。算出されたそれぞれのハピネス度は、例えば各検知装置400の検知装置ID(または緯度経度)と関連付けて、ネットワーク通信部201により表示装置500へ送信される。なおサーバ200-2は、ハピネス度を表示する画面情報(例えばハピネス度を示すアイコンが地図画像上に重畳表示された画面の情報)を生成して、表示装置500に送信してもよい。
 表示装置500は、ネットワーク通信部501、表示制御部502、および表示部503を有する。表示制御部502は、ネットワーク通信部501により受信した、サーバ200-2で算出されたハピネス度を表示部503に表示するよう制御する。
 (動作処理)
 図10は、本実施形態によるハピネス度表示処理を示すフローチャートである。図10に示すように、検知装置400は、まず、周辺の情報処理端末を検知し(S183)、検知した情報処理端末から取得した端末情報をネットワーク3を介してサーバ200-2へ送信する(S186)。
 次いで、サーバ200-2は、検知装置400から送信された端末情報を端末情報記憶部202に蓄積する(S189)。
 次に、サーバ200-2は、グループ端末抽出部203により、蓄積された端末情報からグループ端末を抽出する(S192)。
 次いで、サーバ200-2は、表示装置500からハピネス度送信要求が送信されると(S195)、ハピネス度算出部204により、検知装置400(または複数の検知装置400a、400b、400cが配置されている一定範囲内)周辺の場所のハピネス度を算出する(S198)。
 続いて、サーバ200-2のネットワーク通信部201は、ハピネス度を表示装置500へ送信する(S201)。
 そして、表示装置500の表示制御部502は、サーバ200-2から送信されたハピネス度を表示部503に表示させる(S204)。具体的には、表示制御部502は、検知装置400が配置されている場所周辺のハピネス度を表示するよう制御する。なお検知装置400が表示装置500周辺に配置されている場合、表示制御部502は、サーバ200-2から送信されたハピネス度を、自装置周辺のハピネス度として表示してもよい。また、表示装置500は、サーバ200-2から他の場所のハピネス度も受信した場合、当該他の場所のハピネス度も、例えば地図画像と共に併せて表示することが可能である。
 (効果)
 以上説明したように、実施形態1Dでは、グループ端末の抽出やハピネス度の算出といった処理を、クラウド上で行い、また、情報処理端末の検知機能と表示機能を別体で実現することが可能となる。また、検知機能を有する装置(検知装置400)を複数配置することも可能である。例えばイベント会場等の一定範囲内の場所のハピネス度を算出する際、検知範囲を狭めた複数の検知装置400をイベント会場の様々な場所に配置することで、グループ端末抽出の精度を向上させ、より正確にハピネス度を算出することができる。
 (2-1-5.グループ端末抽出処理)
 以上、第1の実施形態によるハピネス度算出システムの複数の構成例および動作処理について具体的に説明した。続いて、上述した各構成のグループ端末抽出部103、203によるグループ端末抽出方法について、図11~図16を参照して具体的に説明する。なお、ここでは、代表してサーバ200が有するグループ端末抽出部203におけるグループ端末抽出方法について説明する。
 グループ端末抽出部203は、端末情報記憶部202に記憶された端末情報から、2個でカップルとして存在する情報処理端末や、3個以上でグループとして存在する情報処理端末を、グループ端末として抽出する。具体的には、例えばグループ端末抽出部203は、タイムスタンプ毎に同時に検知された情報処理端末を、共起頻度としてカウントし、共起率(co-occurrence rate)の大きさを用いてグループ端末の抽出を行ってもよい。
Figure JPOXMLDOC01-appb-I000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-I000003
 ここで、端末情報記憶部202に記憶されている端末情報の一例を図11に示す。図11に示すように、端末情報記憶部202には、タイムスタンプ、検知装置ID(検知を行った装置の識別情報)、および端末IDリスト(検知された情報処理端末の識別情報のリスト)が対応付けて蓄積されている。図11に示す例では、一の検知装置(検知装置ID:MN0F876E6D)において、タイムスタンプ毎にその時間帯に同時に検知された端末IDのリストが列挙されている。ここでタイムスタンプは観測時刻を示すが、例えば数秒~数十秒の観測時間の開始時刻を示すものであってもよい。また、図11に示すタイムスタンプは、一例として所定の基準時刻からの経過秒数をカウントしたUNIX(登録商標)時刻で示されているが、本実施形態によるタイムスタンプの形態はこれに限定されない。
 グループ端末抽出部203は、このような蓄積された端末情報に基づいて、ある期間のグループ端末を抽出する場合、まず、その期間で検知された全ての端末の数をNとして、情報処理端末P~Pにおける各端末同士(すなわち2個の組み合わせ)の共起頻度nをカウントするためのN×Nのマトリクスを生成する。ここで、図12に、グループ端末抽出の対象期間において検知された全ての情報処理端末の共起頻度をカウントするためのN×Nのマトリクスを示す。
 例えば、上記図11に示すような端末情報を用いる場合、グループ端末抽出の対象期間に含まれるタイムスタンプ1421821080のとき、検知装置MN0F876E6Dにより「4E14D94C,E26DBA29,42CC63CE」の3個の情報処理端末が検知されているため、グループ端末抽出部203は、「4E14D94C・E26DBA29」と、「4E14D94C・42CC63CE」と、「E26DBA29・42CC63CE」といった3個の組み合わせをそれぞれカップル端末の候補として共起頻度に加算する。
 グループ端末抽出部203は、グループ端末抽出の対象期間の全てのタイムスタンプ(例えば一の検知装置における複数のタイムスタンプ)について共起頻度を加算し終わると、次いで、共起率を算出する。具体的には、グループ端末抽出部203は、例えば情報処理端末Pと情報処理端末Pの共起率cij(=cji)を、情報処理端末Pの共起頻度nii、情報処理端末Pjの共起頻度njj、情報処理端末Pと情報処理端末Pの共起頻度nij(=nji)に基づいて、下記式2により求める。
Figure JPOXMLDOC01-appb-M000004
 このように算出した共起率マトリクスの一例を図13に示す。図13に示すように、例えば情報処理端末Pと情報処理端末Pとの共起率c12(=c21)、情報処理端末Pと情報処理端末Pとの共起率c13(=c31)等、各組み合わせの共起率が算出される。
 次いで、グループ端末抽出部203は、図13に示すような共起率のマトリクスから共起率の高い情報処理端末の組合せをカップル端末の候補として抽出する。この際、グループ端末抽出部203は、共起率の閾値Cth、および共起頻度の閾値Nthを設け、共起率が閾値Cthよりも大きく、かつ共起頻度が閾値Nthよりも大きい情報処理端末の組合せを抽出するようにしてもよい。これにより、偶然一緒に歩いていただけの他人同士の組み合わせをカップル端末から除外することが可能となる。このようにして抽出したカップル端末候補の一例を図14の上段に示す。図14上段では、抽出されたカップル端末候補の端末IDが列挙されている。
 続いて、グループ端末抽出部203は、図14上段に示すようなカップル端末候補から、2個のカップル端末と3個以上のグループ端末(狭義)とを含むグループ端末(広義)を分離する。図14下段には、分離したグループ端末(広義)の一例を示す。具体的には、例えばグループ端末抽出部203は、共起率の閾値Cthが十分に高ければ、各カップル端末候補のうち同じ端末を含む組み合わせを、それらの端末を含む3個以上の端末から成るグループ端末とすることができる。例えば図14上段に示すカップル端末候補のうち、「03E3FE7B・A1C233B8」、「03E3FE7B・AA5666A8」、「03E3FE7B・C1667DC9」、「03E3FE7B・E08C7B31」は、同じ端末03E3FE7Bを含む組み合わせであるため、これらの端末(「03E3FE7B・A1C233B8・AA5666A8・C1667DC9・E08C7B31」)を少なくとも含むグループ端末と判断される。このようにして、例えば図14下段に示すように、カップル端末5組、3個の端末から成るグループ端末3組、および4個以上の端末から成るグループ端末1組が、カップル端末候補から分離される。
 本実施形態では、上述したように初めにカップル端末候補を抽出し、次いでカップル端末候補からカップル端末およびグループ端末(狭義)を分離することで、別途3個以上の共起率を改めて算出するよりも算出量の負担を少なくして全てのグループ端末(広義)を分離することが可能となる。
 上述したグループ端末の抽出処理について、図15に示すフローチャートを用いて説明する。図15は、第1の実施形態によるグループ端末抽出処理を示すフローチャートである。
 図15に示すように、まず、グループ端末抽出部203は、抽出対象期間における端末情報を端末情報記憶部から取得し(S213)、各端末の共起頻度を算出する(S216)。
 次に、抽出対象期間において同時間帯に検知された情報処理端末の全ての共起頻度の算出が終了すると(S219/Yes)、グループ端末抽出部203は、各端末の共起率の算出を行う(S222)。
 次いで、グループ端末抽出部203は、算出した共起率に基づいてカップル端末候補を抽出し(S225)、抽出したカップル端末候補から、カップル端末を含むグループ端末(広義)を分離する(S228)。
 以上、グループ端末抽出部203によるグループ端末の抽出について具体的に説明した。なお、抽出したグループ端末に関する情報(グループ情報)は、端末情報記憶部202に記憶され得る。
 (2-1-6.ハピネス度算出処理)
 次に、上述した各構成のハピネス度算出部104、204によるハピネス度算出方法について、図16、図17を参照して具体的に説明する。なお、ここでは、代表してサーバ200が有するハピネス度算出部204におけるハピネス度算出方法について説明する。
 図16は、端末情報記憶部202に記憶されたグループ情報の一例を示す図である。図示された例では、検知装置ID毎に、所定の観測時間(t1からt2。例えば数日であって、複数のタイムスタンプを含む)の間に抽出されたグループ端末に関する情報が示されている。すなわち、各検知装置IDの設置場所周辺における、所定の観測時間の間に出現したカップル端末の数N、3個の端末から成るグループ端末の数N、および4個以上の端末から成るグループ端末の数Nが示される。例えば図16の1段目を参照すると、検知装置MN0F876E6Dの周辺では、カップル端末が5組、3個の端末から成るグループ端末が3組、4個以上の端末から成るグループ端末が1組検知されたことが分かる。
 ハピネス度算出部204は、このようなグループ情報に基づいて、各検知装置の設置場所周辺のハピネス度を算出する。具体的には、ハピネス度算出部204は、グループ端末抽出部203によって抽出されたグループ端末の数(すなわちグループ数)とハピネス係数とに基づいて、例えば下記式3によりハピネス度を算出する。
Figure JPOXMLDOC01-appb-M000005
 ここで、図17にハピネス係数の一例を示す。図示された例では、例えば端末数が2個のグループ端末(カップル端末)のハピネス係数を2.0、端末数が3個のグループ端末のハピネス係数を1.0、端末数が4個以上のグループ端末のハピネス係数を0.5とする。
 ハピネス度算出部204は、このようなハピネス度と、図16の1段目に示す検知装置MN0F876E6Dのグループ情報とに基づいて、下記式3により、検知装置MN0F876E6D周辺のハピネス度hを算出する。すなわち、検知装置MN0F876E6Dのグループ情報では、2個のカップル端末が5組、3個の端末から成るグループ端末が3組、4個以上の端末から成るグループ端末が1組であるため、下記式4により、ハピネス度hが「13.5」と算出される。
Figure JPOXMLDOC01-appb-M000006
 以上、ハピネス度算出部204によるハピネス度算出について具体的に説明した。このように算出されたハピネス度は、表示制御部105、502によって対応する所定の表示方法でユーザに提示される。なおハピネス度の算出方法は上述した例に限定されず、例えばグループを構成する端末数をさらに考慮してもよい。具体的には、例えば端末情報記憶部202に記憶されているグループ情報に各グループを構成する端末数も含まれている場合、ハピネス度算出部204は、グループ端末の数(すなわちグループ数)と当該グループの端末数とハピネス係数とに基づいてハピネス度を算出し得る。
 (2-1-7.ハピネス度表示例)
 次いで、上述した各構成の表示制御部105、502によるハピネス度の表示例について、図18~図23を用いて具体的に説明する。
 図18は、第1の実施形態によるハピネス度を表示する表示画面の一例を示す図である。図示された例では、表示画面600に、地図画像、およびハピネス度の高さに応じた大きさの笑顔アイコン601~604が表示されている。ハピネス度を示す笑顔アイコン601~604の地図画像上の表示位置は、検知装置400(または検知機能を有する情報処理装置100-1、100-2、100-3)の設置位置に対応している。当該設置位置は、検知装置の詳細情報として予めシステムに登録されている。また、図18に示す例では、ハピネス度の高さを笑顔アイコン601~604の大きさで示しているが、本実施形態はこれに限定されず、例えば笑顔アイコンの表情で表現してもよいし、笑顔アイコンの色の濃さで表現してもよい。また、表示画面600では、リアルタイムに現在日時の場所毎のハピネス度を表示してもよいし、数日~数か月といった観測時間帯におけるハピネス度を表示してもよいし、ユーザに指定された日時のハピネス度を表示してもよいし、曜日毎または時間帯毎における平均的なハピネス度を表示してもよい。
 また、本実施形態によるハピネス度は、例えば図19に示すようにグラフで表示されてもよい。図19は、第1の実施形態によるハピネス度を表示する表示画面の一例を示す図である。図示された例では、表示画面610に、単位時間毎に算出されたハピネス度がグラフ表示されている。この場合、ある場所において時間毎にどのようなグループがどの程度居たか、および時間毎のハピネス度を、直感的に認識することができる。
 また、本実施形態では、ハピネス度の他、例えば図20や図21に示すようにグループ情報を表示してもよい。図20、図21は、第1の実施形態によるグループ情報を表示する表示画面の一例を示す図である。図20の例では、表示画面620に、地図画像と、グループ数の多さに応じた大きさであって、かつグループを構成する端末数を示すアイコン621~625が表示されている。例えばアイコン622、623、625は、2個の端末から成るカップル端末の存在を示し、アイコン621、624は、3個の端末から成るグループ端末の存在を示す。また、図21の例では、表示画面630に、地図画像と、グループ数の多さに応じた大きさであって、かつグループを構成する端末数を数字で示すアイコン631~635が表示されている。例えばアイコン632、633、635は、2個の端末から成るカップル端末の存在を示し、アイコン631、634は、3個の端末から成るグループ端末の存在を示す。
 また、図22は、第1の実施形態によるハピネス度を表示する表示画面の一例を示す図である。図示された例では、表示画面640に、地図画像と、ハピネス度を示すヒートマップが表示されている。図22の例では、地点642のハピネス度が、他の地点641、643、644のハピネス度よりも高いため、濃い色で表現されている。
 また、図23は、第1の実施形態によるハピネス度を表示する表示画面の一例を示す図である。図示された例では、表示画面650-1、650-2、650-3において、時間経過毎のハピネス度の流れが表示されている。すなわち例えば表示画面650-1では、10時から12時における各場所におけるハピネス度を示す笑顔アイコン651-1、652-1、653-1が表示され、次の表示画面650-2では、14時から16時における各場所におけるハピネス度を示す笑顔アイコン651-2、652-2、653-2、654-2が表示されている。また、続いて、表示画面650-3では、18時から20時における各場所におけるハピネス度を示す笑顔アイコン651-3、652-3、653-3、654-3が表示されている。このような表示画面650-1、650-2、650-3が順次表示されることで、各場所のハピネス度の移り変わりを直感的に把握することができる。なおこれらの表示画面に表示されている笑顔アイコン650は、ハピネス度の高さに応じた大きさで表示されているため、より大きい笑顔アイコン650が表示されている場所程、ハピネス度が高いことが分かる。
 以上、本開示の第1の実施形態によるハピネス度算出システムについて説明した。第1の実施形態により、周辺の情報処理端末を検知し、一緒に行動している可能性の高い(一例として共起率を用いて判断)端末をグループ端末として抽出することで、場所のハピネス度を簡便に算出することが可能となる。また、場所のハピネス度を算出してユーザに提示することで、例えばその場所の周辺の店舗において、ハピネス度の高い人達が買う傾向にある商品を店頭に並べることができ、売り上げの向上が期待できる。また、ハピネス度の高い場所に設置されているデジタルサイネージにおいて、ハピネス度の高い人達向けのイベント案内や商品宣伝を表示することで、広告効果の向上が期待できる。なおハピネス度の高い人達向けの商品やイベントの内容については、ハピネス度が高い場所おける商品購入行動やイベント参加行動の蓄積から判断され得る。
 <2-2.第2の実施形態>
 続いて、本開示の第2の実施形態によるハピネス度算出システムについて説明する。本実施形態では、グループ端末抽出処理において、グループ行動ではなく常に一緒に存在する端末を除外することで、グループ端末の抽出精度を向上させることが可能となる。
 例えば、グループ端末抽出部203(図7、図9参照)は、カップル端末候補からグループ端末を分離する際に(図14参照)、共起率の極めて高いカップル端末を除外してもよい。すなわち、昨今スマートフォンの2台持ちや、将来的にはウェアラブル端末の所持も増加してくることを考えると、一人の人間が複数の情報処理端末を所持することが珍しくなくなる。したがって、例えば共起率がほぼ1.0のカップル端末若しくは3個以上の端末から成るグループ端末を、代表の一つの端末を除いて除外することで、グループ端末の抽出精度を向上させることができる。
 また、グループ端末抽出部203は、特定の端末検知部101で検知された情報処理端末を除外してもよい。すなわち、例えば一人ずつしか通れないゲートや一人ずつしか入らないトイレに設置された端末検知部101で同時に検知された複数の情報処理端末は、一人の人間が複数持ちしている情報処理端末である可能性が高いので、代表の一つの端末を除いて除外する。
 また、グループ端末抽出部203は、固定端末を除外してもよい。例えば、グループ端末抽出部203は、端末検知部101により高い頻度で継続的に検知されている端末を除外することで、付近に設置されている固定端末を除外することができる。
 このような端末の除外処理を含むグループ端末抽出処理について、図24を参照して説明する。図24は、第2の実施形態によるグループ端末抽出処理を示すフローチャートである。
 図24に示すように、まず、グループ端末抽出部203は、抽出対象期間における端末情報を端末情報記憶部から取得し(S233)、各端末の共起頻度を算出する(S236)。
 次に、抽出対象期間において同時間帯に検知された情報処理端末の全ての共起頻度の算出が終了すると(S239/Yes)、グループ端末抽出部203は、各端末の共起率の算出を行う(S242)。
 次いで、グループ端末抽出部203は、算出した共起率に基づいてカップル端末候補を抽出する(S245)。
 次に、グループ端末抽出部203は、カップル端末候補から、非カップル端末を除外する(S248)。非カップル端末とは、上述したように、共起率の極めて高い(ほぼ1.0の)カップル端末/グループ端末(狭義)や、特定の端末検知部101で検知されたカップル端末/グループ端末(狭義)のうち代表の一つの端末を除いた端末や、固定端末を意味する。
 そして、グループ端末抽出部203は、非カップル端末を除外した残りのカップル端末候補から、カップル端末を含むグループ端末(広義)を分離する(S251)。
 <2-3.第3の実施形態>
 続いて、本開示の第3の実施形態によるハピネス度算出システムについて説明する。本実施形態では、ハピネス度算出処理において、端末検知部101の周囲の状況を考慮してハピネス度を調整することで、ハピネス度の算出精度を向上させることが可能となる。周囲の状況とは、例えばオフィス街、遊園地等の場所カテゴリ(属性情報の一例)、平日の昼間、夜間、休日等の時間カテゴリ、温度や湿度(周辺環境の一例)に基づく不快指数等である。すなわち、例えばカップル端末またはグループ端末(狭義)が抽出された場合であっても、オフィス街の昼間のカップル端末は二人がペアで仕事をしている際に検知されたものである可能性があり、このような状況ではハピネス度が高いとは限らないためである。
 かかる第3の実施形態によるハピネス度算出システムの構成は、第1の実施形態と同様に、一体化された情報処理装置100で全て実現されてもよいし、一部の処理をクラウド上(サーバ200側)で行うクラウド型であってもよい。また、情報処理端末を検知する端末検知部、ハピネス度算出部、およびハピネス度を表示する表示部が、それぞれ別体の装置(例えば検知装置410、サーバ200、表示装置500)で行われてもよい。以下、第3の実施形態によるハピネス度算出システムの構成例およびその動作処理について各々説明した後(実施形態3A~3C)、認識した状況を考慮したハピネス度算出方法について具体的に説明する。
 (2-3-1.実施形態3A)
 (構成)
 図25は、実施形態3Aによる情報処理装置100-4の機能構成例を示す図である。情報処理装置100-4は、例えば携帯端末装置またはデジタルサイネージのような設置端末装置等により実現され得る。
 図25に示すように、情報処理装置100-4は、端末検知部101、端末情報記憶部102、グループ端末抽出部103、ハピネス度算出部104、表示制御部105、表示部106、および状況認識部108を有する。
 状況認識部108は、情報処理装置100-4周辺の状況を認識する機能を有する。例えば状況認識部108は、情報処理装置100-4の位置情報(例えば緯度・経度)に基づいて場所情報を取得する。場所情報の取得は、情報処理装置100-3に予め格納された場所情報記憶部(不図示)から取得してもよいし、ネットワーク通信部を備える場合はクラウド上の場所情報データベース(不図示)から取得してもよい。また、情報処理装置100-4が移動しない場合には、場所情報が固定値として記録されていてもよい。場所情報とは、オフィス街や遊園地等の場所カテゴリである。また、状況認識部108は、周辺状況の認識として、場所情報の取得に限定されず、現在の日時に基づく時間カテゴリや、周辺温度や湿度から算出され得る不快指数を取得してもよい。いずれもハピネス度を算出する際のハピネス係数を決める際に用いられる。
 状況認識部108による認識結果は、端末情報およびグループ情報と共に、端末情報記憶部202に蓄積される。
 ハピネス度算出部104は、端末情報記憶部202から、状況認識部108により認識された周辺状況(例えば場所情報)、およびグループ端末抽出部103により生成されたグループ情報を取得し、周辺状況を考慮したハピネス度の算出を行う。本実施形態によるハピネス度の算出方法については、図31、図32を参照して後述する。
 (動作処理)
 図26は、実施形態3Aによるハピネス度表示処理を示すフローチャートである。図26に示すように、まず、情報処理装置100-4の端末検知部101は、周辺に存在する情報処理端末を検知する(S303)。
 次いで、状況認識部108は、周辺状況を認識する(S304)。なお上記S303およびS304の処理は、前後して行われてもよいし、同時に行われてもよい。
 次に、情報処理装置100-4は、端末検知部101により検知された情報処理端末から取得した端末情報と、状況認識部108により認識された周辺状況の結果(ここでは、例えば場所情報)を端末情報記憶部102に記憶する(S306)。
 次いで、グループ端末抽出部103は、端末情報記憶部102に記憶された端末情報に基づいて、グループ端末の抽出を行い、グループ情報を生成する(S309)。
 次に、ハピネス度算出部104は、グループ端末抽出部103により生成されたグループ情報と、場所情報とに基づいて、ハピネス度を算出する(S312)。
 続いて、表示制御部105は、ハピネス度算出部104により算出されたハピネス度を表示部106に表示させる(S315)。
 そして、上述したS303~S315の処理を、情報処理装置100-4におけるハピネス度表示処理の終了が指示されるまで繰り返す(S318)。
 (効果)
 以上説明したように、デジタルサイネージ等により実現される情報処理装置100-4は、自装置が設置されている場所周辺の状況を考慮してハピネス度を算出することで、ハピネス度算出の精度を向上させることができる。
 (2-3-2.実施形態3B)
 次に、本開示による実施形態3Bについて説明する。上述した実施形態3Aでは、情報処理装置100-4でハピネス度の算出を行っているが、第3の実施形態の構成はこれに限定されず、例えばクラウドを利用して、ハピネス度の算出をサーバ側で行うようにしてもよい。以下、図27および図28を参照してハピネス度の算出をサーバ側で行うハピネス度算出システムについて説明する。
 (構成)
 図27は、本実施形態によるハピネス度算出システムの機能構成を示す図である。本実施形態によるハピネス度算出システムは、図27に示すように、情報処理装置100-5およびサーバ200-3を含み、各装置はネットワーク3を介して接続している。情報処理装置100-5は、例えばデジタルサイネージにより実現される。
 情報処理装置100-5は、端末検知部101、状況認識部108、ネットワーク通信部107、表示制御部105、および表示部106を有する。ネットワーク通信部107は、端末検知部101により検知された情報処理端末の端末情報と、状況認識部108により認識された周辺状況の結果とを、タイムスタンプ毎に、情報処理装置100-5の検知装置IDと共に、サーバ200-3に送信する。表示制御部105は、ネットワーク通信部107により受信した、サーバ200-3で算出されたハピネス度を表示部106に表示するよう制御する。
 サーバ200-3は、ネットワーク通信部201、端末情報記憶部202、グループ端末抽出部203、およびハピネス度算出部204を有する。端末情報記憶部202には、情報処理装置100-5から送信され、ネットワーク通信部201により受信した端末情報(具体的にはタイムスタンプおよび検知装置IDと紐付けられた端末情報)と、周辺状況の認識結果が蓄積される。また、端末情報記憶部202には、グループ端末抽出部203により生成されたグループ情報も蓄積される。
 ハピネス度算出部204は、端末情報記憶部202に蓄積されたグループ情報と、周辺状況の認識結果とに基づいて、情報処理装置100-5周辺の場所のハピネス度を算出する。算出されたハピネス度は、ネットワーク通信部201により情報処理装置100-5に返信される。
 (動作処理)
 図28は、本実施形態によるハピネス度表示処理を示すフローチャートである。図28に示すように、情報処理装置100-5の端末検知部101は、まず、周辺の情報処理端末を検知し、検知した情報処理端末から端末情報を取得する(S323)。
 次に、状況認識部108は、周辺の状況を認識する(S326)。ここでは、状況認識部108は、一例として場所状況を取得する。
 続いて、ネットワーク通信部107は、端末検知部101により取得された端末情報と、状況認識部108により取得された場所情報とを、ネットワーク3を介してサーバ200-3へ送信する(S329)。
 次いで、サーバ200-3は、情報処理装置100-5から送信された端末情報および場所情報を端末情報記憶部202に蓄積する(S331)。
 次に、サーバ200-3は、グループ端末抽出部203により、蓄積された端末情報からグループ端末を抽出する(S334)。グループ端末抽出部203により抽出されたグループ端末に関するグループ情報は、端末情報記憶部202に蓄積される。
 次いで、ハピネス度算出部204は、グループ情報と、場所情報とに基づいて、情報処理装置100-5周辺のハピネス度を算出する(S337)。
 次に、ネットワーク通信部201は、算出されたハピネス度を情報処理装置100-5へ送信する(S340)。
 そして、情報処理装置100-5の表示制御部105は、サーバ200-3から送信されたハピネス度を表示部106に表示させる(S343)。
 (効果)
 以上説明したように、実施形態1Bでは、グループ端末の抽出やハピネス度の算出といった処理をクラウド上で行うことが可能となる。この際、クラウド上のサーバ200-3は、情報処理装置100-4周辺の状況認識結果を考慮してハピネス度を算出することで、より正確なハピネス度を算出することができる。
 (2-3-3.実施形態3C)
 続いて、本開示による実施形態3Cについて説明する。本実施形態では、クラウドを利用することで、グループ端末抽出機能およびハピネス度算出機能をサーバ200側で行い、また、端末検知機能とハピネス度の表示機能を別体で実現する。端末検知機能を有する検知装置410は、単数または複数であってもよい。以下、図29および図30を参照して具体的に説明する。
 (構成)
 図29は、本実施形態によるハピネス度算出システムの機能構成例を示す図である。本実施形態によるハピネス度算出システムは、図29に示すように、検知装置410(410a、410b、410c、…)と、サーバ200-4と、表示装置500とを含み、各装置はネットワーク3を介して接続している。表示装置500は、例えばデジタルサイネージや携帯端末等により実現される。
 検知装置410は、端末検知部401、状況認識部403、およびネットワーク通信部402を有するモニターノードである。ネットワーク通信部402は、端末検知部401により検知された情報処理端末の端末情報と、状況認識部403により認識された周辺状況の認識結果を、タイムスタンプ毎に検知装置410の検知装置IDと共に、サーバ200-4に送信する。なお検知装置410が移動しない設置型装置の場合、ネットワーク通信部402は、場所情報の固定値を検知装置410の検知装置IDと共にサーバ200-4に別途送信するようにしてもよい。また、検知装置410は、図29に示すように複数であってもよい。この場合、複数の検知装置410a、410b、410cは、ハピネス度の観測対象である一定範囲内(例えばイベント会場、テーマパーク、駅構内等)に配置される。
 サーバ200-4は、ネットワーク通信部201、端末情報記憶部203、グループ端末抽出部203、およびハピネス度算出部204を有する。端末情報記憶部202には、検知装置410から送信され、ネットワーク通信部201により受信した端末情報(具体的にはタイムスタンプおよび検知装置IDと紐付けられた端末情報)が蓄積される。また、端末情報記憶部202には、検知装置410から送信され、ネットワーク通信部201により受信した状況認識結果が蓄積される。さらに、端末情報記憶部202には、グループ端末抽出部203により生成されたグループ情報が蓄積される。ハピネス度算出部204は、端末情報記憶部202に蓄積されたグループ情報と、周辺状況の認識結果とに基づいて、検知装置410周辺の場所のハピネス度を算出する。算出されたハピネス度は、ネットワーク通信部201により表示装置500に送信される。
 表示装置500は、ネットワーク通信部501、表示制御部502、および表示部503を有する。表示制御部502は、ネットワーク通信部501により受信した、サーバ200-4で算出されたハピネス度を表示部503に表示するよう制御する。
 (動作処理)
 図30は、本実施形態によるハピネス度表示処理を示すフローチャートである。図30に示すように、まず、検知装置410の端末検知部401は、周辺の情報処理端末を検知し、検知した情報処理端末から端末情報を取得する(S353)。
 次に、状況認識部403は、周辺の状況を認識する(S356)。ここでは、状況認識部108は、一例として場所状況を取得する。
 続いて、ネットワーク通信部402は、端末検知部401により取得された端末情報と、状況認識部403により取得された場所情報とを、ネットワーク3を介してサーバ200-4へ送信する(S359)。
 次いで、サーバ200-4は、検知装置410から送信された端末情報および場所情報を端末情報記憶部202に蓄積する(S362)。
 次に、サーバ200-4は、グループ端末抽出部203により、蓄積された端末情報からグループ端末を抽出する(S365)。グループ端末抽出部203により抽出されたグループ端末に関するグループ情報は、端末情報記憶部202に蓄積される。
 次いで、サーバ200-4は、表示装置500からハピネス度送信要求が送信されると(S368)、ハピネス度算出部204により、検知装置410(または複数の検知装置410a、410b、410cが配置されている一定範囲内)周辺の場所のハピネス度を算出する(S371)。この際、ハピネス度算出部204は、検知装置410周辺の場所情報を考慮してハピネス度を算出する。
 続いて、サーバ200-4のネットワーク通信部201は、ハピネス度を表示装置500へ送信する(S374)。
 そして、表示装置500の表示制御部502は、サーバ200-2から送信されたハピネス度を表示部503に表示させる(S204)。具体的には、表示制御部502は、検知装置410が配置されている場所周辺のハピネス度を表示するよう制御する。なお検知装置400が表示装置500周辺に配置されている場合、表示制御部502は、サーバ200-4から送信されたハピネス度を、自装置周辺のハピネス度として表示してもよい。また、表示装置500は、サーバ200-4から他の場所のハピネス度も受信した場合、当該他の場所のハピネス度も、例えば地図画像と共に併せて表示することが可能である。
 (効果)
 以上説明したように、実施形態3Cでは、グループ端末の抽出やハピネス度の算出といった処理を、クラウド上で行い、また、情報処理端末の検知機能と表示機能を別体で実現することが可能となる。また、クラウド上のサーバ200-3は、検知装置410周辺の状況認識結果を考慮してハピネス度を算出することで、より正確なハピネス度を算出することができる。
 (2-3-4.認識状況を考慮したハピネス度算出処理)
 以上、第3の実施形態によるハピネス度算出システムの複数の構成例および動作処理について具体的に説明した。続いて、上述した各構成のハピネス度算出部104、204によるハピネス度算出方法について、図31、図32を参照して具体的に説明する。なお、ここでは、代表してサーバ200が有するハピネス度算出部204におけるハピネス度算出方法について説明する。
 図31は、検知装置ID毎の場所情報の一例を示す図である。図示された例では、例えば状況認識部108(または状況認識部403)により認識された情報処理装置100-5(または検知装置410)の緯度・経度に基づいてそれぞれ取得された場所情報が表示されている。場所情報は、図31に示すように、例えばオフィス街、住宅街、遊園地といった場所カテゴリが用いられる。なお状況認識結果の一例として図31に場所情報を示したが、本実施形態はこれに限定されず、状況認識結果は、時間カテゴリや不快指数であってもよい。
 ハピネス度算出部204は、グループ情報を用いて対象場所のハピネス度を算出する際に、図31に示すような対象場所の周辺状況の認識結果を考慮してハピネス度を算出する。ここで、ハピネス度算出部204によるハピネス度の算出は、第1の実施形態と同様に、抽出されたグループ端末の数(すなわちグループ数)とハピネス係数とに基づいて行われ得る。この際用いられるハピネス係数は、周辺状況の認識結果に応じたものである。かかるハピネス係数の一例を図32に示す。
 図32は、第3の実施形態による状況に応じて補正されたハピネス係数の一例を示す図である。図示された例は、場所カテゴリおよび時間カテゴリに応じた各グループ端末数に対応するハピネス係数が示されている。例えば、例えば端末数が2個のグループ端末(カップル端末)のハピネス係数は、対象場所の状況が「遊園地」の「6時~18時」であれば2.0、同場所の「18時~6時」であれば3.0、「オフィス街」の「平日6時~18時」であれば0.1、同場所の「平日6時~18時以外」であれば2.0となる。
 ここで、例えばハピネス度の算出対象場所の端末情報から、カップル端末5組、3個の端末から成るグループ端末が3組、および6個の端末から成るグループ端末1組が抽出された場合における、状況認識結果を考慮したハピネス度hの算出について説明する。
 対象場所が「遊園地」であって、対象時間が夜(18時~6時)の場合、図32に示すハピネス係数に基づいて、カップル端末については「3.0」、3個のグループ端末については「1.5」、4個以上のグループ端末については「1.0」が用いられる。したがって、当該対象場所のハピネス度hは、下記式5により20.5と算出される。
Figure JPOXMLDOC01-appb-M000007
 一方、対象場所が「オフィス街」であって、対象時間が平日の昼(6時~18時)の場合、図32に示すハピネス係数に基づいて、カップル端末については「0.1」、3個のグループ端末については「0.1」、4個以上のグループ端末については「0.1」が用いられる。したがって、当該対象場所のハピネス度hは、下記式6により0.9と算出される。
Figure JPOXMLDOC01-appb-M000008
 (効果)
 以上説明したように、第3の実施形態では、検知装置(端末検知部)周辺の状況認識結果に応じて補正されたハピネス係数を用いることで、より正確に場所のハピネス度を算出することが可能となる。
 <2-4.第4の実施形態>
 次に、本開示の第4の実施形態によるハピネス度算出システムについて説明する。本実施形態では、蓄積された端末情報に基づいてハピネス度算出対象場所におけるグループ端末(すなわちグループ行動)を抽出する一方、ほぼ一人で行動している一人端末(単独端末)を抽出し、当該一人端末の情報をハピネス度算出時に参照することで、ハピネス度算出の精度をさらに向上させることが可能となる。以下、図33~図36を参照して具体的に説明する。
 (構成)
 図33は、第4の実施形態による情報処理装置100-6の構成例を示す図である。情報処理装置100-6は、例えば携帯端末装置またはデジタルサイネージのような設置端末装置等により実現され得る。
 図33に示すように、情報処理装置100-6は、端末検知部101、端末情報記憶部102、グループ端末抽出部103、一人端末抽出部109、ハピネス度算出部104、表示制御部105、および表示部106を有する。一人端末抽出部109は、端末検知部101により取得され、端末情報記憶部102に蓄積された端末情報から一人で行動している一人端末Pを抽出する。一人端末は、例えば共起率を用いて判別され得る。一人端末抽出の具体的な方法については、図35を参照して後述する。
 ハピネス度算出部104は、グループ端末抽出部103により生成されたグループ情報に基づいてハピネス度を算出する際に、一人端末情報も参照してハピネス度の算出を行う。一人端末情報も参照したハピネス度の具体的な算出方法については、図36を参照して後述する。
 (動作処理)
 第4の実施形態によるハピネス度表示処理は、第1の実施形態による図3に示すステップS103~S118の処理のうち、ステップS109の処理を次に説明する端末抽出処理に変更する以外は同様に行われ得る。
 図34は、第4の実施形態による端末抽出処理を示すフローチャートである。図34に示すように、グループ端末抽出部103は、抽出対象期間における端末情報を端末情報記憶部102から取得し(S403)、各端末の共起頻度を算出する(S406)。
 次に、抽出対象期間において同時間帯に検知された情報処理端末の全ての共起頻度の算出が終了すると(S409/Yes)、グループ端末抽出部103は、各端末の共起率の算出を行う(S412)。
 次いで、グループ端末抽出部103は、算出した共起率に基づいてカップル端末候補を抽出する(S415)。
 次に、グループ端末抽出部103は、抽出したカップル端末候補から、カップル端末を含むグループ端末(広義)を分離する(S418)。分離したグループ端末に関するグループ情報は、端末情報記憶部102に蓄積される。
 一方、一人端末抽出部109は、算出された共起率に基づいて一人端末を抽出する(S421)。ここで、図35に、各端末の共起率マトリクスの一例を示す。一人端末Pは、図35に示すように、自身以外の全ての端末Pとの共起率が閾値Cth(例えば0.1)を下回る端末と定義することができる。この場合、一人端末は、カップル端末として抽出されなかった端末の部分集合とも言える。抽出した一人端末に関する一人端末情報は、端末情報記憶部102に蓄積される。
 以上、本実施形態による端末抽出処理について説明した。このようにして抽出された端末の情報(グループ情報および一人端末情報)に基づいて、ハピネス度算出部104によりハピネス度の算出が行われる。ここで、図36に、一人端末のハピネス係数を含めた端末数に応じたハピネス係数の一例を示す。
 図36に示すように、一人で行動する人物のハピネス度は低いと考えられるので、ハピネス係数が例えば「-0.1」に設定される。この場合、例えば対象場所に、カップル端末が5組、3個のグループ端末が3組、6個のグループ端末が1組、および一人端末が4個存在する場合、下記式7により、当該場所のハピネス度hは「13.1」と算出される。
Figure JPOXMLDOC01-appb-M000009
 <2-5.ハードウェア構成>
 最後に、図37を用いて、本開示の各実施形態に共通する情報処理装置1000のハードウェア構成について説明する。本実施形態による情報処理装置100-1~100-6、サーバ200-1~200-4、検知装置400、410、および表示装置500の各機能は、ソフトウェアと、次に説明する情報処理装置1000のハードウェアとの協働により実現される。なお図37に示すハードウェア構成は一例であって、必ずしも全ての構成を有している必要はない。
 図37は、本開示の一実施形態による情報処理装置1000のハードウェア構成を示す図である。図37に示したように、情報処理装置1000は、CPU(Central Processing Unit)1010と、ROM(Read Only Memory)1020と、RAM(Random Access Memory)1030と、ブリッジ1040と、入力部1050と、出力部1060と、ストレージ部1070と、ネットワークI/F(interface)1080と、無線通信I/F1090とを備える。
 CPU1010は、演算処理装置として機能し、各種プログラムと協働して情報処理装置1000内の各機能(例えば端末検知部101、グループ端末抽出部103、ハピネス度算出部104、表示制御部105、状況認識部108、一人端末抽出部109等)の動作を実現する。また、CPU1010は、マイクロプロセッサであってもよい。ROM1020は、CPU1010が使用するプログラムまたは演算パラメータ等を記憶する。RAM1030は、CPU1010の実行において使用するプログラムまたは実行において適宜変化するパラメータ等を一時記憶する。CPU1010、ROM1020およびRAM1030は、CPUバスなどから構成される内部バスにより相互に接続されている。
 入力部1050は、マウス、キーボード、タッチパネル、ボタン、マイクロホン、カメラ、スイッチおよびレバーなどユーザが情報を入力するための入力手段、およびユーザによる入力に基づいて入力信号を生成し、CPU1010に出力する入力制御回路などから構成されている。情報処理装置1000のユーザは、入力部1050を操作することにより、情報処理装置1000に対して各種のデータを入力したり処理動作を指示したりすることができる。また、入力部1050は、加速度センサ、ジャイロセンサ、地磁気センサ、位置測位センサ、温度センサ、生体センサ等の各種センサによりセンサデータを検出する手段であってもよい。
 出力部1060は、例えば液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置などの表示装置への出力を行う。さらに、出力部1060は、スピーカやヘッドフォンからの音声出力を行ってもよい。
 ストレージ部1070は、データ格納用の装置である。ストレージ部1070は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されるデータを削除する削除装置等を含んでもよい。ストレージ部1070は、CPU1010が実行するプログラムや各種データを格納する。また、ストレージ部1070は、例えば端末情報記憶部102を構成してもよい。
 ネットワークI/F1080は、ネットワークに接続するための通信デバイスで構成される通信インターフェースである。また、ネットワークI/F1080は、無線LAN(Local Area Network)対応通信装置であってもよいし、LTE(Long Term Evolution)対応通信装置であってもよい。ネットワークI/F1080は、例えばネットワーク通信部107の一部を構成してもよい。
 無線通信I/F1090は、情報処理装置1000の外部の情報処理装置または周辺機器と接続するため通信インターフェースである。なおここでは一例として無線通信I/F1090を有する構成としたが、有線通信によりの外部の情報処理装置または周辺機器と接続する通信インターフェースであってもよい。例えば無線通信I/F1090は、端末検知部101の一部を構成し、情報処理端末から発信されるWi-Fi電波等を受信し、情報処理端末から端末情報を取得することが可能である。
  <<3.まとめ>>
 上述したように、本開示の実施形態による情報処理システムでは、周辺の情報処理端末のグループ行動を抽出して周辺のハピネス度を算出することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した情報処理装置100-1~100-6、サーバ200-1~200-4、検知装置400、410、または表示装置500に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置100-1~100-6、サーバ200-1~200-4、検知装置400、410、または表示装置500の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、本実施形態によるグループ端末抽出処理では、近隣に配置された複数の検知装置400により同時間帯に検知された情報処理端末の情報を分析したり、離間した位置に配される複数の検知装置400によりそれぞれ別時間帯に検知された情報処理端末の情報を分析したりすることで、より正確にグループ端末を抽出することが可能である。
 また、検知装置(または端末検知部)による検知範囲や観測時間を狭めることで、グループ端末抽出の正確性を向上させることが可能である。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 周囲の端末装置の識別情報を検知する検知装置により当該識別情報を受信する通信部と、
 前記通信部により受信した、所定の時間内に前記検知装置に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に応じて前記検知装置の周囲のハピネス度を演算する制御部と、
 を備える、情報処理システム。
(2)
 前記通信部は、前記ハピネス度を、当該ハピネス度を地図画像と併せて表示することが可能な表示装置に送信する、前記(1)に記載の情報処理システム。
(3)
 前記通信部は、複数の検知装置の物理的位置を表す位置情報にそれぞれ関連付けられたハピネス度を示す地図画像を表示することが可能な表示装置に送信する、前記(2)に記載の情報処理システム。
(4)
 前記表示装置は、前記検知装置と一体化された装置である、前記(2)または(3)に記載の情報処理システム。
(5)
 前記制御部は、前記グループ端末装置として抽出された複数の識別情報が、同一人物が携帯する複数の端末装置であると推定されるとき、当該グループ端末装置としての抽出を解除する、前記(1)~(4)のいずれか1項に記載の情報処理システム。
(6)
 前記制御部は、前記検知装置により検知された識別情報が固定端末装置であると推定されるとき、前記グループ端末装置の抽出時に当該識別情報を除外する、前記(1)~(5)のいずれか1項に記載の情報処理システム。
(7)
 前記制御部は、前記検知装置に対応する属性情報、前記所定の時間に対応する時間帯、及び前記検知装置の周辺環境のうちの少なくともいずれかに応じて前記ハピネス度を演算する、前記(1)~(6)のいずれか1項に記載の情報処理システム。
(8)
 前記制御部は、所定の時間内に前記検知装置で検知された複数の端末装置を表す複数の識別情報を、その共起率に応じてグループ端末装置として抽出し、抽出結果に基づいて前記検知装置の周囲のハピネス度を演算する、前記(1)~(7)のいずれか1項に記載の情報処理システム。
(9)
 前記制御部は、前記共起率が所定の閾値以下である端末装置を単独端末装置として抽出し、抽出結果に基づいて前記検知装置の周囲のハピネス度を演算する、前記(8)に記載の情報処理システム。
(10)
 周囲の端末装置の識別情報を検知する検知部と、
 所定の時間内に前記検知部に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に基づいて前記検知部の周囲のハピネス度を演算する制御部と、
 を備える、情報処理装置。
(11)
 前記制御部は、当該情報処理装置の物理的位置を表す位置情報に関連付けられた前記ハピネス度を示す地図画像を生成し、
 前記情報処理装置は、前記生成された地図画像を表示する表示部をさらに備える、前記(10)に記載の情報処理装置。
(12)
 前記情報処理装置は、
 周囲の情報処理装置から、当該情報処理装置の物理的位置を表す位置情報に関連付けられたハピネス度を受信する通信部をさらに備え、
 前記制御部は、複数の情報処理装置の物理的位置を表す位置情報にそれぞれ関連付けられたハピネス度を示す地図画像を生成する、前記(11)に記載の情報処理装置。
(13)
 前記制御部は、前記グループ端末装置として抽出された複数の識別情報が、同一人物が携帯する複数の端末装置であると推定されるとき、当該グループ端末装置としての抽出を解除する、前記(10)~(12)のいずれか1項に記載の情報処理装置。
(14)
 前記制御部は、前記検知部により検知された識別情報が固定端末装置であると推定されるとき、前記グループ端末装置の抽出時に当該識別情報を除外する、前記(10)~(13)のいずれか1項に記載の情報処理装置。
(15)
 前記制御部は、前記情報処理装置に対応する属性情報、前記所定の時間に対応する時間帯、及び前記情報処理装置の周辺環境のうちの少なくともいずれかに応じて前記ハピネス度を演算する、前記(10)~(14)のいずれか1項に記載の情報処理装置。
(16)
 前記制御部は、所定の時間内に前記検知部に検知された複数の端末装置を表す複数の識別情報を、その共起率に応じてグループ端末装置として抽出し、抽出結果に基づいて前記情報処理装置の周囲のハピネス度を演算する、前記(10)~(15)のいずれか1項に記載の情報処理装置。
(17)
 前記制御部は、前記共起率の所定の閾値以下である端末装置を単独端末装置として抽出し、抽出結果に基づいて前記情報処理装置の周囲のハピネス度を演算する、前記(16)に記載の情報処理装置。
(18)
 周囲の端末装置の識別情報を検知する検知装置により当該識別情報を通信部により受信することと、
 前記通信部により受信した、所定の時間内に前記検知装置に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に応じて前記検知装置の周囲のハピネス度を制御部により演算することと、
 を含む、情報処理方法。
(19)
 コンピュータを、
 周囲の端末装置の識別情報を検知する検知部と、
 所定の時間内に前記検知部に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に基づいて前記検知部の周囲のハピネス度を演算する制御部と、
として機能させるためのプログラムが記憶された、コンピュータ読み取り可能な記憶媒体。
 100(100-1~100-6)  情報処理装置
 101、401  端末検知部
 102、202  端末情報記憶部
 103、203  グループ端末抽出部
 104、204  ハピネス度算出部
 105、502  表示制御部
 106、503  表示部
 107、201、402、501  ネットワーク通信部
 108  状況認識部
 200(200-1~200-4)  サーバ
 400、410  検知装置
 500  表示装置
 3  ネットワーク

Claims (19)

  1.  周囲の端末装置の識別情報を検知する検知装置により当該識別情報を受信する通信部と、
     前記通信部により受信した、所定の時間内に前記検知装置に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に応じて前記検知装置の周囲のハピネス度を演算する制御部と、
     を備える、情報処理システム。
  2.  前記通信部は、前記ハピネス度を、当該ハピネス度を地図画像と併せて表示することが可能な表示装置に送信する、請求項1に記載の情報処理システム。
  3.  前記通信部は、複数の検知装置の物理的位置を表す位置情報にそれぞれ関連付けられたハピネス度を示す地図画像を表示することが可能な表示装置に送信する、請求項2に記載の情報処理システム。
  4.  前記表示装置は、前記検知装置と一体化された装置である、請求項2に記載の情報処理システム。
  5.  前記制御部は、前記グループ端末装置として抽出された複数の識別情報が、同一人物が携帯する複数の端末装置であると推定されるとき、当該グループ端末装置としての抽出を解除する、請求項1に記載の情報処理システム。
  6.  前記制御部は、前記検知装置により検知された識別情報が固定端末装置であると推定されるとき、前記グループ端末装置の抽出時に当該識別情報を除外する、請求項1に記載の情報処理システム。
  7.  前記制御部は、前記検知装置に対応する属性情報、前記所定の時間に対応する時間帯、及び前記検知装置の周辺環境のうちの少なくともいずれかに応じて前記ハピネス度を演算する、請求項1に記載の情報処理システム。
  8.  前記制御部は、所定の時間内に前記検知装置で検知された複数の端末装置を表す複数の識別情報を、その共起率に応じてグループ端末装置として抽出し、抽出結果に基づいて前記検知装置の周囲のハピネス度を演算する、請求項1に記載の情報処理システム。
  9.  前記制御部は、前記共起率が所定の閾値以下である端末装置を単独端末装置として抽出し、抽出結果に基づいて前記検知装置の周囲のハピネス度を演算する、請求項8に記載の情報処理システム。
  10.  周囲の端末装置の識別情報を検知する検知部と、
     所定の時間内に前記検知部に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に基づいて前記検知部の周囲のハピネス度を演算する制御部と、
     を備える、情報処理装置。
  11.  前記制御部は、当該情報処理装置の物理的位置を表す位置情報に関連付けられた前記ハピネス度を示す地図画像を生成し、
     前記情報処理装置は、前記生成された地図画像を表示する表示部をさらに備える、請求項10に記載の情報処理装置。
  12.  前記情報処理装置は、
     周囲の情報処理装置から、当該情報処理装置の物理的位置を表す位置情報に関連付けられたハピネス度を受信する通信部をさらに備え、
     前記制御部は、複数の情報処理装置の物理的位置を表す位置情報にそれぞれ関連付けられたハピネス度を示す地図画像を生成する、請求項11に記載の情報処理装置。
  13.  前記制御部は、前記グループ端末装置として抽出された複数の識別情報が、同一人物が携帯する複数の端末装置であると推定されるとき、当該グループ端末装置としての抽出を解除する、請求項10に記載の情報処理装置。
  14.  前記制御部は、前記検知部により検知された識別情報が固定端末装置であると推定されるとき、前記グループ端末装置の抽出時に当該識別情報を除外する、請求項10に記載の情報処理装置。
  15.  前記制御部は、前記情報処理装置に対応する属性情報、前記所定の時間に対応する時間帯、及び前記情報処理装置の周辺環境のうちの少なくともいずれかに応じて前記ハピネス度を演算する、請求項10に記載の情報処理装置。
  16.  前記制御部は、所定の時間内に前記検知部に検知された複数の端末装置を表す複数の識別情報を、その共起率に応じてグループ端末装置として抽出し、抽出結果に基づいて前記情報処理装置の周囲のハピネス度を演算する、請求項10に記載の情報処理装置。
  17.  前記制御部は、前記共起率の所定の閾値以下である端末装置を単独端末装置として抽出し、抽出結果に基づいて前記情報処理装置の周囲のハピネス度を演算する、請求項16に記載の情報処理装置。
  18.  周囲の端末装置の識別情報を検知する検知装置により当該識別情報を通信部により受信することと、
     前記通信部により受信した、所定の時間内に前記検知装置に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に応じて前記検知装置の周囲のハピネス度を制御部により演算することと、
     を含む、情報処理方法。
  19.  コンピュータを、
     周囲の端末装置の識別情報を検知する検知部と、
     所定の時間内に前記検知部に検知された複数の端末装置を表す複数の識別情報をグループ端末装置として抽出し、抽出結果に基づいて前記検知部の周囲のハピネス度を演算する制御部と、
    として機能させるためのプログラムが記憶された、コンピュータ読み取り可能な記憶媒体。
PCT/JP2016/056243 2015-06-09 2016-03-01 情報処理システム、情報処理装置、情報処理方法、および記憶媒体 WO2016199458A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/578,072 US11138282B2 (en) 2015-06-09 2016-03-01 Information processing system, information processing device, information processing method, and storage medium for calculating degree of happiness in an area
CN201680031991.7A CN107636721A (zh) 2015-06-09 2016-03-01 信息处理***、信息处理装置、信息处理方法以及存储媒体
US17/474,243 US20210406331A1 (en) 2015-06-09 2021-09-14 Information processing system, information processing device, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-116953 2015-06-09
JP2015116953 2015-06-09

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/578,072 A-371-Of-International US11138282B2 (en) 2015-06-09 2016-03-01 Information processing system, information processing device, information processing method, and storage medium for calculating degree of happiness in an area
US17/474,243 Continuation US20210406331A1 (en) 2015-06-09 2021-09-14 Information processing system, information processing device, information processing method, and storage medium

Publications (1)

Publication Number Publication Date
WO2016199458A1 true WO2016199458A1 (ja) 2016-12-15

Family

ID=57503275

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/056243 WO2016199458A1 (ja) 2015-06-09 2016-03-01 情報処理システム、情報処理装置、情報処理方法、および記憶媒体

Country Status (3)

Country Link
US (2) US11138282B2 (ja)
CN (1) CN107636721A (ja)
WO (1) WO2016199458A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018216413A1 (ja) * 2017-05-23 2018-11-29 株式会社Nttドコモ 単独推定装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211547A (ja) * 2009-03-11 2010-09-24 Hitachi Ltd 配信通信システム、制御装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7167910B2 (en) * 2002-02-20 2007-01-23 Microsoft Corporation Social mapping of contacts from computer communication information
JP2004320217A (ja) 2003-04-14 2004-11-11 Sony Corp 情報提供システム,携帯端末装置,グループ化装置,情報提供装置,サービス提供側装置,情報提供方法およびこれらに関するコンピュータプログラム
US8510295B1 (en) * 2009-02-13 2013-08-13 Google Inc. Managing resource storage for multi resolution imagery data with zoom level
US20120296855A1 (en) * 2011-05-16 2012-11-22 Eynat Matzner Quantifying, analysing, monitoring and improving happiness
US8915215B1 (en) * 2012-06-21 2014-12-23 Scott A. Helgeson Method and apparatus for monitoring poultry in barns
WO2015024002A1 (en) * 2013-08-15 2015-02-19 Emotient Emotion and appearance based spatiotemporal graphics systems and methods
US20180349818A1 (en) * 2015-02-04 2018-12-06 Google Llc Methods and Systems for Evaluating Performance of a Physical Space
US10102296B2 (en) * 2015-03-26 2018-10-16 International Business Machines Corporation Utilizing attributes of users to cluster users at a waypoint

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211547A (ja) * 2009-03-11 2010-09-24 Hitachi Ltd 配信通信システム、制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHUDAN NO KOFUKUKAN NI SOKAN SURU: "Soshiki Kasseido", O KEISOKU DEKIRU SHIN WEARABLE SENSOR O KAIHATSU, 9 February 2015 (2015-02-09), Retrieved from the Internet <URL:http://www.hitachi.co.jp/New/cnews/month/2015/02/0209.html> [retrieved on 20160510] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018216413A1 (ja) * 2017-05-23 2018-11-29 株式会社Nttドコモ 単独推定装置
JPWO2018216413A1 (ja) * 2017-05-23 2019-07-04 株式会社Nttドコモ 単独推定装置

Also Published As

Publication number Publication date
US20210406331A1 (en) 2021-12-30
CN107636721A (zh) 2018-01-26
US11138282B2 (en) 2021-10-05
US20180150470A1 (en) 2018-05-31

Similar Documents

Publication Publication Date Title
CN110780707B (zh) 信息处理设备、信息处理方法与计算机可读介质
US10952014B2 (en) System for providing location information and electronic device and method supporting the same
US10592551B2 (en) Clothing information providing system, clothing information providing method, and program
Mafrur et al. Modeling and discovering human behavior from smartphone sensing life-log data for identification purpose
CN109247070A (zh) 使用能唯一识别且未标记的位置的移动设备上的主动动作
US11436293B2 (en) Characterizing a place by features of a user visit
US11521238B2 (en) Method and system for determining fact of visit of user to point of interest
JP2019021208A (ja) 情報処理装置、情報処理方法及び情報処理システム
CN111798260A (zh) 用户行为预测模型构建方法、装置、存储介质及电子设备
CN110520891B (zh) 信息处理装置、信息处理方法和程序
CN110619027A (zh) 一种房源信息的推荐方法、装置、终端设备及介质
US20200375505A1 (en) Method and apparatus for health prediction by analyzing body behaviour pattern
JP2016085649A (ja) 更新システム、更新方法、携帯端末装置、プログラム
WO2016199458A1 (ja) 情報処理システム、情報処理装置、情報処理方法、および記憶媒体
JP7272522B2 (ja) データ分析装置、データ分析システム、データ分析方法およびデータ分析プログラム
Kim et al. Advances and challenges in sensor-based research in mobility, health, and place
JP5331719B2 (ja) 行動状況を判定するための方法、装置及びプログラム
CN105308582B (zh) 信息处理装置、信息处理方法以及计算机可读介质
US20180014158A1 (en) Mobile Device Recommendation System and Method
JP6651730B2 (ja) 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム
US20140368630A1 (en) Camera, camera system, and self-diagnosis method
Draghici et al. Visualization system for human mobility analysis
JP7246037B2 (ja) データ分析装置、データ分析システム、データ分析方法およびプログラム
JP2019128611A (ja) 生成装置、生成方法及び生成プログラム
Karanth et al. Modeling User Context from Smartphone Data for Recognition of Health Status

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16807165

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15578072

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 16807165

Country of ref document: EP

Kind code of ref document: A1