WO2014038323A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2014038323A1
WO2014038323A1 PCT/JP2013/070896 JP2013070896W WO2014038323A1 WO 2014038323 A1 WO2014038323 A1 WO 2014038323A1 JP 2013070896 W JP2013070896 W JP 2013070896W WO 2014038323 A1 WO2014038323 A1 WO 2014038323A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
terminal
action
unit
Prior art date
Application number
PCT/JP2013/070896
Other languages
English (en)
French (fr)
Inventor
小形 崇
小野 秀行
康隆 福本
正範 勝
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2014534247A priority Critical patent/JP6206411B2/ja
Priority to EP13835928.6A priority patent/EP2894573B1/en
Priority to CN201380043911.6A priority patent/CN104584007B/zh
Priority to US14/418,119 priority patent/US10469416B2/en
Publication of WO2014038323A1 publication Critical patent/WO2014038323A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/043Real-time or near real-time messaging, e.g. instant messaging [IM] using or handling presence information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27467Methods of retrieving data
    • H04M1/27475Methods of retrieving data using interactive graphical means or pictorial representations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Document 1 in a device equipped with a communication function and a sensor such as a mobile phone, the behavior of a user carrying the device is recognized, and the result is exchanged with a friend or the like in real time. Sharing technology is known.
  • Patent Document 2 describes a technique for changing a communication channel according to closeness with a friend.
  • Patent Document 3 describes a technique for detecting an attribute of a place with respect to position information.
  • the detailed information of the user may be transmitted to other users, and it is assumed that the user's privacy leaks to the outside or problems such as leakage of personal information occur. . In the above conventional technique, it is also assumed that redundant information is provided to the user information recipient.
  • a receiving unit that receives predetermined information from a first information terminal held by a first user and a second information terminal held by a second user, and received from the first information terminal
  • the action recognition unit for recognizing the action of the first user based on the predetermined information, and the second information held by the second user based on the action of the recognized first user
  • an information processing apparatus comprising: an information transmission unit that transmits information for determining whether or not the terminal acquires the predetermined information.
  • an action recognition information transmitting unit that transmits the recognized action of the first user to the second information terminal may be further provided.
  • the action recognition information transmitting unit may transmit the action of the first user to another information terminal belonging to the same predetermined group as the first information terminal.
  • the said action recognition information transmission part may transmit the information regarding the action of one recognized user to the information terminal of another user according to the action recognition level set for every predetermined group. .
  • the behavior recognition information transmission unit may recognize the behavior of the first user recognized by the first information terminal according to the behavior recognition level set with the second information terminal. It may be transmitted to the terminal.
  • an acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, an operation information acquisition unit that acquires operation information, the acceleration information, the position information, or the operation information Based on the behavior recognition result information, a client terminal having a behavior recognition unit that recognizes user behavior based on the behavior recognition result information recognized by the behavior recognition unit from the client terminal, and the behavior recognition result information
  • a server having an information transmission unit that transmits information for determining whether or not another client terminal owned by another user acquires the acceleration information or the position information.
  • a client terminal including an acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, and an operation information acquisition unit that acquires operation information, and the client terminal from the client terminal
  • a receiving unit that receives acceleration information, the position information, or the operation information
  • an action recognition unit that recognizes an action of the user who owns the client terminal based on the acceleration information or the position information
  • a server having an information transmission unit that transmits information for determining whether another client terminal owned by another user acquires the acceleration information or the position information based on an action.
  • an acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, an operation information acquisition unit that acquires operation information, the acceleration information, the position information, or the operation information Based on the action recognition unit that recognizes the user's action, the transmission unit that transmits the action recognition result information recognized by the action recognition unit to the server, and the action recognition result information received from another client terminal.
  • a receiving unit that receives information transmitted by the server, and a client terminal that stops the operation of the acceleration sensor or the position information acquisition unit based on the information is provided.
  • an acceleration sensor that acquires acceleration information
  • a position information acquisition unit that acquires position information
  • an operation information acquisition unit that acquires operation information, the acceleration information, the position information, or the operation information
  • a receiver for receiving action recognition result information recognized by the server based on the acceleration information or the position information received from another client terminal, and the action recognition result information
  • the client terminal is provided that stops the operation of the acceleration sensor or the position information acquisition unit.
  • the receiving unit that receives predetermined information from the first information terminal held by the first user and the second information terminal held by the second user, and the first or second information Based on the predetermined information received from the terminal, an action recognition unit that recognizes the actions of the first and second users, the predetermined information received from the first information terminal, and the second information
  • a correlation score calculation unit that calculates a correlation score representing a degree of correlation of the predetermined information received from the terminal, and the action of the second user recognized based on the calculated correlation score
  • An information processing apparatus comprising: a selection unit that selects an action to be provided to a first user; and a transmission unit that transmits the action of the selected second user to the first information terminal.
  • the selection unit may select a more detailed action as an action to be provided to the first user as the correlation score is higher.
  • the correlation score calculation unit associates related information with respect to a plurality of pieces of information received from the first information terminal and information received from the second information terminal, and each combination of related information For each of the calculated correlation sub-scores, the correlation sub-score representing the degree of correlation between the information is calculated based on the correlation sub-score and a weighting factor representing the contribution of the sub-score to the correlation score. A score may be calculated.
  • the distance between the first and second information terminals, the first and second information Information regarding the location of the terminal, the actions of the first and second users, or the remaining time until the time set by the first and second users may be associated with each other.
  • the correlation score calculation unit may include a geo categorization unit in order to calculate a correlation score using a degree of correlation between geo category histograms.
  • action recognition level information transmission that transmits information indicating a level at which the first and second information terminals acquire the predetermined information to the first and second information terminals. A part may be further provided.
  • a transmission frequency determining unit that determines the frequency of transmitting the behavior pattern based on the calculated correlation score, the transmission unit calculates the behavior pattern of the selected second user. Further, it may be transmitted to the first information terminal at the transmission frequency.
  • an acceleration sensor that acquires acceleration information
  • a position information acquisition unit that acquires position information
  • an operation information acquisition unit that acquires operation information, the acceleration information, the position information, or the operation information
  • a first information terminal held by the first user an acceleration sensor that acquires acceleration information
  • a position information acquisition unit that acquires position information
  • An action recognition unit that recognizes a user action based on the acceleration information or the position information, a second information terminal held by a second user, and each of the first and second information terminals From the reception unit that receives the action recognition result information recognized by the action recognition unit, the action recognition result information received from the first information terminal, and the previous information received from the second information terminal
  • a correlation score calculation unit that calculates a correlation score representing the degree of correlation of the action recognition result information, and the first user out of the actions of the second user recognized based on the calculated correlation score
  • an information processing system comprising: a selection unit that selects an action to be provided to a server; and a server that includes a transmission unit that transmits the selected action of the second user to the first information terminal.
  • the first user has an acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, and an operation information acquisition unit that acquires operation information.
  • a receiving unit that receives the acceleration information, the position information, or the operation information from each of the two information terminals and the first and second information terminals.
  • An action recognition unit for recognizing actions of the first and second users who possess the first and second information terminals, action recognition result information obtained as a result of the action recognition of the first user, Said second user
  • a correlation score calculation unit for calculating a correlation score representing a degree of correlation with the action recognition result information obtained as a result of the action recognition of the second person, and the second user who has been recognized based on the calculated correlation score.
  • a server having a selection unit that selects an action to be provided to the first user from among the behaviors, and a transmission unit that transmits the behavior of the selected second user to the first information terminal; An information processing system is provided.
  • an acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, an operation information acquisition unit that acquires operation information, the acceleration information, the position information, or the operation information
  • An action recognition unit for recognizing a user's action based on the behavior recognition result information recognized by the action recognition unit, a transmission unit for transmitting to the server, the action recognition result information obtained from the server and another client terminal
  • a client terminal comprising: a receiving unit that receives an action of the other client terminal selected based on a correlation score with the action recognition result information.
  • an acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, an operation information acquisition unit that acquires operation information, the acceleration information, the position information, or the operation information Is transmitted based on the acceleration information or the position information received from another client terminal and the user's behavior recognized based on the acceleration information or the position information.
  • a client terminal comprising: a receiving unit that receives an action of the other client terminal selected based on a correlation score with a user action of the other client terminal.
  • receiving predetermined information from the first information terminal held by the first user and the second information terminal held by the second user the first or second Recognizing the actions of the first and second users based on the predetermined information received from the information terminal, the predetermined information received from the first information terminal, and the second information terminal Calculating a correlation score representing a degree of correlation of the predetermined information received from the first user, based on the calculated correlation score, the first user from the recognized second user behavior
  • an information processing method comprising selecting an action to be provided to and transmitting the selected action of the second user to the first information terminal.
  • the present disclosure it is possible to reduce power consumption when sharing action recognition results. Further, according to the present disclosure, it is possible to flexibly set the detail level of the presence sharing of the user.
  • 2nd Embodiment it is a schematic diagram which shows the structure which shares a friend's action. It is a schematic diagram which shows the level which shares presence of user A. It is a schematic diagram which shows the level which shares presence of user A. It is a schematic diagram which shows the level which shares presence of user A. It is a schematic diagram which shows a mode that the information according to the presence of the user who receives is provided. It is a schematic diagram which shows a sharing level and a score. It is a schematic diagram which shows the example which calculates the distance between users and scores according to distance. It is a schematic diagram which shows the example scored according to the remaining time to the set time. It is a schematic diagram which shows the correlation degree of an action pattern.
  • FIG. 1 shows the result of recognizing the behavior of a user carrying a device in a device (user terminal 1500) equipped with a communication function and a sensor such as a mobile phone as described in Patent Document 1 described above. It is a schematic diagram which shows the technique which shares a friend etc. in real time.
  • FIG. 1 shows a display screen of the user terminal 1500 held by each user. In the example shown in FIG. 1, each user grasps in real time each user's behavior such as the user (Ken) is on the bus, the user (Tagawa) is sitting, the user (Mike) is running ( Share).
  • FIG. 2 is a schematic diagram showing a response delay in action recognition in the technique shown in FIG.
  • the mobile phone state is acquired by the action recognition 1 after t1 seconds from the start of action recognition, and is shared among users belonging to the group.
  • the action state of the user is acquired by the action recognition 2, and is shared among the users belonging to the group.
  • the detailed action of the user is acquired by the action recognition 3 and is shared among the users belonging to the group.
  • a member who discloses the recognition result of the action is set, and the action recognition process is controlled according to the action of the member, thereby realizing a reduction in power consumption. Moreover, the psychological stress with respect to a user's waiting time is relieved by displaying according to the response performance of action recognition.
  • the action recognition level is optimally controlled and the power consumption is reduced.
  • the action recognition level to be disclosed is controlled based on the user's situation and the state of the terminal used.
  • FIG. 3 is a schematic diagram illustrating a system configuration according to the first embodiment.
  • the system according to the first embodiment includes a server 100, a user terminal 500A, a user terminal 500B, a user terminal 500C,.
  • User terminal 500A, user terminal 500B, user terminal 500C,... Are used by user A, user B, user C,.
  • each of the users A, B, C, and D belongs to a group (group 1) that discloses their actions, and these four users assign their actions to each user terminal 500A, user terminal 500B, It shows that sharing is possible on the user terminal 500C and the user terminal 500D.
  • user E does not belong to group 1, it indicates that the user A, B, C, and D cannot share actions.
  • Each user can belong to multiple groups at the same time.
  • user A belongs to group1 and group2, and user F belongs only to group2.
  • a device Used by each user for action recognition, a mobile phone (a communication device equipped with a display and equipped with a sensor) is described.
  • a device used for action recognition may be a portable device that does not include a display.
  • the power consumption reduction technology of this embodiment can be applied.
  • Action recognition is performed mainly by two methods.
  • the first method is a method of performing action recognition using an acceleration sensor and a gyro sensor included in the user terminal 500A, the user terminal 500B, the user terminal 500C,.
  • This action recognition may be referred to as low-order action recognition.
  • the user is “walking”, “sitting”, “stopping”, “jumping”, “riding on a train”, “riding on a bus”, “ Recognize actions such as “in a car”.
  • the user terminal 500A, the user terminal 500B, the user terminal 500C,... The user is “walking”, “sitting”, “stopping”, “jumping”, “on the train”
  • the output waveform of the acceleration sensor and the gyro sensor corresponding to the operations such as “on the bus”, “on the car”, etc. is held in advance.
  • Operations such as “sitting”, “stopping”, and “jumping” can be recognized.
  • the server 100 is held in advance by the server 100, and the user terminal 500A, the user terminal 500B, The user terminal 500C,... Sends the sensor detection waveform to the server 100, so that the user “walks”, “sits”, “stops”, “jumps” on the server 100 side. Etc. can also be recognized.
  • the user's own direct action such as the user's action is recognized.
  • the method described in JP 2010-198595 A can be used.
  • the second method is a method of performing action recognition using information on acceleration sensors and gyro sensors included in the user terminal 500A, the user terminal 500B, the user terminal 500C,.
  • This action recognition may be referred to as higher-order action recognition.
  • the user lives more than the first method, such as “shopping”, “riding a vehicle”, “mealing”, “working”, etc. Recognize behavior close to behavior.
  • the operations obtained by the first method such as “walking”, “sitting”, “stopping”, “jumping”, GPS, Wi-
  • the user's living behavior is recognized by combining the user's position information (latitude and longitude information) obtained from Fi (access point information) and the like.
  • a technique for specifying the latitude and longitude from the base station information of the communication network used in the mobile phone can be used as well.
  • the method described in Japanese Patent Application Laid-Open No. 2011-81431 can be used for action recognition by the second method.
  • the user's position information (latitude and longitude information) is acquired based on information obtained from GPS, Wi-Fi, or the like.
  • the user's location information is combined with the user's action obtained by the first method, such as “walking”, “sitting”, “stopping”, “jumping”, etc. Recognize living behavior.
  • the user's action is specified by combining the user's location information and the map database information. For example, if it is determined that the user is located at a “restaurant” location based on the user's location information, and the first technique reveals that the user is sitting, Is recognized. In this case, if the time is 12:00 noon, it is recognized that the user has “lunch at the restaurant”. Further, for example, when the user is located in an office district and it is determined that the user is “sitting” by the first method, it is recognized that the user is “working at the company”.
  • a database may be generated based on user feedback. For example, when the user is located in an office district, the fact that the location information corresponds to the office district is recorded by feeding back that the user is in the office district together with the location information. By making such record information into a database, it is possible to identify the attribute (office, restaurant, etc.) of the place where the user is based on the location information acquired by the user.
  • the user's movement can be recognized by the first technique, and the user's living action can be recognized by the second technique.
  • FIG. 5 is a schematic diagram showing an example of a behavior recognition level of users who share information.
  • the information to be shared differs depending on the action recognition levels 1 to 3.
  • operation information of user terminal 500A, user terminal 500B, user terminal 500C,... is analyzed and shared among users belonging to the same group.
  • sensor information obtained from the acceleration sensor and the gyro sensor is analyzed and shared among users belonging to the same group.
  • Operation information and sensor information are analyzed individually or in combination.
  • position information obtained from GPS and Wi-Fi is analyzed and shared among users. The operation information, sensor information, and position information are analyzed alone or in combination.
  • the action recognition level increases, the user's situation can be known in detail, but the power consumption increases for analysis, and the response of the result output is also delayed.
  • the first method recognizes an action such as “walked” or “stopped” by the user.
  • the second method recognizes an action such as “working” or “mealing” by the user.
  • FIG. 5 shows an example in which the action recognition level is divided into three stages, the number of action recognition level divisions is not limited to this.
  • FIG. 6 is a schematic diagram showing a mechanism for displaying a user's action in the underlying technology shown in FIG. It is assumed that user A and user B belong to group 1 and all users in group 1 perform action recognition level 1. That is, the user terminals 1500 of all users in the group 1 share the result of analyzing the operation of each user terminal 1500.
  • step S10 Thereafter, the processes after step S10 are sequentially performed, and action recognition at action recognition level 2 and action recognition level 3 is performed.
  • user A's actions “stopped”, “started walking”, “started running”, and user B's actions “began to use mobile phone”, “use finished mobile phone” It is recognized and shared by all users in group1.
  • FIG. 7 is a schematic diagram illustrating a configuration of the server 100 and the user terminals 500A and 500B according to the first embodiment.
  • the server 100 includes a reception unit 102, a behavior recognition unit 104, a behavior recognition level information transmission unit 105, a behavior recognition information transmission unit 106, a control unit 108, a database 110, and a transmission frequency determination unit 112. Configured.
  • the user terminal 500A includes a communication unit 502A, a control unit 504A, an action recognition unit 506A, a display unit 508A, an input unit 510A, an acceleration sensor 512A, a position information acquisition unit 514A using GPS, and the user terminal 500B. Includes a communication unit 502B, a control unit 504B, an action recognition unit 506B, a display unit 508B, an input unit 510B, an acceleration sensor 512B, and a position information acquisition unit 514B using GPS or the like.
  • the communication unit 502A of the user terminal 500A transmits information (operation information, sensor information, position information, etc.) regarding the user terminal 500A obtained from the input unit 510A, the acceleration sensor 512A, and the position information acquisition unit 514A to the server 100.
  • the communication unit 502A can transmit the behavior recognition result obtained by the behavior recognition unit 506A to the server 100.
  • the behavior recognition unit 506A Based on information (operation information, sensor information, position information, etc.) related to the user terminal 500A obtained from the input unit 510A, the acceleration sensor 512A, and the position information acquisition unit 514A, the behavior recognition unit 506A includes the first method, Recognize behavior using the second technique.
  • the communication unit 502A of the user terminal 500A receives the action pattern (action recognition result information) of the user B from the server 100.
  • the communication unit 502B of the user terminal 500B transmits information (operation information, sensor information, position information, etc.) regarding the user terminal 500B obtained from the input unit 510B, the acceleration sensor 512B, and the position information acquisition unit 514B to the server 100.
  • the communication unit 502B can transmit the behavior recognition result obtained by the behavior recognition unit 506B to the server 100.
  • the action recognition unit 506B is based on the information (operation information, sensor information, position information, etc.) on the user terminal 500B obtained from the input unit 510B, the acceleration sensor 512B, and the position information acquisition unit 514B. Recognize behavior using the second technique.
  • the communication unit 502B of the user terminal 500B receives the action pattern (action recognition result information) of the user A from the server 100.
  • the receiving unit 102 of the server 100 receives operation information, sensor information, position information, and the like from the user terminals 500A and 500B.
  • the receiving unit 102 of the server 100 receives the behavior recognition result when the user terminals 500A and 500B transmit the behavior recognition result obtained by the behavior recognition units 506A and 506B.
  • the behavior recognition unit 104 recognizes user behavior based on operation information, sensor information, position information, and the like sent from the user terminals 500A and 500B. At this time, the behavior recognition unit 104 recognizes the behavior using the first method and the second method described above.
  • the behavior recognition unit 104 recognizes the user's behavior based on the received behavior recognition result.
  • the action recognition information transmitting unit 106 transmits the recognized user action to each of the user terminals 500A and 500B. Thereby, each user terminal 500A, 500B can recognize each user's action.
  • the behavior recognition level information transmission unit 105 designates the behavior recognition level so that the behavior recognition level described later is raised to “2” or higher when the behavior recognition unit 104 recognizes that the operation of the user terminal has started. And action recognition level information is transmitted with respect to each user terminal 500A, 500B.
  • the control unit 108 includes a CPU (Central Processing Unit) and the like, and controls the entire server 100.
  • the database 110 is a storage unit for storing data, and stores information such as an action recognition level described later, a group to which each user belongs, and the like.
  • the transmission frequency determination unit 112 determines the transmission frequency when the action recognition information transmission unit 106 transmits the recognized user behavior.
  • the action recognition unit 506A of the user terminal 500A is based on information (operation information, sensor information, position information, etc.) regarding the user terminal 500A obtained from the input unit 510A, the acceleration sensor 512A, and the position information acquisition unit 514A. Recognize the behavior of the user who owns 500A.
  • the action recognition unit 506B of the user terminal 500B is based on information (operation information, sensor information, position information, etc.) regarding the user terminal 500B obtained from the input unit 510B, the acceleration sensor 512B, and the position information acquisition unit 514B. The action of the user holding the user terminal 500B is recognized.
  • the behavior recognition units 500A and 500B change the behavior recognition level for the information to be acquired based on the commands of the control units 504A and 504B, respectively. Moreover, action recognition part 506A, 506B acquires the information regarding a user based on the information input into input part 510A, 510B.
  • the display units 508A and 508B of the user terminals 500A and 500B are configured by a liquid crystal display (LCD) or the like, and display information related to actions of other users based on instructions from the control units 504A and 504B.
  • the input units 510A and 510B are configured by a touch sensor, a keyboard, and the like, and function as an interface through which a user operation is input.
  • the control units 504A and 504B are composed of a CPU (Central Processing Unit) and the like, and control the entire user terminals 500A and 500B.
  • the control units 504A and 504B have a clock for acquiring time information.
  • the server 100 can perform action recognition of each user by the action recognition unit 104 based on information (operation information, sensor information, position information, and the like) acquired from the user terminals 500A and 500B.
  • user terminal 500A, 500B can perform action recognition in each action recognition part 506A, 506B.
  • the server 100 performs action recognition based on information (operation information, sensor information, position information, etc.) acquired from the user terminals 500A and 500B, the processing load on the user terminals 500A and 500B can be further reduced.
  • each component of the server 100 shown in FIG. 7 can be configured by a circuit (hardware) or a control unit 108 and a program (software) for causing this to function.
  • the program can be stored in a storage unit (database 110) included in the server 100.
  • each component of the user terminals 500A and 500B shown in FIG. 7 can be configured by a circuit (hardware) or a control unit 504A and 504B and a program (software) for causing this to function.
  • the program can be stored in a storage unit (not shown) such as a memory provided in the user terminals 500A and 500B.
  • step S10 when all the users in the group to which the user is subscribed are not operating the user terminals 500A and 500B, the processes after step S10 are stopped. As a result, action recognition at action recognition levels 2 and 3 is not performed. And when one person in a group operates user terminal 500A, 500B, the process of action recognition level 2 or more is performed.
  • the processing of recognition level 2 or higher (steps S22 to S38) is started.
  • step S38 the process of the action recognition level 2 or higher is stopped in response to the user A's action of “cell phone operation completed” being transmitted to the server 1000.
  • step S22 the input unit 510B of the user terminal 500B receives a user operation and notifies the control unit 504B that the operation has been received.
  • the control unit 504B notifies the server 100 from the communication unit 502B that the user operation has been received. To send to.
  • step S24 the server 100 transmits to the user terminal 500A, together with information “user B has started using his / her mobile phone”, a notification “start action recognition at action recognition level 2 or higher”. Then, the communication unit 502A of the user terminal 500A receives a notification “start action recognition at action recognition level 2 or higher” from the server 100. Upon receiving this notification, the control unit 504A of the user terminal 500A raises the level of behavior recognition by the behavior recognition unit 506A to “behavior recognition level 2”. Accordingly, in step S28 and step S32, the information that the user A “runs” and “starts walking” is acquired by the action recognition unit 506A, and is transmitted to the user terminal 500B in steps S30 and S34.
  • step S36 based on the operation information input to the input unit 510B, the control unit 504B detects that the user B has finished using the user terminal 500B, and has finished using the user terminal 500B from the transmission unit 500A to the server 100. Can be sent.
  • the server 100 transmits to the user terminal 500A that the user B has finished using the user terminal 500B.
  • the server 100 transmits an instruction “stop action recognition level 2” to the user terminal 500A (step S38).
  • the control unit 504A of the user terminal 500A receives an instruction “stop action recognition” and stops action recognition by the action recognition unit 506A. Thereby, acquisition of user information is stopped, and it becomes possible to reduce power consumption.
  • FIG. 9 is a schematic diagram illustrating an example in which the display of the user terminals 500A, 500B,... Changes according to the level of action recognition.
  • the user can instantly recognize the action recognition level by changing the display state according to the action recognition level.
  • the action recognition level 1 the appearances of the other user terminals 500A, 500B,... Are displayed on the respective display units 506A of the user terminals 500A, 500B,.
  • On / off of the user terminals 500A, 500B,... Of each user is expressed according to the brightness.
  • the action recognition level 2 the operation state of each user of the other user terminals 500A, 500B,...
  • the detailed actions of other users are represented by the display of persons, maps, transportation facilities, and the like on the display units 506A of the user terminals 500A, 500B,.
  • the recognition result of the action recognition is obtained, and the user's psychological stress can be reduced by sharing the recognition result from those that can be shared.
  • FIGS. 10 to 12 are schematic diagrams showing display transition status display. Each time the behavior analysis result is updated, the display transitions between the behavior recognition levels 1 to 3. In the examples shown in FIGS. 10 to 12, how far the display is updated and may be updated in the future. Is displayed.
  • FIG. 10 shows an example in which the current action analysis result is shown in transition state units. In the case of action recognition 1, one of the three dots 600 on the left side is lit, and in the case of action recognition 2, three dots are displayed. The left two of 600 are lit, and in the case of action recognition 3, all three dots 600 are lit. As a result, the user can recognize which level is the current action recognition level.
  • FIG. 11 shows an example in which the remaining time until switching to the next state is displayed in each of the action recognition levels 1 to 3. In this case, it is recognized that the remaining time until the indicator 610 moves to the right with the passage of time and switches to the next state is reduced.
  • FIG. 12 is a schematic diagram showing an example of changing the image display such as transparency and saturation of the image to be displayed.
  • the transparency of the image increases as the level decreases, such as action recognition 3 ⁇ action recognition 2 ⁇ action recognition 1.
  • action recognition 3 ⁇ action recognition 2
  • action recognition 1 the level decreases
  • (A) and (B) can be performed at the same time.
  • the maximum upper limit set by everyone in (B) may be set as the upper limit (A) for the group.
  • priority may be given to the upper limit (A) for the group.
  • FIG. 13 is a schematic diagram showing (A) an example in which an upper limit of an action recognition level is set for a group to be disclosed. For example, as shown in FIG. 13, setting is made such that action recognition level 3 is shared as an upper limit for group 1, and setting is made such that level 1 is shared as an upper limit for group 2. As a result, the user F belonging only to group 2 performs behavior recognition with the level 1 as the upper limit, and the users A, B, C, and D belonging to group 1 perform behavior recognition with the level 3 as the upper limit.
  • step S24 is sent to other users.
  • the action recognition result is shared at action recognition level 2 which is the upper limit of setting of group1.
  • the public level for each group is stored in the database of the server 110 based on the registration information sent to the server 100 from each user terminal 500A, 500B,.
  • FIG. 14 is a schematic diagram showing an example in which (B) the upper limit of the action recognition level provided by the user is set for each public user.
  • the action recognition level disclosed by the user is set for each public user.
  • FIG. 14 a case is assumed where the action recognition level disclosed by the user A is set for each public partner.
  • the user A provides his / her behavior to the user B at the behavior recognition level 3.
  • the user A provides his / her behavior to the user C at the behavior recognition level 3 and provides the user D to his / her behavior at the behavior recognition level 2.
  • the users B and C “do not operate the terminal”, it is not necessary to distribute the action recognition result to the users B and C, and the user A is the action recognition level 2 for the user D. It is only necessary to provide actions up to the upper limit.
  • the public level for each user is stored in the database of the server 110 based on the registration information sent to the server 100 from each user terminal 500A, 500B,.
  • (C-1) As shown in FIG. 15, the power consumption is reduced by setting the upper limit of the level of the action recognition result provided by the user for each time zone of the day.
  • the behavior recognition level is changed according to the time zone, and the behavior recognition level is set not to be performed at night when the user's behavior is relatively small, but to provide detailed behavior recognition during the day when the user becomes active.
  • Control units 504A, 504B,... Of user terminals 500A, 500B,... Have clocks for acquiring time information, and action recognition by action recognition units 506A, 506B,. The level is changed as shown in FIG.
  • (C-2) Power consumption is reduced by controlling the upper limit of the level of the action recognition result provided by the user using the action recognition result of the user.
  • the action recognition level is reduced to “2”, and then the state of walking for a certain time continues.
  • the power consumption is reduced by continuing the state where the action recognition level is lowered to “2”.
  • the action recognition level is raised to “3”. In the example shown in FIG.
  • the action recognition level is lowered to “2” until the attitude changes. 2 shows an example in which power consumption is reduced by continuing the lowered state. If a posture change occurs after the action recognition level is lowered to “2”, the action recognition level is raised to 3.
  • the control units 504A, 504B,... Recognize the behaviors by the behavior recognition units 506A, 506B,... Based on the behavior recognition results acquired by the behavior recognition units 506A, 506B,. Change the level.
  • FIG. 18 shows an example in which the action recognition level is controlled according to the remaining battery level of the user terminals 500A, 500B,.
  • the action recognition level can be changed by the dynamic change of the user terminals 500A, 500B,... As shown in FIG.
  • the action recognition level is controlled according to the battery state.
  • the upper limit of the action recognition level is lowered to reduce power consumption.
  • the upper limit of the action recognition level is lowered to level 2
  • the remaining battery level is less than 25% to 10%
  • the action of level 1 is performed.
  • the example of a setting which performs recognition is shown.
  • the action recognition units 506A, 506B,... Notify the control units 504A, 504B,.
  • FIG. 20 is a flowchart showing the processing of this embodiment.
  • the user terminals 500A, 500B,... Transmit terminal information to the server 100.
  • the server 100 receives terminal information transmitted from the user terminals 500A, 500B,.
  • the terminal information includes information related to the user terminals 500A and 500B (operation information, sensor information, position information, etc.).
  • the server 100 recognizes the behavior of each user terminal 500 based on the terminal information.
  • the behavior pattern provided by the server 100 to each user terminal 500 is transmitted.
  • the user terminal 500 receives another user's action transmitted by the server 100 in step S104.
  • the user terminal 500 displays the behavior patterns of other users.
  • FIG. 21 is a schematic diagram showing a mechanism for sharing the actions of friends in the technology that is the premise of the present embodiment.
  • the system according to the second embodiment includes a server 200, a user terminal 500A, a user terminal 500B, a user terminal 500C,.
  • User terminal 500A, user terminal 500B, user terminal 500C,... Are used by user A, user B, user C,.
  • each of the user terminal 500A, the user terminal 500B, the user terminal 500C,... Is “listening to music”, “is near Shonan”, “shopping mall” via the wireless communication network. You can send information such as “I ’m in” or “I ’m shopping”.
  • the action recognition results provided to groups or individuals are uniform, and it is not assumed that a public level is set. Therefore, in the present embodiment, it is possible to set a public level of the action recognition result published by the user, and dynamically change the public level according to the situation of the user himself / herself and the partner to be published. Provide a user experience. In this embodiment, it is possible to avoid unnecessarily publicizing one's behavior and protect personal information.
  • FIG. 22 is a schematic diagram illustrating configurations of the server 200 and the user terminals 500A and 500B according to the second embodiment.
  • the server 200 includes a reception unit 202, an action recognition unit 204, a correlation score calculation unit 208, a selection unit 210, a transmission unit 212, a transmission frequency determination unit 214, a control unit 216, and a database 218. It is configured.
  • the configurations of the user terminal 500A, the user terminal 500B, the user terminal 500C,... Are the same as those in the first embodiment.
  • the communication unit 502A of the user terminal 500A transmits information about the user terminal 500A (operation information, sensor information, position information, etc.) to the server 200.
  • the communication unit 502A can transmit the behavior recognition result obtained by the behavior recognition unit 506A to the server 100.
  • the behavior recognition unit 506A Based on information (operation information, sensor information, position information, etc.) related to the user terminal 500A obtained from the input unit 510A, the acceleration sensor 512A, and the position information acquisition unit 514A, the behavior recognition unit 506A includes the first method, Recognize behavior using the second technique.
  • the user terminal 500 ⁇ / b> A receives the action pattern (action recognition result information) of the user B from the server 200.
  • the communication unit 502B of the user terminal 500B transmits information (operation information, sensor information, position information, etc.) regarding the user terminal 500B obtained from the input unit 510B, the acceleration sensor 512B, and the position information acquisition unit 514B to the server 200. To do.
  • the communication unit 502B can transmit the behavior recognition result obtained by the behavior recognition unit 506B to the server 100.
  • the action recognition unit 506B is based on the information (operation information, sensor information, position information, etc.) on the user terminal 500B obtained from the input unit 510B, the acceleration sensor 512B, and the position information acquisition unit 514B. Recognize behavior using the second technique.
  • the communication unit 502B of the user terminal 500B receives the action pattern (action recognition result information) of the user A from the server 200.
  • the receiving unit 202 of the server 200 receives operation information, sensor information, position information, and the like from the user terminals 500A and 500B.
  • the receiving unit 202 of the server 200 receives the behavior recognition result when the user terminals 500A and 500B transmit the behavior recognition result obtained by the behavior recognition units 506A and 506B.
  • the action recognition unit 204 recognizes the action of the user based on operation information, sensor information, position information, and the like sent from the user terminals 500A and 500B. At this time, the behavior recognition unit 104 recognizes the behavior using the first method and the second method described above.
  • the behavior recognition unit 104 recognizes the user's behavior based on the received behavior recognition result.
  • the correlation score calculation unit 208 calculates a correlation score of the actions of the users A and B of the user terminals 500A and 500B.
  • the selection unit 210 selects a user action to be transmitted to the user terminals 500A and 500B based on the correlation score.
  • the transmission unit 212 transmits (information) of the user's behavior selected by the selection unit 210 to each of the user terminals 500A and 500B.
  • the transmission frequency determination unit 214 determines the transmission frequency when the transmission unit 212 transmits the user's action.
  • the behavior recognition level information transmission unit 220 designates the behavior recognition level so as to raise the behavior recognition level described in the first embodiment to “2” or more, and sends it to each of the user terminals 500A and 500B.
  • Action recognition level information is transmitted.
  • the control unit 216 includes a CPU (Central Processing Unit) and the like, and controls the entire server 200.
  • the database 218 is a storage unit for storing data, and stores information such as an action recognition level described later, a group to which each user belongs, and the like.
  • the transmission frequency determination unit 214 determines the transmission frequency when the action recognition information transmission unit 106 transmits the recognized user behavior.
  • the server 200 can perform the action recognition of each user by the action recognition unit 104 based on information (operation information, sensor information, position information, etc.) acquired from the user terminals 500A and 500B. Moreover, user terminal 500A, 500B can perform action recognition in each action recognition part 506A, 506B.
  • the server 200 performs action recognition based on information (operation information, sensor information, position information, etc.) acquired from the user terminals 500A and 500B, the processing load on the user terminals 500A and 500B can be further reduced.
  • Each component of the server 200 shown in FIG. 22 can be configured by a circuit (hardware) or a control unit 216 and a program (software) for causing it to function.
  • the program can be stored in a storage unit (database 218) included in the server 200.
  • FIG. 23 is a schematic diagram illustrating an overview of processing according to the second embodiment.
  • each user holds his / her presence (behavior / state) sharing level in multiple stages.
  • FIG. 23 shows a mechanism for sharing the presence of the user A to the users B, C, and D.
  • the user A can set the level of sharing his presence from 1 to N, and each level is in an inclusive relationship.
  • the users B, C, and D score the relationship with the user A based on a certain scale, and dynamically calculate the score according to the relative situation with the user A, thereby determining the presence provided by the user A.
  • the result changes. It is assumed that the closer the sharing level is to 1, the more detailed information is shared, and the sharing level 1 is to share the most detailed information.
  • FIG. 24 is a schematic diagram showing an example of shared presence.
  • examples of shared presence include physical information, position information, behavior information, environmental information, viewing information, appearance information, buddy information, and thought information. These pieces of information are acquired (detected) by the action recognition units 506A, 506B,... Of each user terminal 500A, 500B,.
  • FIG. 25 is a schematic diagram showing an index for determining at which level to share presence. As shown in FIG. 25, the sharing level is set according to the geographical distance, the correlation degree of the location attribute, the correlation degree of the behavior pattern, the remaining time until the event that the users set with each other, and the familiarity.
  • FIGS. 26 to 28 are schematic diagrams showing presence and sharing levels. As shown in FIG. 26 to FIG. 28, there are four levels of presence sharing bells, and presence provision levels such as viewing information, behavior information, and position information are set for each user and registered in the server 200. The sharing level is registered in the database 218 of the server 200. At this time, the same setting may be used for all sharing partners, or the setting may be changed for each sharing partner.
  • FIG. 29 is a schematic diagram showing a mechanism for sharing the actions of friends in the second embodiment.
  • the presence of the user D is transmitted to the server, and the scores of the user D and the user A are calculated. Then, the level to be shared is determined based on the calculated score, and information on the user A to be provided to the user D is limited and provided to the user D.
  • 30 to 32 show the sharing level of presence between the user A and the user D, and the sharing level is level 3 for each of viewing information, behavior information, and position information. Therefore, in the example shown in FIG. 29, information up to the sharing level 3 is shared between the user A and the user D for each of viewing information, action information, and position information.
  • FIG. 33 is a schematic diagram showing how information corresponding to the presence of the receiving user is provided.
  • user A is listening to music, is near Shonan, is in a shopping mall, and is shopping.
  • the sharing level with the user A is “1”
  • the user B can share the artist name, the name of the music being listened to, and the music being listened to as viewing information.
  • the sharing level with the user A is “2”
  • the user C can share the artist name and the name of the music being listened to as viewing information, and “is in a shopping place near Shonan” as the positional information. “Walking” can be shared as behavior information.
  • User D has a sharing level of “3” with user A, can share the artist name as viewing information, can share “is in Shonan” as location information, and “stands” as behavior information. . As described above, according to the sharing level with the user A, the information shared by the user A and the users B to D can be changed.
  • FIG. 34 is a schematic diagram showing the sharing level and the score.
  • the score is set to a value of 0.0 to 1.0, and the greater the score value, the more detailed presence can be shared.
  • the score and the sharing level are associated with each other, and the same score may be assigned to all the shared presence levels, or a score may be individually assigned to each presence. .
  • the same score may be assigned to each of viewing information, behavior information, and position information, or different individual scores may be assigned to each of viewing information, behavior information, and position information.
  • Geographic distance location attribute correlation for example, both are in a shopping location
  • Behavior pattern correlation for example, both on a train
  • Time remaining until the event set by each other (conversation frequency, etc.)
  • Sub-score For Sgeo, the distance between users can be calculated using latitude and longitude and altitude, and scored according to the distance. For example, as shown in FIG. 35, the distance (distxy) between the user X and the user Y is obtained. If the distance distxy is less than or equal to the threshold distA, the score is 1.0, and if it is greater than or equal to distB, the score is 0.0. If it is in the middle, an intermediate value is taken. In this way, by increasing the subscore as the distance is closer, the sharing level can be increased, and more detailed information can be shared.
  • FIG. 36 is a schematic diagram showing an example of scoring according to the remaining time until the set time.
  • Subscore Stime can be set based on the remaining time until the set time. For example, assume a situation where users are waiting to meet at a certain place at a certain time. Normally, when the meeting time is approaching or when the meeting time has passed, it feels like to know the situation of the other party in detail. On the other hand, when the waiting time is still ahead, it is not necessary to know the details of the other party in detail, and the detailed information on the other party may be redundant information. As shown in FIG.
  • the time when an event such as a meeting occurs and the remaining time obtained from the current time are set as Remain, and when the remaining time is less than remainA, the score is 1.0, In these cases, the score is 0.0. If the remaining time is between remainA and remainB, the intermediate value is used as the subscore. This makes it possible to share more detailed information as the meeting time approaches.
  • the degree of correlation is obtained by using a user action or a combination of actions such as “shopping”, “working”, “on the train”, “commuting”, etc. as an action pattern. For example, if each user is on a train, it is likely that they are experiencing a similar situation regardless of their location, and are currently interested Therefore, it can be said that it is a meaningful state to share the detailed situation. Accordingly, the closer the degree of correlation between the behavior patterns, the higher the sharing level so that more detailed information can be shared.
  • FIG. 37 is a schematic diagram showing the degree of correlation between behavior patterns.
  • a table defining the correlation degree of each action can be used as an example of the correlation degree calculation method.
  • the correlation degree between the actions of the user X and the user Y can be searched based on the current actions of the user X and the user Y. Thereby, the correlation degree can be calculated based on the actions of the user X and the user Y.
  • the location attribute (subscore: Slcorr)
  • Action information related to a certain place such as “shopping place”, “study place”, “work place”, etc. is used as a place attribute. Even if the users are far away from each other, if they are both in the same location attribute location, it is likely that they are taking similar actions, and it is likely that they are currently interested. It can be said that it is a meaningful state to share a unique situation. Therefore, the higher the location relevance, the higher the scores of the user X and the user Y.
  • the score can be calculated by comparing the geo category histograms.
  • the geo category histogram is described in, for example, Patent Document 3 described above.
  • FIG. 39 is a schematic diagram showing the geocategorization unit 208a included in the correlation score calculation unit 208 of the server 200 and its surroundings.
  • the geo-categorization unit 208a receives latitude / longitude data as input, refers to a map database (not necessarily dedicated), and quantifies its position category (geo category) and its surrounding categories (geo category histogram) ) Is output.
  • the latitude / longitude data may be data at a certain point or time series data. It may also represent representative points clustered by a clustering technique.
  • FIG. 40 is a flowchart illustrating processing in the server 200 according to the second embodiment.
  • the user terminal 500A, the user terminal 500B, the user terminal 500C,... Transmit terminal information to the server 200.
  • the server 200 receives terminal information.
  • the terminal information includes presence information such as viewing information, behavior information, and position information.
  • the server 200 recognizes each user's action and terminal state.
  • the server 200 calculates a correlation score.
  • an action to be provided to the user is selected based on the correlation score.
  • the user action selected by the server 200 is transmitted.
  • next step S207 the user terminal 500A, the user terminal 500B, the user terminal 500C,... Receive the user action transmitted in step S206.
  • next step S208 the user terminal 500A, the user terminal 500B, the user terminal 500C,... Display the actions of other users based on the actions received in step S207.
  • the “method of dynamically changing the presence sharing level” when the “method of dynamically changing the presence sharing level” is applied, even when the users B and C “perform mobile operation”, the correlation between the behavior of the users B and C and the behavior of the user A depends on the correlation score.
  • the action recognition disclosure level to be provided can be changed in stages. Therefore, a necessary action recognition level may be set as the action recognition disclosure level.
  • FIG. 42 is a sequence diagram showing processing of the example of FIG.
  • the server 200 transmits an instruction “Share to publication level 3” to the user terminal 500A.
  • step S304 information that the user A has “walked” is transmitted to the server 200, and in step S306, the information is transmitted to the user terminal 500B.
  • step S308 information that the user A is “sitting” is transmitted to the server 200, and in step S310, the information is transmitted to the user terminal 500B. In this way, the behavior of the user A is shared between the user A and the user B.
  • step S ⁇ b> 312 information that the user A has started using the mobile phone is transmitted to the server 200.
  • the server 200 transmits an instruction “Share to public level 3” to the user terminal 500B in step S314.
  • the user terminal 500B sets the disclosure level to 1.
  • step S316 information that the user B is “sitting” is transmitted to the server 200, and in step S318, the information is transmitted to the user terminal 500B.
  • the server 200 raises the public level to “2” based on the correlation score, and “share until the public level 2”.
  • the instruction is transmitted to both the user terminals 500A and 500B (steps S320 and S322).
  • step S324 information that the user B is “sitting” in Chigasaki is transmitted to the server 200.
  • step S 326 information that the user A is “sitting” in Kamakura is transmitted to the server 200.
  • step S328 information that the user B is “sitting” in Chigasaki is transmitted from the server 200 to the user terminal 500A.
  • step S330 information that the user A is “sitting” in Kamakura is transmitted from the server 200 to the user terminal 500B.
  • the correlation score calculated by the server 200 becomes higher. Therefore, the server 200 raises the public level to “1” based on the correlation score, and transmits an instruction “Share to public level 1” to both the user terminals 500A and 500B (steps S332 and S334). ).
  • step S336 information that the user B is sitting in Chigasaki and is eating is transmitted to the server 200.
  • step S3308 information that the user A is sitting in Kamakura and is shopping is transmitted to the server 200.
  • step S340 information that the user B is sitting in Chigasaki and is eating is transmitted from the server 200 to the user terminal 500A.
  • step S342 information that the user A is sitting in Kamakura and is shopping is transmitted from the server 200 to the user terminal 500B.
  • the action recognition level can be dynamically changed based on the degree of correlation between the actions of the user A and the user B.
  • the action recognition level of action recognition part 506A, 506B, ... can be changed dynamically based on the correlation degree of the action of the user A and the user B, each user terminal is based on the correlation degree.
  • the power consumption of 500A and 500B can be reduced. Therefore, the lower the correlation degree is, the lower the action recognition level is, so it is possible to reduce both the power consumption of the user terminals 500A and 500B having a low correlation degree.
  • users with a high degree of correlation can exchange more detailed information based on the degree of correlation of user behavior.
  • a receiving unit that receives predetermined information from a first information terminal held by a first user and a second information terminal held by a second user; An action recognition unit that recognizes the action of the first user based on the predetermined information received from the first information terminal; An information transmission unit that transmits information for determining whether or not the second information terminal held by the second user acquires the predetermined information based on the recognized action of the first user
  • An information processing apparatus comprising: (2) The information processing apparatus according to (1), further including an action recognition information transmission unit that transmits the recognized action of the first user to the second information terminal.
  • the information processing unit according to (2) wherein the behavior recognition information transmission unit transmits the behavior of the first user to another information terminal belonging to the same predetermined group as the first information terminal. apparatus.
  • the behavior recognition information transmitting unit transmits information on the behavior of one recognized user to another user's information terminal according to the behavior recognition level set for each predetermined group.
  • the information processing apparatus described in 1. The behavior recognition information transmission unit may recognize the behavior of the first user recognized by the first information terminal according to the behavior recognition level set with the second information terminal.
  • the information processing apparatus according to (2) which is transmitted to an information terminal.
  • An acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, an operation information acquisition unit that acquires operation information, and the user's information based on the acceleration information, the position information, or the operation information
  • a client terminal having a behavior recognition unit for recognizing behavior; Based on the behavior recognition result information, a receiving unit that receives behavior recognition result information recognized by the behavior recognition unit from the client terminal, and another client terminal held by another user receives the acceleration information or the position information.
  • An information transmission unit that transmits information for determining whether or not to obtain, a server,
  • An information processing system comprising: (7) a client terminal having an acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, and an operation information acquisition unit that acquires operation information; A receiving unit that receives the acceleration information, the position information, or the operation information from the client terminal; and an action recognition unit that recognizes an action of a user who owns the client terminal based on the acceleration information or the position information; An information transmission unit that transmits information for determining whether or not another client terminal owned by another user acquires the acceleration information or the position information based on the recognized behavior of the user; Server, An information processing system comprising: (8) an acceleration sensor for acquiring acceleration information; A location information acquisition unit for acquiring location information; An operation information acquisition unit for acquiring operation information; An action recognition unit that recognizes a user's action based on the acceleration information, the position information, or the operation information; A transmission unit for transmitting the action recognition result information recognized by the action recognition unit to
  • an acceleration sensor for acquiring acceleration information
  • a location information acquisition unit for acquiring location information
  • An operation information acquisition unit for acquiring operation information
  • a transmission unit that transmits the acceleration information, the position information, or the operation information to a server
  • a receiver that receives the action recognition result information recognized by the server based on the acceleration information or the position information received from another client terminal
  • a client terminal that stops an operation of an acceleration sensor or the position information acquisition unit based on the action recognition result information.
  • An information processing method comprising: (11) means for receiving predetermined information from the first information terminal held by the first user and the second information terminal held by the second user; Means for recognizing the action of the first user based on the predetermined information received from the first information terminal; Means for transmitting information for determining whether or not the second information terminal held by the second user acquires the predetermined information based on the recognized behavior of the first user; As a program to make the computer function as.
  • a receiving unit that receives predetermined information from the first information terminal held by the first user and the second information terminal held by the second user;
  • An action recognition unit for recognizing the actions of the first and second users based on the predetermined information received from the first or second information terminal;
  • a correlation score calculation unit for calculating a correlation score representing a degree of correlation between the predetermined information received from the first information terminal and the predetermined information received from the second information terminal;
  • a selection unit that selects an action to be provided to the first user from among the recognized actions of the second user based on the calculated correlation score;
  • a transmitter for transmitting the selected action of the second user to the first information terminal;
  • An information processing apparatus comprising: (13) The information processing apparatus according to (12), wherein the selection unit selects a more detailed action as an action to be provided to the first user as the correlation score is higher.
  • the correlation score calculation unit Associating related information with respect to a plurality of information received from the first information terminal and information received from the second information terminal; For each combination of related information, calculate a correlation subscore that represents the degree of correlation between the information, The information processing apparatus according to (12), wherein for each of the calculated correlation subscores, the correlation score is calculated based on the correlation subscore and a weighting factor representing a contribution of the subscore to the correlation score.
  • the distance between the first and second information terminals, the first and second information terminals The information on the location where the information terminal is located, the actions of the first and second users, or the information about the remaining time until the time set by the first and second users are associated with each other.
  • Information processing device (16) The information processing apparatus according to (12), wherein the correlation score calculation unit includes a geocategorization unit to calculate a correlation score using a degree of correlation between geo category histograms.
  • Action recognition level information for transmitting, to the first and second information terminals, information indicating a level at which the first and second information terminals acquire the predetermined information based on the correlation score
  • the information processing apparatus according to (12) further including a transmission unit.
  • a transmission frequency determining unit that determines the frequency of transmitting the behavior pattern based on the calculated correlation score, The transmission unit transmits the selected second user behavior pattern to the first information terminal at the calculated transmission frequency.
  • An acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, an operation information acquisition unit that acquires operation information, and the user's information based on the acceleration information, the position information, or the operation information
  • An action recognition unit for recognizing action, a first information terminal held by a first user;
  • a second user possesses an acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, and an action recognition unit that recognizes the user's action based on the acceleration information or the position information.
  • a second information terminal From each of the first and second information terminals, a receiving unit that receives the action recognition result information recognized by the action recognition unit, the action recognition result information received from the first information terminal, and the second A correlation score calculation unit that calculates a correlation score representing a degree of correlation of the behavior recognition result information received from the information terminal, and based on the calculated correlation score, A selection unit that selects an action to be provided to the first user, and a transmission unit that transmits the action of the selected second user to the first information terminal;
  • An information processing system comprising: (20) A first information terminal possessed by a first user, having an acceleration sensor that acquires acceleration information, a position information acquisition unit that acquires position information, and an operation information acquisition unit that acquires operation information When, A second information terminal possessed by a second user, comprising: an acceleration sensor that acquires acceleration information; a position information acquisition unit that acquires position information; and an operation information acquisition unit that acquires operation information; Based on the acceleration information, the position information, or the operation information, the first and second information terminals receive
  • An action recognition unit for recognizing actions of the first and second users possessing the second information terminal, action recognition result information obtained as a result of action recognition of the first user, and the second user's action
  • a correlation score calculating unit that calculates a correlation score representing a degree of correlation with the action recognition result information obtained as a result of the action recognition; and based on the calculated correlation score, the action of the recognized second user
  • a server having a selection unit that selects an action to be provided to the first user, and a transmission unit that transmits the action of the selected second user to the first information terminal;
  • An information processing system comprising: (21) an acceleration sensor for acquiring acceleration information; A location information acquisition unit for acquiring location information; An operation information acquisition unit for acquiring operation information; An action recognition unit that recognizes a user's action based on the acceleration information, the position information, or the operation information; A transmission unit for transmitting the action recognition result information recognized by the action recognition unit to a server; A receiver that receives the behavior of the other client terminal selected based on a correlation score
  • a receiving unit that receives an action of the other client terminal selected based on a correlation score with the action;
  • a client terminal comprising: (23) receiving predetermined information from the first information terminal held by the first user and the second information terminal held by the second user; Recognizing the actions of the first and second users based on the predetermined information received from the first or second information terminal; Calculating a correlation score representing a degree of correlation between the predetermined information received from the first information terminal and the predetermined information received from the second information terminal; Selecting an action to be provided to the first user from among the recognized actions of the second user based on the calculated correlation score; Transmitting the selected action of the second user to the first information terminal;
  • An information processing method comprising: (24) means for receiving predetermined information from the first information terminal held by the first user and the second information terminal held by the second user; Means for recognizing the actions of the first and second users based on the predetermined information received from the first or second information terminal; Means for calculating a correlation score representing a degree of correlation between the predetermined information received

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 情報処理装置は、第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する受信部と、前記第1の情報端末から受信した前記所定の情報に基づいて、前記第1のユーザーの行動を認識する行動認識部と、認識した前記第1のユーザーの行動に基づいて、第2のユーザーが保有する第2の情報端末に所定の情報を取得させるための情報を前記第2の情報端末に送信する送信部と、を備える。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関する。
 従来、例えば下記の特許文献1に記載されているように、携帯電話などの通信機能とセンサを搭載した機器において、機器を持ち歩いているユーザーの行動を認識し、その結果をリアルタイムに友人等と共有する技術が知られている。
 また、下記の特許文献2には、コミュニケーションチャンネルを友人との親密度により変更する技術が記載されている。また、下記の特許文献3には、位置情報に対しその場所の属性を検出する技術について記載されている。
特開2006-345269号公報 特開2008-311628号公報 特開2011-81431号公報
 しかしながら、上記従来の技術では、行動認識のためにGPSやWi-Fiの機能を利用する場合、常に行動認識のアプリケーションを起動させていると、携帯端末の消費電力が大きくなってしまう問題がある。
 また、上記従来の技術では、ユーザーの詳細な情報が他のユーザーに伝えられてしまう場合があり、ユーザーのプライバシーが外部に漏れてしまったり、個人情報漏洩等の問題が生じることが想定される。また、上記従来の技術では、ユーザー情報の受け手にとって冗長な情報が提供されることも想定される。
 そこで、行動認識結果を共有する際に、消費電力を低減することが求められていた。
 また、ユーザーのプレゼンス共有の詳細度を柔軟に設定することが求められていた。
 本開示によれば、第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する受信部と、前記第1の情報端末から受信した前記所定の情報に基づいて、前記第1のユーザーの行動を認識する行動認識部と、認識した前記第1のユーザーの行動に基づいて、前記第2のユーザーが保有する前記第2の情報端末が前記所定の情報を取得するか否かを判定するための情報を送信する情報送信部と、を備える、情報処理装置が提供される。
 また、認識した前記第1のユーザーの行動を前記第2の情報端末へ送信する行動認識情報送信部を更に備えるものであっても良い。
 また、前記行動認識情報送信部は、前記第1の情報端末と同じ所定のグループに所属する他の情報端末へ前記第1のユーザーの行動を送信するものであっても良い。
 また、前記行動認識情報送信部は、所定のグループ毎に設定された行動認識レベルに応じて、認識した1のユーザーの行動に関する情報を他のユーザーの情報端末へ送信するものであっても良い。
 また、前記行動認識情報送信部は、前記第1の情報端末が前記第2の情報端末との間で設定した行動認識レベルに応じて、認識した前記1のユーザーの行動を前記第2の情報端末へ送信するものであっても良い。
 また、本開示によれば、加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、を有するクライアント端末と、前記クライアント端末から前記行動認識部が認識した行動認識結果情報を受信する受信部と、前記行動認識結果情報に基づいて、他のユーザーが保有する他のクライアント端末が前記加速度情報又は前記位置情報を取得するか否かを判定するための情報を送信する情報送信部と、を有するサーバーと、を備える、情報処理システムが提供される。
 また、本開示によれば、加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、を有するクライアント端末と、前記クライアント端末から前記加速度情報、前記位置情報又は前記操作情報を受信する受信部と、前記加速度情報又は前記位置情報に基づいて、前記クライアント端末を保有するユーザーの行動を認識する行動認識部と、認識した前記ユーザーの行動に基づいて、他のユーザーが保有する他のクライアント端末が前記加速度情報又は前記位置情報を取得するか否かを判定するための情報を送信する情報送信部と、を有するサーバーと、を備える、情報処理システムが提供される。
 また、本開示によれば、加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、前記行動認識部が認識した行動認識結果情報をサーバーへ送信する送信部と、他のクライアント端末から受信した前記行動認識結果情報に基づいて前記サーバーが送信した情報を受信する受信部と、を備え、前記情報に基づいて、加速度センサ又は前記位置情報取得部の動作を停止させる、クライアント端末が提供される。
 また、本開示によれば、加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、前記加速度情報、前記位置情報又は前記操作情報をサーバーへ送信する送信部と、他のクライアント端末から受信した前記加速度情報又は前記位置情報に基づいて前記サーバーが認識した行動認識結果情報を受信する受信部と、を備え、前記行動認識結果情報に基づいて、加速度センサ又は前記位置情報取得部の動作を停止させる、クライアント端末が提供される。
 また、本開示によれば、第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信することと、前記第1の情報端末から受信した前記所定の情報に基づいて、前記第1のユーザーの行動を認識することと、認識した前記第1のユーザーの行動に基づいて、前記第2のユーザーが保有する前記第2の情報端末が前記所定の情報を取得するか否かを判定するための情報を送信することと、を備える、情報処理方法が提供される。
 また、本開示によれば、第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する手段、前記第1の情報端末から受信した前記所定の情報に基づいて、前記第1のユーザーの行動を認識する手段、認識した前記第1のユーザーの行動に基づいて、前記第2のユーザーが保有する前記第2の情報端末が前記所定の情報を取得するか否かを判定するための情報を送信する手段、としてコンピュータを機能させるためのプログラムが提供される。
 本開示によれば、第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する受信部と、前記第1又は第2の情報端末から受信した前記所定の情報に基づいて、前記第1及び第2のユーザーの行動を認識する行動認識部と、前記第1の情報端末から受信した前記所定の情報と、前記第2の情報端末から受信した前記所定の情報の相関の程度を表す相関スコアを算出する相関スコア算出部と、算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する選択部と、選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する送信部と、を備える、情報処理装置が提供される。
 また、前記選択部は、前記相関スコアが高いほど、前記第1のユーザーへ提供する行動としてより詳細な行動を選択するものであっても良い。
 また、前記相関スコア算出部は、前記第1の情報端末から受信した複数の情報と、前記第2の情報端末から受信した情報とについて、関連する情報同士を対応付け、関連する情報の各組み合わせについて、その情報同士の相関の程度を表す相関サブスコアを算出し、算出した各前記相関サブスコアそれぞれについて、当該相関サブスコアと、前記相関スコアに対する当該サブスコアの寄与を表す重み係数とに基づいて、前記相関スコアを算出するものであっても良い。
 また、前記第1の情報端末から受信した複数の情報と、前記第2の情報端末から受信した情報とについて、前記第1及び第2の情報端末間の距離、前記第1及び第2の情報端末が位置する場所の属性、前記第1及び第2のユーザーの行動、又は前記第1及び第2のユーザーが設定した時刻までの残り時間についての情報同士を対応付けるものであっても良い。
 また、前記相関スコア算出部は、ジオカテゴリヒストグラム同士の相関度を利用して相関スコアを算出するためにジオカテゴライズ部を含むものであっても良い。
 また、前記相関スコアに基づいて、前記第1及び第2の情報端末が前記所定の情報を取得する際のレベルを示す情報を前記第1及び第2の情報端末へ送信する行動認識レベル情報送信部を更に備えるものであっても良い。
 また、算出された前記相関スコアに基づいて、前記行動パターンを送信する頻度を決定する送信頻度決定部を更に備え、前記送信部は、選択された前記第2のユーザーの行動パターンを、算出された前記送信頻度で、前記第1の情報端末へ送信するものであっても良い。
 また、本開示によれば、加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、を有する、第1のユーザーが保有する第1の情報端末と、加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、前記加速度情報又は前記位置情報に基づいてユーザーの行動を認識する行動認識部と、を有する、第2のユーザーが保有する第2の情報端末と、前記第1及び第2の情報端末のそれぞれから、前記行動認識部が認識した行動認識結果情報を受信する受信部と、前記第1の情報端末から受信した前記行動認識結果情報と、前記第2の情報端末から受信した前記行動認識結果情報の相関の程度を表す相関スコアを算出する相関スコア算出部と、算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する選択部と、選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する送信部と、を有するサーバーと、を備える、情報処理システムが提供される。
 また、本開示によれば、加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、を有し、第1のユーザーが保有する第1の情報端末と、加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、を有し、第2のユーザーが保有する第2の情報端末と、前記第1及び第2の情報端末のそれぞれから、前記加速度情報、前記位置情報又は前記操作情報を受信する受信部と、前記加速度情報、前記位置情報又は前記操作情報に基づいて、前記第1及び第2の情報端末を保有する第1及び第2のユーザーの行動を認識する行動認識部と、前記第1のユーザーの行動認識の結果得られた行動認識結果情報と、前記第2のユーザーの行動認識の結果得られた行動認識結果情報との相関の程度を表す相関スコアを算出する相関スコア算出部と、算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する選択部と、選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する送信部と、を有するサーバーと、を備える、情報処理システムが提供される。
 また、本開示によれば、加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、前記行動認識部が認識した行動認識結果情報をサーバーへ送信する送信部と、前記サーバーにおいて前記行動認識結果情報と他のクライアント端末から取得した行動認識結果情報との相関スコアに基づいて選択された前記他のクライアント端末の行動を受信する受信部と、を備える、クライアント端末が提供される。
 また、本開示によれば、加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、前記加速度情報、前記位置情報又は前記操作情報をサーバーへ送信する送信部と、前記サーバーにおいて、前記加速度情報又は前記位置情報に基づいて認識されたユーザーの行動と、他のクライアント端末から受信した前記加速度情報又は前記位置情報に基づいて認識された前記他のクライアント端末のユーザーの行動との相関スコアに基づいて選択された前記他のクライアント端末の行動を受信する受信部と、を備える、クライアント端末が提供される。
 また、本開示によれば、第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信することと、前記第1又は第2の情報端末から受信した前記所定の情報に基づいて、前記第1及び第2のユーザーの行動を認識することと、前記第1の情報端末から受信した前記所定の情報と、前記第2の情報端末から受信した前記所定の情報の相関の程度を表す相関スコアを算出することと、算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択することと、選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信することと、を備える、情報処理方法が提供される。
 また、本開示によれば、第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する手段、前記第1又は第2の情報端末から受信した前記所定の情報に基づいて、前記第1及び第2のユーザーの行動を認識する手段、前記第1の情報端末から受信した前記所定の情報と、前記第2の情報端末から受信した前記所定の情報の相関の程度を表す相関スコアを算出する手段、算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する手段、選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する手段、としてコンピュータを機能させるためのプログラムが提供される。
 本開示によれば、行動認識結果を共有する際に、消費電力を低減することが可能となる。
 また、本開示によれば、ユーザーのプレゼンス共有の詳細度を柔軟に設定することが可能となる。
携帯電話などの通信機能とセンサを搭載した機器において、機器を持ち歩いているユーザーの行動を認識し、その結果をリアルタイムに友人等と共有する技術を示す模式図である。 行動認識の応答遅延を示す模式図である。 第1の実施形態に係るシステム構成を示す模式図である。 Group1に属する4人のユーザーがそれぞれの行動を各ユーザー端末上で共有できることを示す模式図である。 情報を共有するユーザーの行動認識レベルの例を示す模式図である。 ユーザーの行動を表示する仕組みを示す模式図である。 第1の実施形態のサーバー及びユーザー端末の構成を示す模式図である。 グループ内のユーザーの全員がユーザー端末を操作していない状態では、ステップS10以降の処理を中止する例を示す模式図である。 行動認識のレベルに応じて、ユーザー端末の表示が遷移する例を示す模式図である。 表示遷移の状態表示を示す模式図である。 表示遷移の状態表示を示す模式図である。 表示遷移の状態表示を示す模式図である。 公開するグループに行動認識レベルの上限を設定する例、を示す模式図である。 ユーザーが提供する行動認識レベルの上限を公開ユーザーごとに設定する例を示す模式図である。 時間帯に応じて行動認識レベルを変化させた例を示す模式図である。 ユーザーが提供する行動認識結果のレベルの上限を、ユーザーの行動認識結果を利用して制御することで、消費電力を低減する例を示す模式図である。 ユーザーが提供する行動認識結果のレベルの上限を、ユーザーの行動認識結果を利用して制御することで、消費電力を低減する例を示す模式図である。 バッテリー残量に応じて行動認識レベルを制御する例を示す模式図である。 バッテリー残量の低下速度に応じて行動認識レベルを制御する例を示す模式図である。 第1の実施形態の処理を示すフローチャートである。 第2の実施形態の前提となる技術において、友達の行動を共有する仕組みを示す模式図である。 第2の実施形態のサーバー及びユーザー端末の構成を示す模式図である。 第2の実施形態の処理の概要を示す模式図である。 共有するプレゼンスの例を示す模式図である。 プレゼンスを共有するかを決定するための指標を示す模式図である。 共有するプレゼンスと共有レベルを示す模式図である。 共有するプレゼンスと共有レベルを示す模式図である。 共有するプレゼンスと共有レベルを示す模式図である。 第2の実施形態において、友人の行動を共有する仕組みを示す模式図である。 ユーザーAのプレゼンスを共有するレベルを示す模式図である。 ユーザーAのプレゼンスを共有するレベルを示す模式図である。 ユーザーAのプレゼンスを共有するレベルを示す模式図である。 受信するユーザーのプレゼンスに応じた情報が提供される様子を示す模式図である。 共有レベルとスコアを示す模式図である。 ユーザー間の距離を算出し、距離に応じてスコア化する例を示す模式図である。 設定した時刻までの残り時間に応じてスコア化する例を示す模式図である。 行動パターンの相関度を示す模式図である。 ジオカテゴリヒストグラムを比較することでスコアを算出する例を示す模式図である。 ジオカテゴライズ部とその周辺を示す模式図である。 第2の実施形態の処理を示すフローチャートである。 ユーザーが提供する行動認識レベルの上限を公開ユーザーごとに設定し、プレゼンス共有技術と連携する例を示す模式図である。 図41の例の処理を示すシーケンス図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態
  1.1.前提となる技術
  1.2.第1の実施形態のシステム構成
  1.3.第1の実施形態のシステム構成の具体例
  1.4.消費電力低減の具体例
  1.5.ユーザー端末の表示遷移の例
  1.6.ユーザーが公開する行動認識レベルの上限を設定する例
  1.7.ユーザーの現在の状況により行動認識レベルを制御する例
  1.8.使用端末の状況により行動認識レベルを制御する例
  1.9.第1の実施形態の処理フロー
 2.第2の実施形態
  2.1.前提となる技術
  2.2.第2の実施形態のシステム構成
  2.3.プレゼンス共有レベルについて
  2.4.サブスコアによる相関度算出について
  2.5.第2の実施形態の処理フロー
  2.6.行動認識レベルの上限を公開ユーザーごとに設定し、プレゼンス共有技術と連携する例について
 <1.第1の実施形態>
 [1.1.前提となる技術]
 まず、図1を参照して、本開示の前提となる技術について説明する。図1は、前述した特許文献1に記載されているような、携帯電話などの通信機能とセンサを搭載した機器(ユーザー端末1500)において、機器を持ち歩いているユーザーの行動を認識し、その結果をリアルタイムに友人等と共有する技術を示す模式図である。図1では、各ユーザーが保持するユーザー端末1500の表示画面を示している。図1に示す例では、ユーザー(Ken)がバスに乗っている、ユーザー(Tagawa)が座っている、ユーザー(Mike)が走っているなどの各ユーザーの行動を、各ユーザーがリアルタイムに把握(共有)することができる。
 しかしながら、行動認識を行うためには、連続的に加速度センサを解析する必要があり、解析のためにユーザー端末1500が備えるCPU(中央演算処理装置)で演算することで、電力を消費してしまう。また、位置情報を利用する場合には、GPSやWi-Fiなどから位置情報を取得するために更に電力を消費する。
 図2は、図1に示す技術において、行動認識の応答遅延を示す模式図である。図2に示す例では、行動認識を開始してt1数秒後には、行動認識1により携帯電話の状態が取得され、グループに属するユーザー間で共有される。また、行動認識を開始してt2秒後までには、行動認識2によりユーザーの動作状態が取得され、グループに属するユーザー間で共有される。また、行動認識を開始してt3秒後までには、行動認識3によりユーザーの詳細な行動が取得され、グループに属するユーザー間で共有される。このように、行動の種類によって、認識結果が得られるまでの時間がかかり、ユーザーに心理的なストレスを与える要因となる。
 このため、第1の実施形態では、行動の認識結果を公開するメンバーを設定し、そのメンバーの行動に応じて行動認識の処理を制御することにより消費電力の低減を実現する。また、行動認識の応答性能に応じた表示をすることで、ユーザーの待ち時間に対する心理的ストレスを緩和する。
 更に、公開するメンバーごとやグループごとに公開する行動認識レベルの上限を決めておくことで、行動認識レベルを最適に制御し、消費電力を低減する。また、ユーザーの状況や使用端末の状態に基づいて、公開する行動認識レベルを制御する。以下、第1の実施形態について詳細に説明する。
 [1.2.第1の実施形態のシステム構成]
 図3は、第1の実施形態に係るシステム構成を示す模式図である。図3に示すように、第1の実施形態に係るシステムは、サーバー100、ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・を有して構成されている。ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・は、ユーザーA、ユーザーB、ユーザーC、・・・によってそれぞれ使用される。
 各ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・は、自分の行動を公開するグループを共有のサーバー100に設定する。図4は、ユーザーA,B,C,Dのそれぞれが、自分の行動を公開するグループ(group1)に属しており、この4人のユーザーがそれぞれの行動を各ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、ユーザー端末500D上で共有できることを示している。また、ユーザーEは、group1に属していないため、ユーザーA,B,C,Dと行動の共有はできないことを示している。各ユーザーは、同時に複数のグループに属することができる。図4では、ユーザーAは、group1とgroup2に属しており、ユーザーFはgroup2にのみ属している。
 なお、ここでは、各ユーザーが行動認識のために使用するデバイス(ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・)として、携帯電話(ディスプレイを備えセンサを搭載した通信機器)として説明するが、これに限定されるものではない。例えば、行動認識のために使用するデバイスは、ディスプレイを備えていない携帯機器であっても良く、この場合にも本実施形態の消費電力削減技術を適用することが可能である。
 行動認識は、主に2つの手法によって行う。第1の手法は、ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・が備える加速度センサ、ジャイロセンサを用いて行動認識を行う手法である。なお、この行動認識を低次の行動認識と称する場合がある。第1の手法では、ユーザーが「歩いている」、「座っている」、「立ち止まっている」、「ジャンプしている」、「電車に乗っている」、「バスに乗っている」、「自動車に乗っている」等の行動を認識する。ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・は、ユーザーが「歩いている」、「座っている」、「立ち止まっている」、「ジャンプしている」、「電車に乗っている」、「バスに乗っている」、「自動車に乗っている」等の動作に応じた加速度センサ、ジャイロセンサの出力波形を予め保有している。そして、加速度センサ、ジャイロセンサで検出した波形を予め保有している出力波形と比較することにより、ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・は、ユーザーが「歩いている」、「座っている」、「立ち止まっている」、「ジャンプしている」等の動作を認識することができる。なお、ユーザーが歩いている、立ち止まっている、ジャンプしている、等の動作に応じた加速度センサ、ジャイロセンサの出力波形は、予めサーバー100が保有しておき、ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・がセンサの検出波形をサーバー100へ送ることで、サーバー100側でユーザーが「歩いている」、「座っている」、「立ち止まっている」、「ジャンプしている」等の動作を認識することもできる。このように、第1の手法では、ユーザーの動作などユーザー自身の直接的な行動を認識する。第1の手法による行動認識は、例えば特開2010-198595号公報に記載された手法を用いることができる。
 第2の手法は、ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・が備える加速度センサ、ジャイロセンサの情報と、位置情報とを用いて行動認識を行う手法である。なお、この行動認識を高次の行動認識と称する場合がある。第2の手法では、ユーザーが「買い物をしている」、「乗り物に乗っている」、「食事をしている」、「仕事をしている」など、第1の手法よりもユーザーの生活行動に近い行動を認識する。第2の手法では、第1の手法で得られた、ユーザーが「歩いている」、「座っている」、「立ち止まっている」、「ジャンプしている」等の動作と、GPS、Wi-Fi(のアクセスポイント情報)等から得られたユーザーの位置情報(緯度、経度情報)とを組み合わせてユーザーの生活行動を認識する。また、位置情報を取得する方法として、携帯電話で使用している通信網の基地局情報から緯度経度を特定する技術も同様に使用可能である。第2の手法による行動認識は、例えば特開2011-81431号公報に記載された手法を用いることができる。
 第2の手法では、GPS、Wi-Fi等から得られた情報に基づいて、ユーザーの位置情報(緯度、経度情報)を取得する。そして、ユーザーの位置情報と第1の手法で得られたユーザーが「歩いている」、「座っている」、「立ち止まっている」、「ジャンプしている」等の動作とを組み合わせてユーザーの生活行動を認識する。
 具体的には、ユーザーの位置情報と地図データベースの情報を組み合わせることにより、ユーザーの行動と特定する。例えば、ユーザーの位置情報に基づいて、ユーザーが「レストラン」の場所に位置していることが特定され、第1の手法によりユーザーが座っていることが判明した場合、ユーザーが「レストランで食事をしている」ことが認識される。この場合に、時刻が正午12時であれば、ユーザーが「レストランで昼食をとっている」ことが認識される。また、例えばユーザーがオフィス街に位置しており、第1の手法によりユーザーが「座っている」ことが判別されると、ユーザーが「会社で仕事をしている」ことが認識される。
 地図のデータベースの代わりに、ユーザーからのフィードバックに基づいてデータベースを生成しても良い。例えば、ユーザーがオフィス街に位置している場合に、位置情報とともに、ユーザーがオフィス街にいることをフィードバックすることで、その位置情報がオフィス街に相当することが記録される。このような記録情報をデータベース化することで、ユーザーが取得した位置情報に基づいて、ユーザーがいる場所の属性(オフィス、レストラン等)を識別することが可能である。
 以上のように、行動認識として、第1の手法によりユーザーの動作を認識することができ、第2の手法によりユーザーの生活行動を認識することができる。
 図5は、情報を共有するユーザーの行動認識レベルの例を示す模式図である。図5に示すように、行動認識レベル1~3に応じて、共有する情報が異なる。行動認識レベル1では、ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・の操作情報が解析され、同じグループに属するユーザー間で共有される。行動認識レベル2では、レベル1の操作情報に加えて、加速度センサ、ジャイロセンサから得られたセンサ情報が解析され、同じグループに属するユーザー間で共有される。操作情報、及びセンサ情報は、単独または組み合わせで解析される。行動認識レベル3では、レベル1の操作情報、レベル2のセンサ情報に加えて、GPS、Wi-Fiから得られた位置情報が解析され、ユーザー間で共有される。操作情報、センサ情報及び位置情報は、単独または組み合わせで解析される。図5に示すように、行動認識レベルが上がるほど、そのユーザーの状況を詳しく知ることができるが、解析のために電力消費が増大し、また、結果出力の応答も遅くなる。なお、上述したように、センサ情報からは、第1の手法により、ユーザーが「歩き出した」、「立ち止まった」等の行動が認識される。また、センサ情報と位置情報を組み合わせることにより、第2の手法により、ユーザーが「仕事をしている」、「食事をしている」等の行動が認識される。なお、図5では、行動認識レベルを3段階に分けた例を示しているが、行動認識レベルの分割数はこれに限定されるものではない。
 図6は、図1に示した前提となる技術において、ユーザーの行動を表示する仕組みを示す模式図である。ユーザーAとユーザーBはgroup1に属しており、group1内の全ユーザーが行動認識レベル1を行っているものとする。すなわち、group1内の全ユーザーのユーザー端末1500は、各ユーザー端末1500の操作を解析した結果を共有している。
 その後、ステップS10以降の処理が順次行われ、行動認識レベル2、行動認識レベル3の行動認識が行われる。これにより、ユーザーAの「立ち止まった」、「歩き出した」、「走り出した」との行動、及びユーザーBの「携帯を使い始めた」、「携帯を使い終わった」との行動がサーバーに認識され、group1内の全ユーザーで共有される。
 [1.3.第1の実施形態のシステム構成の具体例]
 図7は、第1の実施形態のサーバー100及びユーザー端末500A,500Bの構成を示す模式図である。図7に示すように、サーバー100は、受信部102、行動認識部104、行動認識レベル情報送信部105、行動認識情報送信部106、制御部108、データベース110、送信頻度決定部112を有して構成されている。また、ユーザー端末500Aは、通信部502A、制御部504A、行動認識部506A、表示部508A、入力部510A、加速度センサ512A、GPS等による位置情報取得部514Aを有して構成され、ユーザー端末500Bは、通信部502B、制御部504B、行動認識部506B、表示部508B、入力部510B、加速度センサ512B、GPS等による位置情報取得部514Bを有して構成されている。
 ユーザー端末500Aの通信部502Aは、入力部510A、加速度センサ512A、位置情報取得部514Aから得られたユーザー端末500Aに関する情報(操作情報、センサ情報、位置情報など)をサーバー100へ送信する。また、通信部502Aは、行動認識部506Aで得られた行動認識結果をサーバー100へ送信することもできる。行動認識部506Aは、入力部510A、加速度センサ512A、位置情報取得部514Aから得られたユーザー端末500Aに関する情報(操作情報、センサ情報、位置情報など)に基づいて、上述した第1の手法、第2の手法を用いて行動を認識する。また、ユーザー端末500Aの通信部502Aは、ユーザーBの行動パターン(行動認識結果情報)をサーバー100から受信する。同様に、ユーザー端末500Bの通信部502Bは、入力部510B、加速度センサ512B、位置情報取得部514Bから得られたユーザー端末500Bに関する情報(操作情報、センサ情報、位置情報など)をサーバー100へ送信する。また、通信部502Bは、行動認識部506Bで得られた行動認識結果をサーバー100へ送信することもできる。行動認識部506Bは、入力部510B、加速度センサ512B、位置情報取得部514Bから得られたユーザー端末500Bに関する情報(操作情報、センサ情報、位置情報など)に基づいて、上述した第1の手法、第2の手法を用いて行動を認識する。また、ユーザー端末500Bの通信部502Bは、ユーザーAの行動パターン(行動認識結果情報)をサーバー100から受信する。
 サーバー100の受信部102は、ユーザー端末500A,500Bから操作情報、センサ情報、位置情報などを受信する。また、サーバー100の受信部102は、ユーザー端末500A,500Bが行動認識部506A,506Bで得た行動認識結果を送信した場合は、行動認識結果を受信する。行動認識部104は、ユーザー端末500A,500Bから送られた操作情報、センサ情報、位置情報などに基づいて、ユーザーの行動を認識する。この際、行動認識部104は、上述した第1の手法、第2の手法を用いて行動を認識する。また、行動認識部104は、ユーザー端末500A,500Bが行動認識部506A,506Bで得た行動認識結果を送信した場合は、受信した行動認識結果によるユーザの行動を認識する。行動認識情報送信部106は、認識したユーザーの行動を各ユーザー端末500A,500Bに対して送信する。これにより、各ユーザー端末500A,500Bは、各ユーザーの行動を認識することができる。行動認識レベル情報送信部105は、ユーザー端末の操作が開始されたことが行動認識部104で認識された場合に、後述する行動認識レベルを“2”以上に引き上げるように、行動認識レベルを指定して各ユーザー端末500A,500Bに対して行動認識レベル情報を送信する。制御部108は、CPU(中央演算処理装置)等から構成され、サーバー100の全体を制御する。データベース110は、データを記億する記憶部であって、後述する行動認識レベル、各ユーザーが属するグループ等の情報を記憶している。送信頻度決定部112は、認識したユーザーの行動を行動認識情報送信部106が送信する際の送信頻度を決定する。
 ユーザー端末500Aの行動認識部506Aは、入力部510A、加速度センサ512A、及び位置情報取得部514Aから得られたユーザー端末500Aに関する情報(操作情報、センサ情報、位置情報など)に基づいて、ユーザー端末500Aを保有するユーザーの行動を認識する。同様に、ユーザー端末500Bの行動認識部506Bは、入力部510B、加速度センサ512B、及び位置情報取得部514Bから得られたユーザー端末500Bに関する情報(操作情報、センサ情報、位置情報など)に基づいて、ユーザー端末500Bを保有するユーザーの行動を認識する。行動認識部500A,500Bは、それぞれ、制御部504A,504Bの指令に基づいて、取得する情報についての行動認識レベルを変更する。また、行動認識部506A,506Bは、入力部510A,510Bに入力された情報に基づいて、ユーザーに関する情報を取得する。
 ユーザー端末500A,500Bの表示部508A,508Bは、液晶表示ディスプレイ(LCD)等から構成され、制御部504A,504Bの指示に基づいて、他のユーザーの行動に関する情報を表示する。また、入力部510A,510Bは、タッチセンサ、キーボード等から構成され、ユーザーの操作が入力されるインターフェースとして機能する。
 制御部504A,504Bは、CPU(中央演算処理装置)等から構成され、ユーザー端末500A,500Bの全体を制御する。制御部504A,504Bは、時刻情報を取得するクロックを有している。
 以上のように、サーバー100は、ユーザー端末500A,500Bから取得した情報(操作情報、センサ情報、位置情報など)に基づいて、行動認識部104にて各ユーザーの行動認識を行うことができる。また、ユーザー端末500A,500Bは、それぞれの行動認識部506A,506Bにて行動認識を行うことができる。ユーザー端末500A,500Bから取得した情報(操作情報、センサ情報、位置情報など)に基づいて、サーバー100が行動認識を行う場合、ユーザー端末500A,500Bにおける処理負荷をより低減することができる。
 なお、図7に示すサーバー100の各構成要素は、回路(ハードウェア)、または制御部108とこれを機能させるためのプログラム(ソフトウェア)によって構成することができる。この場合に、そのプログラムは、サーバー100が備える記憶部(データベース110)に格納されることができる。
 同様に、図7に示すユーザー端末500A,500Bの各構成要素は、回路(ハードウェア)、または制御部504A,504Bとこれを機能させるためのプログラム(ソフトウェア)によって構成することができる。この場合に、そのプログラムは、ユーザー端末500A,500Bが備えるメモリなどの記憶部(不図示)に格納されることができる。
 [1.4.消費電力低減の具体例]
 図6において、グループ内のユーザーの全員がユーザー端末500A,500B,・・・の表示アプリを見ていない状態では、ステップS10以降の行動認識2以降の情報は、ユーザー間での共有を停止していても差し支えない。
 このため、本実施形態では、図8に示すように、ユーザーが加入しているグループ内のユーザー全員がユーザー端末500A,500Bを操作していない状態では、ステップS10以降の処理を中止する。これによって、行動認識レベル2,3による行動認識は行われない。そして、グループ内の一人が、ユーザー端末500A,500Bを操作した場合に、行動認識レベル2以上の処理を行う。図8に示す例では、ステップS22において、ユーザーBが「携帯電話の操作を開始した」という行動をサーバー100に送信したことをきっかけとして、グループに属するユーザー端末500A,500B、・・・が行動認識レベル2以上の処理(ステップS22~S38)を開始する。そして、ステップS38において、ユーザーAの「携帯電話の操作を終了した」という行動をサーバー1000に送信したことをきっかけとして、行動認識レベル2以上の処理を停止する。これにより、行動認識レベル2以上の処理を行う時間を限定することが可能となり、消費電力の大幅な低減が可能となる。
 ステップS22では、ユーザー端末500Bの入力部510Bがユーザーの操作を受け、制御部504Bに操作を受けた旨を通知し、制御部504Bは、ユーザーの操作を受けた旨を通信部502Bからサーバー100へ送信させる。
 ステップS24では、サーバー100がユーザー端末500Aに対して、「ユーザーBが携帯を使いだした」という情報とともに、「行動認識レベル2以上での行動認識を開始せよ」との通知を送信する。そして、ユーザー端末500Aの通信部502Aが、サーバー100から「行動認識レベル2以上での行動認識を開始せよ」との通知を受信する。この通知を受けて、ユーザー端末500Aの制御部504Aは、行動認識部506Aによる行動認識のレベルを“行動認識レベル2”に引き上げる。従って、ステップS28、ステップS32では、ユーザーAが「走り出した」、「歩き出した」という情報が行動認識部506Aによって取得され、ステップS30,S34においてユーザー端末500Bへ送信される。
 ステップS36では、入力部510Bに入力された操作情報に基づいて、ユーザーBがユーザー端末500Bを使い終わったことが制御部504Bによって検知され、送信部500Aからサーバー100へユーザー端末500Bを使い終わったことが送信される。サーバー100は、ユーザーBがユーザー端末500Bを使い終わったことをユーザー端末500Aに対して送信する。また、サーバー100は、ユーザー端末500Bの使用が終了したため、「行動認識レベル2を停止せよ」との指示をユーザー端末500Aに対して送信する(ステップS38)。ユーザー端末500Aの制御部504Aは、「行動認識を停止せよ」との指示を受けて、行動認識部506Aによる行動認識を停止させる。これにより、ユーザー情報の取得が停止され、消費電力を低減することが可能となる。
  [1.5.ユーザー端末の表示遷移の例]
 図9は、行動認識のレベルに応じて、ユーザー端末500A,500B,・・・の表示が遷移する例を示す模式図である。図9に示すように、行動認識のレベルに応じて表示状態を遷移させることで、ユーザーが行動認識のレベルを瞬時に認識することができる。図9に示すように、行動認識レベル1では、ユーザー端末500A,500B,・・・のそれぞれの表示部506Aに他のユーザー端末500A,500B,・・・の外観が表示され、外観の色又は明るさに応じて各ユーザーのユーザー端末500A,500B,・・・のオン/オフが表現される。行動認識レベル2では、ユーザー端末500A,500B,・・・のそれぞれの表示部506Aに他のユーザー端末500A,500B,・・・の各ユーザーの動作状態が、人物の外観の表示によって表現される。行動認識レベル2では、ユーザー端末500A,500B,・・・のそれぞれの表示部506Aにおいて、他のユーザーの詳細な行動が、人物、地図、交通機関等の表示によって表現される。
 また、図9に示す表示例において、行動認識の認識結果が得られ、認識結果を共有できるものから共有することで、ユーザーの心理的ストレスを下げることができる。
 図10~図12は、表示遷移の状態表示を示す模式図である。行動解析結果が更新されるたびに、表示が行動認識レベル1~3の間で遷移するが、図10~図12に示す例では、表示がどこまで更新され、今後更新される可能性があるのかを表示する。図10は、現在の行動解析結果を遷移状態単位で示す例を示しており、行動認識1の場合は3つのドット600のうちの左側の1つが点灯し、行動認識2の場合は3つのドット600のうちの左側の2つが点灯し、行動認識3の場合は3つのドット600の全てが点灯する例を示している。これにより、ユーザーは現在の行動認識レベルがどのレベルであるかを認識することができる。
 図11は、行動認識レベル1~3の各レベルにおいて、次の状態に切り替わるまでの残り時間を表示した例を示している。この場合、時間の経過に伴いインジケータ610が右に移動し、次の状態に切り替わるまでの残り時間が減少していることが認識される。
 図12は、表示する画像の透明度、彩度など画像の表示を変える例を示す模式図である。この場合、行動認識3→行動認識2→行動認識1とレベルが下がるにつれて画像の透明度が上昇する。これにより、ユーザーは現在のレベルを瞬時に認識することが可能である。
 図10~図12の例において、ユーザー端末500A,500B,・・・は、サーバー100から行動認識レベルを受信すると、制御部504A,504B,・・・の指令に基づき、行動認識レベルに応じた表示を表示部508A,508B,・・・に表示させる。
 [1.6.ユーザーが公開する行動認識レベルの上限を設定する例]
 次に、ユーザーが公開する行動認識レベルの上限を設定する例について説明する。ユーザーが公開する行動認識レベルの上限を設定することで、不必要な行動認識を回避し、より効率的に消費電力の低減を行うことができる。
 具体的な方法として、以下の(A),(B)の方法を例示する。
(A)公開するグループに対して上限を設定する方法
(B)公開するユーザーごとに上限を設定する方法
 また、第2の実施形態で説明する「プレゼンス共有レベルを動的に変更する方法」を適用すると、(B)で設定された上限の行動認識レベルを直ちに行うのではなく、行動認識から得られた公開相手の状況から、段階的に行動認識レベルを変更させることができる。この例については、第2の実施形態で説明する。
 (A)と(B)を同時に実施することも可能であり、例えば、(B)で全員が設定した上限の最大のものをグループに対する上限(A)としてもよい。または、(A)で設定した上限を超えて(B)が設定された場合は、グループに対する上限(A)を優先してもよい。
 図13は、(A)公開するグループに行動認識レベルの上限を設定する例、を示す模式図である。例えば、図13に示すように、group1に対して行動認識レベル3を上限として共有するという設定がされ、group2に対してレベル1を上限として共有するという設定がされる。これにより、group2のみに属するユーザーFはレベル1を上限に行動認識を行い、group1に属するユーザーA,B,C,Dはレベル3を上限に行動認識を行う。
 図8で説明したユーザー端末500A,500B,・・・の操作に応じた行動認識結果の提供は、グループ毎に行われる。ユーザーB,C,Dがユーザー端末500B,500C,500Dの表示部508B,508C,508D上でアプリケーションを見ておらず、ユーザーFがユーザー端末500F上でアプリケーションを見ている場合、ユーザーAはユーザーFに対してのみ行動認識結果を提供すればよく、group2の設定上限である行動認識レベル1を上限とすればよい。これにより、消費電力を低減することができる。group1に属するユーザーB,C,Dのいずれかがアプリケーションを見始めた場合、そのユーザーが保有するユーザー端末から図8のステップS22と同様の通知がサーバー100に送られ、サーバー100からgroup1に属する他のユーザーに対してステップS24と同様の通知が送られる。これにより、group1の設定上限である行動認識レベル2で行動認識結果が共有される。なお、group毎の公開レベルは、各ユーザー端末500A,500B,・・・からサーバー100に送られた登録情報に基づいて、サーバー110のデータベースに格納されている。
 図14は、(B)ユーザーが提供する行動認識レベルの上限を公開ユーザーごとに設定する例、を示す模式図である。この場合、ユーザーが公開する行動認識レベルを公開相手ユーザーごとに設定する。例えば、図14に示すように、ユーザーAが公開する行動認識レベルを各公開相手に設定している場合を想定する。図14に示す例では、ユーザーAは、ユーザーBに対して行動認識レベル3で自身の行動を提供する。また、ユーザーAは、ユーザーCに対しても行動認識レベル3で自身の行動を提供し、ユーザーDに対しては行動認識レベル2で自身の行動を提供する。なお、上記と同様に、ユーザーB,Cが「端末操作を行っていない」場合には、ユーザーB,Cへ行動認識結果の配信をしなくてよく、ユーザーAはユーザーDに対する行動認識レベル2を上限として行動を提供すればよいことになる。なお、ユーザー毎の公開レベルは、各ユーザー端末500A,500B,・・・からサーバー100に送られた登録情報に基づいて、サーバー110のデータベースに格納されている。
 [1.7.ユーザーの現在の状況により行動認識レベルを制御する例]
 次に、ユーザーの現在の状況により行動認識レベルを制御する方法について説明する。ここでは、以下の(C-1)、(C-2)の方法について説明する。以下に説明する(C-1),(C-2)のそれぞれの単独または組み合わせにより、公開する行動レベルを限定することができる。
(C-1)図15に示すように、ユーザーが提供する行動認識結果のレベルの上限を一日の時間帯ごとにあらかじめ設定しておくことで消費電力を低減する。図15は、時間帯に応じて行動認識レベルを変化させ、比較的ユーザーの行動が少ない夜間は行動認識を行わず、ユーザーが活動的となる昼間に詳細な行動認識を提供するように設定した例を示している。ユーザー端末500A,500B,・・・の制御部504A,504B,・・・は、時刻情報を取得するクロックを備えており、時刻情報に基づいて行動認識部506A,506B,・・・による行動認識レべルを図15のように変更する。
(C-2)ユーザーが提供する行動認識結果のレベルの上限を、ユーザーの行動認識結果を利用して制御することで、消費電力を低減する。図16に示す例では、行動認識レベル3の状態でユーザーが自宅にいることが認識できた場合は、行動認識レベルを“2”に低下させ、その後、一定時間歩いている状態が継続し、場所が移動した可能性が認識されるまでは、行動認識レベルを“2”に下げた状態を継続することで消費電力を低減している。行動認識レベルを“2”に低下させた後、一定時間歩いている状態が継続し、場所が移動した可能性が認識された場合は、行動認識レベルを“3”に上げる。また、図17に示す例では、行動認識レベル3でユーザーが車(自動車)に乗っていることが認識できている状況では、行動認識レベルを“2”に引き下げ、姿勢変化が起こるまではレベル2に引き下げた状態を継続することで消費電力を低減する例を示している。行動認識レベルを“2”に引き下げた後、姿勢変化が起こった場合は、行動認識レベルを3に引き上げる。いずれの例においても、制御部504A,504B,・・・は、行動認識部506A,506B,・・・が取得した行動認識結果に基づいて、行動認識部506A,506B,・・・による行動認識レベルを変更する。
 [1.8.使用端末の状況により行動認識レベルを制御する例]
 次に、使用端末の状況により行動認識レベルを制御することで消費電力の低減を行う方法について説明する。ここでは、以下の(D-1)、(D-2)、(D-3)の方法について説明する。なお、以下に示す(D-1)、(D-2)、(D-3)のそれぞれは、単独でもその組み合わせでも適用が可能である。
 図18では、ユーザー端末500A,500B,・・・のバッテリー残量に応じて行動認識レベルを制御する例を示している。図18に示すようなユーザー端末500A,500B,・・・の動的な状況の変化により、行動認識レベルの変更が可能である。
(D-1)バッテリー状態による行動認識レベルの制御を行う。バッテリー残量が少なくなると、行動認識レベルの上限を引き下げ、消費電力を低減する。図18に示す例では、バッテリ残量が50%から25%までの間では、行動認識レベルの上限をレベル2に引き下げ、バッテリ残量が25%未満から10%までの間はレベル1の行動認識を行う設定例を示している。これにより、行動認識レベルが高くなるほど消費電力は増加するため、バッテリー残量が少ないほど行動認識レベルを低下させることで、バッテリーの残量の低下を抑えることができる。
(D-2)バッテリー残量の減少速度が速い場合も、行動認識レベルを下げ、消費電力を低減する。図19に示す例では、バッテリー残量の低下速度が5%/hよりも速い場合は、行動認識レベルの上限をレベル2に引き下げ、10%/hよりも速い場合には、レベル1まで引き下げている。また、図19に示す例では、バッテリー残量の低下速度15%/hよりも速い場合は行動認識を停止するように設定している。これにより、バッテリーの残量の低下を抑えることができる。
(D-3)位置情報取得の状況(GPS/Wi-Fi/3G...)
 ユーザー端末500A,500B,・・・が位置情報を取得できない状況では、位置情報を使用しない行動認識レベルに変更する。これにより、ユーザー端末500A,500B,・・・が無駄に位置情報の取得を試みて電力を消費してしまうことを抑止できる。また、ユーザー端末500A,500Bが取得できた位置情報の精度に応じて、現在の行動認識の精度が保証できない場合には行動認識レベルを下げることもできる。
 (D-1),(D-2)の場合、ユーザー端末500A,500B,・・・の制御部504A,504B,・・・は、ユーザー端末500A,500B,・・・のバッテリー(図7において不図示)の残量、またはバッテリーの減少速度を取得し、バッテリー残量、またはバッテリーの減少速度に基づいて、行動認識部506A,506B,・・・による行動認識レベルを変更する。また、(D-3)の場合、行動認識部506A,506B,・・・は、GPS等により位置情報を取得できない状況では、制御部504A,504B,・・・に対してその旨を通知し、制御部504A,504B,・・・は行動認識部506A,506B,・・・に対して位置情報を使用しない行動認識レベルに変更させる。
 [1.9.第1の実施形態の処理フロー]
 図20は、本実施形態の処理を示すフローチャートである。先ず、ステップS101では、ユーザー端末500A,500B,・・・がサーバー100へ端末情報を送信する。次のステップS102では、サーバー100がユーザー端末500A,500B,・・・から送られた端末情報を受信する。端末情報には、ユーザー端末500A,500Bに関する情報(操作情報、センサ情報、位置情報など)が含まれる。次のステップS103では、サーバー100が端末情報に基づいて各ユーザー端末500の行動を認識する。
 次のステップS104では、サーバー100が各ユーザー端末500へ提供する行動パターンを送信する。次のステップS106では、ユーザー端末500が、ステップS104でサーバー100が送信した他のユーザーの行動を受信する。次のステップS107では、ユーザー端末500が、他のユーザーの行動パターンを表示する。
 以上説明したように第1の実施形態によれば、行動認識レベルを制御することで、消費電力を低減することが可能となる。
 <2.第2の実施形態>
 [2.1.前提となる技術]
 次に、本開示の第2の実施形態について説明する。図21は、本実施形態の前提となる技術において、友達の行動を共有する仕組みを示す模式図である。第1の実施形態と同様に、第2の実施形態に係るシステムは、サーバー200、ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・を有して構成されている。ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・は、ユーザーA、ユーザーB、ユーザーC、・・・によってそれぞれ使用される。
 図21において、各ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・は、無線通信ネットワークを介して、サーバー200へ「音楽を聴いている」、「湘南付近にいる」、「ショッピングモールにいる」、「買い物をしている」等の情報を送ることができる。
 しかしながら、図21に示すシステムでは、グループまたは個人に対して提供する行動認識結果は一様であり、公開レベルを設定することは想定していない。そこで、本実施形態では、「ユーザーが公開する行動認識結果の公開レベルを設定することを可能にし、公開レベルをユーザー本人や公開する相手の状況に応じて動的に変化させる」ことにより、新しいユーザー体験を提供する。本実施形態では、不必要に自分の行動を公開することを避けることができ、個人の情報を保護することができる。
 [2.2.第2の実施形態のシステム構成]
 図22は、第2の実施形態のサーバー200及びユーザー端末500A,500Bの構成を示す模式図である。図22に示すように、サーバー200は、受信部202、行動認識部204、相関スコア算出部208、選択部210、送信部212、送信頻度決定部214、制御部216、データベース218を有して構成されている。ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・の構成は、第1の実施形態と同様である。
 ユーザー端末500Aの通信部502Aは、ユーザー端末500Aに関する情報(操作情報、センサ情報、位置情報など)をサーバー200へ送信する。また、通信部502Aは、行動認識部506Aで得られた行動認識結果をサーバー100へ送信することもできる。行動認識部506Aは、入力部510A、加速度センサ512A、位置情報取得部514Aから得られたユーザー端末500Aに関する情報(操作情報、センサ情報、位置情報など)に基づいて、上述した第1の手法、第2の手法を用いて行動を認識する。また、ユーザー端末500Aは、ユーザーBの行動パターン(行動認識結果情報)をサーバー200から受信する。同様に、ユーザー端末500Bの通信部502Bは、入力部510B、加速度センサ512B、位置情報取得部514Bから得られたユーザー端末500Bに関する情報(操作情報、センサ情報、位置情報など)をサーバー200へ送信する。また、通信部502Bは、行動認識部506Bで得られた行動認識結果をサーバー100へ送信することもできる。行動認識部506Bは、入力部510B、加速度センサ512B、位置情報取得部514Bから得られたユーザー端末500Bに関する情報(操作情報、センサ情報、位置情報など)に基づいて、上述した第1の手法、第2の手法を用いて行動を認識する。また、ユーザー端末500Bの通信部502Bは、ユーザーAの行動パターン(行動認識結果情報)をサーバー200から受信する。
 サーバー200の受信部202は、ユーザー端末500A,500Bから操作情報、センサ情報、位置情報などを受信する。また、サーバー200の受信部202は、ユーザー端末500A,500Bが行動認識部506A,506Bで得た行動認識結果を送信した場合は、行動認識結果を受信する。行動認識部204は、ユーザー端末500A,500Bから送られた操作情報、センサ情報、位置情報などに基づいて、ユーザーの行動を認識する。この際、行動認識部104は、上述した第1の手法、第2の手法を用いて行動を認識する。また、行動認識部104は、ユーザー端末500A,500Bが行動認識部506A,506Bで得た行動認識結果を送信した場合は、受信した行動認識結果によるユーザーの行動を認識する。相関スコア算出部208は、ユーザー端末500A,500Bの各ユーザーA,Bの行動の相関スコアを算出する。選択部210は、相関スコアに基づいて、ユーザー端末500A,500Bに送信するユーザーの行動を選択する。送信部212は、選択部210によって選択されたユーザーの行動(の情報)を各ユーザー端末500A,500Bへ送信する。送信頻度決定部214は、送信部212がユーザーの行動を送信する際の送信頻度を決定する。行動認識レベル情報送信部220は、相関スコアに基づいて、第1の実施形態で説明した行動認識レベルを“2”以上に引き上げるように、行動認識レベルを指定して各ユーザー端末500A,500Bに対して行動認識レベル情報を送信する。制御部216は、CPU(中央演算処理装置)等から構成され、サーバー200の全体を制御する。データベース218は、データを記億する記憶部であって、後述する行動認識レベル、各ユーザーが属するグループ等の情報を記憶している。送信頻度決定部214は、認識したユーザーの行動を行動認識情報送信部106が送信する際の送信頻度を決定する。
 以上のように、サーバー200は、ユーザー端末500A,500Bから取得した情報(操作情報、センサ情報、位置情報など)に基づいて、行動認識部104にて各ユーザーの行動認識を行うことができる。また、ユーザー端末500A,500Bは、それぞれの行動認識部506A,506Bにて行動認識を行うことができる。ユーザー端末500A,500Bから取得した情報(操作情報、センサ情報、位置情報など)に基づいて、サーバー200が行動認識を行う場合、ユーザー端末500A,500Bにおける処理負荷をより低減することができる。
 なお、図22に示すサーバー200の各構成要素は、回路(ハードウェア)、または制御部216とこれを機能させるためのプログラム(ソフトウェア)によって構成することができる。この場合に、そのプログラムは、サーバー200が備える記憶部(データベース218)に格納されることができる。
 [2.3.プレゼンス共有レベルについて]
 図23は、第2の実施形態の処理の概要を示す模式図である。図23に示すように、各ユーザーは、自分のプレゼンス(行動・状態)の共有レベルを多段階で保持している。図23では、ユーザーAのプレゼンスをユーザーB,C,Dへ共有する仕組みを表している。ユーザーAは自分のプレゼンスを共有するレベルを1からNまで設定できるようになっており、それぞれのレベルは包含関係にある。また、ユーザーB,C,Dは、ある尺度によりユーザーAとの関係をスコア化し、ユーザーAとの相対的な状況に応じてスコアを動的に算出することでユーザーAから提供されるプレゼンスの結果が変化する。共有レベルが1に近いほど詳細な情報を共有し、共有レベル1が最も詳細な情報を共有するものとする。
 図24は、共有するプレゼンスの例を示す模式図である。図14に示すように、共有するプレゼンスとしては、身体情報、位置情報、行動情報、環境情報、視聴情報、アピアランス情報、バディ情報、思考情報が挙げられる。これらの情報は、各ユーザー端末500A,500B,・・・の行動認識部506A,506B,・・・によって取得(検出)される。
 また、図25は、どのレベルでプレゼンスを共有するかを決定するための指標を示す模式図である。図25に示すように、地理的な距離、場所属性の相関度、行動パターンの相関度、ユーザー同士が互いに設定したイベントまでの残り時間、親密度に応じて、共有レベルが設定される。
 また、図26~図28は、プレゼンスと共有レベルを示す模式図である。図26~図28に示すように、プレゼンスの共有ベルを4段階とし、視聴情報、行動情報、位置情報などプレゼンスの提供レベルをユーザーごとに設定し、サーバー200に登録しておく。共有レベルは、サーバー200のデータベース218に登録される。この際、全ての共有相手に対して同一の設定を用いてもよいし、共有する相手ごとに設定を変えてもよい。
 図29は、第2の実施形態において、友人の行動を共有する仕組みを示す模式図である。図29に示すように、ユーザーDのプレゼンスをサーバーに送信し、ユーザーDとユーザーAとのスコアを算出する。そして、算出したスコアにより共有するレベルを決定し、ユーザーDに提供すべきユーザーAの情報が限定され、ユーザーDに提供される。図30~図32は、ユーザーAとユーザーDとの間のプレゼンスの共有レベルを示しており、共有レベルは、視聴情報、行動情報、位置情報のそれぞれでレベル3とされている。従って、図29に示す例では、視聴情報、行動情報、位置情報のそれぞれについて、共有レベル3までの情報がユーザーAとユーザーDとの間で共有されることになる。
 図33は、受信するユーザーのプレゼンスに応じた情報が提供される様子を示す模式図である。図33に示すように、ユーザーAは、音楽を聴いており、湘南付近にいて、ショッピングモールにいて、買い物をしているものとする。ユーザーBは、ユーザーAとの共有レベルが“1”であり、視聴情報として、アーチスト名、聴いている楽曲名、及び聴いている楽曲の共有が可能であり、位置情報として「湘南付近の買い物する場所にいる」、行動情報として「買い物をしている」を共有可能である。ユーザーCは、ユーザーAとの共有レベルが“2”であり、視聴情報として、アーチスト名、聴いている楽曲名を共有可能であり、位置情報として「湘南付近の買い物をする場所にいる」、行動情報として「歩いている」を共有可能である。ユーザーDは、ユーザーAとの共有レベルが“3”であり、視聴情報としてアーチスト名を共有可能であり、位置情報として「湘南にいる」、行動情報として「立っている」を共有可能である。このように、ユーザーAとの共有レベルに応じて、ユーザーAとユーザーB~Dのそれぞれが共有する情報を変化させることが可能である。
 図34は、共有レベルとスコアを示す模式図である。例えば、スコアを0.0~1.0の値とし、スコアの値が大きいほど詳細なプレゼンスを共有できるものとする。図34に示すように、スコアと共有レベルを対応づけ、全ての共有するプレゼンスのレベルに対して同一のスコアを割り当ててもよいし、それぞれのプレゼンスに対して、個別にスコアを割り当ててもよい。例えば、視聴情報、行動情報、位置情報のそれぞれについて同一のスコアを割り当てても良いし、視聴情報、行動情報、位置情報のそれぞれについて異なる個別のスコアを割り当てても良い。
 [2.4.サブスコアによる相関度算出ついて]
 次に、サブスコアについて説明する。また、以下に示すような尺度で複数のサブスコアを計算し、それぞれに重みをつけて加算することでユーザー間のスコアとすることができる。たとえば、下記のように変数を定義する。
地理的な距離から算出されたサブスコア:Sgeo
場所属性の相関度:Slcorr
行動パターンの相関度:Sacorr
設定した時刻までの残り時間:Stime
ユーザーAに対するユーザーBのスコアScoreBtoAは、重み係数Wを用いて下記のように表現できる。
ScoreBtoA=(Wgeo*Sgeo+Wlcorr*Slcorr+Wacorr*Sacorr+Wtime*Stime)/Wsum
Wsum=Wgeo+Wlcorr+Wacorr+Wtime
(0.0≦W≦1.0 ただし、0.0<Wsum, 0.0≦S≦1.0)
また、共有するプレゼンスに対して個別のScoreBtoAを算出してもよい。
 また、図25に示したように、共有するかを決定するための尺度として、以下のものが挙げられる。
地理的な距離
場所属性の相関度(ふたりとも買い物する場所にいるなど)
行動パターンの相関度(ふたりとも電車に乗っているなど)
お互いが設定したイベントまでの残り時間
親密度(会話の頻度など)
 サブスコア:Sgeoについては、緯度経度および高度を利用してユーザー間の距離を算出し、距離に応じてスコア化することもできる。例えば、図35に示すように、ユーザーXとユーザーYの距離(distxy)を求め、距離distxyが閾値distA以下であれば、スコア1.0とし、distB以上であれば、スコア0.0とし、その中間であれば、中間値をとるようにする。このように、距離が近いほどサブスコアを高くすることにより、共有レベルを高くすることができ、より詳細な情報を共有することが可能である。
 また、図36は、設定した時刻までの残り時間に応じてスコア化する例を示す模式図である。サブスコア:Stimeについては、設定した時刻までの残り時間に基づいて設定することができる。例えば、ユーザー同士がある時刻にある場所で会うという待ち合わせをしている状況を想定する。通常、待ち合わせの時刻が近づいてきた場合、あるいは待ち合わせの時刻が過ぎてしまった場合には、相手の状況を詳細に知りたいと感じる。一方、待ち合わせの時刻がまだ先である場合、相手の状況を詳細に知る必要はなく、相手の詳細な情報は冗長な情報となることが起こり得る。図36に示すように、サブスコアの算出方法の一例として、待ち合わせなどのイベントが発生する時刻と現在時刻から得られる残り時間をRemainとして、ある残り時間remainA以下になった場合にスコア1.0とし、remainB以上の場合にはスコア0.0とする。残り時間がremainAとremainBの間の場合には中間値をサブスコアとする。これにより、待ち合わせの時間が近付くにつれて、より詳細な情報を共有することが可能となる。
 次に、行動パターンの相関度(サブスコア:Sacorr)について説明する。「買い物している」、「仕事している」、「電車に乗っている」、「通勤中」など、ユーザーの行動や行動の組み合わせを行動パターンとし、相関度を求める。例えば、ユーザーそれぞれが、「電車に乗っている」状態であった場合、その場所にかかわらず、似たような状況を体験している可能性が高く、現在興味を持っている事が近い状態にあり、詳細な状況を共有するのに有意義な状態であるといえる。従って、行動パターンの相関度が近いほど、共有レベルを高くすることで、より詳細な情報を共有できるようにする。
 図37は、行動パターンの相関度を示す模式図である。図37に示すように、相関度の算出方法の例として、それぞれの行動の相関度を定義した表を用いることができる。図37の表によれば、ユーザーXとユーザーYの現在の行動に基づいて、ユーザーXとユーザーYの行動の相関度を検索することができる。これにより、ユーザーXとユーザーYの行動に基づいて、相関度を算出することができる。
 次に、場所属性(サブスコア:Slcorr)について説明する。「買い物する場所」、「勉強する場所」、「仕事をする場所」など、ある場所に関連する行動情報を場所属性とする。ユーザー同士は遠くに離れていても、どちらも同じ場所属性の場所にいる場合には、似ている行動をしている可能性が高く、現在興味を持っている事が近い状態にあり、詳細な状況を共有するのに有意義な状態であるといえる。従って、場所の関連性が高いほど、ユーザーXとユーザーYのスコアは高くなる。
 また、一意に場所属性を決定できない状況であっても、ジオカテゴリヒストグラムを比較することでスコアを算出することができる。ジオカテゴリヒストグラムについては、例えば前述の特許文献3に記載されている。相関度の算出方法のひとつとして、ベクトルの要素に、ジオカテゴリヒストグラムのそれぞれの要素をもつベクトルGeoを考える。
Case XとCase Yの相関度Corrxyは、
Corrxy=Geox・Geoy/(|Geox||Geoy|)
として表すことができる。
 例えば、図38に示すような4つの要素からなるジオカテゴリヒストグラムがあるものする。度数は0以上の値を持つものとする。図38に示す例では、Case OとCase Aの相関度(=1.0)が最も高く、Case OとCase Cの相関度(=0.23)が最も低くなる。
 図39は、サーバー200の相関スコア算出部208に含まれるジオカテゴライズ部208aとその周辺を示す模式図である。ジオカテゴライズ部208aは、緯度・経度データを入力として、地図データベース(専用のものでなくてもよい)を参照し、その位置カテゴリ(ジオカテゴリ)、その周辺カテゴリを数値化したもの(ジオカテゴリヒストグラム)を出力する。緯度・経度データは、ある一点におけるものでも良いし、時系列データであってもよい。またクラスタリング技術によりクラスタされた代表点を表すものでもよい。
 [2.5.第2の実施形態の処理フロー]
 図40は、第2の実施形態のサーバー200における処理を示すフローチャートである。先ず、ステップS201では、ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・がサーバー200へ端末情報を送信する。次のステップS202では、サーバー200が端末情報を受信する。端末情報は、視聴情報、行動情報、位置情報などのプレゼンスの情報を含む。次のステップS203では、サーバー200が各ユーザーの行動及び端末状態を認識する。次のステップS204では、サーバー200が相関スコアを算出する。次のステップS205では、相関スコアに基づいてユーザーへ提供する行動を選択する。次のステップS206では、サーバー200が選択したユーザーの行動を送信する。次のステップS207では、ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・が、ステップS206で送信されたユーザーの行動を受信する。次のステップS208では、ユーザー端末500A、ユーザー端末500B、ユーザー端末500C、・・・が、ステップS207で受信した行動に基づいて、他のユーザーの行動を表示する。
 [2.6.行動認識レベルの上限を公開ユーザーごとに設定し、プレゼンス共有技術と連携する例について]
 次に、図41に基づいて、(B’)ユーザーが提供する行動認識レベルの上限を公開ユーザーごとに設定し、プレゼンス共有技術と連携する例について説明する。この場合、第1の実施形態と同様に、ユーザーが公開する行動認識レベルを公開相手ユーザーごとに設定する。そして、第1の実施形態と同様に、ユーザーB,Cが「携帯操作を行っていない」場合には、ユーザーB,Cへ行動認識結果の配信をしなくてよく、ユーザーAは行動認識共有レベル2を上限として行えばよいことになる。更に、「プレゼンス共有レベルを動的に変更する方法」を適用すると、ユーザーB,Cが「携帯操作を行った」場合でも、ユーザーB,Cの行動とユーザーAの行動の相関スコアに応じて提供する行動認識公開レベルを段階的に変更することができる。従って、行動認識公開レベルに必要な行動認識レベルを設定すればよい。
 図42は、図41の例の処理を示すシーケンス図である。先ず、ステップS300でユーザーBがユーザー端末500Bを使い始めると、ステップS302では、サーバー200が、「公開レベル3まで共有せよ」との指示をユーザー端末500Aに対して送信する。次に、ステップS304では、ユーザーAが「歩き出した」という情報がサーバー200へ送信され、ステップS306では、その情報がユーザー端末500Bへ送信される。次に、ステップS308では、ユーザーAが「座った」という情報がサーバー200へ送信され、ステップS310では、その情報がユーザー端末500Bへ送信される。このようにして、ユーザーAの行動がユーザーAとユーザーBの間で共有される。
 次に、ステップS312では、ユーザーAが「携帯を使い始めた」という情報がサーバー200へ送信される。サーバー200は、この情報を受けて、ステップS314において「公開レベル3まで共有せよ」との指示をユーザー端末500Bに対して送信する。これにより、ユーザー端末500Bは、公開レベルを1に設定する。
 次に、ステップS316では、ユーザーBが「座った」という情報がサーバー200へ送信され、ステップS318では、その情報がユーザー端末500Bへ送信される。ここで、サーバー200は、ユーザーAとユーザーBの双方が「座った」という情報が得られたため、相関スコアに基づいて公開レベルを“2”に引き上げ、「公開レベル2まで共有せよ」との指示をユーザー端末500A,500Bの双方に対して送信する(ステップS320,S322)。
 次に、ステップS324では、ユーザーBが茅ヶ崎にて「座っている」という情報がサーバー200へ送信される。次のステップS326では、ユーザーAが鎌倉にて「座っている」という情報がサーバー200へ送信される。次のステップS328では、ユーザーBが茅ヶ崎にて「座っている」という情報がサーバー200からユーザー端末500Aへ送信される。次に、ステップS330では、ユーザーAが鎌倉にて「座っている」という情報がサーバー200からユーザー端末500Bへ送信される。ここで、ユーザーAとユーザーBの双方が、比較的距離の近い鎌倉と茅ヶ崎のそれぞれで「座った」という情報が得られたため、サーバー200で算出される相関スコアがより高くなる。このため、サーバー200は、相関スコアに基づいて公開レベルを“1”に引き上げ、「公開レベル1まで共有せよ」との指示をユーザー端末500A,500Bの双方に対して送信する(ステップS332,S334)。
 その後、ステップS336では、ユーザーBが茅ヶ崎にて座っており食事中である、という情報がサーバー200へ送信される。次のステップS338では、ユーザーAが鎌倉にて座っており買い物中である、という情報がサーバー200へ送信される。次のステップS340では、ユーザーBが茅ヶ崎にて座っており食事中である、という情報がサーバー200からユーザー端末500Aへ送信される。次に、ステップS342では、ユーザーAが鎌倉にて座っており買い物中である、という情報がサーバー200からユーザー端末500Bへ送信される。
 以上のように、図42の処理によれば、ユーザーAとユーザーBの行動の相関度に基づいて、共有レベルを動的に変更していくことが可能となる。従って、各ユーザーは、行動の相関度がより高い他のユーザーの行動を詳細に知ることが可能となる。
 更に、共有レベルとともに第1の実施形態で説明した行動認識レベルを変更することで、ユーザーAとユーザーBの行動の相関度に基づいて行動認識レベルを動的に変更することが可能となる。これにより、ユーザーAとユーザーBの行動の相関度に基づいて、行動認識部506A,506B,・・・の行動認識レベルを動的に変更することができるため、相関度に基づいて各ユーザー端末500A,500Bの消費電力を低減することができる。従って、相関度が低いほど、行動認識レベルを低下させることができるので、相関度が低いユーザー端末500A,500Bの消費電力を共に削減することが可能である。
 以上説明したように第2の実施形態によれば、ユーザーの行動の相関度に基づいて、相関度の高いユーザー同士がより詳細な情報を交換することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する受信部と、
 前記第1の情報端末から受信した前記所定の情報に基づいて、前記第1のユーザーの行動を認識する行動認識部と、
 認識した前記第1のユーザーの行動に基づいて、前記第2のユーザーが保有する前記第2の情報端末が前記所定の情報を取得するか否かを判定するための情報を送信する情報送信部と、
 を備える、情報処理装置。
(2)認識した前記第1のユーザーの行動を前記第2の情報端末へ送信する行動認識情報送信部を更に備える、前記(1)に記載の情報処理装置。
(3)前記行動認識情報送信部は、前記第1の情報端末と同じ所定のグループに所属する他の情報端末へ前記第1のユーザーの行動を送信する、前記(2)に記載の情報処理装置。
(4)前記行動認識情報送信部は、所定のグループ毎に設定された行動認識レベルに応じて、認識した1のユーザーの行動に関する情報を他のユーザーの情報端末へ送信する、前記(2)に記載の情報処理装置。
(5)前記行動認識情報送信部は、前記第1の情報端末が前記第2の情報端末との間で設定した行動認識レベルに応じて、認識した前記1のユーザーの行動を前記第2の情報端末へ送信する、前記(2)に記載の情報処理装置。
(6)加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、を有するクライアント端末と、
 前記クライアント端末から前記行動認識部が認識した行動認識結果情報を受信する受信部と、前記行動認識結果情報に基づいて、他のユーザーが保有する他のクライアント端末が前記加速度情報又は前記位置情報を取得するか否かを判定するための情報を送信する情報送信部と、を有するサーバーと、
 を備える、情報処理システム。
(7)加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、を有するクライアント端末と、
 前記クライアント端末から前記加速度情報、前記位置情報又は前記操作情報を受信する受信部と、前記加速度情報又は前記位置情報に基づいて、前記クライアント端末を保有するユーザーの行動を認識する行動認識部と、認識した前記ユーザーの行動に基づいて、他のユーザーが保有する他のクライアント端末が前記加速度情報又は前記位置情報を取得するか否かを判定するための情報を送信する情報送信部と、を有するサーバーと、
 を備える、情報処理システム。
(8)加速度情報を取得する加速度センサと、
 位置情報を取得する位置情報取得部と、
 操作情報を取得する操作情報取得部と、
 前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、
 前記行動認識部が認識した行動認識結果情報をサーバーへ送信する送信部と、
 他のクライアント端末から受信した前記行動認識結果情報に基づいて前記サーバーが送信した情報を受信する受信部と、を備え、
 前記情報に基づいて、加速度センサ又は前記位置情報取得部の動作を停止させる、クライアント端末。
(9)加速度情報を取得する加速度センサと、
 位置情報を取得する位置情報取得部と、
 操作情報を取得する操作情報取得部と、
 前記加速度情報、前記位置情報又は前記操作情報をサーバーへ送信する送信部と、
 他のクライアント端末から受信した前記加速度情報又は前記位置情報に基づいて前記サーバーが認識した行動認識結果情報を受信する受信部と、を備え、
 前記行動認識結果情報に基づいて、加速度センサ又は前記位置情報取得部の動作を停止させる、クライアント端末。
(10)第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信することと、
 前記第1の情報端末から受信した前記所定の情報に基づいて、前記第1のユーザーの行動を認識することと、
 認識した前記第1のユーザーの行動に基づいて、前記第2のユーザーが保有する前記第2の情報端末が前記所定の情報を取得するか否かを判定するための情報を送信することと、
 を備える、情報処理方法。
(11)第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する手段、
 前記第1の情報端末から受信した前記所定の情報に基づいて、前記第1のユーザーの行動を認識する手段、
 認識した前記第1のユーザーの行動に基づいて、前記第2のユーザーが保有する前記第2の情報端末が前記所定の情報を取得するか否かを判定するための情報を送信する手段、
 としてコンピュータを機能させるためのプログラム。
(12)第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する受信部と、
 前記第1又は第2の情報端末から受信した前記所定の情報に基づいて、前記第1及び第2のユーザーの行動を認識する行動認識部と、
 前記第1の情報端末から受信した前記所定の情報と、前記第2の情報端末から受信した前記所定の情報の相関の程度を表す相関スコアを算出する相関スコア算出部と、
 算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する選択部と、
 選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する送信部と、
を備える、情報処理装置。
(13)前記選択部は、前記相関スコアが高いほど、前記第1のユーザーへ提供する行動としてより詳細な行動を選択する、前記(12)に記載の情報処理装置。
(14)前記相関スコア算出部は、
 前記第1の情報端末から受信した複数の情報と、前記第2の情報端末から受信した情報とについて、関連する情報同士を対応付け、
 関連する情報の各組み合わせについて、その情報同士の相関の程度を表す相関サブスコアを算出し、
 算出した各前記相関サブスコアそれぞれについて、当該相関サブスコアと、前記相関スコアに対する当該サブスコアの寄与を表す重み係数とに基づいて、前記相関スコアを算出する、前記(12)に記載の情報処理装置。
(15)前記第1の情報端末から受信した複数の情報と、前記第2の情報端末から受信した情報とについて、前記第1及び第2の情報端末間の距離、前記第1及び第2の情報端末が位置する場所の属性、前記第1及び第2のユーザーの行動、又は前記第1及び第2のユーザーが設定した時刻までの残り時間についての情報同士を対応付ける、前記(14)に記載の情報処理装置。
(16)前記相関スコア算出部は、ジオカテゴリヒストグラム同士の相関度を利用して相関スコアを算出するためにジオカテゴライズ部を含む、前記(12)に記載の情報処理装置。
(17)前記相関スコアに基づいて、前記第1及び第2の情報端末が前記所定の情報を取得する際のレベルを示す情報を前記第1及び第2の情報端末へ送信する行動認識レベル情報送信部を更に備える、前記(12)に記載の情報処理装置。
(18)算出された前記相関スコアに基づいて、前記行動パターンを送信する頻度を決定する送信頻度決定部を更に備え、
 前記送信部は、選択された前記第2のユーザーの行動パターンを、算出された前記送信頻度で、前記第1の情報端末へ送信する、
 前記(12)に記載の情報処理装置。
(19)加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、を有する、第1のユーザーが保有する第1の情報端末と、
 加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、前記加速度情報又は前記位置情報に基づいてユーザーの行動を認識する行動認識部と、を有する、第2のユーザーが保有する第2の情報端末と、
 前記第1及び第2の情報端末のそれぞれから、前記行動認識部が認識した行動認識結果情報を受信する受信部と、前記第1の情報端末から受信した前記行動認識結果情報と、前記第2の情報端末から受信した前記行動認識結果情報の相関の程度を表す相関スコアを算出する相関スコア算出部と、算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する選択部と、選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する送信部と、を有するサーバーと、
 を備える、情報処理システム。
(20)加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、を有し、第1のユーザーが保有する第1の情報端末と、
 加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、を有し、第2のユーザーが保有する第2の情報端末と、
 前記第1及び第2の情報端末のそれぞれから、前記加速度情報、前記位置情報又は前記操作情報を受信する受信部と、前記加速度情報、前記位置情報又は前記操作情報に基づいて、前記第1及び第2の情報端末を保有する第1及び第2のユーザーの行動を認識する行動認識部と、前記第1のユーザーの行動認識の結果得られた行動認識結果情報と、前記第2のユーザーの行動認識の結果得られた行動認識結果情報との相関の程度を表す相関スコアを算出する相関スコア算出部と、算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する選択部と、選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する送信部と、を有するサーバーと、
 を備える、情報処理システム。
(21)加速度情報を取得する加速度センサと、
 位置情報を取得する位置情報取得部と、
 操作情報を取得する操作情報取得部と、
 前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、
 前記行動認識部が認識した行動認識結果情報をサーバーへ送信する送信部と、
 前記サーバーにおいて前記行動認識結果情報と他のクライアント端末から取得した行動認識結果情報との相関スコアに基づいて選択された前記他のクライアント端末の行動を受信する受信部と、
 を備える、クライアント端末。
(22)加速度情報を取得する加速度センサと、
 位置情報を取得する位置情報取得部と、
 操作情報を取得する操作情報取得部と、
 前記加速度情報、前記位置情報又は前記操作情報をサーバーへ送信する送信部と、
 前記サーバーにおいて、前記加速度情報又は前記位置情報に基づいて認識されたユーザーの行動と、他のクライアント端末から受信した前記加速度情報又は前記位置情報に基づいて認識された前記他のクライアント端末のユーザーの行動との相関スコアに基づいて選択された前記他のクライアント端末の行動を受信する受信部と、
 を備える、クライアント端末。
(23)第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信することと、
 前記第1又は第2の情報端末から受信した前記所定の情報に基づいて、前記第1及び第2のユーザーの行動を認識することと、
 前記第1の情報端末から受信した前記所定の情報と、前記第2の情報端末から受信した前記所定の情報の相関の程度を表す相関スコアを算出することと、
 算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択することと、
 選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信することと、
を備える、情報処理方法。
(24)第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する手段、
 前記第1又は第2の情報端末から受信した前記所定の情報に基づいて、前記第1及び第2のユーザーの行動を認識する手段、
 前記第1の情報端末から受信した前記所定の情報と、前記第2の情報端末から受信した前記所定の情報の相関の程度を表す相関スコアを算出する手段、
 算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する手段、
 選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する手段、
 としてコンピュータを機能させるためのプログラム。
 100  サーバー
 102  受信部
 104  行動認識部
 105  行動認識レベル情報送信部
 106  行動認識情報送信部
 200  サーバー
 202  受信部
 204  行動認識部
 208  相関スコア算出部
 210  選択部
 208a ジオカテゴライズ部
 220  行動認識レベル情報送信部
 214  送信頻度決定部
 500A,500B  ユーザー端末
 

Claims (24)

  1.  第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する受信部と、
     前記第1の情報端末から受信した前記所定の情報に基づいて、前記第1のユーザーの行動を認識する行動認識部と、
     認識した前記第1のユーザーの行動に基づいて、前記第2のユーザーが保有する前記第2の情報端末が前記所定の情報を取得するか否かを判定するための情報を送信する情報送信部と、
     を備える、情報処理装置。
  2.  認識した前記第1のユーザーの行動を前記第2の情報端末へ送信する行動認識情報送信部を更に備える、請求項1に記載の情報処理装置。
  3.  前記行動認識情報送信部は、前記第1の情報端末と同じ所定のグループに所属する他の情報端末へ前記第1のユーザーの行動を送信する、請求項2に記載の情報処理装置。
  4.  前記行動認識情報送信部は、所定のグループ毎に設定された行動認識レベルに応じて、認識した1のユーザーの行動に関する情報を他のユーザーの情報端末へ送信する、請求項2に記載の情報処理装置。
  5.  前記行動認識情報送信部は、前記第1の情報端末が前記第2の情報端末との間で設定した行動認識レベルに応じて、認識した前記1のユーザーの行動を前記第2の情報端末へ送信する、請求項2に記載の情報処理装置。
  6.  加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、を有するクライアント端末と、
     前記クライアント端末から前記行動認識部が認識した行動認識結果情報を受信する受信部と、前記行動認識結果情報に基づいて、他のユーザーが保有する他のクライアント端末が前記加速度情報又は前記位置情報を取得するか否かを判定するための情報を送信する情報送信部と、を有するサーバーと、
     を備える、情報処理システム。
  7.  加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、を有するクライアント端末と、
     前記クライアント端末から前記加速度情報、前記位置情報又は前記操作情報を受信する受信部と、前記加速度情報又は前記位置情報に基づいて、前記クライアント端末を保有するユーザーの行動を認識する行動認識部と、認識した前記ユーザーの行動に基づいて、他のユーザーが保有する他のクライアント端末が前記加速度情報又は前記位置情報を取得するか否かを判定するための情報を送信する情報送信部と、を有するサーバーと、
     を備える、情報処理システム。
  8.  加速度情報を取得する加速度センサと、
     位置情報を取得する位置情報取得部と、
     操作情報を取得する操作情報取得部と、
     前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、
     前記行動認識部が認識した行動認識結果情報をサーバーへ送信する送信部と、
     他のクライアント端末から受信した前記行動認識結果情報に基づいて前記サーバーが送信した情報を受信する受信部と、を備え、
     前記情報に基づいて、加速度センサ又は前記位置情報取得部の動作を停止させる、クライアント端末。
  9.  加速度情報を取得する加速度センサと、
     位置情報を取得する位置情報取得部と、
     操作情報を取得する操作情報取得部と、
     前記加速度情報、前記位置情報又は前記操作情報をサーバーへ送信する送信部と、
     他のクライアント端末から受信した前記加速度情報又は前記位置情報に基づいて前記サーバーが認識した行動認識結果情報を受信する受信部と、を備え、
     前記行動認識結果情報に基づいて、加速度センサ又は前記位置情報取得部の動作を停止させる、クライアント端末。
  10.  第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信することと、
     前記第1の情報端末から受信した前記所定の情報に基づいて、前記第1のユーザーの行動を認識することと、
     認識した前記第1のユーザーの行動に基づいて、前記第2のユーザーが保有する前記第2の情報端末が前記所定の情報を取得するか否かを判定するための情報を送信することと、
     を備える、情報処理方法。
  11.  第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する手段、
     前記第1の情報端末から受信した前記所定の情報に基づいて、前記第1のユーザーの行動を認識する手段、
     認識した前記第1のユーザーの行動に基づいて、前記第2のユーザーが保有する前記第2の情報端末が前記所定の情報を取得するか否かを判定するための情報を送信する手段、
     としてコンピュータを機能させるためのプログラム。
  12.  第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する受信部と、
     前記第1又は第2の情報端末から受信した前記所定の情報に基づいて、前記第1及び第2のユーザーの行動を認識する行動認識部と、
     前記第1の情報端末から受信した前記所定の情報と、前記第2の情報端末から受信した前記所定の情報の相関の程度を表す相関スコアを算出する相関スコア算出部と、
     算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する選択部と、
     選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する送信部と、
    を備える、情報処理装置。
  13.  前記選択部は、前記相関スコアが高いほど、前記第1のユーザーへ提供する行動としてより詳細な行動を選択する、請求項12に記載の情報処理装置。
  14.  前記相関スコア算出部は、
     前記第1の情報端末から受信した複数の情報と、前記第2の情報端末から受信した情報とについて、関連する情報同士を対応付け、
     関連する情報の各組み合わせについて、その情報同士の相関の程度を表す相関サブスコアを算出し、
     算出した各前記相関サブスコアそれぞれについて、当該相関サブスコアと、前記相関スコアに対する当該サブスコアの寄与を表す重み係数とに基づいて、前記相関スコアを算出する、
     請求項12に記載の情報処理装置。
  15.  前記第1の情報端末から受信した複数の情報と、前記第2の情報端末から受信した情報とについて、前記第1及び第2の情報端末間の距離、前記第1及び第2の情報端末が位置する場所の属性、前記第1及び第2のユーザーの行動、又は前記第1及び第2のユーザーが設定した時刻までの残り時間についての情報同士を対応付ける、請求項14に記載の情報処理装置。
  16.  前記相関スコア算出部は、ジオカテゴリヒストグラム同士の相関度を利用して相関スコアを算出するためにジオカテゴライズ部を含む、請求項12に記載の情報処理装置。
  17.  前記相関スコアに基づいて、前記第1及び第2の情報端末が前記所定の情報を取得する際のレベルを示す情報を前記第1及び第2の情報端末へ送信する行動認識レベル情報送信部を更に備える、請求項12に記載の情報処理装置。
  18.  算出された前記相関スコアに基づいて、前記行動パターンを送信する頻度を決定する送信頻度決定部を更に備え、
     前記送信部は、選択された前記第2のユーザーの行動パターンを、算出された前記送信頻度で、前記第1の情報端末へ送信する、
     請求項12に記載の情報処理装置。
  19.  加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、を有する、第1のユーザーが保有する第1の情報端末と、
     加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、前記加速度情報又は前記位置情報に基づいてユーザーの行動を認識する行動認識部と、を有する、第2のユーザーが保有する第2の情報端末と、
     前記第1及び第2の情報端末のそれぞれから、前記行動認識部が認識した行動認識結果情報を受信する受信部と、前記第1の情報端末から受信した前記行動認識結果情報と、前記第2の情報端末から受信した前記行動認識結果情報の相関の程度を表す相関スコアを算出する相関スコア算出部と、算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する選択部と、選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する送信部と、を有するサーバーと、
     を備える、情報処理システム。
  20.  加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、を有し、第1のユーザーが保有する第1の情報端末と、
     加速度情報を取得する加速度センサと、位置情報を取得する位置情報取得部と、操作情報を取得する操作情報取得部と、を有し、第2のユーザーが保有する第2の情報端末と、
     前記第1及び第2の情報端末のそれぞれから、前記加速度情報、前記位置情報又は前記操作情報を受信する受信部と、前記加速度情報、前記位置情報又は前記操作情報に基づいて、前記第1及び第2の情報端末を保有する第1及び第2のユーザーの行動を認識する行動認識部と、前記第1のユーザーの行動認識の結果得られた行動認識結果情報と、前記第2のユーザーの行動認識の結果得られた行動認識結果情報との相関の程度を表す相関スコアを算出する相関スコア算出部と、算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する選択部と、選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する送信部と、を有するサーバーと、
     を備える、情報処理システム。
  21.  加速度情報を取得する加速度センサと、
     位置情報を取得する位置情報取得部と、
     操作情報を取得する操作情報取得部と、
     前記加速度情報、前記位置情報又は前記操作情報に基づいてユーザーの行動を認識する行動認識部と、
     前記行動認識部が認識した行動認識結果情報をサーバーへ送信する送信部と、
     前記サーバーにおいて前記行動認識結果情報と他のクライアント端末から取得した行動認識結果情報との相関スコアに基づいて選択された前記他のクライアント端末の行動を受信する受信部と、
     を備える、クライアント端末。
  22.  加速度情報を取得する加速度センサと、
     位置情報を取得する位置情報取得部と、
     操作情報を取得する操作情報取得部と、
     前記加速度情報、前記位置情報又は前記操作情報をサーバーへ送信する送信部と、
     前記サーバーにおいて、前記加速度情報又は前記位置情報に基づいて認識されたユーザーの行動と、他のクライアント端末から受信した前記加速度情報又は前記位置情報に基づいて認識された前記他のクライアント端末のユーザーの行動との相関スコアに基づいて選択された前記他のクライアント端末の行動を受信する受信部と、
     を備える、クライアント端末。
  23.  第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信することと、
     前記第1又は第2の情報端末から受信した前記所定の情報に基づいて、前記第1及び第2のユーザーの行動を認識することと、
     前記第1の情報端末から受信した前記所定の情報と、前記第2の情報端末から受信した前記所定の情報の相関の程度を表す相関スコアを算出することと、
     算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択することと、
     選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信することと、
    を備える、情報処理方法。
  24.  第1のユーザーが保有する第1の情報端末及び第2のユーザーが保有する第2の情報端末から所定の情報を受信する手段、
     前記第1又は第2の情報端末から受信した前記所定の情報に基づいて、前記第1及び第2のユーザーの行動を認識する手段、
     前記第1の情報端末から受信した前記所定の情報と、前記第2の情報端末から受信した前記所定の情報の相関の程度を表す相関スコアを算出する手段、
     算出された前記相関スコアに基づいて、認識された前記第2のユーザーの行動の中から、前記第1のユーザーへ提供する行動を選択する手段、
     選択された前記第2のユーザーの行動を、前記第1の情報端末へ送信する手段、
     としてコンピュータを機能させるためのプログラム。
     
PCT/JP2013/070896 2012-09-06 2013-08-01 情報処理装置、情報処理方法及びプログラム WO2014038323A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014534247A JP6206411B2 (ja) 2012-09-06 2013-08-01 情報処理装置、情報処理方法及びプログラム
EP13835928.6A EP2894573B1 (en) 2012-09-06 2013-08-01 Information processing device, information processing method, and program
CN201380043911.6A CN104584007B (zh) 2012-09-06 2013-08-01 信息处理设备、信息处理方法及程序
US14/418,119 US10469416B2 (en) 2012-09-06 2013-08-01 Information processing device, information processing method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012195994 2012-09-06
JP2012-195994 2012-09-06
JP2012-195995 2012-09-06
JP2012195995 2012-09-06

Publications (1)

Publication Number Publication Date
WO2014038323A1 true WO2014038323A1 (ja) 2014-03-13

Family

ID=50236941

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/070896 WO2014038323A1 (ja) 2012-09-06 2013-08-01 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US10469416B2 (ja)
EP (1) EP2894573B1 (ja)
JP (1) JP6206411B2 (ja)
CN (1) CN104584007B (ja)
WO (1) WO2014038323A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104459716A (zh) * 2014-12-30 2015-03-25 上海华测导航技术有限公司 动作控制的gnss接收机及其控制方法
WO2017002473A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2019003566A (ja) * 2017-06-19 2019-01-10 ヤフー株式会社 決定システム、決定方法、及び決定プログラム
WO2020039798A1 (ja) * 2018-08-24 2020-02-27 住友電気工業株式会社 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造
JPWO2020230892A1 (ja) * 2019-05-15 2020-11-19

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103948378B (zh) * 2014-04-14 2015-04-08 京东方科技集团股份有限公司 一种预警装置和预警方法
JP2015224931A (ja) * 2014-05-27 2015-12-14 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
CN107851286B (zh) * 2015-07-28 2021-12-24 索尼公司 通信装置、信息处理***、记录介质和信息处理方法
KR102365757B1 (ko) * 2015-09-09 2022-02-18 삼성전자주식회사 인식 장치, 인식 방법 및 협업 처리 장치
KR20180094875A (ko) * 2015-12-18 2018-08-24 소니 주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
US11138566B2 (en) * 2016-08-31 2021-10-05 Fulcrum Global Technologies Inc. Method and apparatus for tracking, capturing, and synchronizing activity data across multiple devices
CN107609474B (zh) * 2017-08-07 2020-05-01 深圳市科迈爱康科技有限公司 肢体动作识别方法、装置、机器人及存储介质
CN109963250A (zh) * 2019-03-07 2019-07-02 普联技术有限公司 情景类别识别方法、装置、处理平台及***
JP7388083B2 (ja) * 2019-09-20 2023-11-29 富士フイルムビジネスイノベーション株式会社 文書公開制御装置及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259793A (ja) * 2001-02-26 2002-09-13 Toshiba Corp 情報処理端末、情報提供装置及びそのプログラム
JP2005234689A (ja) * 2004-02-17 2005-09-02 Hitachi Ltd コミュニティ評価支援方法および装置
JP2006345269A (ja) 2005-06-09 2006-12-21 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008234471A (ja) * 2007-03-22 2008-10-02 Toshiba Corp 通知システム、通知方法及びプログラム
JP2008311628A (ja) 2007-05-17 2008-12-25 Semiconductor Energy Lab Co Ltd 表示装置
JP2010198595A (ja) 2009-01-28 2010-09-09 Sony Corp 情報処理装置、情報処理方法、プログラム
JP2011081431A (ja) 2009-10-02 2011-04-21 Sony Corp 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7593740B2 (en) * 2004-05-12 2009-09-22 Google, Inc. Location-based social software for mobile devices
US8050690B2 (en) * 2007-08-14 2011-11-01 Mpanion, Inc. Location based presence and privacy management
JP4858400B2 (ja) * 2007-10-17 2012-01-18 ソニー株式会社 情報提供システム、情報提供装置、情報提供方法
US8700636B2 (en) * 2010-09-16 2014-04-15 Facebook, Inc. Action clustering for news feeds
US20100115426A1 (en) * 2008-11-05 2010-05-06 Yahoo! Inc. Avatar environments
JP5551867B2 (ja) 2008-12-05 2014-07-16 ソニー株式会社 情報処理装置、及び情報処理方法
CN101442589A (zh) * 2009-01-09 2009-05-27 深圳华为通信技术有限公司 移动终端状态管理的方法及装置
US20120046995A1 (en) * 2009-04-29 2012-02-23 Waldeck Technology, Llc Anonymous crowd comparison
JP2010287059A (ja) 2009-06-11 2010-12-24 Sony Corp 移動端末、サーバ装置、コミュニティ生成システム、表示制御方法およびプログラム
US8958822B2 (en) * 2010-10-25 2015-02-17 Alohar Mobile Inc. Determining points of interest of a mobile user
US8386619B2 (en) * 2011-03-23 2013-02-26 Color Labs, Inc. Sharing content among a group of devices
US20130097246A1 (en) * 2011-10-12 2013-04-18 Cult, Inc. Multilocal implicit social networking

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259793A (ja) * 2001-02-26 2002-09-13 Toshiba Corp 情報処理端末、情報提供装置及びそのプログラム
JP2005234689A (ja) * 2004-02-17 2005-09-02 Hitachi Ltd コミュニティ評価支援方法および装置
JP2006345269A (ja) 2005-06-09 2006-12-21 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008234471A (ja) * 2007-03-22 2008-10-02 Toshiba Corp 通知システム、通知方法及びプログラム
JP2008311628A (ja) 2007-05-17 2008-12-25 Semiconductor Energy Lab Co Ltd 表示装置
JP2010198595A (ja) 2009-01-28 2010-09-09 Sony Corp 情報処理装置、情報処理方法、プログラム
JP2011081431A (ja) 2009-10-02 2011-04-21 Sony Corp 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2894573A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104459716A (zh) * 2014-12-30 2015-03-25 上海华测导航技术有限公司 动作控制的gnss接收机及其控制方法
WO2017002473A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2017002473A1 (ja) * 2015-06-30 2018-04-19 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10315111B2 (en) 2015-06-30 2019-06-11 Sony Corporation Information processing device and information processing method
US10933321B2 (en) 2015-06-30 2021-03-02 Sony Corporation Information processing device and information processing method
JP2019003566A (ja) * 2017-06-19 2019-01-10 ヤフー株式会社 決定システム、決定方法、及び決定プログラム
WO2020039798A1 (ja) * 2018-08-24 2020-02-27 住友電気工業株式会社 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造
JPWO2020039798A1 (ja) * 2018-08-24 2021-08-10 住友電気工業株式会社 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造
JP7484716B2 (ja) 2018-08-24 2024-05-16 住友電気工業株式会社 情報提供装置、情報提供方法、情報提供システムおよびコンピュータプログラム
JPWO2020230892A1 (ja) * 2019-05-15 2020-11-19
JP7316354B2 (ja) 2019-05-15 2023-07-27 株式会社Nttドコモ 処理装置

Also Published As

Publication number Publication date
JPWO2014038323A1 (ja) 2016-08-08
US20150304252A1 (en) 2015-10-22
JP6206411B2 (ja) 2017-10-04
EP2894573A4 (en) 2016-04-20
CN104584007B (zh) 2018-01-09
EP2894573B1 (en) 2020-07-08
CN104584007A (zh) 2015-04-29
EP2894573A1 (en) 2015-07-15
US10469416B2 (en) 2019-11-05

Similar Documents

Publication Publication Date Title
JP6206411B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9501745B2 (en) Method, system and device for inferring a mobile user's current context and proactively providing assistance
CN104881800B (zh) 一种基于移动群智感知的激励机制实现方法
CN107967289B (zh) 时间界定动作建议***
CN102986201B (zh) 用户接口
US20140052680A1 (en) Method, System and Device for Inferring a Mobile User's Current Context and Proactively Providing Assistance
US20130331067A1 (en) Automatic Profile Selection on Mobile Devices
EP3660688A1 (en) Information processing system, information processing device, information processing method, and recording medium
CN106851555A (zh) 基于语义位置的地理围栏
US20170329766A1 (en) Information processing apparatus, control method, and program
CN103917993A (zh) 使用生物传感器来经由数据网络服务分享情绪
CN107302638A (zh) 一种音量调节方法、装置、存储介质及移动终端
CN110996796A (zh) 信息处理设备、方法和程序
CN104303539A (zh) 经由上下文感知移动装置估计媒体观众的人口统计数据
US20160117732A1 (en) User Need Estimation On Mobile Device And Its Applications
CN110214301B (zh) 信息处理设备、信息处理方法和程序
JP2013222231A (ja) 感情共有コミュニケーション促進システム、感情共有コミュニケーション促進方法、およびプログラム
JP4966789B2 (ja) マッチングシステム
KR102041571B1 (ko) 사용자에게 현실 공간에 기반한 게임을 추천하는 방법 및 장치
US11330408B2 (en) Information processing apparatus, terminal device, and information processing method
Hiesel et al. A user interface concept for context-aware recommender systems
JP2016162081A (ja) クライアント、サーバおよび情報共有システム
CN118228906B (zh) 一种路径动态规划方法、装置、终端设备以及存储介质
CN106412306A (zh) 移动终端社交提醒方法、装置及移动终端
EP4254352A1 (en) Information provision system and information provision program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13835928

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14418119

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2014534247

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE