WO2022044843A1 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
WO2022044843A1
WO2022044843A1 PCT/JP2021/029790 JP2021029790W WO2022044843A1 WO 2022044843 A1 WO2022044843 A1 WO 2022044843A1 JP 2021029790 W JP2021029790 W JP 2021029790W WO 2022044843 A1 WO2022044843 A1 WO 2022044843A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
autonomous mobile
mobile body
companion
button
Prior art date
Application number
PCT/JP2021/029790
Other languages
English (en)
French (fr)
Inventor
健晶 下江
有加 高橋
和孝 遠藤
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US18/041,766 priority Critical patent/US20230367312A1/en
Priority to JP2022544454A priority patent/JPWO2022044843A1/ja
Publication of WO2022044843A1 publication Critical patent/WO2022044843A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Definitions

  • the present technology relates to an information processing device, an information processing method, and a program, and more particularly to an information processing device, an information processing method, and a program designed to improve the entertainment of an autonomous mobile body.
  • pet-type robots By the way, it is desired to improve the entertainment of pet-type robots, which have become widespread in recent years. For example, it is expected that the entertainment of pet-type robots will be improved if pet-type robots can make friends with other pet-type robots and increase the number of friends, as with users on SNS.
  • This technology was made in view of such a situation, and is intended to improve the entertainment of autonomous mobile objects such as pet-type robots.
  • the information processing device of one aspect of the present technology superimposes a virtual second autonomous mobile body that virtually interacts with the first autonomous mobile body on a captured moving image of the first autonomous mobile body. It includes an image processing unit that generates the moving image 1 and a display control unit that controls the display of the first moving image.
  • the information processing method of one aspect of the present technology is a virtual second autonomous movement in which the information processing apparatus virtually interacts with the first autonomous mobile in a captured moving image of the first autonomous mobile.
  • a moving image in which the body is superimposed is generated, and the display of the moving image is controlled.
  • the program of one aspect of the present technology generates a moving image in which a virtual second autonomous moving body that virtually interacts with the first autonomous moving body is superimposed on a shooting moving body obtained by shooting the first autonomous moving body. Then, the computer is made to execute the process of controlling the display of the moving image.
  • a moving image in which a virtual second autonomous moving body that virtually interacts with the first autonomous moving body is superimposed on a shooting moving body obtained by shooting the first autonomous moving body is generated.
  • the display of the moving image is controlled.
  • Embodiment >> An embodiment of the present technology will be described with reference to FIGS. 1 to 59.
  • FIG. 1 is a block diagram showing an embodiment of an information processing system 1 to which the present technology is applied.
  • the information processing system 1 includes an autonomous mobile body 11-1 to an autonomous mobile body 11-n, an information processing terminal 12-1 to an information processing terminal 12-n, and an information processing server 13.
  • the autonomous mobile body 11-1 when it is not necessary to individually distinguish the autonomous mobile body 11-1 to the autonomous mobile body 11-n, it is simply referred to as the autonomous mobile body 11.
  • the information processing terminal 12-1 when it is not necessary to individually distinguish the information processing terminal 12-1 to the information processing terminal 12-n, it is simply referred to as the information processing terminal 12.
  • each autonomous mobile body 11 and the information processing server 13 Between each autonomous mobile body 11 and the information processing server 13, between each information processing terminal 12 and the information processing server 13, between each autonomous mobile body 11 and each information processing terminal 12, and between each autonomous mobile body 11. Communication is possible between the information processing terminals 12 and the information processing terminals 12 via the network 21. Further, it is also possible to directly communicate between each autonomous mobile body 11 and each information processing terminal 12, between each autonomous mobile body 11 and between each information processing terminal 12 without going through the network 21.
  • the autonomous mobile body 11 is an information processing device that recognizes itself and its surroundings based on collected sensor data and the like, and autonomously selects and executes various operations according to the situation.
  • One of the features of the autonomous mobile body 11 is that it autonomously executes an appropriate operation according to a situation, unlike a robot that simply performs an operation according to a user's instruction.
  • the autonomous mobile body 11 can perform user recognition, object recognition, and the like based on captured images, and perform various autonomous actions according to the recognized user, object, and the like. Further, the autonomous mobile body 11 can also perform, for example, voice recognition based on the user's utterance and perform an action based on the user's instruction or the like.
  • the autonomous mobile body 11 performs pattern recognition learning in order to acquire the ability of user recognition and object recognition.
  • the autonomous mobile body 11 can dynamically collect learning data based on teaching by a user or the like as well as supervised learning based on the given learning data, and perform pattern recognition learning related to an object or the like. It is possible.
  • the autonomous mobile body 11 can be disciplined by the user.
  • the discipline of the autonomous mobile body 11 is broader than the general discipline that teaches and remembers rules and prohibitions, for example, and when the user is involved in the autonomous mobile body 11, the user can feel the autonomous mobile body 11. It means that a change appears.
  • the shape, ability, desire, and other levels of the autonomous mobile body 11 can be appropriately designed according to the purpose and role.
  • the autonomous mobile body 11 is composed of an autonomous mobile robot that autonomously moves in space and executes various actions.
  • the autonomous mobile body 11 is composed of an autonomous mobile robot having a shape and motion ability imitating an animal such as a human or a dog.
  • the autonomous mobile body 11 is composed of a vehicle or other device having an ability to communicate with a user.
  • the information processing terminal 12 is composed of, for example, a smartphone, a tablet terminal, a PC (personal computer), etc., and is used by the user of the autonomous mobile body 11.
  • the information processing terminal 12 realizes various functions by executing a predetermined application program (hereinafter, simply referred to as an application).
  • the information processing terminal 12 communicates with the information processing server 13 via the network 21 or directly communicates with the autonomous mobile body 11 to collect various data related to the autonomous mobile body 11 and informs the user. It presents or gives instructions to the autonomous mobile body 11.
  • the information processing server 13 collects various data from each autonomous mobile body 11 and each information processing terminal 12, provides various data to each autonomous mobile body 11 and each information processing terminal 12, and each autonomous body. It controls the operation of the moving body 11. Further, for example, the information processing server 13 performs pattern recognition learning and processing corresponding to the user's discipline based on the data collected from each autonomous mobile body 11 and each information processing terminal 12, as in the autonomous mobile body 11. It is also possible to do it. Further, for example, the information processing server 13 supplies various data related to the above-mentioned application and each autonomous mobile body 11 to each information processing terminal 12.
  • the network 21 is composed of, for example, a public line network such as the Internet, a telephone line network, a satellite communication network, various LANs (Local Area Network) including Ethernet (registered trademark), a WAN (Wide Area Network), and the like. Will be done. Further, the network 21 may include a dedicated line network such as IP-VPN (Internet Protocol-Virtual Private Network). Further, the network 21 may include a wireless communication network such as Wi-Fi (registered trademark) and Bluetooth (registered trademark).
  • the configuration of the information processing system 1 can be flexibly changed according to the specifications, operation, and the like.
  • the autonomous mobile body 11 may further perform information communication with various external devices in addition to the information processing terminal 12 and the information processing server 13.
  • the external device may include, for example, a server that transmits weather, news, and other service information, and various home appliances owned by the user.
  • the autonomous mobile body 11 and the information processing terminal 12 do not necessarily have to have a one-to-one relationship, and may have, for example, a many-to-many, many-to-one, or one-to-many relationship.
  • one user confirms data on a plurality of autonomous mobile bodies 11 using one information processing terminal 12, or confirms data on one autonomous mobile body 11 using a plurality of information processing terminals. It is possible to do it.
  • FIG. 2 is a diagram showing a hardware configuration example of the autonomous mobile body 11.
  • the autonomous moving body 11 is a dog-shaped quadruped walking robot having a head, a torso, four legs, and a tail.
  • the autonomous mobile body 11 is provided with two displays 51L and a display 51R on the head.
  • the display 51 is simply referred to as the display 51.
  • the autonomous mobile body 11 includes various sensors.
  • the autonomous moving body 11 includes, for example, a microphone 52, a camera 53, a ToF (Time Of Flight) sensor 525, a motion sensor 55, a distance measuring sensor 56, a touch sensor 57, an illuminance sensor 58, a sole button 59, and an inertial sensor. 60 is provided.
  • the autonomous mobile body 11 is provided with, for example, four microphones 52 on the head.
  • Each microphone 52 collects, for example, a user's utterance and ambient sounds including ambient environmental sounds. Further, by providing a plurality of microphones 52, it is possible to collect sounds generated in the surroundings with high sensitivity and to localize a sound source.
  • the autonomous mobile body 11 is provided with, for example, two wide-angle cameras 53 at the tip of the nose and the waist, and photographs the surroundings of the autonomous mobile body 11.
  • the camera 53 arranged at the tip of the nose takes a picture in the front field of view (that is, the field of view of the dog) of the autonomous moving body 11.
  • the camera 53 arranged on the waist takes a picture of the surroundings centered on the upper part of the autonomous moving body 11.
  • the autonomous mobile body 11 can realize SLAM (Simultaneous Localization and Mapping) by extracting feature points of the ceiling and the like based on an image taken by a camera 53 arranged on the waist, for example.
  • SLAM Simultaneous Localization and Mapping
  • the ToF sensor 54 is provided, for example, at the tip of the nose and detects the distance from an object existing in front of the head.
  • the autonomous mobile body 11 can accurately detect distances to various objects by the ToF sensor 54, and can realize an operation according to a relative position with an object including a user, an obstacle, or the like.
  • the motion sensor 55 is placed on the chest, for example, and detects the location of a user or a pet kept by the user.
  • the autonomous moving body 11 can realize various movements toward the animal body, for example, movements corresponding to emotions such as interest, fear, and surprise, by detecting the animal body existing in front by the motion sensor 55. can.
  • the distance measuring sensor 56 is placed on the chest, for example, and detects the condition of the front floor surface of the autonomous moving body 11.
  • the autonomous moving body 11 can detect the distance to the object existing on the front floor surface with high accuracy by the distance measuring sensor 56, and can realize the operation according to the relative position with the object.
  • the touch sensor 57 is arranged at a portion where the user is likely to touch the autonomous moving body 11, such as the top of the head, under the chin, and the back, and detects the contact by the user.
  • the touch sensor 57 is composed of, for example, a capacitance type or pressure sensitive type touch sensor.
  • the autonomous mobile body 11 can detect a contact action such as touching, stroking, hitting, and pushing by the user by the touch sensor 57, and can perform an operation according to the contact action.
  • the illuminance sensor 58 is arranged at the base of the tail on the back surface of the head, for example, and detects the illuminance in the space where the autonomous moving body 11 is located.
  • the autonomous mobile body 11 can detect the brightness of the surroundings by the illuminance sensor 58 and execute an operation according to the brightness.
  • the sole buttons 59 are arranged, for example, at the portions corresponding to the paws of the four legs, and detect whether or not the bottom surface of the legs of the autonomous moving body 11 is in contact with the floor.
  • the autonomous moving body 11 can detect contact or non-contact with the floor surface by the sole button 59, and can grasp, for example, that the user has lifted the vehicle.
  • the inertial sensor 60 is arranged, for example, on the head and the body, respectively, and detects physical quantities such as speed, acceleration, and rotation of the head and the body.
  • the inertial sensor 60 is composed of a 6-axis sensor that detects acceleration and angular velocity on the X-axis, Y-axis, and Z-axis.
  • the autonomous moving body 11 can accurately detect the movements of the head and the torso by the inertia sensor 60, and can realize the motion control according to the situation.
  • the configuration of the sensor included in the autonomous mobile body 11 can be flexibly changed according to the specifications, operation, and the like.
  • the autonomous mobile body 11 may further include various communication devices including, for example, a temperature sensor, a geomagnetic sensor, and a GNSS (Global Navigation Satellite System) signal receiver.
  • GNSS Global Navigation Satellite System
  • FIG. 3 shows a configuration example of the actuator 71 included in the autonomous mobile body 11.
  • the autonomous moving body 11 has a total of 22 rotation degrees of freedom, two at the ears and two at the tail, and one at the mouth.
  • the autonomous mobile body 11 has three degrees of freedom in the head, so that it is possible to achieve both nodding and tilting the neck. Further, the autonomous moving body 11 can realize a natural and flexible movement closer to that of a real dog by reproducing the swing movement of the waist by the actuator 71 provided in the waist portion.
  • the autonomous moving body 11 may realize the above-mentioned 22 degrees of freedom of rotation by, for example, combining a 1-axis actuator and a 2-axis actuator.
  • a uniaxial actuator may be adopted for the elbow and knee portion of the leg
  • a biaxial actuator may be adopted for the shoulder and the base of the thigh.
  • the autonomous mobile body 11 includes two displays 51R and a display 51L corresponding to the right eye and the left eye, respectively.
  • Each display 51 has a function of visually expressing the eye movements and emotions of the autonomous mobile body 11.
  • each display 51 expresses the movements of the eyeball, the pupil, and the eyelids according to the emotions and movements, thereby producing natural movements similar to those of an actual animal such as a dog, and the eyes and emotions of the autonomous moving body 11 can be expressed. It can be expressed with high accuracy and flexibility. Further, the user can intuitively grasp the state of the autonomous moving body 11 from the movement of the eyeball displayed on the display 51.
  • each display 51 is realized by, for example, two independent OLEDs (Organic Light Emitting Diodes).
  • OLED Organic Light Emitting Diodes
  • it is possible to reproduce the curved surface of the eyeball.
  • a more natural exterior can be realized as compared with the case where a pair of eyeballs is represented by one flat display and the case where two eyeballs are represented by two independent flat displays.
  • the autonomous mobile body 11 reproduces movements and emotional expressions closer to those of a real organism by controlling the movements of joints and eyeballs with high accuracy and flexibility, as shown in FIG. Can be done.
  • FIG. 5 is a diagram showing an operation example of the autonomous moving body 11, but in FIG. 5, in order to explain the movement of the joint portion and the eyeball of the autonomous moving body 11 by focusing on the movement, the outside of the autonomous moving body 11 is described.
  • the structure is shown in a simplified form.
  • the autonomous mobile body 11 includes an input unit 101, a communication unit 102, an information processing unit 103, a drive unit 104, an output unit 105, and a storage unit 106.
  • the input unit 101 is provided with various sensors and the like shown in FIG. 2, and has a function of collecting various sensor data related to the user and the surrounding situation. Further, the input unit 101 includes, for example, an input device such as a switch or a button. The input unit 101 supplies the collected sensor data and the input data input via the input device to the information processing unit 103.
  • the communication unit 102 communicates with another autonomous mobile body 11, the information processing terminal 12, and the information processing server 13 via or without the network 21, and transmits / receives various data. ..
  • the communication unit 102 supplies the received data to the information processing unit 103, and acquires the data to be transmitted from the information processing unit 103.
  • the communication method of the communication unit 102 is not particularly limited, and can be flexibly changed according to the specifications and operation.
  • the information processing unit 103 includes, for example, a processor such as a CPU (Central Processing Unit), performs various types of information processing, and controls each part of the autonomous mobile body 11.
  • the information processing unit 103 includes a recognition unit 121, a learning unit 122, an action planning unit 123, and an operation control unit 124.
  • the recognition unit 121 recognizes the situation in which the autonomous mobile body 11 is placed based on the sensor data and input data supplied from the input unit 101 and the received data supplied from the communication unit 102.
  • the situation in which the autonomous mobile body 11 is placed includes, for example, the situation of oneself and the surroundings. Your situation includes, for example, the state and movement of the autonomous mobile body 11.
  • the surrounding conditions include, for example, the state and movement of people around the user and the like, instructions, the state and movement of surrounding organisms such as pets, the state and movement of surrounding objects, time, place, and the surrounding environment. Etc. are included.
  • Surrounding objects include, for example, other autonomous mobiles.
  • the recognition unit 121 may, for example, identify a person, recognize facial expressions or eyes, recognize emotions, recognize objects, recognize motions, recognize spatial areas, color recognition, shape recognition, marker recognition, and obstacle recognition. , Step recognition, brightness recognition, temperature recognition, voice recognition, word understanding, position estimation, posture estimation, etc.
  • the recognition unit 121 has a function of estimating and understanding the situation based on various recognized information. At this time, the recognition unit 121 may comprehensively estimate the situation by using the knowledge stored in advance.
  • the recognition unit 121 supplies data indicating the recognition result or estimation result of the situation (hereinafter referred to as situation data) to the learning unit 122 and the action planning unit 123. Further, the recognition unit 121 registers the data indicating the recognition result or the estimation result of the situation in the action history data stored in the storage unit 106.
  • the action history data is data showing the action history of the autonomous mobile body 11.
  • the action history data includes, for example, the date and time when the action was started, the date and time when the action was completed, the trigger for executing the action, the place where the action was instructed (however, when the place was instructed), the situation when the action was performed, and the action. Includes an item as to whether the action has been completed (executed to the end).
  • the instruction content is registered as a trigger for executing the action.
  • the content of the situation is registered.
  • the type of the object is registered.
  • the learning unit 122 has sensor data and input data supplied from the input unit 101, received data supplied from the communication unit 102, situation data supplied from the recognition unit 121, and an autonomous moving body 11 supplied from the action planning unit 123. Based on the data related to the behavior of the above and the behavior history data stored in the storage unit 106, the situation and the behavior, and the influence of the behavior on the environment are learned. For example, the learning unit 122 performs the pattern recognition learning described above, or learns a behavior pattern corresponding to the user's discipline.
  • the learning unit 122 realizes the above learning by using a machine learning algorithm such as deep learning.
  • the learning algorithm adopted by the learning unit 122 is not limited to the above example, and can be appropriately designed.
  • the learning unit 122 supplies data indicating a learning result (hereinafter referred to as learning result data) to the action planning unit 123 or stores it in the storage unit 106.
  • the action planning unit 123 plans the action to be performed by the autonomous mobile body 11 based on the recognized or estimated situation and the learning result data.
  • the action planning unit 123 supplies data indicating the planned action (hereinafter referred to as action plan data) to the motion control unit 124. Further, the action planning unit 123 supplies data related to the behavior of the autonomous mobile body 11 to the learning unit 122, or registers the data in the behavior history data stored in the storage unit 106.
  • the motion control unit 124 controls the motion of the autonomous mobile body 11 so as to execute the planned action by controlling the drive unit 104 and the output unit 105 based on the action plan data.
  • the motion control unit 124 performs rotation control of the actuator 71, display control of the display 51, voice output control by the speaker, and the like, for example, based on the action plan.
  • the drive unit 104 bends and stretches a plurality of joint units of the autonomous mobile body 11 based on the control by the motion control unit 124. More specifically, the drive unit 104 drives the actuator 71 included in each joint unit based on the control by the motion control unit 124.
  • the output unit 105 includes, for example, a display 51, a speaker, a haptics device, and the like, and outputs visual information, auditory information, tactile information, and the like based on control by the motion control unit 124.
  • the storage unit 106 includes, for example, a non-volatile memory and a volatile memory, and stores various programs and data.
  • the information processing terminal 12 includes an input unit 201, a communication unit 202, an information processing unit 203, an output unit 204, and a storage unit 205.
  • the input unit 201 includes various sensors such as a camera 211, a microphone (not shown), and an inertial sensor (not shown). Further, the input unit 201 includes input devices such as switches (not shown) and buttons (not shown). The input unit 201 supplies the input data input via the input device and the sensor data output from various sensors to the information processing unit 203.
  • the communication unit 202 communicates with the autonomous mobile body 11, another information processing terminal 12, and the information processing server 13 via or without the network 21, and transmits / receives various data. ..
  • the communication unit 202 supplies the received data to the information processing unit 203, and acquires the data to be transmitted from the information processing unit 203.
  • the communication method of the communication unit 202 is not particularly limited and can be flexibly changed according to the specifications and operation.
  • the information processing unit 203 includes, for example, a processor such as a CPU, performs various types of information processing, and controls each part of the information processing terminal 12.
  • the information processing unit 203 includes a recognition unit 221, an image processing unit 222, a UI (user interface) control unit 223, and a companion setting unit 224.
  • the recognition unit 221 recognizes an object in the captured moving image captured by the camera 211.
  • the image processing unit 222 generates a moving image, a still image, an operation screen, and the like displayed by the display unit 241 included in the output unit 204.
  • the UI control unit 223 controls the user interface of the information processing terminal 12 by controlling the output of visual information, auditory information, tactile information, etc. by the output unit 204.
  • the display control unit 231 included in the UI control unit 223 controls the output of visual information by the display unit 241 included in the output unit 204. That is, the display control unit 231 controls the display of moving images, still images, operation screens, and the like by the display unit 241.
  • the companion setting unit 224 includes an autonomous mobile body 11 (hereinafter referred to as “own machine”) owned by a user who uses the information processing terminal 12 and an autonomous mobile body 11 (hereinafter referred to as “other”) owned by another user.
  • own machine an autonomous mobile body 11
  • other an autonomous mobile body 11 owned by another user.
  • Set up friends with called a machine.
  • the output unit 204 includes, for example, a display unit 241 composed of a display or the like, a speaker (not shown), a haptics device (not shown), and the like, and based on control by the UI control unit 223, visual information, auditory information, and tactile information. Etc. are output.
  • the storage unit 205 includes, for example, a non-volatile memory and a volatile memory, and stores various programs and data.
  • the functional configuration of the information processing terminal 12 can be flexibly changed according to the specifications and operation.
  • the image processing unit 222 when the image processing unit 222 generates an image such as a setting screen and the display control unit 231 causes the generated image to be displayed in the display unit 241, the processing of the image processing unit 222 and the display control unit 231 is appropriately performed.
  • the description is omitted as appropriate. For example, it is simply described as “the display unit 241 displays the setting screen”, “the setting screen is displayed on the display unit 241", and the like.
  • the information processing server 13 includes a communication unit 301, an information processing unit 302, and a storage unit 303.
  • the communication unit 301 communicates with each autonomous mobile body 11 and each information processing terminal 12 via the network 21, and transmits / receives various data.
  • the communication unit 301 supplies the received data to the information processing unit 302, and acquires the data to be transmitted from the information processing unit 302.
  • the communication method of the communication unit 301 is not particularly limited and can be flexibly changed according to the specifications and operation.
  • the information processing unit 302 includes, for example, a processor such as a CPU, performs various types of information processing, and controls each part of the information processing terminal 12.
  • the information processing unit 302 includes an autonomous mobile control unit 321 and an application control unit 322.
  • the autonomous mobile body control unit 321 has the same configuration as the information processing unit 103 of the autonomous mobile body 11.
  • the information processing unit 103 includes a recognition unit 331, a learning unit 332, an action planning unit 333, and an operation control unit 334.
  • the autonomous mobile body control unit 321 has the same function as the information processing unit 103 of the autonomous mobile body 11.
  • the autonomous mobile body control unit 321 receives sensor data, input data, etc., action history data, etc. from the autonomous mobile body 11, and recognizes the autonomous mobile body 11 and its surroundings.
  • the autonomous mobile body control unit 321 generates control data for controlling the operation of the autonomous mobile body 11 based on the autonomous mobile body 11 and the surrounding conditions, and transmits the control data to the autonomous mobile body 11 to the autonomous mobile body 11.
  • the operation of 11 is controlled.
  • the autonomous mobile body control unit 321 performs pattern recognition learning and learning of behavior patterns corresponding to the user's discipline, similarly to the autonomous mobile body 11.
  • the learning unit 332 of the autonomous mobile body control unit 321 performs pattern recognition learning and learning of behavior patterns corresponding to the user's discipline based on the data collected from the plurality of autonomous mobile bodies 11. It is also possible to learn the collective knowledge common to the autonomous mobile body 11.
  • the application control unit 322 communicates with the autonomous mobile body 11 and the information processing terminal 12 via the communication unit 301, and controls the application executed by the information processing terminal 12.
  • the application control unit 322 collects various data related to the autonomous mobile body 11 from the autonomous mobile body 11 via the communication unit 301. Then, the application control unit 322 transmits the collected data to the information processing terminal 12 via the communication unit 301, so that the data related to the autonomous mobile body 11 is displayed in the application executed by the information processing terminal 12.
  • the application control unit 322 receives data indicating an instruction to the autonomous mobile body 11 input via the application from the information processing terminal 12 via the communication unit 301. Then, the application control unit 322 gives an instruction from the user to the autonomous mobile body 11 by transmitting the received data to the autonomous mobile body 11 via the communication unit 301.
  • the storage unit 303 includes, for example, a non-volatile memory and a volatile memory, and stores various programs and data.
  • the storage unit 303 stores data related to each autonomous mobile body 11.
  • the data related to each autonomous mobile body 11 includes, for example, a thumbnail image showing a face or appearance, a profile, specifications (for example, color, outer shape, type, etc.), possessions (for example, food, accessories, etc.), data related to friends, and the like. ..
  • the companion of the autonomous mobile body 11 is another autonomous mobile body 11 having a companion relationship with each autonomous mobile body 11.
  • the functional configuration of the information processing server 13 can be flexibly changed according to the specifications and operation.
  • the cooperation function is a function in which one's own machine cooperates with another machine.
  • the linkage function is set to on, the own machine can virtually interact and exchange information with other machines, for example.
  • step S1 the information processing terminal 12 displays the cooperation function setting screen and accepts the setting of the cooperation function.
  • the home screen of FIG. 10 is displayed on the display unit 241.
  • the name of the own machine (Kotaro) and buttons 401 to 404 and the like are displayed.
  • Button 401 is a button for displaying the setting screen.
  • the button 402 is a button for displaying a notification transmitted from the information processing server 13.
  • Button 403 is a button for displaying information about the own machine and operating the own machine.
  • Button 404 is a button for feeding (rice) to the own machine.
  • the menu screen of FIG. 11 is displayed on the display unit 241.
  • the selection method of the button 403 is not particularly limited.
  • the selection may be made by using a cursor or the like displayed on the home screen, or by touching or bringing the display position of the button 404 close to the display position.
  • the other buttons on each screen, which will be described later, can also be selected by the same method.
  • buttons 422-1 to 422-7, buttons 423, etc. are displayed.
  • the thumbnail image and profile of the own machine are displayed. Your profile includes your name, gender, birthday, and personality.
  • Buttons 422-1 to 422-7 are buttons for selecting various functions. When any of the buttons 422-1 to 422-7 is selected, a screen or the like for executing the function corresponding to the selected button 422 is displayed on the display unit 241.
  • Button 423 is a button for closing the menu screen and displaying the previous screen.
  • the reference numerals and description for the buttons having the same design and function as the button 423 will be omitted.
  • buttons 441 and buttons 442-1 to 442-7 and the like are displayed on the setting screen.
  • the button 441 is a button for returning to the home screen of FIG. 10, and when the button 441 is selected, the home screen of FIG. 10 is displayed on the display unit 241.
  • the reference numerals and description for the buttons having the same design and function as those of the button 441 will be omitted.
  • Buttons 442-1 to 442-8 display each setting item and setting value. When any one of the buttons 442-1 to 442-8 is pressed, the setting screen related to the selected setting item is displayed.
  • the linkage function setting screen of FIG. 13 is displayed on the display unit 241.
  • Button 461, switch 462, button 463, etc. are displayed on the cooperation function setting screen.
  • the button 461 is a button for returning to the previous screen, and when the button 461 is selected, the previous screen is displayed on the display unit 241.
  • the reference numerals and description for the buttons having the same design and function as those of the button 461 will be omitted.
  • the switch 462 is a switch for setting on / off of the cooperation function.
  • the button 463 is a button for confirming the setting contents of the cooperation function by the switch 462.
  • the UI control unit 223 stores the setting contents of the cooperation function in the storage unit 205.
  • the warning screen of FIG. 14 is displayed on the display unit 241.
  • Tabs 481-1 to 481-3, buttons 482, and the like are displayed on the warning screen.
  • Tab 481-1 is a tab for displaying information about friends of the own machine.
  • Tab 481-2 is a tab for displaying and editing the profile of the own machine.
  • Tab 481-3 is a tab for performing an operation to restore the display of the hidden companion among the companions of the own machine.
  • Button 482 is a button for setting the cooperation function.
  • tab 481-1 is selected, but the linkage function is not set to on and the linkage function cannot be used, so a warning screen warning that the linkage function is set to on is displayed. It is displayed.
  • step S2 the UI control unit 223 notifies the information processing server 13 of the setting contents of the cooperation function.
  • step S51 the application control unit 322 of the information processing server 13 updates the setting contents of the cooperation function. Specifically, the application control unit 322 updates the setting contents of the cooperation function in the data related to the autonomous mobile body 11 (own machine) stored in the storage unit 303.
  • step S101 the information processing terminal 12 requests a search for recommended candidates.
  • the recommended candidate is another machine recommended by the information processing system 1 as a candidate for a new friend of the own machine (hereinafter referred to as a friend candidate).
  • the button 422-1 is selected on the menu screen of FIG. 11 described above, and the cooperation function is set to ON, the companion list of FIG. 16 is displayed on the display unit 241.
  • the linkage function setting screen of FIG. 13 is displayed, and the linkage function is set on the linkage function setting screen, the companion list of FIG. 16 is displayed. It is displayed on the display unit 241.
  • buttons 501-1 to buttons 501-5, pull-down menu 502, check box 503, button 504, etc. are displayed in the companion list.
  • buttons 501-1 to 501-5 are simply referred to as buttons 501.
  • Each button 501 shows information about the companion of the own machine. Specifically, each button 501 displays a thumbnail image and a name of a companion. In addition, the characters "NEW !" are displayed on the button 501 of the new companion who became a companion within the latest predetermined period. As will be described later, when any one of the buttons 501 is selected, information about the companion corresponding to the selected button 501 is displayed on the display unit 241.
  • the pull-down menu 502 is a menu for setting the display order of friends.
  • the display order is set in the newest order, and the time when the friends of the own machine became friends is displayed in the newest order.
  • the check box 503 is used to set whether or not to limit the friends displayed in the friend list to the friends existing near the own machine.
  • the check box 503 is checked, for example, among the friends of the own machine, only the friends existing in the communication range of the short-range wireless communication device included in the communication unit 102 of the own machine are displayed.
  • the check box 503 is not checked, all the friends of the own machine are displayed.
  • FIG. 17 shows an example of displaying the companion list when the check box 503 is checked.
  • Button 504 is a button for adding a new companion. When the button 504 is selected, the menu screen of FIG. 18 is displayed on the display unit 241.
  • This menu screen is a screen for selecting a method for adding (acquiring) friends.
  • a method of adding a friend there are a method of eating food (rice) together with another machine and a method of reading a QR code (hereinafter, simply referred to as a QR code of another machine) indicating information about the other machine.
  • Button 521 is a button for selecting a method of eating food together with another machine.
  • Button 522 is a button for selecting a method for reading the QR code of another machine.
  • the button 523 is a button for displaying a QR code (hereinafter, simply referred to as a QR code of the own machine) indicating information about the own machine.
  • a QR code hereinafter, simply referred to as a QR code of the own machine
  • the UI control unit 223 requests the information processing server 13 to search for recommended candidates.
  • the information processing server 13 can also be requested to search for recommended candidates by using the following method.
  • the meal home screen of FIG. 19 is displayed on the display unit 241.
  • the own machine 541, the food plate 542, the food plate 543, the button 544, the button 545, and the like are displayed.
  • the own machine 541 is an image that virtually represents the own machine. For example, the design and accessories of the own machine are reflected in the own machine 541.
  • the food plate 542 is an image that virtually represents the food plate when the own machine eats food by itself.
  • the food plate 543 is an image that virtually represents the food plate when the own machine eats food together with another machine (companion or fellow candidate).
  • Button 544 is a button for displaying the property (mochimono) of the own machine.
  • Button 545 is a button for displaying a mogumogu stamp, which will be described later.
  • the meal home screen of FIG. 20 is displayed on the display unit 241. That is, on the meal home screen of FIG. 20, the positions of the food plate 542 and the food plate 543 are exchanged with each other as compared with the meal home screen of FIG. Then, on the meal home screen of FIG. 20, that is, when the food plate 543 is displayed in front of the own machine 541, when the food plate 543 is selected, the window 561 of FIG. 21 is displayed on the display unit 241. ..
  • Window 561 is a window for selecting a partner to eat food with the own machine. Buttons 562, 564, and the like are displayed in the window 561.
  • Button 562 is a button for selecting a new companion as a partner for eating food together with the own machine.
  • Button 563 is a button for selecting an existing companion as a partner for eating food together with the own machine.
  • Button 564 is a button for canceling the selection of the other party to eat food with the own machine.
  • the button 564 is selected, the window 561 is closed and the previous screen is displayed on the display unit 241.
  • the UI control unit 223 requests the information processing server 13 to search for recommended candidates.
  • the information processing server 13 searches for recommended candidates and transmits data indicating the search results of the recommended candidates to the information processing terminal 12, as will be described later.
  • the data showing the search result of the recommended candidate includes, for example, a profile and a thumbnail image of each recommended candidate.
  • step S102 the information processing terminal 12 receives and displays the search result of the recommended candidate.
  • the UI control unit 223 receives data indicating a search result of a recommended candidate from the information processing server 13. Then, based on the received data, the recommended candidate list of FIG. 22 is displayed on the display unit 241.
  • the recommended candidate list is a screen showing the search results of recommended candidates.
  • an example is shown in which another aircraft whose birthday is close to that of the own aircraft is searched as a recommended candidate.
  • Buttons 581-1 to 581-3, buttons 582, and the like are displayed in the recommended candidate list.
  • buttons 581-1 to 581-3 are simply referred to as the button 581.
  • Each button 581 shows information about each recommended candidate. Specifically, each button 581 displays a thumbnail image and a name of each recommended candidate. As will be described later, when any one of the buttons 581 is selected, information about the recommended candidate corresponding to the selected button 581 is displayed.
  • Button 582 is a button for setting search conditions for fellow candidates. When the button 582 is selected, the search condition setting screen of FIG. 23 is displayed on the display unit 241.
  • the search condition setting screen is a screen for setting search conditions for fellow candidates.
  • a text box 601, a pull-down menu 602, a button 603, a pull-down menu 604, a button 605, a button 606, and the like are displayed.
  • the text box 601 is used to input the name of another machine as a search condition for fellow candidates.
  • the pull-down menu 602 is used to set the gender of another machine as a search condition for fellow candidates.
  • the gender options are displayed and the gender can be selected.
  • Button 603 is selected when setting the birthday of another machine as a search condition for fellow candidates.
  • a birthday input screen (not shown) is displayed, and the birthday can be input.
  • the pull-down menu 604 is used to set the address of another machine as a search condition for fellow candidates.
  • an address option for example, a prefecture
  • an address can be selected.
  • Button 605 is a button for canceling the search for fellow candidates.
  • the button 605 is selected, the previous screen is displayed on the display unit 241 without searching for fellow candidates.
  • Button 606 is a button for searching for fellow candidates under the set search conditions.
  • step S103 the UI control unit 223 determines whether or not the search conditions for fellow candidates have been set.
  • the button 606 is selected after at least one of the search conditions is set on the setting screen of FIG. 23, the UI control unit 223 determines that the search conditions for the fellow candidates have been set, and the process is performed. The process proceeds to step S104.
  • step S104 the UI control unit 223 requests a search for fellow candidates. Specifically, the UI control unit 223 notifies the information processing server 13 of the set search conditions and requests the search for fellow candidates.
  • the information processing server 13 searches for fellow candidates based on the set search conditions, and transmits data indicating the search results of the fellow candidates to the information processing terminal 12.
  • step S105 the information processing terminal 12 receives and displays the search result of the fellow candidate.
  • the UI control unit 223 receives data indicating a search result of a fellow candidate from the information processing server 13.
  • the data showing the search result of the fellow candidate includes, for example, a profile and a thumbnail image of each fellow candidate. Then, based on the received data, a companion candidate list showing the search results of the companion candidates is displayed on the display unit 241.
  • the companion candidate list is the same screen as the recommended candidate list in FIG. 22 described above. That is, in the companion candidate list, information about the searched companion candidate is displayed at each button 581 of FIG.
  • step S103 determines whether the search condition for the fellow candidate is set. If it is determined in step S103 that the search condition for the fellow candidate is not set, the processing of step S104 and step S105 is skipped, and the processing proceeds to step S106.
  • step S106 the UI control unit 223 determines whether or not the companion candidate has been selected. If it is determined that the fellow candidate is not selected, the process returns to step S103.
  • step S106 the processes of steps S103 to S106 are repeatedly executed until it is determined that the companion candidate has been selected.
  • the window 621 of FIG. 24 is displayed on the display unit 241.
  • a profile column 622, a button 623, a button 624, and the like are displayed.
  • the thumbnail image, name, gender, birthday, owner's nickname, and address of the selected fellow candidate are displayed.
  • Button 623 is a button for canceling the selection of fellow candidates. When the button 623 is selected, the window 621 is closed and the previous screen is displayed on the display unit 241.
  • Button 624 is a button for inviting the selected companion to a meal (rice). Then, when the button 624 is selected, it is determined in step S106 that the companion candidate has been selected, and the process proceeds to step S107.
  • step S107 the UI control unit 223 notifies the information processing server 13 of the selection result of the fellow candidate.
  • the information processing server 13 receives the notification of the selection result of the fellow candidate and transmits the data related to the food for its own machine owned by the user.
  • the data regarding the food for the own machine includes, for example, the type and quantity of the food for the own machine.
  • step S108 the information processing terminal 12 receives and displays data related to food. Specifically, the UI control unit 223 receives data related to food for its own machine from the information processing server 13. Then, based on the received data, the bait list of FIG. 25 is displayed on the display unit 241.
  • the food list is a screen that displays a list of food for the user's own machine.
  • the food can be obtained, for example, by the user purchasing from the service for the autonomous mobile body 11 provided by the information processing server 13 or acquiring a prize.
  • Icons 641-1 to 641-7 and the like are displayed on the food list.
  • icons 641-1 to 641-7 are simply referred to as icons 641.
  • Each icon 641 includes an image showing the type of food owned by the user. Further, the name of the food is displayed below each icon 641, and the number of possessions of the user of the food indicated by each icon 641 is displayed in the upper right corner.
  • a + symbol is displayed on the icon 641-4 indicating food that the user does not own. For example, when the + symbol is selected, a screen for purchasing food corresponding to the icon 641-4 is displayed on the display unit 241.
  • step S109 the information processing terminal 12 notifies the selection result of food.
  • the window 661 of FIG. 26 is displayed on the display unit 241.
  • the name, image, and description of the selected food are displayed in the window 661. Further, the button 662 and the button 663 are displayed in the window 661.
  • Button 662 is a button for canceling the selection of food.
  • the button 662 is selected, the window 661 is closed and the previous screen is displayed on the display unit 241.
  • Button 663 is a button for confirming the selection of food.
  • the UI control unit 223 notifies the information processing server 13 of the food selection result.
  • the information processing server 13 receives the notification of the food selection result and controls the autonomous mobile body 11 so as to perform the operation of eating the food.
  • step S110 the information processing terminal 12 displays the state of meals between the autonomous mobile body 11 (own machine) and fellow candidates. For example, the meal screen of FIG. 27 or FIG. 28 is displayed on the display unit 241.
  • an animation that virtually shows how the own machine and the selected fellow candidate eat food together is displayed.
  • a switch 681, a own machine 682, a fellow candidate 683, a label 684, a food plate 685, a food 686, and the like are displayed.
  • the switch 681 is a switch for selecting the display method of the meal screen.
  • the user can set the display method of the meal screen to "normal” or "AR (Augmented Reality)" by using the switch 681.
  • the switch 681 is set to "normal”
  • the meal screen of FIG. 27 is displayed.
  • the switch 681 is set to "AR”
  • the own machine 682 is an image that virtually represents the own machine. For example, the actual design and accessories of the own machine are reflected in the own machine 682.
  • the companion candidate 683 is an image that virtually represents the selected companion candidate. For example, the design and accessories of the actual fellow candidate are reflected in the fellow candidate 683.
  • Label 684 indicates the name of fellow candidate 683 and is displayed in the vicinity of fellow candidate 683.
  • the food plate 685 is an image that virtually represents the food plate.
  • the food 686 is an image that virtually represents the food selected in the process of step S109, and is displayed on the food plate 685.
  • a moving image in which an image of a selected companion candidate is virtually superimposed on a shooting moving image (through image) taken by the own machine using AR is displayed. More specifically, a video of the actual own machine 701 and the virtual companion candidate 683 eating food together is displayed.
  • a switch 681, a companion candidate 683, a label 684, a own machine 701, a food plate 702, a food 703, a button 704, and the like are displayed. More specifically, the switch 681, the companion candidate 683, the food 703, and the button 704 are superimposed and displayed on the photographed moving image of the actual own machine 701 and the food plate 702.
  • the food 703 is an image that virtually represents the food selected in the process of step S109, and is superimposed and displayed on the actual food plate 702.
  • Button 704 is a button for shooting a still image obtained by cutting out one scene of a moving image (through image) displayed on the meal screen. For example, when the button 704 is pressed, the image processing unit 222 generates an image excluding the switch 681 and the button 704 from the image displayed on the meal screen at the moment when the button 704 is pressed, and the storage unit 205 generates an image.
  • the image processing unit 222 when the button 704 is pressed, the image processing unit 222 generates an image excluding the switch 681 and the button 704 from the image displayed on the meal screen at the moment when the button 704 is pressed, and the storage unit 205 generates an image.
  • the image processing unit 222 superimposes the virtual companion candidate 683 and the food 703 on the photographed image of the actual own machine 682 eating the food (which does not actually exist) of the food plate 702.
  • the real own machine 682 and the virtual companion candidate 683 generate a video of eating the virtual food 703 together.
  • the display unit 241 displays the meal screen of FIG. 28 by displaying the moving image generated by the image processing unit 222 under the control of the display control unit 231.
  • the recognition unit 221 recognizes the food plate 702 in the captured moving image.
  • the image processing unit 222 superimposes the virtual food 703 on the recognized food plate 702. Further, the image processing unit 222 superimposes the fellow candidate 683 around the food plate 702, and moves the fellow candidate 683 so as to show how to eat the food 703.
  • the images of the fellow candidate 683 and the food 703 may be either two-dimensional or three-dimensional.
  • the user adjusts the angle of view of the camera 211 so that the positional relationship between the own machine 701 and the companion candidate 683 becomes appropriate, if necessary.
  • the companion setting unit 224 notifies the information processing server 13 that the companion has acquired a new companion after the meal is finished, so that the companion candidate who ate the food together is added to the companion of the own machine.
  • step S111 the information processing terminal 12 receives and displays the stamp image.
  • the information processing server 13 generates a stamp image with a stamp that is a privilege for this meal and sends it to the information processing terminal 12.
  • the UI control unit 223 receives the stamp image from the information processing server 13. Then, based on the received stamp image, the stamp screen (mogumogu stamp) of FIG. 29 is displayed. On this stamp screen, a mount 721 and stamps 722 to 724 and the like are displayed.
  • the mount 721 is, for example, an image imitating a point card. On the mount 721, the pressing positions of the stamps from 1 to 10 are displayed.
  • Stamp 722 is a stamp given by feeding your own machine.
  • the stamp 723 is a stamp given by feeding a friend of the own machine.
  • the stamp 724 is a stamp given when the player acquires a new companion.
  • a stamp created by a new fellow user is used.
  • the stamp 724 shows the letters "May", the name of the new companion.
  • stamps are given by eating food with the new companion "Mei". Stamps are accumulated until a predetermined number (10 in this example) is reached, and when the predetermined number is reached, a prize (for example, a snack) is given.
  • step S112 the information processing terminal 12 receives and displays the image of the commemorative gift.
  • the information processing server 13 generates a commemorative gift image showing a commemorative gift as a reward for acquiring a new companion, and sends the commemorative gift image to the information processing terminal 12.
  • the UI control unit 223 receives the commemorative gift image from the information processing server 13. Then, based on the commemorative gift image, the window 741 of FIG. 30 is displayed on the display unit 241.
  • the window 741 displays an image and a message representing a commemorative gift given as a commemoration of acquiring a new companion.
  • step S113 the information processing terminal 12 displays information about a new companion. For example, after the window 741 of FIG. 30 is closed, the window 761 of FIG. 31 is displayed on the display unit 241.
  • Window 761 is a window for notifying that a new companion has been acquired.
  • a profile column 762 In the window 761, a profile column 762, a button 763, a button 764, and the like are displayed.
  • the profile column 421 thumbnail images and profiles of new friends are displayed.
  • the profile of the new companion will include name, gender, birthday, owner's nickname, and address.
  • Button 763 is a button for closing the window 761.
  • Button 764 is a button for displaying a companion list. When the button 764 is pressed, for example, the companion list of FIG. 16 described above is displayed.
  • step S151 the information processing server 13 searches for recommended candidates and notifies the search result.
  • the application control unit 322 is stored in the storage unit 303 according to a predetermined condition. Search for recommended candidates from the data related to each autonomous mobile body 11. For example, in the application control unit 322, the difference in birthday between the own machine and the other machine that is set to turn on the cooperation function and is not yet a friend of the own machine is within a predetermined range. Search for other aircraft in the list as recommended candidates.
  • the application control unit 322 transmits data indicating the search result of the recommended candidate to the information processing terminal 12.
  • step S152 the application control unit 322 determines whether or not a search for a fellow candidate has been requested.
  • the process proceeds to step S153.
  • step S153 the information processing server 13 searches for fellow candidates and notifies the search result.
  • the application control unit 322 is another machine in which the cooperation function is set to be turned on in the data related to each autonomous mobile body 11 stored in the storage unit 303, and is not yet a friend of the own machine.
  • a fellow candidate is searched from the machine based on the search condition specified by the information processing terminal 12.
  • the application control unit 322 transmits data indicating the search results of the fellow candidates to the information processing terminal 12.
  • step S152 determines whether the search for fellow candidates is not requested. If it is determined in step S152 that the search for fellow candidates is not requested, the process of step S153 is skipped and the process proceeds to step S154.
  • step S154 the application control unit 322 determines whether or not the selection result of the companion candidate has been notified. If it is determined that the selection result of the fellow candidate has not been notified, the process proceeds to step S152.
  • step S154 the processes of steps S152 to S154 are repeatedly executed until it is determined that the search result of the fellow candidate has been notified.
  • step S154 when the information processing terminal 12 notifies the search result of the fellow candidate in step S107 of FIG. 15 described above, the process proceeds to step S155.
  • step S155 the information processing server 13 transmits data related to food and receives the selection result of food.
  • the application control unit 322 reads data related to food for its own machine from the storage unit 303, and transmits the read data to the information processing terminal 12.
  • the application control unit 322 receives the notification of the food selection result from the information processing terminal 12 in step S109 of FIG. 15 described above.
  • step S156 the information processing server 13 controls the autonomous mobile body 11 (own machine) to perform an operation of eating food.
  • the application control unit 322 instructs the autonomous mobile control unit 321 to make the own machine perform an operation of eating food.
  • the motion control unit 334 of the autonomous mobile body control unit 321 controls the autonomous mobile body 11 which is its own machine to perform an operation of eating food.
  • step S157 the application control unit 322 updates the data related to the companion of the autonomous mobile body 11 (own machine). Specifically, the application control unit 322 receives a notification indicating that the own machine has acquired a new companion, which is transmitted from the information processing terminal 12 in step S110 of FIG. 15 described above. The application control unit 322 adds another machine that the own machine has eaten together to a new companion in the data about the own machine stored in the storage unit 303.
  • step S158 the information processing server 13 transmits the stamp image.
  • the application control unit 322 generates a stamp image showing a stamp given as a privilege to the own machine that has eaten food together with a new friend this time, and transmits it to the information processing terminal 12.
  • step S159 the information processing server 13 transmits an image of a commemorative gift.
  • the application control unit 322 generates a commemorative gift image showing a commemorative gift, which is a reward for the self-machine to acquire a new companion, and transmits it to the information processing terminal 12.
  • step S201 the information processing terminal 12 displays a QR code (registered trademark) reading screen.
  • the reading screen of FIG. 34 is displayed on the display unit 241.
  • This reading screen is a screen for reading the QR code of another machine that you want to make friends with your own machine.
  • a frame 781 or the like is displayed on the reading screen.
  • Frame 781 shows the range of reading the QR code of another machine that you want to make friends with your own machine.
  • step S202 the information processing terminal 12 reads and transmits the QR code of another autonomous mobile body 11 (another machine) that it wants to be a friend.
  • a user of another machine selects the button 523 of the menu screen after displaying the menu screen of FIG. 18 described above on the information processing terminal 12 owned by the user.
  • the QR code 801 representing the information about the other machine is displayed on the information processing terminal 12 of the user of the other machine.
  • the user of the own machine adjusts the position of the camera 211 of the information processing terminal 12 so that the QR code 801 of the other machine of FIG. 35 fits within the frame 781 of the reading screen of FIG. 34. Then, the user of the own machine takes a picture of the QR code 801 with the camera 211.
  • the companion setting unit 224 adds another machine corresponding to the QR code 801 to the companion of its own machine by transmitting the captured image of the QR code 801 to the information processing server 13.
  • step S251 the information processing server 13 receives the QR code and searches for another autonomous mobile body 11 (another machine) corresponding to the QR code.
  • the application control unit 322 receives the image of the QR code transmitted from the information processing terminal 12.
  • the application control unit 322 analyzes the received QR code and acquires the identification information (for example, the serial number) of the autonomous mobile body 11.
  • the application control unit 322 searches for the autonomous mobile body 11 having the identification information that matches the acquired identification information in the data about each autonomous mobile body 11 stored in the storage unit 303.
  • step S252 the application control unit 322 registers the searched other autonomous mobile body 11 as a new companion. Specifically, the application control unit 322 adds another machine searched in the process of step S251 to a new companion in the data related to the own machine stored in the storage unit 303.
  • step S253 the information processing server 13 transmits data related to the companion of the autonomous mobile body 11 (own machine).
  • the application control unit 322 reads the data related to the companion of the own machine from the storage unit 303.
  • the data about the fellows of the own machine includes the data about the newly added fellows, and includes, for example, the profile and the thumbnail image of each fellow.
  • step S203 the information processing terminal 12 receives and displays data related to the companion of the autonomous mobile body 11 (own machine). Specifically, the UI control unit 223 receives the data related to the companion of the own machine transmitted from the information processing server 13.
  • the window 821 of FIG. 36 is first displayed on the display unit 241.
  • Window 821 is a window for notifying that the own machine has acquired a new companion.
  • the name of the newly acquired companion, the button 822, and the like are displayed.
  • the companion list in FIG. 37 has the same contents as the companion list in FIG. However, in the example of FIG. 37, only new companions whose own aircraft became companions within the most recent predetermined period are displayed.
  • step S301 the information processing terminal 12 requests data regarding a companion of the autonomous mobile body 11 (own machine).
  • the linkage function is set to ON, or when the button 563 is selected in the window 561 of FIG. 21 described above.
  • the UI control unit 223 requests the information processing server 13 for data related to the companion of the own machine.
  • the information processing server 13 transmits data regarding the companion of the autonomous mobile body 11 as in the process of step S253 in FIG. 33 described above.
  • step S302 the information processing terminal 12 receives and displays data related to the companion of the autonomous mobile body 11 (own machine). Specifically, the UI control unit 223 receives the data related to the companion of the own machine transmitted from the information processing server 13. Then, based on the received data, the companion list of FIG. 16 described above is displayed on the display unit 241.
  • step S303 the information processing terminal 12 accepts the selection of friends who eat food together and notifies the selection result.
  • the profile screen of FIG. 39 is displayed. Displayed at 241.
  • the profile screen is a screen that displays the profiles of selected friends. On the profile screen, a thumbnail image and profile of the selected companion, a button 861, a button 862, and the like are displayed.
  • the profile of the companion includes the name, gender, birthday, owner's nickname, and address.
  • the profile of the companion includes the date when he / she became a companion (friend) with the aircraft, the number of times he / she met the aircraft, and the number of times he / she ate food (rice) with the aircraft.
  • the number of times of encountering the own machine for example, the number of times a friend approaches from the own machine within a predetermined range is used.
  • the range that satisfies this condition for example, the communication range of the short-range wireless communication device included in the communication unit 102 of the own machine is used.
  • Button 861 is a button for selecting a displayed companion as a partner to eat food with the own machine.
  • Button 862 is a button for performing other operations on the displayed companion other than selecting the person who eats food.
  • the window 881 of FIG. 40 is displayed on the display unit 241.
  • a profile column 882, a button 883, a button 884, and the like are displayed.
  • the profile column 882 thumbnail images and profiles of the selected companions are displayed.
  • the profile includes name, gender, birthday, owner's nickname, and address.
  • Button 883 is a button for canceling the selection of the displayed companion.
  • Button 884 is a button for confirming the selection of the displayed companion. Then, when the button 884 is selected, a companion whose profile is displayed in the window 881 is selected as a partner who eats food together with the own machine.
  • the UI control unit 223 notifies the information processing server 13 of the selection result of the companion who eats food together with the own machine.
  • step S304 the data related to food is received and displayed in the same manner as the process of step S108 of FIG. 15 described above.
  • step S305 the food selection result is notified in the same manner as the process of step S109 of FIG. 15 described above.
  • step S306 the state of eating between the autonomous mobile body 11 (own machine) and friends is displayed in the same manner as in the process of step S110 of FIG. 15 described above.
  • the partner who eats with the own machine is a new companion candidate, whereas in this process, the partner who eats with the own machine is an existing companion selected in the process of step S303. The point is different.
  • step S307 the stamp image is received and displayed in the same manner as in the process of step S111 in FIG. 15 described above.
  • two types of stamps are given: a stamp given by feeding the own machine and a stamp given by feeding a friend of the own machine.
  • step S351 the information processing server 13 reads out the data related to the companion of the autonomous mobile body 11 (own machine). Specifically, the application control unit 322 reads data related to the companion of the own machine from the storage unit 303 in response to the request of the information processing terminal 12 in step S301 of FIG. 38 described above.
  • the data about the fellows of the own machine includes, for example, the profile and the thumbnail image of each fellow.
  • step S352 the information processing server 13 transmits data related to the companion of the autonomous mobile body 11 (own machine). Specifically, the application control unit 322 transmits the data read in the process of step S351 to the information processing terminal 12.
  • step S353 the information processing server 13 receives the selection result of the companion who eats food together.
  • the application control unit 322 receives the notification of the selection result of the companion who eats food together with the own machine, which is transmitted from the information processing terminal 12 in step S303 of FIG. 38 described above.
  • step S354 the data related to the food is transmitted and the selection result is received in the same manner as the process of step S155 of FIG. 32 described above.
  • step S355 the autonomous mobile body 11 (own machine) is controlled to perform the operation of eating food, as in the process of step S156 of FIG. 32 described above.
  • step S356 the application control unit 322 updates the data related to the companion of the autonomous mobile body 11 (own machine). Specifically, the application control unit 322 updates the number of times that the own machine has eaten the food together with the fellow who ate the food together in the data about the own machine stored in the storage unit 303.
  • step S357 the stamp image is transmitted in the same manner as in the process of step S158 of FIG. 32 described above.
  • step S401 the information processing terminal 12 requests the information processing server 13 for data related to the members of the autonomous mobile body 11 (own machine), as in the process of step S301 of FIG. 38 described above.
  • step S451 the information processing server 13 reads out the data relating to the companion of the autonomous mobile body 11 in the same manner as the process of step S351 of FIG. 41 described above, and in step S452, step S352 of FIG. 41 described above.
  • the read data is transmitted to the information processing terminal 12 in the same manner as in the process of.
  • step S402 the information processing terminal 12 receives and displays data related to the companion of the autonomous mobile body 11 (own machine) in the same manner as the process of step S302 of FIG. 38 described above. As a result, the above-mentioned companion list of FIG. 16 is displayed on the display unit 241.
  • step S403 the information processing terminal 12 displays data related to the selected companion. Specifically, when any button 501 is selected in the companion list of FIG. 16, that is, when any of the companions of the own machine is selected, the profile screen of FIG. 39 described above is displayed. Displayed at 241.
  • step S404 the information processing terminal 12 accepts the hidden setting of the selected companion and notifies the setting content.
  • buttons 902 and the like are displayed in the window 901.
  • Button 902 is a button for hiding the selected companion. Then, when the button 902 is selected, the window 901 is closed and the window 921 of FIG. 44 is displayed on the display unit 241.
  • Window 921 is a window for confirming the implementation of hiding the selected companion.
  • Button 922, button 923, and the like are displayed in the window 921.
  • Button 922 is a button for canceling the hiding of the selected companion. When the button 922 is selected, the window 921 is closed and the hiding of the selected companion is cancelled.
  • Button 922 is a button for confirming the non-display of the selected companion.
  • the button 922 is selected, the window 921 is closed, and the window 941 of FIG. 45 is displayed on the display unit 241 for a predetermined time.
  • Window 941 is a window for notifying that the selected companion has been hidden.
  • the companion set to be hidden will not be displayed in the companion list on the information processing terminal 12. Further, the information about the companion set to be hidden is not transmitted from the information processing server 13 to the information processing terminal 12. As a result, for example, it is possible to stop the interaction with a specific companion among the companions of the own machine.
  • the UI control unit 223 transmits data indicating the hidden companion to the information processing server 13.
  • step S453 the information processing server 13 sets to hide the selected companion.
  • the application control unit 322 receives data indicating a hidden companion from the information processing terminal 12.
  • the application control unit 322 sets to hide the companion selected by the user in the data related to the own machine stored in the storage unit 303.
  • step S501 the information processing terminal 12 requests data regarding the hidden companion.
  • Button 961 is a button for confirming the hidden companion.
  • the UI control unit 223 requests the information processing server 13 for data regarding the hidden companion.
  • step S551 the information processing server 13 reads out the data related to the hidden companion.
  • the application control unit 322 reads the data related to the hidden companion among the companions of the own machine from the storage unit 303.
  • the data about the hidden peers include, for example, the profile and thumbnail images of each peer.
  • step S552 the information processing server 13 transmits data related to the hidden companion to the information processing terminal 12.
  • step S502 the information processing terminal 12 receives and displays the data related to the hidden companion.
  • the UI control unit 223 receives the data regarding the hidden companion transmitted from the information processing server 13. Then, based on the received data, the hidden companion list of FIG. 48 is displayed on the display unit 241.
  • the hidden companion list is a list of hidden companions. Button 981-1, button 981-2, and the like are displayed in the hidden companion list.
  • buttons 981-1 and the button 981-2 are simply referred to as the button 981.
  • Each button 981 shows information about the hidden companion. Specifically, each button 981 displays a thumbnail image and a name of a hidden companion.
  • step S503 the information processing terminal 12 accepts the selection of the companion to cancel the non-display and notifies the selection result.
  • FIG. 49 the profile screen is displayed on the display unit 241.
  • the profile screen is a screen that displays the profiles of selected friends. On the profile screen, the profile of the selected companion, the button 1001 and the like are displayed.
  • the profile of the companion includes the name, gender, birthday, owner's nickname, and address.
  • the profile of friends includes the date when they became friends with their own aircraft, the number of times they met their own aircraft, and the number of times they ate food (rice) with their own aircraft.
  • Button 1001 is a button for canceling the hiding of the displayed companions. Then, when the button 1001 is selected, the window 1021 is displayed on the display unit 241 for a predetermined time.
  • Window 1021 is a window for notifying that the hidden of the selected companion has been canceled.
  • the UI control unit 223 notifies the information processing server 13 of the selection result of the companion who cancels the hiding.
  • step S553 the information processing server 13 cancels the hiding of the selected companion. Specifically, the application control unit 322 cancels the non-display of the companion selected by the user in the data related to the own machine stored in the storage unit 303.
  • step S601 the information processing terminal 12 requests the transmission of data related to the autonomous mobile body 11 (own machine). Specifically, when tab 481-2 is selected in the companion list of FIG. 16 described above, the UI control unit 223 requests the information processing server 13 for data regarding its own machine.
  • step S651 the application control unit 322 reads the data related to the autonomous mobile body 11 (own machine) from the storage unit 303.
  • step S652 the application control unit 322 transmits the read data regarding the autonomous mobile body 11 (own machine) to the information processing terminal 12.
  • step S602 the information processing terminal 12 receives and displays the data related to the autonomous mobile body 11 (own machine). Specifically, the UI control unit 223 receives data related to its own machine from the information processing server 13. Then, based on the received data, the profile screen of FIG. 52 is displayed on the display unit 241.
  • the profile screen of FIG. 52 On the profile screen of FIG. 52, the profile of the own machine, the thumbnail image 1041, the stamp 1042, the buttons 1043 to the buttons 1045, and the like are displayed.
  • Your profile includes your name, gender, birthday, owner's nickname, and address.
  • thumbnail image 1041 for example, an image taken of the own machine is used.
  • Stamp 1042 is a stamp generated based on the name of the own machine, as will be described later.
  • Button 1043 is a button for displaying the QR code of the own machine. For example, when button 1043 is selected, the QR code screen of FIG. 35 described above is displayed.
  • Button 1044 is a button for changing clothes of the own machine.
  • Button 1045 is a button for editing the profile of the own machine.
  • step S603 the information processing terminal 12 accepts editing of the profile and the like of the autonomous mobile body 11 (own machine) and notifies the edited contents. Specifically, when the button 1045 is selected on the profile screen of FIG. 52, the edit screen of FIG. 53 is displayed on the display unit 241.
  • the edit screen of FIG. 53 is a screen for editing the profile of the own machine and the like.
  • the profile of the own machine the thumbnail image 1061, the button 1062, the stamp 1063, the button 1064, the text box 1065, the pull-down menu 1066, the button 1067, and the like are displayed.
  • the button 1062 is a button for editing the thumbnail image 1061.
  • Button 1064 is a button for editing the stamp 1063.
  • the text box 1065 is used for editing the nickname of the owner of the own machine. That is, the user can enter an arbitrary nickname as his / her own nickname in the text box 1065.
  • the pull-down menu 1066 is used to set the address of the own machine. When the pull-down menu 1066 is selected, address options (eg, prefectures) are displayed and the address can be selected.
  • address options eg, prefectures
  • Button 1067 is a button for confirming the changed contents of the profile of the own machine.
  • the window 1081 of FIG. 54 is displayed on the display unit 241.
  • the window 1081 is a window for selecting a method for adding a photograph to be used for the thumbnail image 1061.
  • Buttons 1082 to 1084 and the like are displayed in the window 1081.
  • the camera 211 is activated. This makes it possible to capture the image used for the thumbnail image 1061.
  • a list of images stored in the storage unit 205 is displayed on the display unit 241. This makes it possible to select the image used for the thumbnail image 1061 from the displayed list.
  • the stamp edit screen of FIG. 55 is displayed on the display unit 241.
  • the stamp editing screen is a screen for editing the stamp of the own machine.
  • a stamp 1101, a text box 1102, a pull-down menu 1103, a pull-down menu 1104, a button 1105, and the like are displayed.
  • Stamp 1101 indicates the state of the stamp being edited.
  • the text box 1102 is used for inputting the name to be displayed on the stamp 1101. Then, the name entered in the text box 1102 is displayed on the stamp 1101.
  • the pull-down menu 1103 is used to set the color of the stamp 1101. When the pull-down menu 1103 is selected, color options are displayed, and the color of the stamp 1101 can be selected.
  • the pull-down menu 1104 is used to set the design of the stamp 1101 (for example, the outer shape of the stamp 1101). When the pull-down menu 1104 is selected, design options are displayed and the design of the stamp 1101 can be selected.
  • Button 1105 is a button for confirming the edited content of the stamp 1101.
  • the button 1105 is selected, the stamp of the own machine is changed to the displayed stamp 1101.
  • the dress-up screen is a screen for changing the dress-up of the image of the own machine virtually displayed on each information processing terminal 12.
  • the own machine 1121, the button 1122, the button 1125, and the like are displayed.
  • the own machine 1121 is an image that virtually shows the state of the dress-up item attached to the own machine.
  • Button 1122 is a button for selecting a collar to be attached to the own machine. Further, the button 1122 displays the currently selected collar. If neither collar is selected, the word "none" is displayed on the button 1122.
  • Button 1123 is a button for selecting a name sticker to be attached to the own machine. In addition, the currently selected name sticker is displayed on the button 1123. If none of the name stickers are selected, the word "none" is displayed on button 1123.
  • Button 1124 is a button for selecting a dog tag to be attached to the own machine. In addition, the currently selected dog tag is displayed on the button 1124. If neither dog tag is selected, the character "none" is displayed on the button 1124.
  • Button 1125 is a button for confirming the dress-up item displayed on the own machine 1121.
  • the window 1141 of FIG. 57 is displayed on the display unit 241.
  • the window 1141 is a window for selecting a collar to be attached to the own machine.
  • a list of collars, a cursor 1142, a button 1143, and the like are displayed in the window 1141.
  • the cursor 1142 is used to select a collar to be attached to the own machine. Then, as shown in FIG. 58, the collar 1144 selected by the cursor 1142 is superimposed on the own machine 1121. This makes it possible to confirm the state in which the selected collar is attached to the own machine.
  • Button 1143 is a button for confirming the selected collar. That is, when the button 1143 is selected, the collar selected by the cursor 1142 is confirmed. Then, as shown in FIG. 59, the window 1141 closes and the selected collar is displayed above the button 1122. Further, when the button 1125 is selected, the dress-up item attached to the own machine 1121 is finally determined.
  • the UI control unit 223 accepts editing of the profile, thumbnail image, stamp, and dress-up item of the own machine, and generates data indicating the edited content.
  • the UI control unit 223 transmits the generated data to the information processing server 13.
  • step S653 the information processing server 13 updates the profile and the like of the autonomous mobile body 11 (own machine).
  • the application control unit 322 receives data indicating the edited content such as a profile from the information processing terminal 12.
  • the application control unit 322 updates the data related to the own machine stored in the storage unit 303 based on the received data.
  • the entertainment of the autonomous mobile body 11 can be improved.
  • the user can enjoy the fun of increasing the number of friends of the autonomous mobile body 11 and interacting with other autonomous mobile bodies 11.
  • the user can interact with other users of the autonomous mobile body 11 through, for example, a companion of the autonomous mobile body 11.
  • the user can enjoy the appearance of the autonomous mobile body 11 eating food with the other autonomous mobile body 11 from the meal screens of FIGS. 27 and 28.
  • the user can bring out the individuality of the autonomous mobile body 11 by editing the profile of the autonomous mobile body 11 and changing clothes.
  • an example of eating food together is shown as a condition that two autonomous mobile bodies 11 become friends, but the autonomous mobile bodies 11 virtually interact with each other and become friends by another method. It may be.
  • two autonomous mobile bodies 11 to become friends by virtually jointly performing actions other than eating food.
  • two autonomous mobile bodies 11 can virtually play together, take a walk, or share items (for example, toys) so that they can become friends. It is possible.
  • two or more autonomous mobile bodies 11 may virtually jointly perform a predetermined action.
  • the information processing terminal 12 may acquire information about another machine by a method other than reading the QR code so that the other machine is added to the group of its own machine.
  • the information processing terminal 12 may read the image of the other device so that the other device is added to the group of the own machine.
  • the position where the fellow candidate 683 (or the fellow) is superimposed is determined based on the food plate 702, but it should be determined based on other items. You may do it.
  • the recognition unit 221 recognizes the position of the own machine 701 in addition to the food plate 702 in the captured video, and the image processing unit 222 superimposes the companion candidate 683 based on the positions of the own machine 701 and the food plate 702. You may try to control the position to do. Further, for example, the recognition unit 221 may further recognize the movement of the own machine 701, and the image processing unit 222 may move the companion candidate 683 according to the movement of the own machine 701.
  • the autonomous mobile body 11 may react when another autonomous mobile body 11 that is a companion approaches the autonomous mobile body 11. For example, when the autonomous mobile body 11 detects a friend within the communication range of the short-range wireless communication device included in the communication unit 102, the autonomous mobile body 11 performs an action such as greeting, delighting, or approaching the friend. You may.
  • the way of eating food may be changed depending on whether the autonomous mobile body 11 eats food by itself or another autonomous mobile body 11 and food.
  • the division of processing between the information processing terminal 12 and the information processing server 13 described above is an example thereof, and can be changed as appropriate.
  • the information processing terminal 12 may hold data about the profile of the own machine, friends, etc., and display information about the profile, friends, etc. of the own machine based on the held data.
  • the information processing terminal 12 may control the autonomous mobile body 11 so as to perform an operation of eating food.
  • FIG. 60 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
  • the CPU Central Processing Unit
  • the ROM Read Only Memory
  • the RAM Random Access Memory
  • An input / output interface 2005 is further connected to the bus 2004.
  • An input unit 2006, an output unit 2007, a recording unit 2008, a communication unit 2009, and a drive 2010 are connected to the input / output interface 2005.
  • the input unit 2006 includes an input switch, a button, a microphone, an image pickup element, and the like.
  • the output unit 2007 includes a display, a speaker, and the like.
  • the recording unit 2008 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 2009 includes a network interface and the like.
  • the drive 2010 drives a removable media 2011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 2001 loads the program recorded in the recording unit 2008 into the RAM 2003 via the input / output interface 2005 and the bus 2004 and executes the program. A series of processes are performed.
  • the program executed by the computer 2000 can be recorded and provided on the removable media 2011 as a package media or the like, for example.
  • the program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 2008 via the input / output interface 2005 by mounting the removable media 2011 in the drive 2010. Further, the program can be received by the communication unit 2009 via a wired or wireless transmission medium and installed in the recording unit 2008. In addition, the program can be installed in ROM 2002 or the recording unit 2008 in advance.
  • the program executed by the computer may be a program in which processing is performed in chronological order according to the order described in the present specification, in parallel, or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
  • this technology can take a cloud computing configuration in which one function is shared by multiple devices via a network and processed jointly.
  • each step described in the above flowchart can be executed by one device or shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • the present technology can also have the following configurations.
  • An image processing unit that generates a first moving image in which a virtual second autonomous moving body that virtually interacts with the first autonomous moving body is superimposed on a shooting moving body obtained by photographing the first autonomous moving body.
  • An information processing device including a display control unit that controls the display of the first moving image.
  • the virtual second autonomous mobile body virtually interacts with the first autonomous mobile body by performing an action that is a predetermined condition with the first autonomous mobile body. Processing equipment.
  • the behavior that is the predetermined condition is an behavior that is a condition that the first autonomous mobile body becomes a companion to the second autonomous mobile body.
  • a companion setting unit for adding the second autonomous mobile body that has performed an action that is a condition for becoming a companion to the companion of the first autonomous mobile body.
  • Information processing equipment (9)
  • the companion setting unit adds the third autonomous mobile body to the companion of the first autonomous mobile body based on the information about the third autonomous mobile body acquired from another information processing device (8).
  • the information processing device described in. (10)
  • the companion setting unit makes the third autonomous mobile body a companion to the first autonomous mobile body based on an image showing information about the third autonomous mobile body displayed on the other information processing device.
  • the image processing unit is described in any one of (1) to (13) above, in which the second autonomous moving body is moved in accordance with the movement of the first autonomous moving body in the first moving image.
  • Information processing equipment (15) The image processing unit generates a second moving image in which the virtual first autonomous mobile body and the virtual second autonomous mobile body virtually interact with each other.
  • the information processing device according to any one of (1) to (14), wherein the display control unit controls the display of the second moving image.
  • the display control unit switches the display between the first moving image and the second moving image.
  • the display control unit controls the display of the number of times that the second autonomous mobile body has virtually exchanged with the first autonomous mobile body. Processing equipment.
  • Information processing equipment A moving image in which a virtual second autonomous moving body that virtually interacts with the first autonomous moving body is superimposed on the shooting moving body obtained by shooting the first autonomous moving body is generated. An information processing method that controls the display of the moving image. (19) A moving image in which a virtual second autonomous moving body that virtually interacts with the first autonomous moving body is superimposed on the shooting moving body obtained by shooting the first autonomous moving body is generated. A program for causing a computer to execute a process for controlling the display of the moving image.
  • Information processing system 11-1 to 11-n autonomous mobile body, 12-1 to 12-n information processing terminal, 13 information processing server, 201 input unit, 203 information processing unit, 204 output unit, 211 camera, 221 recognition Unit, 222 image processing unit, 223 UI control unit, 224 companion setting unit, 231 display control unit, 241 display unit, 302 information processing unit, 321 autonomous mobile control unit, 322 application control unit, 331 recognition unit, 332 learning unit. , 333 Action Planning Department, 334 Motion Control Department

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術は、自律移動体の娯楽性を向上させることができるようにする情報処理装置、情報処理方法、及び、プログラムに関する。 情報処理装置は、第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した第1の動画を生成する画像処理部と、前記第1の動画の表示を制御する表示制御部とを備える。本技術は、例えば、自律移動体の操作等を行う情報処理端末に適用できる。

Description

情報処理装置、情報処理方法、及び、プログラム
 本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、自律移動体の娯楽性を向上させるようにした情報処理装置、情報処理方法、及び、プログラムに関する。
 近年、SNS(Social Networking Service)の普及に伴い、各ユーザは他のユーザとSNS上で友達になることにより、容易に仲間を増やすことが可能である(例えば、特許文献1参照)。
特開2012-3635号公報
 ところで、近年普及が進んでいるペット型ロボットの娯楽性を向上させることが望まれている。例えば、ペット型ロボットも、SNS上のユーザと同様に、他のペット型ロボットと友達になり仲間を増やすことができれば、ペット型ロボットの娯楽性が向上すると想定される。
 本技術は、このような状況に鑑みてなされたものであり、ペット型ロボット等の自律移動体の娯楽性を向上させるようにするものである。
 本技術の一側面の情報処理装置は、第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した第1の動画を生成する画像処理部と、前記第1の動画の表示を制御する表示制御部とを備える。
 本技術の一側面の情報処理方法は、情報処理装置が、第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した動画を生成し、前記動画の表示を制御する。
 本技術の一側面のプログラムは、第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した動画を生成し、前記動画の表示を制御する処理をコンピュータに実行させる。
 本技術の一側面においては、第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した動画が生成され、前記動画の表示が制御される。
本技術を適用した情報処理システムの一実施の形態を示すブロック図である。 自律移動体のハードウエア構成例を示す図である。 自律移動体が備えるアクチュエータの構成例である。 自律移動体が備えるディスプレイの機能について説明するための図である。 自律移動体の動作例を示す図である。 自律移動体の機能構成例を示すブロック図である。 情報処理端末の機能構成例を示すブロック図である。 情報処理サーバの機能構成例を示すブロック図である。 連携機能設定処理を説明するためのフローチャートである。 連携機能設定処理において表示される画面の例を示す図である。 連携機能設定処理において表示される画面の例を示す図である。 連携機能設定処理において表示される画面の例を示す図である。 連携機能設定処理において表示される画面の例を示す図である。 連携機能設定処理において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態における情報処理端末の処理を説明するためのフローチャートである。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態において表示される画面の例を示す図である。 仲間獲得処理の第1の実施の形態における情報処理サーバの処理を説明するためのフローチャートである。 仲間獲得処理の第2の実施の形態を説明するためのフローチャートである。 仲間獲得処理の第2の実施の形態における情報処理サーバの処理を説明するためのフローチャートである。 仲間獲得処理の第2の実施の形態における情報処理サーバの処理を説明するためのフローチャートである。 仲間獲得処理の第2の実施の形態における情報処理サーバの処理を説明するためのフローチャートである。 仲間獲得処理の第2の実施の形態における情報処理サーバの処理を説明するためのフローチャートである。 自律移動体が既存の仲間とエサを食べる処理における情報処理端末の処理を説明するためのフローチャートである。 自律移動体が既存の仲間とエサを食べる処理において表示される画面の例を示す図である。 自律移動体が既存の仲間とエサを食べる処理において表示される画面の例を示す図である。 自律移動体が既存の仲間とエサを食べる処理における情報処理サーバの処理を説明するためのフローチャートである。 仲間を非表示にする処理を説明するためのフローチャートである。 仲間を非表示に設定する処理において表示される画面の例を示す図である。 仲間を非表示に設定する処理において表示される画面の例を示す図である。 仲間を非表示に設定する処理において表示される画面の例を示す図である。 仲間の非表示を解除する処理を説明するためのフローチャートである。 仲間の非表示を解除する処理において表示される画面の例を示す図である。 仲間の非表示を解除する処理において表示される画面の例を示す図である。 仲間の非表示を解除する処理において表示される画面の例を示す図である。 仲間の非表示を解除する処理において表示される画面の例を示す図である。 プロフィール等編集処理を説明するためのフローチャートである。 プロフィール等編集処理において表示される画面の例を示す図である。 プロフィール等編集処理において表示される画面の例を示す図である。 プロフィール等編集処理において表示される画面の例を示す図である。 プロフィール等編集処理において表示される画面の例を示す図である。 プロフィール等編集処理において表示される画面の例を示す図である。 プロフィール等編集処理において表示される画面の例を示す図である。 プロフィール等編集処理において表示される画面の例を示す図である。 プロフィール等編集処理において表示される画面の例を示す図である。 コンピュータの構成例を示す図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.実施の形態
 2.変形例
 3.その他
 <<1.実施の形態>>
 図1乃至図59を参照して、本技術の実施の形態について説明する。
  <情報処理システム1の構成例>
 図1は、本技術を適用した情報処理システム1の一実施の形態を示すブロック図である。
 情報処理システム1は、自律移動体11-1乃至自律移動体11-n、情報処理端末12-1乃至情報処理端末12-n、及び、情報処理サーバ13を備える。
 なお、以下、自律移動体11-1乃至自律移動体11-nを個々に区別する必要がない場合、単に自律移動体11と称する。以下、情報処理端末12-1乃至情報処理端末12-nを個々に区別する必要がない場合、単に情報処理端末12と称する。
 各自律移動体11と情報処理サーバ13との間、各情報処理端末12と情報処理サーバ13との間、各自律移動体11と各情報処理端末12との間、各自律移動体11間、及び、各情報処理端末12間において、ネットワーク21を介した通信が可能である。また、各自律移動体11と各情報処理端末12との間、各自律移動体11間、及び、各情報処理端末12間においては、ネットワーク21を介さずに直接通信することも可能である。
 自律移動体11は、収集したセンサデータ等に基づいて、自分及び周囲の状況を認識し、状況に応じた種々の動作を自律的に選択し、実行する情報処理装置である。自律移動体11は、単にユーザの指示に従った動作を行うロボットとは異なり、状況に応じた適切な動作を自律的に実行することを特徴の一つとする。
 自律移動体11は、例えば、撮影した画像に基づくユーザ認識や、物体認識等を実行し、認識したユーザや物体等に応じた種々の自律行動を行うことが可能である。また、自律移動体11は、例えば、ユーザの発話に基づく音声認識を実行し、ユーザの指示などに基づく行動を行うこともできる。
 さらに、自律移動体11は、ユーザ認識や物体認識の能力を獲得するために、パターン認識学習を行う。この際、自律移動体11は、与えられた学習データに基づく教師学習だけでなく、ユーザ等による教示に基づいて、動的に学習データを収集し、物体などに係るパターン認識学習を行うことが可能である。
 また、自律移動体11は、ユーザにより躾けられることができる。ここで、自律移動体11の躾とは、例えば、決まりや禁止事項を教えて覚えさせる一般的な躾より広く、ユーザが自律移動体11に関わることにより、自律移動体11にユーザが感じられる変化が表れることをいう。
 自律移動体11の形状、能力、欲求等のレベルは、目的や役割に応じて適宜設計され得る。例えば、自律移動体11は、空間内を自律的に移動し、種々の動作を実行する自律移動型ロボットにより構成される。具体的には、例えば、自律移動体11は、ヒトやイヌなどの動物を模した形状や動作能力を有する自律移動型ロボットにより構成される。また、例えば、自律移動体11は、ユーザとのコミュニケーション能力を有する車両やその他の装置により構成される。
 情報処理端末12は、例えば、スマートフォン、タブレット端末、PC(パーソナルコンピュータ)等からなり、自律移動体11のユーザにより使用される。情報処理端末12は、所定のアプリケーションプログラム(以下、単にアプリケーションと称する)を実行することにより、各種の機能を実現する。例えば、情報処理端末12は、ネットワーク21を介して情報処理サーバ13と通信を行ったり、自律移動体11と直接通信を行ったりして、自律移動体11に関する各種のデータを収集し、ユーザに提示したり、自律移動体11に指示を与えたりする。
 情報処理サーバ13は、例えば、各自律移動体11及び各情報処理端末12から各種のデータを収集したり、各自律移動体11及び各情報処理端末12に各種のデータを提供したり、各自律移動体11の動作を制御したりする。また、例えば、情報処理サーバ13は、各自律移動体11及び各情報処理端末12から収集したデータに基づいて、自律移動体11と同様に、パターン認識学習や、ユーザの躾に対応した処理を行うことも可能である。さらに、例えば、情報処理サーバ13は、上述したアプリケーションや各自律移動体11に関する各種のデータを各情報処理端末12に供給する。
 ネットワーク21は、例えば、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)等のいくつかにより構成される。また、ネットワーク21は、IP-VPN(Internet Protocol-Virtual Private Network)等の専用回線網を含んでもよい。また、ネットワーク21は、Wi-Fi(登録商標)、Bluetooth(登録商標)等の無線通信網を含んでもよい。
 なお、情報処理システム1の構成は、仕様や運用等に応じて柔軟に変更され得る。例えば、自律移動体11は、情報処理端末12及び情報処理サーバ13の他に、種々の外部装置とさらに情報通信を行ってもよい。上記の外部装置には、例えば、天気やニュース、その他のサービス情報を発信するサーバや、ユーザが所持する各種の家電機器などが含まれ得る。
 また、例えば、自律移動体11と情報処理端末12とは、必ずしも一対一の関係である必要はなく、例えば、多対多、多対一、又は、一対多の関係であってもよい。例えば、1人のユーザが、1台の情報処理端末12を用いて複数の自律移動体11に関するデータを確認したり、複数の情報処理端末を用いて1台の自律移動体11に関するデータを確認したりすることが可能である。
  <自律移動体11のハードウエア構成例>
 次に、自律移動体11のハードウエア構成例について説明する。なお、以下では、自律移動体11がイヌ型の四足歩行ロボットである場合を例に説明する。
 図2は、自律移動体11のハードウエア構成例を示す図である。自律移動体11は、頭部、胴部、4つの脚部、及び、尾部を備えるイヌ型の四足歩行ロボットである。
 自律移動体11は、頭部に2つのディスプレイ51L及びディスプレイ51Rを備える。なお、以下、ディスプレイ51Lとディスプレイ51Rを個々に区別する必要がない場合、単にディスプレイ51と称する。
 また、自律移動体11は、種々のセンサを備える。自律移動体11は、例えば、マイクロフォン52、カメラ53、ToF(Time Of Flight)センサ525、人感センサ55、測距センサ56、タッチセンサ57、照度センサ58、足裏ボタン59、及び、慣性センサ60を備える。
 自律移動体11は、例えば、頭部に4つのマイクロフォン52を備える。各マイクロフォン52は、例えば、ユーザの発話や、周囲の環境音を含む周囲の音を収集する。また、複数のマイクロフォン52を備えることで、周囲で発生する音を感度高く収集すると共に、音源定位が可能となる。
 自律移動体11は、例えば、鼻先と腰部に2つの広角のカメラ53を備え、自律移動体11の周囲を撮影する。例えば、鼻先に配置されたカメラ53は、自律移動体11の前方視野(すなわち、イヌの視野)内の撮影を行う。腰部に配置されたカメラ53は、自律移動体11の上方を中心とする周囲の撮影を行う。自律移動体11は、例えば、腰部に配置されたカメラ53により撮影された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。
 ToFセンサ54は、例えば、鼻先に設けられ、頭部前方に存在する物体との距離を検出する。自律移動体11は、ToFセンサ54により種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することができる。
 人感センサ55は、例えば、胸部に配置され、ユーザやユーザが飼育するペットなどの所在を検知する。自律移動体11は、人感センサ55により前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することができる。
 測距センサ56は、例えば、胸部に配置され、自律移動体11の前方床面の状況を検出する。自律移動体11は、測距センサ56により前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。
 タッチセンサ57は、例えば、頭頂、あご下、背中など、ユーザが自律移動体11に触れる可能性が高い部位に配置され、ユーザによる接触を検知する。タッチセンサ57は、例えば、静電容量式や感圧式のタッチセンサにより構成される。自律移動体11は、タッチセンサ57により、ユーザの触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことができる。
 照度センサ58は、例えば、頭部背面において尾部の付け根などに配置され、自律移動体11が位置する空間の照度を検出する。自律移動体11は、照度センサ58により周囲の明るさを検出し、当該明るさに応じた動作を実行することができる。
 足裏ボタン59は、例えば、4つの脚部の肉球に該当する部位にそれぞれ配置され、自律移動体11の脚部底面が床と接触しているか否かを検知する。自律移動体11は、足裏ボタン59により床面との接触または非接触を検知することができ、例えば、ユーザにより抱き上げられたことなどを把握することができる。
 慣性センサ60は、例えば、頭部および胴部にそれぞれ配置され、頭部や胴部の速度、加速度、回転等の物理量を検出する。例えば、慣性センサ60は、X軸、Y軸、Z軸の加速度および角速度を検出する6軸センサにより構成される。自律移動体11は、慣性センサ60により頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することができる。
 なお、自律移動体11が備えるセンサの構成は、仕様や運用等に応じて柔軟に変更され得る。例えば、自律移動体11は、上記の構成のほか、例えば、温度センサ、地磁気センサ、GNSS(Global Navigation Satellite System)信号受信機を含む各種の通信装置などをさらに備えてよい。
 次に、図3を参照して、自律移動体11の関節部の構成例について説明する。図3は、自律移動体11が備えるアクチュエータ71の構成例を示している。自律移動体11は、図3に示す回転箇所に加え、耳部と尾部に2つずつ、口に1つの合計22の回転自由度を有する。
 例えば、自律移動体11は、頭部に3自由度を有することで、頷きや首を傾げる動作を両立することができる。また、自律移動体11は、腰部に備えるアクチュエータ71により、腰のスイング動作を再現することで、より現実のイヌに近い自然かつ柔軟な動作を実現することができる。
 なお、自律移動体11は、例えば、1軸アクチュエータと2軸アクチュエータを組み合わせることで、上記の22の回転自由度を実現してもよい。例えば、脚部における肘や膝部分においては1軸アクチュエータを、肩や大腿の付け根には2軸アクチュエータをそれぞれ採用してもよい。
 次に、図4を参照して、自律移動体11が備えるディスプレイ51の機能について説明する。
 自律移動体11は、右眼および左眼にそれぞれ相当する2つのディスプレイ51R及びディスプレイ51Lを備える。各ディスプレイ51は、自律移動体11の目の動きや感情を視覚的に表現する機能を備える。例えば、各ディスプレイ51は、感情や動作に応じた眼球、瞳孔、瞼の動作を表現することで、実在するイヌなどの動物に近い自然な動作を演出し、自律移動体11の視線や感情を高精度かつ柔軟に表現することができる。また、ユーザは、ディスプレイ51に表示される眼球の動作から、自律移動体11の状態を直観的に把握することができる。
 また、各ディスプレイ51は、例えば、独立した2つのOLED(Organic Light Emitting Diode)により実現される。OLEDを用いることにより、眼球の曲面を再現することが可能となる。その結果、1枚の平面ディスプレイにより一対の眼球を表現する場合や、2枚の独立した平面ディスプレイにより2つの眼球をそれぞれ表現する場合と比較して、より自然な外装を実現することができる。
 自律移動体11は、上記の構成により、図5に示されるように、関節部や眼球の動作を精度高く、柔軟に制御することで、より実在の生物に近い動作及び感情表現を再現することができる。
 なお、図5は、自律移動体11の動作例を示す図であるが、図5では、自律移動体11の関節部及び眼球の動作について着目して説明を行うため、自律移動体11の外部構造を簡略化して示している。
  <自律移動体11の機能構成例>
 次に、図6を参照して、自律移動体11の機能構成例について説明する。自律移動体11は、入力部101、通信部102、情報処理部103、駆動部104、出力部105、及び、記憶部106を備える。
 入力部101は、図2に示される各種のセンサ等を備え、ユーザや周囲の状況に関する各種のセンサデータを収集する機能を備える。また、入力部101は、例えば、スイッチ、ボタン等の入力デバイスを備える。入力部101は、収集したセンサデータ、及び、入力デバイスを介して入力される入力データを情報処理部103に供給する。
 通信部102は、ネットワーク21を介して、又は、ネットワーク21を介さずに、他の自律移動体11、情報処理端末12、及び、情報処理サーバ13と通信を行い、各種のデータの送受信を行う。通信部102は、受信したデータを情報処理部103に供給し、送信するデータを情報処理部103から取得する。
 なお、通信部102の通信方式は、特に限定されず、仕様や運用に応じて柔軟に変更することが可能である。
 情報処理部103は、例えば、CPU(Central Processing Unit)等のプロセッサ等を備え、各種の情報処理を行ったり、自律移動体11の各部の制御を行ったりする。情報処理部103は、認識部121、学習部122、行動計画部123、及び、動作制御部124を備える。
 認識部121は、入力部101から供給されるセンサデータ及び入力データ、並びに、通信部102から供給される受信データに基づいて、自律移動体11が置かれている状況の認識を行う。自律移動体11が置かれている状況は、例えば、自分及び周囲の状況を含む。自分の状況は、例えば、自律移動体11の状態及び動きを含む。周囲の状況は、例えば、ユーザ等の周囲の人の状態、動き、及び、指示、ペット等の周囲の生物の状態及び動き、周囲の物体の状態及び動き、時間、場所、並びに、周囲の環境等を含む。周囲の物体は、例えば、他の自律移動体を含む。また、認識部121は、状況を認識するために、例えば、人識別、表情や視線の認識、感情認識、物体認識、動作認識、空間領域認識、色認識、形認識、マーカ認識、障害物認識、段差認識、明るさ認識、温度認識、音声認識、単語理解、位置推定、姿勢推定等を行う。
 また、認識部121は、認識した各種の情報に基づいて、状況を推定し、理解する機能を備える。この際、認識部121は、事前に記憶される知識を用いて総合的に状況の推定を行ってもよい。
 認識部121は、状況の認識結果又は推定結果を示すデータ(以下、状況データと称する)を学習部122及び行動計画部123に供給する。また、認識部121は、状況の認識結果又は推定結果を示すデータを、記憶部106に記憶されている行動履歴データに登録する。
 行動履歴データは、自律移動体11の行動の履歴を示すデータである。行動履歴データは、例えば、行動を開始した日時、行動を終了した日時、行動を実行したきっかけ、行動が指示された場所(ただし、場所が指示された場合)、行動したときの状況、行動を完了したか(行動を最後まで実行したか)否かの項目を含む。
 行動を実行したきっかけには、例えば、ユーザの指示をきっかけに行動が実行された場合、その指示内容が登録される。また、例えば、所定の状況になったことをきっかけに行動が実行された場合、その状況の内容が登録される。さらに、例えば、ユーザにより指示された物体、又は、認識した物体をきっかけに行動が実行された場合、その物体の種類が登録される。
 学習部122は、入力部101から供給されるセンサデータ及び入力データ、通信部102から供給される受信データ、認識部121から供給される状況データ、行動計画部123から供給される自律移動体11の行動に関するデータ、及び、記憶部106に記憶されている行動履歴データに基づいて、状況と行動、及び、当該行動による環境への作用を学習する。例えば、学習部122は、上述したパターン認識学習を行ったり、ユーザの躾に対応する行動パターンの学習を行ったりする。
 例えば、学習部122は、深層学習(Deep Learning)などの機械学習アルゴリズムを用いて、上記の学習を実現する。なお、学習部122が採用する学習アルゴリズムは、上記の例に限定されず、適宜設計可能である。
 学習部122は、学習結果を示すデータ(以下、学習結果データと称する)を行動計画部123に供給したり、記憶部106に記憶させたりする。
 行動計画部123は、認識又は推定された状況、及び、学習結果データに基づいて、自律移動体11が行う行動を計画する。行動計画部123は、計画した行動を示すデータ(以下、行動計画データと称する)を動作制御部124に供給する。また、行動計画部123は、自律移動体11の行動に関するデータを学習部122に供給したり、記憶部106に記憶されている行動履歴データに登録したりする。
 動作制御部124は、行動計画データに基づいて、駆動部104及び出力部105を制御することにより、計画された行動を実行するように自律移動体11の動作を制御する。動作制御部124は、例えば、行動計画に基づいて、アクチュエータ71の回転制御や、ディスプレイ51の表示制御、スピーカによる音声出力制御などを行う。
 駆動部104は、動作制御部124による制御に基づいて、自律移動体11が有する複数の関節部を屈伸させる。より具体的には、駆動部104は、動作制御部124による制御に基づいて、各関節部が備えるアクチュエータ71を駆動させる。
 出力部105は、例えば、ディスプレイ51、スピーカ、ハプティクスデバイス等を備え、動作制御部124による制御に基づいて、視覚情報、聴覚情報、触覚情報等の出力を行う。
 記憶部106は、例えば、不揮発性メモリ及び揮発性メモリを備え、各種のプログラム及びデータを記憶する。
 なお、以下、自律移動体11の各部が通信部102及びネットワーク21を介して情報処理サーバ13等と通信を行う場合の「通信部102及びネットワーク21を介して」の記載を適宜省略する。例えば、認識部121が通信部102及びネットワーク21を介して情報処理サーバ13と通信を行う場合、単に、認識部121が情報処理サーバ13と通信を行うと記載する。
  <情報処理端末12の機能構成例>
 次に、図7を参照して、情報処理端末12の機能構成例について説明する。情報処理端末12は、入力部201、通信部202、情報処理部203、出力部204、及び、記憶部205を備える。
 入力部201は、例えば、カメラ211、マイクロフォン(不図示)、慣性センサ(不図示)等の各種のセンサを備える。また、入力部201は、スイッチ(不図示)、ボタン(不図示)等の入力デバイスを備える。入力部201は、入力デバイスを介して入力される入力データ、及び、各種のセンサから出力されるセンサデータを情報処理部203に供給する。
 通信部202は、ネットワーク21を介して、又は、ネットワーク21を介さずに、自律移動体11、他の情報処理端末12、及び、情報処理サーバ13と通信を行い、各種のデータの送受信を行う。通信部202は、受信したデータを情報処理部203に供給し、送信するデータを情報処理部203から取得する。
 なお、通信部202の通信方式は、特に限定されず、仕様や運用に応じて柔軟に変更することが可能である。
 情報処理部203は、例えば、CPU等のプロセッサ等を備え、各種の情報処理を行ったり、情報処理端末12の各部の制御を行ったりする。情報処理部203は、認識部221、画像処理部222、UI(ユーザインタフェース)制御部223、及び、仲間設定部224を備える。
 認識部221は、カメラ211により撮影された撮影動画内の物体認識を行う。
 画像処理部222は、出力部204が備える表示部241が表示する動画、静止画、及び、操作画面等を生成する。
 UI制御部223は、出力部204による視覚情報、聴覚情報、触覚情報等の出力を制御することにより、情報処理端末12のユーザインタフェースを制御する。例えば、UI制御部223が備える表示制御部231は、出力部204が備える表示部241による視覚情報の出力を制御する。すなわち、表示制御部231は、表示部241による動画、静止画、及び、操作画面等の表示を制御する。
 仲間設定部224は、後述するように、情報処理端末12を使用するユーザが所有する自律移動体11(以下、自機と称する)と、他のユーザが所有する自律移動体11(以下、他機と称する)との間の仲間の設定を行う。
 出力部204は、例えば、ディスプレイ等からなる表示部241、スピーカ(不図示)、ハプティクスデバイス(不図示)等を備え、UI制御部223による制御に基づいて、視覚情報、聴覚情報、触覚情報等の出力を行う。
 記憶部205は、例えば、不揮発性メモリ及び揮発性メモリを備え、各種のプログラム及びデータを記憶する。
 なお、情報処理端末12の機能構成は、仕様や運用に応じて柔軟に変更することが可能である。
 また、以下、情報処理端末12の各部が通信部202及びネットワーク21を介して情報処理サーバ13等と通信を行う場合の「通信部202及びネットワーク21を介して」の記載を適宜省略する。例えば、仲間設定部224が通信部202及びネットワーク21を介して情報処理サーバ13と通信を行う場合、単に、仲間設定部224が情報処理サーバ13と通信を行うと記載する。
 さらに、以下、画像処理部222が、設定画面等の画像を生成し、表示制御部231が、生成された画像を表示部241させる場合に、適宜画像処理部222及び表示制御部231の処理の記載を適宜省略する。例えば、単に「表示部241が設定画面を表示する」、「設定画面が表示部241に表示される」等と記載する。
  <情報処理サーバ13の機能構成例>
 次に、図8を参照して、情報処理サーバ13の機能構成例について説明する。情報処理サーバ13は、通信部301、情報処理部302、及び、記憶部303を備える。
 通信部301は、ネットワーク21を介して、各自律移動体11及び各情報処理端末12と通信を行い、各種のデータの送受信を行う。通信部301は、受信したデータを情報処理部302に供給し、送信するデータを情報処理部302から取得する。
 なお、通信部301の通信方式は、特に限定されず、仕様や運用に応じて柔軟に変更することが可能である。
 情報処理部302は、例えば、CPU等のプロセッサ等を備え、各種の情報処理を行ったり、情報処理端末12の各部の制御を行ったりする。情報処理部302は、自律移動体制御部321及びアプリケーション制御部322を備える。
 自律移動体制御部321は、自律移動体11の情報処理部103と同様の構成を備える。具体的には、情報処理部103は、認識部331、学習部332、行動計画部333、及び、動作制御部334を備える。
 そして、自律移動体制御部321は、自律移動体11の情報処理部103と同様の機能を備える。例えば、自律移動体制御部321は、自律移動体11からセンサデータ、入力データ等、行動履歴データ等を受信し、自律移動体11及び周囲の状況を認識する。例えば、自律移動体制御部321は、自律移動体11及び周囲の状況に基づいて、自律移動体11の動作を制御する制御データを生成し、自律移動体11に送信することにより、自律移動体11の動作を制御する。例えば、自律移動体制御部321は、自律移動体11と同様に、パターン認識学習や、ユーザの躾に対応する行動パターンの学習を行う。
 なお、自律移動体制御部321の学習部332は、複数の自律移動体11から収集したデータに基づいて、パターン認識学習や、ユーザの躾に対応する行動パターンの学習を行うことより、複数の自律移動体11に共通する集合知の学習を行うことも可能である。
 アプリケーション制御部322は、通信部301を介して、自律移動体11及び情報処理端末12と通信を行い、情報処理端末12により実行されるアプリケーションの制御を行う。
 例えば、アプリケーション制御部322は、通信部301を介して、自律移動体11に関する各種のデータを自律移動体11から収集する。そして、アプリケーション制御部322は、通信部301を介して、収集したデータを情報処理端末12に送信することにより、自律移動体11に関するデータを情報処理端末12により実行されるアプリケーションに表示させる。
 例えば、アプリケーション制御部322は、通信部301を介して、アプリケーションを介して入力される自律移動体11への指示を示すデータを情報処理端末12から受信する。そして、アプリケーション制御部322は、通信部301を介して、受信したデータを自律移動体11に送信することにより、自律移動体11にユーザからの指示を与える。
 記憶部303は、例えば、不揮発性メモリ及び揮発性メモリを備え、各種のプログラム及びデータを記憶する。例えば、記憶部303は、各自律移動体11に関するデータを記憶する。各自律移動体11に関するデータは、例えば、顔又は外見を表すサムネイル画像、プロフィール、仕様(例えば、色、外形、種類等)、所有物(例えば、エサ、アクセサリ等)、仲間等に関するデータを含む。自律移動体11の仲間とは、各自律移動体11と仲間関係にある他の自律移動体11のことである。
 なお、情報処理サーバ13の機能構成は、仕様や運用に応じて柔軟に変更することが可能である。
 また、以下、情報処理サーバ13の各部が通信部301及びネットワーク21を介して情報処理端末12等と通信を行う場合の「通信部301及びネットワーク21を介して」の記載を適宜省略する。例えば、アプリケーション制御部322が通信部301及びネットワーク21を介して情報処理端末12と通信を行う場合、単に、アプリケーション制御部322が情報処理端末12と通信を行うと記載する。
  <情報処理システム1の処理>
 次に、図9乃至図59を参照して、情報処理システム1の処理について説明する。
   <連携機能設定変更処理>
 まず、図9のフローチャートを参照して、情報処理システム1により実行される連携機能設定処理について説明する。
 連携機能とは、自機が他機と連携する機能である。連携機能がオンに設定されると、自機は、例えば、他機と仮想的に交流したり情報交換したりすることが可能になる。
 ステップS1において、情報処理端末12は、連携機能設定画面を表示し、連携機能の設定を受け付ける。
 例えば、情報処理端末12の情報処理部203が自律移動体11用のアプリケーションを実行したとき、図10のホーム画面が表示部241に表示される。ホーム画面には、自機の名前(小太郎)、及び、ボタン401乃至ボタン404等が表示される。
 ボタン401は、設定画面を表示するためのボタンである。
 ボタン402は、情報処理サーバ13から送信されるお知らせを表示するためのボタンである。
 ボタン403は、自機に関する情報の表示や自機の操作等を行うためのボタンである。
 ボタン404は、自機にエサ(ごはん)をあげるためのボタンである。
 例えば、ボタン403が選択された場合、図11のメニュー画面が表示部241に表示される。
 なお、ボタン403の選択方法は、特に限定されない。例えば、ホーム画面内に表示されているカーソル等を用いて選択したり、ボタン404の表示位置に指を触れたり、近接させたりすることにより選択したりしてもよい。なお、後述する各画面の他のボタンについても、同様の方法により選択することが可能である。
 メニュー画面には、プロフィール欄421、ボタン422-1乃至ボタン422-7、及び、ボタン423等が表示される。
 プロフィール欄421には、自機のサムネイル画像及びプロフィール等が表示される。自機のプロフィールは、名前、性別、誕生日、及び、性格を含む。
 ボタン422-1乃至ボタン422-7は、各種の機能を選択するためのボタンである。ボタン422-1乃至ボタン422-7のうちいずれかが選択されると、選択されたボタン422に対応する機能を実行するための画面等が表示部241に表示される。
 ボタン423は、メニュー画面を閉じ、前の画面を表示するためのボタンである。なお、以下、ボタン423と同様のデザイン及び機能のボタンに対する符号及び説明を省略する。
 例えば、ボタン422-4が選択された場合、図12の設定画面が表示部241に表示される。設定画面には、ボタン441及びボタン442-1乃至ボタン442-7等が表示される。
 ボタン441は、図10のホーム画面に戻るためのボタンであり、ボタン441が選択されると、図10のホーム画面が表示部241に表示される。なお、以下、ボタン441と同様のデザイン及び機能のボタンに対する符号及び説明を省略する。
 ボタン442-1乃至ボタン442-8には、各設定項目及び設定値が表示される。ボタン442-1乃至ボタン442-8のうちいずれかが押下されると、選択された設定項目に関する設定画面が表示される。
 例えば、ボタン442-7が選択された場合、図13の連携機能設定画面が表示部241に表示される。
 連携機能設定画面には、ボタン461、スイッチ462、及び、ボタン463等が表示される。
 ボタン461は、1つ前の画面に戻るためのボタンであり、ボタン461が選択されると、1つ前の画面が表示部241に表示される。なお、以下、ボタン461と同様のデザイン及び機能のボタンに対する符号及び説明を省略する。
 スイッチ462は、連携機能のオン/オフを設定するためのスイッチである。
 ボタン463は、スイッチ462による連携機能の設定内容を確定するためのボタンである。ボタン463が選択された場合、UI制御部223は、連携機能の設定内容を記憶部205に記憶させる。
 一方、例えば、上述した図10のホーム画面においてボタン404が選択された場合に、連携機能がオンされていないとき、図14の警告画面が表示部241に表示される。警告画面には、タブ481-1乃至タブ481-3及びボタン482等が表示される。
 タブ481-1は、自機の仲間に関する情報を表示するためのタブである。
 タブ481-2は、自機のプロフィールの表示及び編集等を行うためのタブである。
 タブ481-3は、自機の仲間のうち非表示にしている仲間の表示を元に戻す操作を行うためのタブである。
 ボタン482は、連携機能の設定を行うためのボタンである。
 この例では、タブ481-1が選択されているが、連携機能がオンに設定されておらず、連携機能を使用することができないため、連携機能をオンに設定するように警告する警告画面が表示されている。
 そして、ボタン482が選択されると、上述した図13の連携機能設定画面が表示され、連携機能をオンに設定することができる。
 ステップS2において、UI制御部223は、連携機能の設定内容を情報処理サーバ13に通知する。
 その後、情報処理端末12の処理は終了する。
 これに対して、ステップS51において、情報処理サーバ13のアプリケーション制御部322は、連携機能の設定内容を更新する。具体的には、アプリケーション制御部322は、記憶部303に記憶されている自律移動体11(自機)に関するデータにおいて、連携機能の設定内容を更新する。
 その後、情報処理サーバ13の処理は終了する。
   <仲間獲得処理の第1の実施の形態>
 次に、図15乃至図32を参照して、情報処理システム1により実行される仲間獲得処理の第1の実施の形態について説明する。
    <情報処理端末12の処理>
 まず、図15のフローチャートを参照して、情報処理端末12の処理について説明する。
 ステップS101において、情報処理端末12は、おすすめ候補の検索を要求する。おすすめ候補とは、自機の新たな仲間の候補(以下、仲間候補と称する)として、情報処理システム1が推薦する他機のことである。
 例えば、上述した図11のメニュー画面においてボタン422-1が選択された場合に、連携機能がオンに設定されているとき、図16の仲間リストが表示部241に表示される。
 または、例えば、上述した図14の警告画面においてボタン482が選択され、図13の連携機能設定画面が表示され、連携機能設定画面において連携機能の設定が行われた後、図16の仲間リストが表示部241に表示される。
 なお、仲間リストの表示方法の詳細については後述する。また、図16の仲間リストにおいて、図14の警告画面と対応する部分には同じ符号を付してあり、その説明は適宜省略する。
 仲間リストには、タブ481-1乃至タブ481-3、ボタン501-1乃至ボタン501-5、プルダウンメニュー502、チェックボックス503、及び、ボタン504等が表示される。
 なお、以下、ボタン501-1乃至ボタン501-5を個々に区別する必要がない場合、単にボタン501と称する。
 各ボタン501は、自機の仲間に関する情報をそれぞれ示している。具体的には、各ボタン501には、仲間のサムネイル画像及び名前が表示される。また、直近の所定の期間内に仲間になった新しい仲間のボタン501には、”NEW!!”の文字が表示される。後述するように、各ボタン501のうちいずれかが選択された場合、選択されたボタン501に対応する仲間に関する情報が表示部241に表示される。
 プルダウンメニュー502は、仲間の表示順の設定用のメニューである。この例では、表示順が新しい順に設定されており、自機の仲間が、仲間になった時期が新しい順に表示されている。
 チェックボックス503は、仲間リストに表示する仲間を自機の近くに存在する仲間に限定するか否かの設定に用いられる。チェックボックス503がチェックされている場合、例えば、自機の仲間のうち、自機の通信部102が備える近距離無線通信装置の通信範囲内に存在する仲間のみ表示される。一方、チェックボックス503がチェックされていない場合、自機の仲間が全て表示される。
 なお、図17は、チェックボックス503がチェックされたときの仲間リストの表示例を示している。
 ボタン504は、新たな仲間を追加するためのボタンである。ボタン504が選択されると、図18のメニュー画面が表示部241に表示される。
 このメニュー画面は、仲間を追加(獲得)する方法を選択するための画面である。仲間を追加する方法には、他機と一緒にエサ(ごはん)を食べる方法、及び、他機に関する情報を示すQRコード(以下、単に他機のQRコードと称する)を読み込む方法がある。
 ボタン521は、他機と一緒にエサを食べる方法を選択するためのボタンである。
 ボタン522は、他機のQRコードを読み込む方法を選択するためのボタンである。
 ボタン523は、自機に関する情報を示すQRコード(以下、単に自機のQRコードと称する)を表示するためのボタンである。
 そして、ボタン521が選択されると、UI制御部223は、おすすめ候補の検索を情報処理サーバ13に要求する。
 なお、以下の方法を用いても、おすすめ候補の検索を情報処理サーバ13に要求することができる。
 具体的には、例えば、上述した図10のホーム画面においてボタン404が選択されると、図19の食事ホーム画面が表示部241に表示される。食事ホーム画面には、自機541、エサ皿542、エサ皿543、ボタン544、及び、ボタン545等が表示される。
 自機541は、自機を仮想的に表す画像である。例えば、自機のデザインやアクセサリ等が、自機541に反映される。
 エサ皿542は、自機が1匹でエサを食べるときのエサ皿を仮想的に表す画像である。
 エサ皿543は、自機が他機(仲間又は仲間候補)と一緒にエサを食べるときのエサ皿を仮想的に表す画像である。
 ボタン544は、自機の所有物(もちもの)を表示するためのボタンである。
 ボタン545は、後述するもぐもぐスタンプを表示するためのボタンである。
 例えば、図19の食事ホーム画面においてエサ皿543が選択されると、図20の食事ホーム画面が表示部241に表示される。すなわち、図20の食事ホーム画面では、図19の食事ホーム画面と比較して、エサ皿542とエサ皿543の位置が入れ替わっている。そして、図20の食事ホーム画面において、すなわち、自機541の前にエサ皿543が表示された状態において、エサ皿543が選択されると、図21のウインドウ561が表示部241に表示される。
 ウインドウ561は、自機が一緒にエサを食べる相手を選択するためのウインドウである。ウインドウ561には、ボタン562乃至ボタン564等が表示される。
 ボタン562は、自機が一緒にエサを食べる相手として新たな仲間を選択するためのボタンである。
 ボタン563は、自機が一緒にエサを食べる相手として既存の仲間を選択するためのボタンである。
 ボタン564は、自機が一緒にエサを食べる相手の選択をキャンセルするためのボタンである。ボタン564が選択されると、ウインドウ561が閉じ、1つ前の画面が表示部241に表示される。
 そして、ボタン562が選択されると、UI制御部223は、おすすめ候補の検索を情報処理サーバ13に要求する。
 これに対して、情報処理サーバ13は、後述するように、おすすめ候補を検索し、おすすめ候補の検索結果を示すデータを情報処理端末12に送信する。おすすめ候補の検索結果を示すデータは、例えば、各おすすめ候補のプロフィール及びサムネイル画像を含む。
 ステップS102において、情報処理端末12は、おすすめ候補の検索結果を受信し、表示する。具体的には、UI制御部223は、おすすめ候補の検索結果を示すデータを情報処理サーバ13から受信する。そして、受信したデータに基づいて、図22のおすすめ候補リストが表示部241に表示される。
 おすすめ候補リストは、おすすめ候補の検索結果を示す画面である。この例では、自機と誕生日が近い他機がおすすめ候補として検索された例が示されている。おすすめ候補リストには、ボタン581-1乃至ボタン581-3及びボタン582等が表示される。
 なお、以下、ボタン581-1乃至ボタン581-3を個々に区別する必要がない場合、単にボタン581と称する。
 各ボタン581は、各おすすめ候補に関する情報をそれぞれ示している。具体的には、各ボタン581には、各おすすめ候補のサムネイル画像及び名前が表示される。後述するように、各ボタン581のうちいずれかが選択された場合、選択されたボタン581に対応するおすすめ候補に関する情報が表示される。
 ボタン582は、仲間候補の検索条件を設定するためのボタンである。ボタン582が選択されると、図23の検索条件設定画面が表示部241に表示される。
 検索条件設定画面は、仲間候補の検索条件を設定するための画面である。検索条件設定画面には、テキストボックス601、プルダウンメニュー602、ボタン603、プルダウンメニュー604、ボタン605、及び、ボタン606等が表示される。
 テキストボックス601は、仲間候補の検索条件として他機の名前を入力するのに用いられる。
 プルダウンメニュー602は、仲間候補の検索条件として他機の性別を設定するのに用いられる。プルダウンメニュー602が選択されると、性別の選択肢が表示され、性別の選択が可能になる。
 ボタン603は、仲間候補の検索条件として他機の誕生日を設定する場合に選択される。ボタン603が選択されると、誕生日の入力画面(不図示)が表示され、誕生日の入力が可能になる。
 プルダウンメニュー604は、仲間候補の検索条件として他機の住所を設定するのに用いられる。プルダウンメニュー604が選択されると、住所の選択肢(例えば、都道府県)が表示され、住所の選択が可能になる。
 ボタン605は、仲間候補の検索をキャンセルするためのボタンである。ボタン605が選択されると、仲間候補の検索が行われずに、1つ前の画面が表示部241に表示される。
 ボタン606は、設定した検索条件で仲間候補を検索するためのボタンである。
 ステップS103において、UI制御部223は、仲間候補の検索条件が設定されたか否かを判定する。UI制御部223は、図23の設定画面において、いずれか少なくとも1つ以上の検索条件が設定された後、ボタン606が選択された場合、仲間候補の検索条件が設定されたと判定し、処理はステップS104に進む。
 ステップS104において、UI制御部223は、仲間候補の検索を要求する。具体的には、UI制御部223は、情報処理サーバ13に、設定された検索条件を通知し、仲間候補の検索を要求する。
 これに対して、情報処理サーバ13は、後述するように、設定された検索条件に基づいて仲間候補を検索し、仲間候補の検索結果を示すデータを情報処理端末12に送信する。
 ステップS105において、情報処理端末12は、仲間候補の検索結果を受信し、表示する。具体的には、UI制御部223は、仲間候補の検索結果を示すデータを情報処理サーバ13から受信する。仲間候補の検索結果を示すデータは、例えば、各仲間候補のプロフィール及びサムネイル画像を含む。そして、受信したデータに基づいて、仲間候補の検索結果を示す仲間候補リストが表示部241に表示される。
 なお、仲間候補リストは、上述した図22のおすすめ候補リストと同様の画面である。すなわち、仲間候補リストにおいては、図22の各ボタン581において、検索された仲間候補に関する情報が表示される。
 その後、処理はステップS106に進む。
 一方、ステップS103において、仲間候補の検索条件が設定されていないと判定された場合、ステップS104及びステップS105の処理はスキップされ、処理はステップS106に進む。
 ステップS106において、UI制御部223は、仲間候補が選択されたか否かを判定する。仲間候補が選択されていないと判定された場合、処理はステップS103に戻る。
 その後、ステップS106において、仲間候補が選択されたと判定されるまで、ステップS103乃至ステップS106の処理が繰り返し実行される。
 一方、例えば、図22のおすすめ候補リスト又は仲間候補リストにおいて、いずれかのボタン581が選択された場合、図24のウインドウ621が表示部241に表示される。ウインドウ621には、プロフィール欄622、ボタン623、及び、ボタン624等が表示される。
 プロフィール欄622には、選択された仲間候補のサムネイル画像、名前、性別、誕生日、オーナーのニックネーム、及び、住所が表示される。
 ボタン623は、仲間候補の選択をキャンセルするためのボタンである。ボタン623が選択されると、ウインドウ621が閉じ、1つ前の画面が表示部241に表示される。
 ボタン624は、選択された仲間を食事(ごはん)に誘うためのボタンである。そして、ボタン624が選択されると、ステップS106において、仲間候補が選択されたと判定され、処理はステップS107に進む。
 ステップS107において、UI制御部223は、仲間候補の選択結果を情報処理サーバ13に通知する。
 これに対して、後述するように、情報処理サーバ13は、仲間候補の選択結果の通知を受け、ユーザが所有する自機用のエサに関するデータを送信する。自機用のエサに関するデータは、例えば、自機用のエサの種類及び数量を含む。
 ステップS108において、情報処理端末12は、エサに関するデータを受信し、表示する。具体的には、UI制御部223は、自機用のエサに関するデータを情報処理サーバ13から受信する。そして、受信したデータに基づいて、図25のエサリストが表示部241に表示される。
 エサリストは、ユーザが所有する自機用のエサを一覧にして表示する画面である。なお、エサは、例えば、ユーザが、情報処理サーバ13が提供する自律移動体11用のサービスから購入したり、景品を獲得したりすることにより取得することができる。エサリストには、アイコン641-1乃至アイコン641-7等が表示される。
 なお、以下、アイコン641-1乃至アイコン641-7を個々に区別する必要がない場合、単にアイコン641と称する。
 各アイコン641は、ユーザが所有するエサの種類を示す画像を含む。また、各アイコン641の下には、エサの名称が表示され、右上隅には、各アイコン641が示すエサのユーザの所有数が表示される。
 なお、ユーザが所有していないエサを示すアイコン641-4上には、+の記号が表示される。例えば、+の記号が選択されると、アイコン641-4に対応するエサを購入するための画面が表示部241に表示される。
 ステップS109において、情報処理端末12は、エサの選択結果を通知する。
 具体的には、図25のエサリストにおいて、ユーザが所有していないアイコン641-4以外のアイコン641が選択された場合、図26のウインドウ661が表示部241に表示される。
 ウインドウ661には、選択されたエサの名称、画像、及び、説明文が表示される。また、ウインドウ661には、ボタン662及びボタン663が表示される。
 ボタン662は、エサの選択をキャンセルするためのボタンである。ボタン662が選択されると、ウインドウ661が閉じ、1つ前の画面が表示部241に表示される。
 ボタン663は、エサの選択を確定するためのボタンである。ボタン663が選択されると、UI制御部223は、エサの選択結果を情報処理サーバ13に通知する。
 これに対して、後述するように、情報処理サーバ13は、エサの選択結果の通知を受け、エサを食べる動作を行うように自律移動体11を制御する。
 ステップS110において、情報処理端末12は、自律移動体11(自機)と仲間候補との食事の様子を表示する。例えば、図27又は図28の食事画面が表示部241に表示される。
 図27の食事画面には、自機と選択された仲間候補とが一緒にエサを食べる様子を仮想的に示すアニメーション(動画)が表示される。この食事画面には、スイッチ681、自機682、仲間候補683、ラベル684、エサ皿685、及び、エサ686等が表示される。
 スイッチ681は、食事画面の表示方法を選択するためのスイッチである。ユーザは、スイッチ681を用いて、食事画面の表示方法を「通常」又は「AR(Augmented Reality)」に設定することができる。スイッチ681が「通常」に設定されると、図27の食事画面が表示される。一方、スイッチ681が「AR」に設定されると、後述する図28の食事画面が表示される。すなわち、スイッチ681により、図27の食事画面と図28の食事画面との切り替えが可能になる。
 自機682は、自機を仮想的に表す画像である。例えば、実際の自機のデザインやアクセサリ等が、自機682に反映される。
 仲間候補683は、選択された仲間候補を仮想的に表す画像である。例えば、実際の仲間候補のデザインやアクセサリ等が、仲間候補683に反映される。
 ラベル684は、仲間候補683の名前を示し、仲間候補683の近傍に表示される。
 エサ皿685は、エサ皿を仮想的に表す画像である。
 エサ686は、ステップS109の処理で選択されたエサを仮想的に表す画像であり、エサ皿685の上に表示される。
 そして、自機682と仲間候補683とが、エサ皿685の上のエサ686を一緒に食べるアニメーションが表示される。
 図28の食事画面には、ARを用いて、自機を撮影した撮影動画(スルー画)に、選択された仲間候補の画像を仮想的に重畳した動画が表示される。より具体的には、現実の自機701と仮想の仲間候補683とが、一緒にエサを食べる動画が表示される。
 なお、図中、図27の食事画面と対応する部分には、同じ符号を付してあり、その説明は適宜省略する。
 図28の食事画面には、スイッチ681、仲間候補683、ラベル684、自機701、エサ皿702、エサ703、及び、ボタン704等が表示される。より具体的には、現実の自機701及びエサ皿702を撮影した撮影動画に、スイッチ681、仲間候補683、エサ703、及び、ボタン704が重畳され表示される。
 エサ703は、ステップS109の処理で選択されたエサを仮想的に表す画像であり、現実のエサ皿702の上に重畳して表示される。
 ボタン704は、食事画面に表示されている動画(スルー画)の1シーンを切り取った静止画像の撮影を行うためのボタンである。例えば、ボタン704が押下されると、画像処理部222は、ボタン704が押下された瞬間に食事画面に表示されていた画像からスイッチ681及びボタン704を除いた画像を生成し、記憶部205に記憶させる。
 例えば、画像処理部222は、現実の自機682がエサ皿702の(実際には存在しない)エサを食べる行動を撮影した撮影画像に、仮想の仲間候補683及びエサ703を重畳することにより、現実の自機682と仮想の仲間候補683とが、一緒に仮想のエサ703を食べる動画を生成する。表示部241は、表示制御部231の制御の下に、画像処理部222により生成された動画を表示することにより、図28の食事画面を表示する。
 このとき、認識部221は、撮影動画内のエサ皿702を認識する。画像処理部222は、認識されたエサ皿702の上に仮想のエサ703を重畳する。また、画像処理部222は、エサ皿702の周囲に仲間候補683を重畳するとともに、エサ703を食べる様子を表すように仲間候補683を動かす。
 なお、仲間候補683及びエサ703の画像は、2次元及び3次元のいずれでもよい。
 これに対して、例えば、ユーザは、必要に応じて、自機701と仲間候補683の位置関係が適切になるように、カメラ211の画角を調整する。
 仲間設定部224は、食事が終わった後、自機が新たな仲間を獲得したことを情報処理サーバ13に通知することにより、一緒にエサを食べた仲間候補を自機の仲間に追加する。
 ステップS111において、情報処理端末12は、スタンプの画像を受信し、表示する。
 具体的には、後述するように、情報処理サーバ13は、今回の食事に対する特典となるスタンプを付与したスタンプ画像を生成し、情報処理端末12に送信する。
 これに対して、UI制御部223は、スタンプ画像を情報処理サーバ13から受信する。そして、受信したスタンプ画像に基づいて、図29のスタンプ画面(もぐもぐスタンプ)が表示される。このスタンプ画面には、台紙721及びスタンプ722乃至スタンプ724等が表示される。
 台紙721は、例えばポイントカードを模した画像である。台紙721には、1から10までのスタンプの押下位置が表示される。
 スタンプ722は、自機にエサをあげたことにより付与されるスタンプである。スタンプ723は、自機の仲間にエサをあげたことにより付与されるスタンプである。スタンプ724は、自機が新たに仲間を獲得したことにより付与されるスタンプである。スタンプ724には、例えば、新たな仲間のユーザが作成したスタンプが用いられる。この例では、スタンプ724に新たな仲間の名前である「メイ」の文字が示されている。
 すなわち、この例では、自機が新たな仲間である「メイ」と一緒にエサを食べることにより合計3つのスタンプが付与されている。スタンプは、所定の数(この例の場合10個)になるまで蓄積されていき、所定の数に達すると、景品(例えば、おやつ)が付与される。
 ステップS112において、情報処理端末12は、記念ギフトの画像を受信し、表示する。
 具体的には、後述するように、情報処理サーバ13は、自機が新たな仲間を獲得したご褒美である記念ギフトを示す記念ギフト画像を生成し、情報処理端末12に送信する。
 これに対して、UI制御部223は、記念ギフト画像を情報処理サーバ13から受信する。そして、記念ギフト画像に基づいて、図30のウインドウ741が表示部241に表示される。ウインドウ741には、新たな仲間を獲得した記念として付与された記念ギフトを表す画像及びメッセージが表示される。
 ステップS113において、情報処理端末12は、新たな仲間に関する情報を表示する。例えば、図30のウインドウ741が閉じられた後、図31のウインドウ761が表示部241に表示される。
 ウインドウ761は、新たな仲間を獲得したことを通知するウインドウである。ウインドウ761には、プロフィール欄762、ボタン763、及び、ボタン764等が表示される。
 プロフィール欄421には、新たな仲間のサムネイル画像及びプロフィールが表示される。新たな仲間のプロフィールには、名前、性別、誕生日、オーナーのニックネーム、及び、住所が含まれる。
 ボタン763は、ウインドウ761を閉じるためのボタンである。
 ボタン764は、仲間リストを表示するためのボタンである。ボタン764が押下されると、例えば、上述した図16の仲間リストが表示される。
 その後、情報処理端末12の処理は終了する。
    <情報処理サーバ13の処理>
 次に、図32のフローチャートを参照して、図15の情報処理端末12の処理に対応して情報処理サーバ13により実行される処理について説明する。
 ステップS151において、情報処理サーバ13は、おすすめ候補を検索し、検索結果を通知する。
 具体的には、アプリケーション制御部322は、上述した図15のステップS101の処理において、情報処理端末12によりおすすめ候補の検索が要求された場合、所定の条件に従って、記憶部303に記憶されている各自律移動体11に関するデータの中から、おすすめ候補を検索する。例えば、アプリケーション制御部322は、連携機能がオンに設定されている他機であって、まだ自機と仲間になっていない他機の中から、自機との誕生日の差が所定の範囲内の他機をおすすめ候補として検索する。アプリケーション制御部322は、おすすめ候補の検索結果を示すデータを情報処理端末12に送信する。
 ステップS152において、アプリケーション制御部322は、仲間候補の検索が要求されたか否かを判定する。上述した図15のステップS104において情報処理端末12により仲間候補の検索が要求された場合、処理はステップS153に進む。
 ステップS153において、情報処理サーバ13は、仲間候補を検索し、検索結果を通知する。例えば、アプリケーション制御部322は、記憶部303に記憶されている各自律移動体11に関するデータにおいて、連携機能がオンに設定されている他機であって、まだ自機と仲間になっていない他機の中から、情報処理端末12により指定された検索条件に基づいて、仲間候補を検索する。アプリケーション制御部322は、仲間候補の検索結果を示すデータを情報処理端末12に送信する。
 その後、処理はステップS154に進む。
 一方、ステップS152において、仲間候補の検索が要求されていないと判定された場合、ステップS153の処理はスキップされ、処理はステップS154に進む。
 ステップS154において、アプリケーション制御部322は、仲間候補の選択結果が通知されたか否かを判定する。仲間候補の選択結果が通知されていないと判定された場合、処理はステップS152に進む。
 その後、ステップS154において、仲間候補の検索結果が通知されたと判定されるまで、ステップS152乃至ステップS154の処理が繰り返し実行される。
 一方、ステップS154にいて、上述した図15のステップS107において情報処理端末12から仲間候補の検索結果が通知された場合、処理はステップS155に進む。
 ステップS155において、情報処理サーバ13は、エサに関するデータを送信し、エサの選択結果を受信する。具体的には、アプリケーション制御部322は、自機用のエサに関するデータを記憶部303から読み出し、読み出したデータを情報処理端末12に送信する。
 また、アプリケーション制御部322は、上述した図15のステップS109における情報処理端末12からのエサの選択結果の通知を受ける。
 ステップS156において、情報処理サーバ13は、自律移動体11(自機)がエサを食べる動作を行うように制御する。具体的には、アプリケーション制御部322は、自機にエサを食べる動作を行わせるように自律移動体制御部321に指示する。自律移動体制御部321の動作制御部334は、自機である自律移動体11がエサを食べる動作を行うように制御する。
 ステップS157において、アプリケーション制御部322は、自律移動体11(自機)の仲間に関するデータを更新する。具体的には、アプリケーション制御部322は、上述した図15のステップS110において情報処理端末12から送信された自機が新たな仲間を獲得したことを示す通知を受信する。アプリケーション制御部322は、記憶部303に記憶されている自機に関するデータにおいて、今回自機が一緒にエサを食べた他機を新たな仲間に追加する。
 ステップS158において、情報処理サーバ13は、スタンプの画像を送信する。具体的には、アプリケーション制御部322は、今回新たな仲間とエサを一緒に食べた自機に対する特典として付与したスタンプを示すスタンプ画像を生成し、情報処理端末12に送信する。
 ステップS159において、情報処理サーバ13は、記念ギフトの画像を送信する。具体的には、アプリケーション制御部322は、自機が新たな仲間を獲得したご褒美である記念ギフトを示す記念ギフト画像を生成し、情報処理端末12に送信する。
 その後、情報処理サーバ13の処理は終了する。
   <仲間獲得処理の第2の実施の形態>
 次に、図33のフローチャートを参照して、情報処理システム1により実行される仲間獲得処理の第2の実施の形態について説明する。
 ステップS201において、情報処理端末12は、QRコード(登録商標)の読み取り画面を表示する。
 例えば、上述した図18のメニュー画面においてボタン522が選択された場合、図34の読み取り画面が表示部241に表示される。
 この読み取り画面は、自機の仲間にしたい他機のQRコードを読み取るための画面である。読み取り画面には、枠781等が表示される。
 枠781は、自機の仲間にしたい他機のQRコードを読み取る範囲を示している。
 ステップS202において、情報処理端末12は、仲間にしたい他の自律移動体11(他機)のQRコードを読み取り、送信する。
 例えば、他機のユーザは、所有する情報処理端末12において、上述した図18のメニュー画面を表示させた後、メニュー画面のボタン523を選択する。これにより、図35に示されるように、他機に関する情報を表すQRコード801が、他機のユーザの情報処理端末12に表示される。
 これに対して、自機のユーザは、図35の他機のQRコード801が、図34の読み取り画面の枠781内に収まるように、情報処理端末12のカメラ211の位置を調整する。そして、自機のユーザは、カメラ211によりQRコード801を撮影する。
 仲間設定部224は、撮影されたQRコード801の画像を情報処理サーバ13に送信することにより、QRコード801に対応する他機を自機の仲間に追加する。
 これに対して、ステップS251において、情報処理サーバ13は、QRコードを受信し、QRコードに対応する他の自律移動体11(他機)を検索する。
 具体的には、アプリケーション制御部322は、情報処理端末12から送信されたQRコードの画像を受信する。アプリケーション制御部322は、受信したQRコードを解析して、自律移動体11の識別情報(例えば、製造番号)を取得する。アプリケーション制御部322は、記憶部303に記憶されている各自律移動体11に関するデータにおいて、取得した識別情報と一致する識別情報を有する自律移動体11を検索する。
 ステップS252において、アプリケーション制御部322は、検索された他の自律移動体11を新たな仲間として登録する。具体的には、アプリケーション制御部322は、記憶部303に記憶されている自機に関するデータにおいて、ステップS251の処理で検索された他機を新たな仲間に追加する。
 ステップS253において、情報処理サーバ13は、自律移動体11(自機)の仲間に関するデータを送信する。具体的には、アプリケーション制御部322は、自機の仲間に関するデータを記憶部303から読み出す。自機の仲間に関するデータは、新たに追加された仲間に関するデータを含み、例えば、各仲間のプロフィール及びサムネイル画像を含む。
 その後、情報処理サーバ13の処理は終了する。
 これに対して、ステップS203において、情報処理端末12は、自律移動体11(自機)の仲間に関するデータを受信し、表示する。具体的には、UI制御部223は、情報処理サーバ13から送信された自機の仲間に関するデータを受信する。
 そして、受信したデータに基づいて、まず図36のウインドウ821が表示部241に表示される。
 ウインドウ821は、自機が新たな仲間を獲得したことを通知するためのウインドウである。ウインドウ821には、新たに獲得した仲間の名前、及び、ボタン822等が表示される。
 そして、ボタン822が選択されると、ウインドウ821が閉じ、図37の仲間リストが表示部241に表示される。
 図37の仲間リストは、図16の仲間リストと同様の内容である。ただし、図37の例では、自機が直近の所定の期間内に仲間になった新しい仲間のみが表示されている。
 なお、図37の仲間リストにおいて、自機の全ての仲間を表示するようにしてもよい。
 その後、情報処理端末12の処理は終了する。
   <自律移動体11が既存の仲間とエサを食べる処理>
 次に、図38乃至図41を参照して、自律移動体11が既存の仲間とエサを食べる処理について説明する。
    <情報処理端末12の処理>
 まず、図38のフローチャートを参照して、情報処理端末12の処理について説明する。
 ステップS301において、情報処理端末12は、自律移動体11(自機)の仲間に関するデータを要求する。
 例えば、上述した図11のメニュー画面においてボタン422-1が選択された場合に、連携機能がオンに設定されているとき、又は、上述した図21のウインドウ561においてボタン563が選択された場合、UI制御部223は、自機の仲間に関するデータを情報処理サーバ13に要求する。
 これに対して、情報処理サーバ13は、上述した図33のステップS253の処理と同様に、自律移動体11の仲間に関するデータを送信する。
 ステップS302において、情報処理端末12は、自律移動体11(自機)の仲間に関するデータを受信し、表示する。具体的には、UI制御部223は、情報処理サーバ13から送信された自機の仲間に関するデータを受信する。そして、受信したデータに基づいて、上述した図16の仲間リストが表示部241に表示される。
 ステップS303において、情報処理端末12は、一緒にエサを食べる仲間の選択を受け付け、選択結果を通知する。
 具体的には、図16の仲間リストにおいて、ボタン501のうちのいずれかが選択された場合、すなわち、自機の仲間のうちのいずれかが選択された場合、図39のプロフィール画面が表示部241に表示される。
 プロフィール画面は、選択された仲間のプロフィール等を表示する画面である。プロフィール画面には、選択された仲間のサムネイル画像及びプロフィール、ボタン861、並びに、ボタン862等が表示される。
 仲間のプロフィールには、名前、性別、誕生日、オーナーのニックネーム、及び、住所が含まれる。また、仲間のプロフィールには、自機と仲間(友達)になった日付、自機と出会った回数、及び、自機と一緒にエサ(ごはん)を食べた回数が含まれる。
 なお、自機と出会った回数として、例えば、自機から所定の範囲内に仲間が近づいた回数が用いられる。この条件となる範囲としては、例えば、自機の通信部102が備える近距離無線通信装置の通信範囲が用いられる。
 ボタン861は、表示されている仲間を自機が一緒にエサを食べる相手に選択するためのボタンである。
 ボタン862は、表示されている仲間に対して、エサを食べる相手に選択する以外のその他の操作を行うためのボタンである。
 例えば、図39のプロフィール画面においてボタン861が選択されると、図40のウインドウ881が表示部241に表示される。ウインドウ881には、プロフィール欄882、ボタン883、及び、ボタン884等が表示される。
 プロフィール欄882には、選択されている仲間のサムネイル画像及びプロフィールが表示される。プロフィールは、名前、性別、誕生日、オーナーのニックネーム、及び、住所を含む。
 ボタン883は、表示されている仲間の選択をキャンセルするためのボタンである。
 ボタン884は、表示されている仲間の選択を確定するためのボタンである。そして、ボタン884が選択されることにより、自機と一緒にエサを食べる相手として、ウインドウ881にプロフィールが表示されている仲間が選択される。
 そして、UI制御部223は、自機と一緒にエサを食べる仲間の選択結果を情報処理サーバ13に通知する。
 ステップS304において、上述した図15のステップS108の処理と同様に、エサに関するデータが受信され、表示される。
 ステップS305において、上述した図15のステップS109の処理と同様に、エサの選択結果が通知される。
 ステップS306において、上述した図15のステップS110の処理と同様に、自律移動体11(自機)と仲間との食事の様子が表示される。なお、ステップS110の処理では、自機と食事する相手が新たな仲間候補であるのに対し、この処理では、自機と食事する相手が、ステップS303の処理で選択された既存の仲間である点が異なる。
 ステップS307において、上述した図15のステップS111の処理と同様に、スタンプの画像が受信され、表示される。なお、この処理では、自機がエサをあげたことにより付与されるスタンプ、及び、自機の仲間にエサをあげたことにより付与されるスタンプの2種類のスタンプが付与される。
 その後、情報処理端末12の処理は終了する。
    <情報処理サーバ13の処理>
 次に、図41のフローチャートを参照して、図38の情報処理端末12の処理に対応して情報処理サーバ13により実行される処理について説明する。
 ステップS351において、情報処理サーバ13は、自律移動体11(自機)の仲間に関するデータを読み出す。具体的には、アプリケーション制御部322は、上述した図38のステップS301における情報処理端末12の要求に対応して、自機の仲間に関するデータを記憶部303から読み出す。自機の仲間に関するデータは、例えば、各仲間のプロフィール及びサムネイル画像を含む。
 ステップS352において、情報処理サーバ13は、自律移動体11(自機)の仲間に関するデータを送信する。具体的には、アプリケーション制御部322は、ステップS351の処理で読み出したデータを情報処理端末12に送信する。
 ステップS353において、情報処理サーバ13は、一緒にエサを食べる仲間の選択結果を受信する。具体的には、アプリケーション制御部322は、上述した図38のステップS303において情報処理端末12から送信された、自機と一緒にエサを食べる仲間の選択結果の通知を受信する。
 ステップS354において、上述した図32のステップS155の処理と同様に、エサに関するデータが送信され、選択結果が受信される。
 ステップS355において、上述した図32のステップS156の処理と同様に、自律移動体11(自機)がエサを食べる動作を行うように制御される。
 ステップS356において、アプリケーション制御部322は、自律移動体11(自機)の仲間に関するデータを更新する。具体的には、アプリケーション制御部322は、記憶部303に記憶されている自機に関するデータにおいて、今回自機が一緒にエサを食べた仲間の一緒にエサを食べた回数を更新する。
 ステップS357において、上述した図32のステップS158の処理と同様に、スタンプの画像が送信される。
 その後、情報処理サーバ13の処理は終了する。
   <仲間を非表示にする処理>
 次に、図42のフローチャートを参照して、情報処理システム1により実行される、仲間を非表示にする処理について説明する。
 ステップS401において、情報処理端末12は、上述した図38のステップS301の処理と同様に、自律移動体11(自機)の仲間に関するデータを情報処理サーバ13に要求する。
 これに対して、情報処理サーバ13は、ステップS451において、上述した図41のステップS351の処理と同様に、自律移動体11の仲間に関するデータを読み出し、ステップS452において、上述した図41のステップS352の処理と同様に、読み出したデータを情報処理端末12に送信する。
 ステップS402において、情報処理端末12は、上述した図38のステップS302の処理と同様に、自律移動体11(自機)の仲間に関するデータを受信し、表示する。これにより、上述した図16の仲間リストが表示部241に表示される。
 ステップS403において、情報処理端末12は、選択された仲間に関するデータを表示する。具体的には、図16の仲間リストにおいて、いずれかのボタン501が選択された場合、すなわち、自機の仲間のうちのいずれかが選択された場合、上述した図39のプロフィール画面が表示部241に表示される。
 ステップS404において、情報処理端末12は、選択された仲間の非表示の設定を受け付け、設定内容を通知する。
 具体的には、図39のプロフィール画面においてボタン862が選択されると、図43のウインドウ901が表示部241に表示される。ウインドウ901には、ボタン902等が表示される。
 ボタン902は、選択されている仲間を非表示にするためのボタンである。そして、ボタン902が選択されると、ウインドウ901が閉じ、図44のウインドウ921が表示部241に表示される。
 ウインドウ921は、選択されている仲間の非表示の実施を確認するためのウインドウである。ウインドウ921には、ボタン922及びボタン923等が表示される。
 ボタン922は、選択されている仲間の非表示をキャンセルするためのボタンである。ボタン922が選択されると、ウインドウ921が閉じ、選択されている仲間の非表示がキャンセルされる。
 ボタン922は、選択されている仲間の非表示を確定するためのボタンである。ボタン922が選択されると、ウインドウ921が閉じ、図45のウインドウ941が表示部241に所定の時間表示される。
 ウインドウ941は、選択された仲間を非表示にしたことを通知するウインドウである。
 例えば、非表示に設定された仲間は、情報処理端末12において仲間リストに表示されなくなる。また、非表示に設定された仲間に関する情報が、情報処理サーバ13から情報処理端末12に送信されなくなる。これにより、例えば、自機の仲間のうちの特定の仲間との交流を停止することができる。
 UI制御部223は、非表示にした仲間を示すデータを情報処理サーバ13に送信する。
 その後、情報処理端末12の処理は終了する。
 これに対して、ステップS453において、情報処理サーバ13は、選択された仲間の非表示の設定を行う。具体的には、アプリケーション制御部322は、非表示にした仲間を示すデータを情報処理端末12から受信する。アプリケーション制御部322は、記憶部303に記憶されている自機に関するデータにおいて、ユーザにより選択された仲間を非表示に設定する。
 その後、情報処理サーバ13の処理は終了する。
   <仲間の非表示を解除する処理>
 次に、図46のフローチャートを参照して、情報処理システム1により実行される、仲間の非表示を解除する処理について説明する。
 ステップS501において、情報処理端末12は、非表示にしている仲間に関するデータを要求する。
 例えば、上述した図16の仲間リストにおいてタブ481-3が選択されると、図47の設定画面が表示される。設定画面には、ボタン961が表示される。
 ボタン961は、非表示にしている仲間を確認するためのボタンである。ボタン961が選択されると、UI制御部223は、非表示にしている仲間に関するデータを情報処理サーバ13に要求する。
 これに対して、ステップS551において、情報処理サーバ13は、非表示にしている仲間に関するデータを読み出す。具体的には、アプリケーション制御部322は、自機の仲間のうち非表示にしている仲間に関するデータを記憶部303から読み出す。非表示にしている仲間に関するデータは、例えば、各仲間のプロフィール及びサムネイル画像を含む。
 ステップS552において、情報処理サーバ13は、非表示にしている仲間に関するデータを情報処理端末12に送信する。
 これに対して、ステップS502において、情報処理端末12は、非表示にしている仲間に関するデータを受信し、表示する。具体的には、UI制御部223は、情報処理サーバ13から送信された非表示にしている仲間に関するデータを受信する。そして、受信したデータに基づいて、図48の非表示の仲間リストが表示部241に表示される。
 非表示の仲間リストは、非表示にしている仲間を一覧にしたリストである。非表示の仲間リストには、ボタン981-1及びボタン981-2等が表示される。
 なお、以下、ボタン981-1及びボタン981-2を個々に区別する必要がない場合、単にボタン981と称する。
 各ボタン981は、非表示にしている仲間に関する情報をそれぞれ示している。具体的には、各ボタン981には、非表示にしている仲間のサムネイル画像及び名前が表示される。
 ステップS503において、情報処理端末12は、非表示を解除する仲間の選択を受け付け、選択結果を通知する。
 具体的には、図48の非表示の仲間リストにおいて、いずれかのボタン981が選択された場合、すなわち、非表示に設定されている仲間のうちのいずれかが選択された場合、図49のプロフィール画面が表示部241に表示される。
 プロフィール画面は、選択された仲間のプロフィール等を表示する画面である。プロフィール画面には、選択された仲間のプロフィール、及び、ボタン1001等が表示される。
 仲間のプロフィールには、名前、性別、誕生日、オーナーのニックネーム、及び、住所が含まれる。また、仲間のプロフィールには、自機と仲間になった日付、自機と出会った回数、及び、自機と一緒にエサ(ごはん)を食べた回数が含まれる。
 ボタン1001は、表示されている仲間の非表示を解除するためのボタンである。そして、ボタン1001が選択されると、ウインドウ1021が表示部241に所定の時間表示される。
 ウインドウ1021は、選択された仲間の非表示を解除したことを通知するウインドウである。
 UI制御部223は、非表示を解除する仲間の選択結果を情報処理サーバ13に通知する。
 その後、情報処理端末12の処理は終了する。
 これに対して、ステップS553において、情報処理サーバ13は、選択された仲間の非表示を解除する。具体的には、アプリケーション制御部322は、記憶部303に記憶されている自機に関するデータにおいて、ユーザにより選択された仲間の非表示を解除する。
 その後、情報処理サーバ13の処理は終了する。
   <プロフィール等編集処理>
 次に、図51のフローチャートを参照して、情報処理システム1により実行されるプロフィール等編集処理について説明する。
 ステップS601において、情報処理端末12は、自律移動体11(自機)に関するデータの送信を要求する。具体的には、上述した図16の仲間リストにおいてタブ481-2が選択された場合、UI制御部223は、自機に関するデータを情報処理サーバ13に要求する。
 これに対して、ステップS651において、アプリケーション制御部322は、自律移動体11(自機)に関するデータを記憶部303から読み出す。
 ステップS652において、アプリケーション制御部322は、読み出した自律移動体11(自機)に関するデータを情報処理端末12に送信する。
 これに対して、ステップS602において、情報処理端末12は、自律移動体11(自機)に関するデータを受信し、表示する。具体的には、UI制御部223は、自機に関するデータを情報処理サーバ13から受信する。そして、受信したデータに基づいて、図52のプロフィール画面が表示部241に表示される。
 図52のプロフィール画面には、自機のプロフィール、サムネイル画像1041、スタンプ1042、及び、ボタン1043乃至ボタン1045等が表示される。
 自機のプロフィールは、名前、性別、誕生日、オーナーのニックネーム、及び、住所を含む。
 サムネイル画像1041には、例えば、自機を撮影した画像が用いられる。
 スタンプ1042は、後述するように、自機の名前に基づいて生成されるスタンプである。
 ボタン1043は、自機のQRコードを表示するためのボタンである。例えば、ボタン1043が選択されると、上述した図35のQRコード画面が表示される。
 ボタン1044は、自機の着せ替えを行うためのボタンである。
 ボタン1045は、自機のプロフィールを編集するためのボタンである。
 ステップS603において、情報処理端末12は、自律移動体11(自機)のプロフィール等の編集を受け付け、編集内容を通知する。具体的には、図52のプロフィール画面においてボタン1045が選択された場合、図53の編集画面が表示部241に表示される。
 図53の編集画面は、自機のプロフィール等の編集を行うための画面である。編集画面には、自機のプロフィール、サムネイル画像1061、ボタン1062、スタンプ1063、ボタン1064、テキストボックス1065、プルダウンメニュー1066、及び、ボタン1067等が表示される。
 ボタン1062は、サムネイル画像1061の編集を行うためのボタンである。
 ボタン1064は、スタンプ1063の編集を行うためのボタンである。
 テキストボックス1065は、自機のオーナーのニックネームの編集に用いられる。すなわち、ユーザは、任意のニックネームを自身のニックネームとしてテキストボックス1065に入力することが可能である。
 プルダウンメニュー1066は、自機の住所を設定するのに用いられる。プルダウンメニュー1066が選択されると、住所の選択肢(例えば、都道府県)が表示され、住所の選択が可能になる。
 ボタン1067は、自機のプロフィール等を変更した内容を確定するためのボタンである。
 例えば、ボタン1062が選択されると、図54のウインドウ1081が表示部241に表示される。ウインドウ1081は、サムネイル画像1061に用いる写真の追加方法を選択するためのウインドウである。ウインドウ1081には、ボタン1082乃至ボタン1084等が表示される。
 ボタン1082が選択されると、カメラ211が起動する。これにより、サムネイル画像1061に用いる画像を撮影することが可能になる。
 ボタン1083が選択されると、例えば、記憶部205に記憶されている画像の一覧が表示部241に表示される。これにより、表示された一覧の中からサムネイル画像1061に用いる画像を選択することが可能になる。
 ボタン1084が選択されると、サムネイル画像1061の選択がキャンセルされ、ウインドウ1081が閉じる。
 例えば、図53のプロフィール編集画面においてボタン1064が選択されると、図55のスタンプ編集画面が表示部241に表示される。スタンプ編集画面は、自機のスタンプを編集するための画面である。スタンプ編集画面には、スタンプ1101、テキストボックス1102、プルダウンメニュー1103、プルダウンメニュー1104、及び、ボタン1105等が表示される。
 スタンプ1101は、編集中のスタンプの状態を示す。
 テキストボックス1102は、スタンプ1101に表示する名前の入力に用いられる。そして、テキストボックス1102に入力された名前が、スタンプ1101に表示される。
 プルダウンメニュー1103は、スタンプ1101の色の設定に用いられる。プルダウンメニュー1103が選択されると、色の選択肢が表示され、スタンプ1101の色の選択が可能になる。
 プルダウンメニュー1104は、スタンプ1101のデザイン(例えば、スタンプ1101の外形等)の設定に用いられる。プルダウンメニュー1104が選択されると、デザインの選択肢が表示され、スタンプ1101のデザインの選択が可能になる。
 ボタン1105は、スタンプ1101の編集内容を確定するためのボタンである。ボタン1105が選択されると、自機のスタンプが表示中のスタンプ1101に変更される。
 例えば、図52のプロフィール画面においてボタン1044が選択されると、図56の着せ替え画面が表示される。着せ替え画面は、各情報処理端末12において仮想的に表示される自機の画像の着せ替えを行うための画面である。
 着せ替え画面には、自機1121、及び、ボタン1122乃至ボタン1125等が表示される。
 自機1121は、自機に装着されている着せ替えアイテムの状態を仮想的に示す画像である。
 ボタン1122は、自機に装着する首輪の選択を行うためのボタンである。また、ボタン1122には、現在選択している首輪が表示される。なお、いずれの首輪も選択されていない場合、「なし」の文字がボタン1122に表示される。
 ボタン1123は、自機に装着する名前シールの選択を行うためのボタンである。また、ボタン1123には、現在選択している名前シールが表示される。なお、いずれの名前シールも選択されていない場合、「なし」の文字がボタン1123に表示される。
 ボタン1124は、自機に装着するドッグタグの選択を行うためのボタンである。また、ボタン1124には、現在選択しているドッグタグが表示される。なお、いずれのドッグタグも選択されていない場合、「なし」の文字がボタン1124に表示される。
 ボタン1125は、自機1121に表示されている着せ替えアイテムを確定するためのボタンである。
 例えば、ボタン1122が選択されると、図57のウインドウ1141が表示部241に表示される。ウインドウ1141は、自機に装着する首輪を選択するためのウインドウである。ウインドウ1141には、首輪の一覧、カーソル1142、及び、ボタン1143等が表示される。
 カーソル1142は、自機に装着する首輪を選択するために用いられる。そして、図58に示されるように、カーソル1142により選択されている首輪1144が、自機1121に重畳される。これにより、選択された首輪を自機に装着した状態を確認することができる。
 ボタン1143は、選択している首輪を確定するためのボタンである。すなわち、ボタン1143が選択されると、カーソル1142により選択されている首輪が確定する。そして、図59に示されるように、ウインドウ1141が閉じ、選択した首輪が、ボタン1122の上に表示される。さらに、ボタン1125が選択されることにより、自機1121に装着されている着せ替えアイテムが最終的に確定する。
 UI制御部223は、上述したように自機のプロフィール、サムネイル画像、スタンプ、及び、着せ替えアイテムの編集を受け付け、編集内容を示すデータを生成する。UI制御部223は、生成したデータを情報処理サーバ13に送信する。
 その後、情報処理端末12の処理は終了する。
 これに対して、ステップS653において、情報処理サーバ13は、自律移動体11(自機)のプロフィール等を更新する。具体的には、アプリケーション制御部322は、プロフィール等の編集内容を示すデータを情報処理端末12から受信する。アプリケーション制御部322は、受信したデータに基づいて、記憶部303に記憶されている自機に関するデータを更新する。
 その後、情報処理サーバ13の処理は終了する。
 以上のようにして、自律移動体11の娯楽性を向上させることができる。
 例えば、ユーザは、自律移動体11の仲間を増やしたり、他の自律移動体11と交流させたりする楽しみを享受することができる。また、ユーザは、例えば、自律移動体11の仲間を通じて、他の自律移動体11のユーザと交流することが可能になる。
 ユーザは、図27及び図28の食事画面により、自律移動体11が他の自律移動体11とエサを食べる様子を楽しむことができる。
 ユーザは、自律移動体11のプロフィールを編集したり、着せ替えを行ったりすることにより、自律移動体11の個性を出すことができる。
 <<2.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
 以上の説明では、2台の自律移動体11が仲間になる条件となる行動として、一緒にエサを食べる例を示したが、他の方法により自律移動体11が仮想的に交流して仲間になるようにしてもよい。例えば、2台の自律移動体11が、エサを食べる以外の行動を仮想的に共同で行うことにより仲間になるようにすることが可能である。具体的には、例えば、2台の自律移動体11が仮想的に一緒に遊んだり、散歩したり、アイテム(例えば、おもちゃ等)を共有したりすることにより、仲間になるようにすることが可能である。
 以上の説明では、エサを一緒に食べるように誘われた側が誘った側の仲間になる例を示したが、例えば、それと同時に、誘った側が誘われた側の仲間になるようにしてもよい。
 また、例えば、3台以上の自律移動体11が仮想的に共同で行動することにより、仲間になるようにすることも可能である。
 例えば、仲間になる条件以外の所定の条件となる行動として、2台以上の自律移動体11が所定の行動を仮想的に共同で行うようにしてもよい。
 例えば、情報処理端末12がQRコードを読み取る以外の方法で他機に関する情報を取得することにより、他機が自機の仲間に追加されるようにしてもよい。例えば、情報処理端末12が他機の画像を読み取ることにより、他機が自機の仲間に追加されるようにしてもよい。
 以上の説明では、図28の食事画面において、仲間候補683(又は仲間)を重畳する位置を、エサ皿702を基準にして決定する例を示したが、他のアイテムを基準にして決定するようにしてもよい。例えば、認識部221が、撮影動画内のエサ皿702に加えて自機701の位置を認識し、画像処理部222が、自機701及びエサ皿702の位置に基づいて、仲間候補683を重畳する位置を制御するようにしてもよい。また、例えば、認識部221が自機701の動きをさらに認識し、画像処理部222が、自機701の動きに合わせて、仲間候補683を動かすようにしてもよい。
 例えば、自律移動体11の近くに仲間である他の自律移動体11が接近したときに、自律移動体11が反応するようにしてもよい。例えば、自律移動体11が、通信部102が備える近距離無線通信装置の通信範囲内において仲間を検出した場合、例えば、挨拶したり、喜んだり、仲間に近づいたりする等の行動を行うようにしてもよい。
 例えば、自律移動体11が一匹でエサを食べるときと、他の自律移動体11とエサを食べるときとで、エサの食べ方を変化させるようにしてもよい。
 上述した情報処理端末12と情報処理サーバ13の間の処理の分担は、その一例であり、適宜変更することが可能である。例えば、情報処理端末12が、自機のプロフィールや仲間等に関するデータを保持して、保持したデータに基づいて、自機のプロフィールや仲間等に関する情報を表示するようにしてもよい。例えば、情報処理端末12が、エサを食べる動作を行うように自律移動体11を制御するようにしてもよい。
 <<3.その他>>
  <コンピュータの構成例>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図60は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ2000において、CPU(Central Processing Unit)2001,ROM(Read Only Memory)2002,RAM(Random Access Memory)2003は、バス2004により相互に接続されている。
 バス2004には、さらに、入出力インタフェース2005が接続されている。入出力インタフェース2005には、入力部2006、出力部2007、記録部2008、通信部2009、及びドライブ2010が接続されている。
 入力部2006は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部2007は、ディスプレイ、スピーカなどよりなる。記録部2008は、ハードディスクや不揮発性のメモリなどよりなる。通信部2009は、ネットワークインタフェースなどよりなる。ドライブ2010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア2011を駆動する。
 以上のように構成されるコンピュータ2000では、CPU2001が、例えば、記録部2008に記録されているプログラムを、入出力インタフェース2005及びバス2004を介して、RAM2003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ2000(CPU2001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア2011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ2000では、プログラムは、リムーバブルメディア2011をドライブ2010に装着することにより、入出力インタフェース2005を介して、記録部2008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部2009で受信し、記録部2008にインストールすることができる。その他、プログラムは、ROM2002や記録部2008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
  <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した第1の動画を生成する画像処理部と、
 前記第1の動画の表示を制御する表示制御部と
 を備える情報処理装置。
(2)
 仮想の前記第2の自律移動体は、前記第1の自律移動体と所定の条件となる行動を行うことにより前記第1の自律移動体と仮想的に交流する
 前記(1)に記載の情報処理装置。
(3)
 前記所定の条件となる行動は、前記第1の自律移動体が前記第2の自律移動体と仲間になる条件となる行動である
 前記(2)に記載の情報処理装置。
(4)
 前記仲間になる条件となる行動は、仮想の前記第2の自律移動体が前記第1の自律移動体と共同で行う行動である
 前記(3)に記載の情報処理装置。
(5)
 前記仲間になる条件となる行動は、仮想の前記第2の自律移動体が前記第1の自律移動体と一緒にエサを食べる行動である
 前記(4)に記載の情報処理装置。
(6)
 前記画像処理部は、前記撮影動画内の皿に仮想の前記エサを重畳する
 前記(5)に記載の情報処理装置。
(7)
 前記仲間になる条件となる行動は、仮想の前記第2の自律移動体が前記第1の自律移動体とアイテムを共有する行動である
 前記(4)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記仲間となる条件となる行動を行った前記第2の自律移動体を前記第1の自律移動体の仲間に追加する仲間設定部を
 さらに備える前記(3)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記仲間設定部は、他の情報処理装置から取得した第3の自律移動体に関する情報に基づいて、前記第3の自律移動体を前記第1の自律移動体の仲間に追加する
 前記(8)に記載の情報処理装置。
(10)
 前記仲間設定部は、前記他の情報処理装置に表示される前記第3の自律移動体に関する情報を表す画像に基づいて、前記第3の自律移動体を前記第1の自律移動体の仲間に追加する
 前記(9)に記載の情報処理装置。
(11)
 前記表示制御部は、前記第1の自律移動体の仲間から非表示に設定された仲間を除いた仲間の一覧の表示を制御する
 前記(3)乃至(10)のいずれかに記載の情報処理装置。
(12)
 前記画像処理部は、前記撮影動画内の所定のアイテムを基準にして、仮想の前記第2の自律移動体を重畳する位置を決定する
 前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
 前記画像処理部は、前記撮影動画内において、仮想の前記第2の自律移動体の近傍に前記第2の自律移動体の名前を示すラベルを重畳する
 前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
 前記画像処理部は、前記第1の動画内において、前記第1の自律移動体の動きに合わせて仮想の前記第2の自律移動体を動かす
 前記(1)乃至(13)のいずれかに記載の情報処理装置。
(15)
 前記画像処理部は、仮想の前記第1の自律移動体と仮想の前記第2の自律移動体とが仮想的に交流する第2の動画を生成し、
 前記表示制御部は、前記第2の動画の表示を制御する
 前記(1)乃至(14)のいずれかに記載の情報処理装置。
(16)
 前記表示制御部は、前記第1の動画と前記第2の動画との表示の切り替えを行う
 前記(15)に記載の情報処理装置。
(17)
 前記表示制御部は、前記第2の自律移動体が前記第1の自律移動体と仮想的な交流を行った回数の表示を制御する
 前記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)
 情報処理装置が、
 第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した動画を生成し、
 前記動画の表示を制御する
 情報処理方法。
(19)
 第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した動画を生成し、
 前記動画の表示を制御する
 処理をコンピュータに実行させるためのプログラム。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 1 情報処理システム, 11-1乃至11-n 自律移動体, 12-1乃至12-n 情報処理端末, 13 情報処理サーバ, 201 入力部, 203 情報処理部, 204 出力部, 211 カメラ, 221 認識部, 222 画像処理部, 223 UI制御部, 224 仲間設定部, 231 表示制御部, 241 表示部, 302 情報処理部, 321 自律移動体制御部, 322 アプリケーション制御部, 331 認識部, 332 学習部, 333 行動計画部, 334 動作制御部

Claims (19)

  1.  第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した第1の動画を生成する画像処理部と、
     前記第1の動画の表示を制御する表示制御部と
     を備える情報処理装置。
  2.  仮想の前記第2の自律移動体は、前記第1の自律移動体と所定の条件となる行動を行うことにより前記第1の自律移動体と仮想的に交流する
     請求項1に記載の情報処理装置。
  3.  前記所定の条件となる行動は、前記第1の自律移動体が前記第2の自律移動体と仲間になる条件となる行動である
     請求項2に記載の情報処理装置。
  4.  前記仲間になる条件となる行動は、仮想の前記第2の自律移動体が前記第1の自律移動体と共同で行う行動である
     請求項3に記載の情報処理装置。
  5.  前記仲間になる条件となる行動は、仮想の前記第2の自律移動体が前記第1の自律移動体と一緒にエサを食べる行動である
     請求項4に記載の情報処理装置。
  6.  前記画像処理部は、前記撮影動画内の皿に仮想の前記エサを重畳する
     請求項5に記載の情報処理装置。
  7.  前記仲間になる条件となる行動は、仮想の前記第2の自律移動体が前記第1の自律移動体とアイテムを共有する行動である
     請求項4に記載の情報処理装置。
  8.  前記仲間となる条件となる行動を行った前記第2の自律移動体を前記第1の自律移動体の仲間に追加する仲間設定部を
     さらに備える請求項3に記載の情報処理装置。
  9.  前記仲間設定部は、他の情報処理装置から取得した第3の自律移動体に関する情報に基づいて、前記第3の自律移動体を前記第1の自律移動体の仲間に追加する
     請求項8に記載の情報処理装置。
  10.  前記仲間設定部は、前記他の情報処理装置に表示される前記第3の自律移動体に関する情報を表す画像に基づいて、前記第3の自律移動体を前記第1の自律移動体の仲間に追加する
     請求項9に記載の情報処理装置。
  11.  前記表示制御部は、前記第1の自律移動体の仲間から非表示に設定された仲間を除いた仲間の一覧の表示を制御する
     請求項3に記載の情報処理装置。
  12.  前記画像処理部は、前記撮影動画内の所定のアイテムを基準にして、仮想の前記第2の自律移動体を重畳する位置を決定する
     請求項1に記載の情報処理装置。
  13.  前記画像処理部は、前記撮影動画内において、仮想の前記第2の自律移動体の近傍に前記第2の自律移動体の名前を示すラベルを重畳する
     請求項1に記載の情報処理装置。
  14.  前記画像処理部は、前記第1の動画内において、前記第1の自律移動体の動きに合わせて仮想の前記第2の自律移動体を動かす
     請求項1に記載の情報処理装置。
  15.  前記画像処理部は、仮想の前記第1の自律移動体と仮想の前記第2の自律移動体とが仮想的に交流する第2の動画を生成し、
     前記表示制御部は、前記第2の動画の表示を制御する
     請求項1に記載の情報処理装置。
  16.  前記表示制御部は、前記第1の動画と前記第2の動画との表示の切り替えを行う
     請求項15に記載の情報処理装置。
  17.  前記表示制御部は、前記第2の自律移動体が前記第1の自律移動体と仮想的な交流を行った回数の表示を制御する
     請求項1に記載の情報処理装置。
  18.  情報処理装置が、
     第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した動画を生成し、
     前記動画の表示を制御する
     情報処理方法。
  19.  第1の自律移動体を撮影した撮影動画内に、前記第1の自律移動体と仮想的に交流する仮想の第2の自律移動体を重畳した動画を生成し、
     前記動画の表示を制御する
     処理をコンピュータに実行させるためのプログラム。
PCT/JP2021/029790 2020-08-28 2021-08-13 情報処理装置、情報処理方法、及び、プログラム WO2022044843A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/041,766 US20230367312A1 (en) 2020-08-28 2021-08-13 Information processing apparatus, information processing method, and program
JP2022544454A JPWO2022044843A1 (ja) 2020-08-28 2021-08-13

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020144613 2020-08-28
JP2020-144613 2020-08-28

Publications (1)

Publication Number Publication Date
WO2022044843A1 true WO2022044843A1 (ja) 2022-03-03

Family

ID=80353193

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/029790 WO2022044843A1 (ja) 2020-08-28 2021-08-13 情報処理装置、情報処理方法、及び、プログラム

Country Status (3)

Country Link
US (1) US20230367312A1 (ja)
JP (1) JPWO2022044843A1 (ja)
WO (1) WO2022044843A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020000279A (ja) * 2018-06-25 2020-01-09 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020000279A (ja) * 2018-06-25 2020-01-09 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AIBO: "aiboのなかま", YOUTUBE, 29 October 2020 (2020-10-29), XP055913004, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=aAoYYq-kdY0> [retrieved on 20210903] *
GAMETRAILERS: "Niantic Real World AR Occlusion With Pikachu and Eevee", YOUTUBE, 28 June 2018 (2018-06-28), XP055917672, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=X3QuBlHZNRU> [retrieved on 20210903] *
ONO, HITOSHI: "Use Your Smartphone with More Ease and More Fun, With '' AR ''.", KAKAKUMAG.COM, 1 April 2020 (2020-04-01), pages 1 - 9, XP055912994, Retrieved from the Internet <URL:https://kakakumag.com/pc-smartphone/?id=15248> [retrieved on 20210903] *

Also Published As

Publication number Publication date
US20230367312A1 (en) 2023-11-16
JPWO2022044843A1 (ja) 2022-03-03

Similar Documents

Publication Publication Date Title
CN110942518B (zh) 上下文计算机生成现实(cgr)数字助理
JP6792039B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
JP6556776B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
US20160314609A1 (en) Context-aware digital play
CN111201539A (zh) 由自主个人伴侣基于描述用户的情景环境的所识别标签来不断地选择场景以供由用户的人工智能模型执行
US11207774B2 (en) Autonomously acting robot that imagines virtual character
JPWO2019087484A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN113164822B (zh) 穿衣服的机器人
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2018073832A1 (en) Emotionally intelligent companion device
WO2019123744A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2020105309A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7363823B2 (ja) 情報処理装置、および情報処理方法
JP7238796B2 (ja) 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
US20230195401A1 (en) Information processing apparatus and information processing method
WO2022044843A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2022113771A1 (ja) 自律移動体、情報処理装置、情報処理方法、及び、プログラム
JP6809267B2 (ja) 情報処理装置、情報処理システム及びプログラム
JPWO2019087490A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Walker The Design of Virtual and Mixed Reality Interfaces for Human-Robot Interaction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21861271

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022544454

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21861271

Country of ref document: EP

Kind code of ref document: A1