WO2023145284A1 - 情報処理装置及び情報処理方法、並びにコンピュータプログラム - Google Patents

情報処理装置及び情報処理方法、並びにコンピュータプログラム Download PDF

Info

Publication number
WO2023145284A1
WO2023145284A1 PCT/JP2022/045946 JP2022045946W WO2023145284A1 WO 2023145284 A1 WO2023145284 A1 WO 2023145284A1 JP 2022045946 W JP2022045946 W JP 2022045946W WO 2023145284 A1 WO2023145284 A1 WO 2023145284A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
robot
mobile device
information processing
Prior art date
Application number
PCT/JP2022/045946
Other languages
English (en)
French (fr)
Inventor
遼人 矢野
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023145284A1 publication Critical patent/WO2023145284A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network

Definitions

  • this disclosure relates to an information processing apparatus and information processing method for processing information related to a plan of a movement route of a mobile device, and a computer program.
  • a destination candidate image indicating a plurality of destination candidates is displayed on the touch panel display, and the destination candidate corresponding to the position touched on the display surface of the touch panel display by the guided person is set as the destination.
  • a guide robot that guides a person to a destination has been proposed (see Patent Document 1). Also, based on the captured image, it approaches the target whose behavior is determined in advance, searches for a moving route to the destination read from the medium presented by the target, and selects the public transportation platform to be used. A self-propelled robot has been proposed that generates guidance information to indicate (see Patent Literature 2).
  • the guidance robot can be equipped with a display on the front or back of the main body, for example, and can present information such as advertisements and guidance to the guided person.
  • a display on the front or back of the main body for example, and can present information such as advertisements and guidance to the guided person.
  • an advertisement guidance robot has been proposed that changes the guidance display in real time according to the location (see Patent Document 3).
  • An object of the present disclosure is to provide an information processing device, an information processing method, and a computer program for processing information related to a moving route plan for a mobile device that guides a person to be guided.
  • the present disclosure has been made in consideration of the above problems, and a first aspect thereof is an information processing device that controls a mobile device that guides a user,
  • An information processing device comprising a planning unit that plans a movement route of the mobile device at the time of information presentation based on a user's position and information presented to the user.
  • the planning unit sets a prohibited area into which the mobile device should not enter when presenting information to a user, determines a target to be reached by the mobile device outside the prohibited region, and plans a movement route to the target. To plan.
  • the planning unit Based on the positional relationship between the user and the information to be presented to the user, the planning unit sets the position of the mobile device that may cause the information to be presented to the user to enter the user's blind spot as a prohibited area. Specifically, the planning unit determines a prohibited area in which the mobile device presenting information to the user hides behind other users and enters the user's blind spot, and the information to be presented to the user Set a no-go area to hide behind and enter the user's blind spot.
  • the planning unit plans a moving route for guiding the user so that the information presented to the user can be easily viewed. For example, the planning unit plans a movement route for approaching a presentation target with a course direction perpendicular to the front direction of the presentation target on which information is presented. Specifically, when the mobile device presents information to the user, the planning unit switches to an arc trajectory to guide the user, and then plans a route to move to the center of the arc. Further, when a presentation target other than the mobile device presents information to the user, the planning unit plans a route for guiding the user by switching to an arc trajectory centered on the presentation target.
  • a second aspect of the present disclosure is an information processing method for controlling a mobile device that guides a user, comprising: An information processing method, comprising a planning step of planning a movement route of the mobile device at the time of information presentation based on a user's position and information to be presented to the user.
  • a third aspect of the present disclosure is a computer program written in computer readable form to execute on a computer a process for controlling a mobile device that guides a user, the computer comprising: A computer program that functions as a planning unit that plans a moving route of the mobile device at the time of information presentation based on a user's position and information to be presented to the user.
  • a computer program according to the third aspect of the present disclosure defines a computer program written in a computer-readable format so as to implement predetermined processing on a computer.
  • the computer program according to the third aspect of the present disclosure by installing the computer program according to the third aspect of the present disclosure on the computer, cooperative action is exhibited on the computer, and the same action as the information processing apparatus according to the first aspect of the present disclosure effect can be obtained.
  • an information processing device an information processing method, and a computer program for processing information related to a moving route plan for a mobile device that provides guidance while presenting information to a person to be guided.
  • FIG. 1 is a diagram showing the external configuration of the robot 100.
  • FIG. 2 is a diagram showing the configuration of the degrees of freedom of the robot 100.
  • FIG. 3 is a diagram showing an internal configuration example of the electrical system of the robot 100.
  • FIG. 4 is a diagram showing a functional configuration example of the control system 400 of the robot 100.
  • FIG. 5 is a flow chart showing a processing procedure for control system 400 to control movement of robot 100 .
  • FIG. 6 is a diagram showing a detailed configuration example for the control system 400 to execute the processing procedure shown in FIG.
  • FIG. 7 is a diagram showing how the robot 100 is at the head of a row of users lined up in a row.
  • FIG. 1 is a diagram showing the external configuration of the robot 100.
  • FIG. 2 is a diagram showing the configuration of the degrees of freedom of the robot 100.
  • FIG. 3 is a diagram showing an internal configuration example of the electrical system of the robot 100.
  • FIG. 4 is a diagram showing a functional configuration example of the control
  • FIG. 8 is a diagram showing how adjacent users become obstacles to create blind spots.
  • FIG. 9 is a diagram showing prohibited areas formed when a plurality of users are lined up in a row.
  • FIG. 10 is a diagram showing an example of goals set outside the prohibited area.
  • FIG. 11 is a diagram showing another example of goals set outside the prohibited area.
  • FIG. 12 is a diagram showing a state in which a plurality of users are lined up in a line with the robot 100 at the head in front of the presentation target.
  • FIG. 13 is a diagram for explaining a method of calculating the prohibited area.
  • FIG. 14 is a diagram for explaining another method of calculating the prohibited area.
  • FIG. 15 is a diagram for explaining still another method of calculating the prohibited area.
  • FIG. 16A and 16B are diagrams for explaining a method of determining a target to be reached outside the prohibited area.
  • FIG. 17 is a diagram showing an example in which the reach target is determined within the prohibited area.
  • FIG. 18 is a diagram showing how the robot 100 swings its head toward a large number of users lined up in a line.
  • FIG. 19A is a diagram showing how the robot 100 guides the user along an arc trajectory (when the robot 100 itself is the presentation target).
  • FIG. 19B is a diagram showing how the robot 100 moves with the center of the arc guided by the user on the arc trajectory as the destination.
  • FIG. 20A is a diagram showing how the robot 100 guides the user along an arc-shaped trajectory (when the presentation target is something other than the robot 100).
  • FIG. 20B is a diagram showing how the robot 100 guides the user on an arc trajectory centered on the presentation target.
  • FIG. 21 is a diagram showing an example in which two robots are adjacent to each other and present one large screen.
  • FIG. 22 is a diagram showing an example in which two robots are spaced apart to present information.
  • FIG. 23 is a diagram showing an example of presenting a large-sized presentation target to a plurality of users using two robots.
  • FIG. 24 is a diagram showing a state in which the user in front is in the way and the user in the back cannot see the display of the robot.
  • FIG. 25 is a diagram showing how the user cannot see the presentation target because the robot is in the way.
  • Abstract Autonomous mobile devices such as robots and drones can be applied for guidance in facilities such as art galleries and museums, or for sightseeing tours.
  • a guidance robot presents information to a user by presenting information on a display during guidance, or by stopping in front of a presentation target such as a work of art or an exhibit.
  • the presentation target is hidden behind obstacles and cannot be seen by the user. There are cases where the presentation target is hidden behind other users and enters the user's blind spot, and cases where the presentation target is hidden behind the guiding robot and enters the user's blind spot.
  • the robot when one robot leads a plurality of users and the plurality of users are following in a line, when presenting information using a display equipped on the body of the robot, as shown in FIG. , the user in front interferes, and the screen enters the blind spot of the user in the back. Also, when the robot guides the user to the location of the presentation target such as an exhibit, the robot stands closer to the presentation target than the user (or between the presentation target and the user) in order to indicate the location of the presentation target. Then, as shown in FIG. 25, the robot interferes, and the presentation target enters at least some of the users' blind spots.
  • this disclosure proposes an information processing method that determines the robot's goal based on the user's position and information presented to the user, and plans the robot's movement route to the determined goal.
  • the robot avoids the presentation target from entering the user's blind spot so that all users can see the presentation target evenly.
  • the robot can move to a place where the user can easily see the information and present information on a screen attached to the robot body, or the robot itself can stand in front of the presentation target so as not to block the user's view.
  • the user referred to in this specification refers to the person guided by the robot.
  • the presentation target is hidden behind other users and enters the user's blind spot based on the positional relationship between each user's position and the presentation target. Decide what the robot should reach so that it can avoid
  • the presentation target is, for example, a display attached to the robot's body, exhibitions such as art galleries and museums guided by the robot, and famous sights in tourist spots.
  • the robot body itself can be the presentation target.
  • other users or the robot itself cause the presentation target to enter the user's blind spot.
  • the position of the robot that may cause the presentation target to enter the user's blind spot is set as the prohibited area, and the robot moves to the target outside the prohibited area.
  • the presentation target does not enter the user's blind spot due to other users or robots, and the user can see the display screen on the robot's body and the guided exhibits without blocking their field of vision. be able to see.
  • a target to move the robot out of the prohibited area is determined.
  • a method of determining goals For example, when presenting information on the screen of a display mounted on a robot, a method of setting a location that minimizes the distance from the presentation target to the farthest user among a plurality of users as a goal, For example, a method of setting a place that minimizes the average distance to the target as a target, and a method of setting a target that minimizes the distance traveled to escape from the prohibited area.
  • a movement route for guiding the users is planned so that the presentation target can be easily seen by all (or more) users.
  • the information processing method allows the user to easily see the presentation target by planning the movement route of each robot even when not one robot but a plurality of robots are operated.
  • a plurality of robots can be used to guide the user to a place where the presentation target can be easily seen.
  • the placement of each robot can be determined so that a plurality of users can evenly view the information.
  • FIG. 1 shows the external configuration of a robot 100 to which the present disclosure is applied. 2 also shows the configuration of the degrees of freedom of the robot 100. As shown in FIG.
  • the robot 100 is an autonomous mobile type and has a function of guiding a user to a predetermined destination.
  • the robot 100 is equipped with two left and right drive wheels 101R and 101L as a means of movement, which are driven by drive wheel actuators 102R and 102L that rotate around the pitch, respectively.
  • Reference numerals 151, 152, and 153 in FIG. 2 indicate the degree of freedom of translation in the X direction (front-rear direction), the degree of freedom of translation in the Y direction (left-right direction), and rotation around the yaw of the robot 100 main body with respect to the floor surface. Each corresponds to a degree of freedom.
  • the two drive wheels 101R and 101L are connected to the upper body of the robot 100 via hip joints.
  • the hip joint is driven by a hip joint pitch axis actuator 103 that rotates around the pitch.
  • the upper body of the robot 100 is composed of left and right arms and a head connected via a neck joint.
  • the left and right arms each have a total of 7 degrees of freedom: 3 degrees of freedom at the shoulder joint, 2 degrees of freedom at the elbow joint, and 2 degrees of freedom at the wrist joint.
  • the three degrees of freedom of the shoulder joint are driven by a shoulder joint pitch axis actuator 104R/L, a shoulder joint roll axis actuator 105R/L, and a shoulder joint yaw axis actuator 106R/L.
  • the two degrees of freedom of the elbow joint are driven by an elbow joint pitch axis actuator 107R/L and an elbow joint yaw axis actuator 108R/L.
  • the two degrees of freedom of the wrist joint are driven by a wrist joint roll axis actuator 109R/L and a wrist joint pitch axis actuator 110R/L.
  • the two degrees of freedom of the neck joint are driven by a neck joint pitch axis actuator 111 and a neck joint yaw axis actuator 112 .
  • the actuator for each axis is equipped with an encoder for measuring the joint angle, a motor for generating torque, a current-controlled motor driver for driving the motor, and a reducer for obtaining sufficient generated force. It is Further, the actuator is provided with a microcomputer for driving and controlling the actuator (none of which is shown).
  • the robot 100 is equipped with a display section having a large screen on the front of the body as shown in FIG.
  • the display unit is configured using, for example, a liquid crystal display (LCD) or an organic EL (electroluminescent) display.
  • the display unit displays to the user information related to a presentation target such as a guided destination or an exhibit, but is not limited to specific information.
  • the place where the display unit is installed is not particularly limited to the front of the body, but may be the back or at least one of the left and right sides of the body.
  • the use of the left and right arms is not particularly limited.
  • a gesture using the left and right arms may be made while guiding the user to the destination.
  • FIG. 3 schematically shows an internal configuration example of the electrical system of the robot 100 .
  • the head unit 12 includes, as an external sensor section 71, cameras 81L and 81R functioning as left and right “eyes” of the robot 100, a plurality of microphones 82-1 to 82-N functioning as “ears”, and a touch sensor 51. etc. are arranged at predetermined positions.
  • a camera configured with an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device) is used.
  • the head unit 12 is provided with a speaker 72, a display unit 55, and the like as output units at predetermined positions.
  • the speaker 72 outputs sound and functions as a "mouth”.
  • a display unit 55 is arranged on the body of the robot 100 .
  • the robot 100 can display the internal state of the robot 100 and the response from the user using an output section including the speaker 72 and the display section 55 . Further, in the present embodiment, the robot 100 uses the output unit including the speaker 72 and the display unit 55 to present the user with information regarding the presentation target, such as the guided destination and exhibits.
  • a main control section 61 Inside the control unit 52, a main control section 61, a battery 74, an internal sensor section 73 including a battery sensor 91, an acceleration sensor 92, etc., and an external memory 75 are arranged.
  • the cameras 81L and 81R of the external sensor unit 71 capture images of the surroundings and send the obtained image signal S1A to the main control unit 61.
  • Each of the microphones 82-1 to 82-N collects voice such as a voice command from the user, and outputs the obtained voice signal S1B to the main control section 61, respectively.
  • the touch sensor 51 of the external sensor section 71 is arranged, for example, on the upper surface of the head unit 12 of the robot 100, and detects the pressure received by the user's physical action such as "stroking” or “hitting”. Then, the detection result is sent to the main control section 61 as the pressure detection signal S1C.
  • the battery sensor 91 of the internal sensor section 73 detects the remaining energy level of the battery 74 at predetermined intervals, and sends the detection result to the main control section 61 as a remaining battery level detection signal S2A. Further, the acceleration sensor 92 detects the acceleration in the three axial directions (x-axis, y-axis and z-axis) for each predetermined cycle with respect to the movement of the robot 100, and uses the detection result as the acceleration detection signal S2B for the main control. It is sent to section 61 .
  • the external memory 75 stores programs, data, control parameters, etc., and supplies the programs and data to the memory 61A built into the main control unit 61 as necessary. Also, the external memory 75 receives and stores data and the like from the memory 61A.
  • the external memory 75 may be configured as a memory cartridge (for example, USB (Universal Serial Bus) memory, etc.) removable from the robot 100 (or the control unit 52).
  • the main control unit 61 is composed of an arithmetic circuit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and has a built-in memory 61A.
  • the memory 61A is composed of ROM (Read Only Memory) and RAM (Random Access Memory).
  • the memory 61A stores programs and data, and the main control section 61 executes various processes by executing the programs stored in the memory 61A.
  • the main control unit 61 controls the image signal S1A, the audio signal S1B, and the pressure detection signal S1C (hereinafter collectively referred to as S1C) supplied from the cameras 81L and 81R, the microphone 82, and the touch sensor 51 of the external sensor unit 71, respectively. and the remaining battery level detection signal S2A and the acceleration detection signal S2B respectively supplied from the battery sensor 91 and the acceleration sensor of the internal sensor unit 73 (hereinafter collectively referred to as the internal sensor signal S2 ), recognizes the surroundings and internal conditions of the robot 100, determines the action plan (including the movement route plan) of the robot 100, generates a control command based on the determination result, and responds. It is sent to the sub-controllers 63A to 63D.
  • the main control unit 61 appropriately refers to various control parameters stored in the external memory 75 when determining an action plan and generating control commands.
  • a GPS (Global Positioning System) sensor (not shown) is further equipped as one of the external sensor units 71, and the main control unit 61 receives signals from GPS satellites. The current position of the robot 100 may be detected based on the received GPS signal.
  • the main control unit 61 may estimate the self-position of the robot 100 using the SLAM (Simultaneous Localization and Mapping) algorithm based on the images captured by the cameras 81R and 81L.
  • SLAM Simultaneous Localization and Mapping
  • the sub-controllers 63A to 63D control the driving of the corresponding actuators 102-111 based on the control commands supplied from the main controller 61.
  • the robot 100 moves, for example, by swinging the head up and down, left and right, raising and lowering the left and right arms, and spreading them left and right, and driving the drive wheel actuators 102 . take action.
  • the main control unit 61 supplies a predetermined audio signal S3 to the speaker 72 as necessary, thereby outputting a sound based on the audio signal S3 to the outside.
  • the internal state of the robot 100 may be displayed by outputting a drive signal to an LED (Light Emitting Diode) (not shown) provided at a predetermined position to blink the LED.
  • LED Light Emitting Diode
  • the robot 100 may further include a communication unit that performs data communication with the outside.
  • the external referred to here may include servers on the cloud or the Internet.
  • the communication unit may include at least one of wired and wireless communication interfaces.
  • the communication unit may perform data communication with the outside via a communication path conforming to Ethernet (registered trademark) or Wi-Fi (registered trademark), for example.
  • the robot 100 manages states such as emotions, instincts, and growth as values represented by models such as an emotion model, an instinct model, and a growth model. and interaction with the user (including face identification by image and speaker identification by voice recognition), etc., plan actions based on the current model values and information recognition results, and plan actions based on the planned actions.
  • Attitude control of the robot 100 can be implemented.
  • a method of presenting information to the user a method of displaying information (video content, character information, etc.) on the screen using the display unit 55 when the robot 100 reaches a specific point on the route to guide the user;
  • the robot 100 guides the user to a point where a presentation target (an exhibit in an art museum or a museum, a famous place in a tourist spot, etc.) is installed.
  • a presentation target an exhibit in an art museum or a museum, a famous place in a tourist spot, etc.
  • the body of the robot 100 itself presents information (or presentation target) to the user.
  • a case is also assumed.
  • the point where the information is presented (or the point where the presentation target is installed) is basically set in advance along with the route to be guided.
  • the robot 100 guides visitors to an art museum, a museum, a sightseeing spot, etc.
  • the robot 100 guides the user to points where content such as commentary on exhibits is displayed on the display unit 55, or where there are exhibits or sights to be presented to the user.
  • the robot 100 may use a learned machine learning model to automatically infer information presentation points and presentation targets from the user-guided route.
  • the robot 100 determines a target to reach based on the user's position and the information to be presented to the user.
  • the main feature is that the robot 100 plans a path to move to the target. Then, the robot 100 moves along the planned movement route, thereby moving to a place where the user can easily see the information and presenting the information on the display unit 55, or standing in front of the presentation target and blocking the user's field of view. You can make sure it doesn't happen.
  • the user guided by the robot 100 walks following the trajectory of the robot 100, and if there are a plurality of users, they line up in a line and follow the movement trajectory of the robot 100. It is assumed to walk almost faithfully. Also, when the robot 100 stops, the user also stops, and if necessary, the robot 100 issues instructions to the user through voice announcements, gestures using the arm, etc., and the user follows them.
  • FIG. 4 schematically shows a functional configuration example of a control system 400 for the robot 100 to guide the user along the route and present information to the user at a predetermined point on the route.
  • the illustrated control system 400 includes an external information collection unit 401 , an external environment recognition unit 402 , a route information storage unit 403 , a route planning unit 404 and a drive control unit 405 .
  • Each component in the control system 400 is implemented, for example, as a control program to be executed by the main control unit 61, but some may be implemented externally (such as in the cloud).
  • the external information collecting unit 401 collects from the external sensor unit 71 sensor information such as an image of the surroundings of the robot 100 captured by the camera 81, the user's voice collected by the microphone 82, and other ambient sounds.
  • the external environment recognition unit 402 recognizes the external environment such as the current position of the robot 100 based on the sensor information collected by the external information collection unit 401 .
  • the external environment recognition unit 402 estimates the self-position of the robot 100 using the SLAM algorithm based on the images captured by the cameras 81R and 81L.
  • the external sensor unit 71 is equipped with a GPS sensor
  • the external environment recognition unit 402 measures the current position of the robot 100 using the SLAM algorithm based on the GPS signal received by the GPS sensor. may
  • the route information storage unit 403 stores the following predetermined information (1) to (3).
  • (3) is specifically a URL (Uniform Resource Locator) indicating the content or location of the content when the information to be presented at the corresponding point is the content to be displayed on the display unit 55.
  • URL Uniform Resource Locator
  • a presentation target such as an exhibit or a famous place installed at the corresponding point, information that can identify the presentation target (accurate position information, image information, identification information such as a two-dimensional marker, etc.) etc.).
  • the route information storage unit 403 may be a storage area allocated within the external memory 75, for example.
  • the above information (1) to (3) may be downloaded from a server on the cloud or the Internet and stored in the external memory 75 .
  • the route information storage unit 403 may be the memory 61A in the main control unit 61, and the above information (1) to (3) may be stored in a ROM in a non-volatile manner.
  • the route planning unit 404 plans the movement route of the robot 100 based on the external environment recognized by the external environment recognition unit 402 .
  • a route is planned based on an obstacle map showing the locations of obstacles and an obstacle cost map showing costs due to the presence of obstacles.
  • the route planning unit 404 basically plans a route to guide the user based on the route information stored in the route information storage unit 403 .
  • the route planning unit 404 determines the robot's arrival target at the time of presenting the information based on the user's position and the information presented to the user. Then, a route for the robot 100 to move to the determined target is planned. Specifically, the route planning unit 404 considers the content of the information to be presented to the user at the corresponding point. Plan your route to a location where you can easily see the screen. In addition, when presenting a presentation object installed at that point to the user, the route planning unit 404 prevents the presentation object from being hidden behind the robot 100 or other users and entering a blind spot. Plan 100 travel routes.
  • the drive control unit 405 issues a control command to the sub-control unit 63 so that the robot 100 moves on the user's guidance route determined in advance.
  • the sub-control unit 63 drives and controls the drive wheel actuator 102 to drive the wheels 101, thereby causing the robot to follow the movement route planned by the route planning unit 404.
  • Move 100 when the robot 100 reaches a point on the route where information is presented to the user, the sub-controller 63 determines based on the user's position and the information to be presented to the user according to the control command received from the drive controller 405. The robot 100 is moved to the reached target.
  • FIG. 5 shows, in the form of a flow chart, the processing procedure for the control system 400 to control the movement of the robot 100 at the point where information is presented to the user.
  • control system 400 moves the robot 100 based on a predetermined guide route.
  • control for moving the mobile robot based on the planned route may be performed using a well-known technique, and is not a feature of the present disclosure. A detailed description of is omitted.
  • the route planning unit 404 plans the movement route of the robot 100 based on the external environment recognized by the external environment recognition unit 402 . Then, the drive control unit 405 issues a control command to the sub-control unit 63 to move the robot 100 along the planned movement path so that the robot 100 moves along the planned movement path. Also, the route planning unit 404 can detect that the robot 100 has arrived at a point where information is presented to the user based on the external environment recognized by the external environment recognition unit 402 .
  • control system 400 When an event occurs that the robot 100 moving on the guidance route has arrived at a point where information is to be presented to the user, the control system 400, from the main routine, notifies the user of the information preset to be presented at that point. Transition to a subroutine for presentation.
  • the route planning unit 404 When the route planning unit 404 reads information to be presented to the user at the time of arrival from the route information storage unit 403 (step S501), the route planning unit 404 matches the user's position and the information to be presented to the user according to the content of the information. A goal of the robot is determined, and processing for planning a route along which the robot 100 moves to the determined goal is executed.
  • the external information collecting unit 401 collects sensor information such as surrounding images captured by the camera 81 at that point from the external sensor unit 71 (step S502). Based on the sensor information collected by the external information collection unit 401, the external environment recognition unit 402 recognizes the location of the information to be presented to the user and the current position of the user being guided (step 503). When presenting information to the user using the display unit 55 of the robot 100, the external environment recognition unit 402 recognizes the current positions of the robot 100 and the user. Also, when presenting an object (an exhibit, a famous place, etc.) installed at the arrival point to the user, the external environment recognition unit 402 recognizes the object to be presented and the current position of the user.
  • an object an exhibit, a famous place, etc.
  • the route planning section 404 first calculates a prohibited area into which the robot 100 should not enter (step S504).
  • the prohibition area referred to here means a position of the robot that may cause the presentation target to enter the user's blind spot.
  • the robot 100 stands in the prohibited area, at least some of the users who are guiding cannot see the presented information in a blind spot.
  • the route planning unit 404 determines the target to be reached at the time of information presentation outside the prohibited area (step S505).
  • the target is the standing position of the robot 100 when presenting information to the user.
  • the route planning unit 404 determines whether to display the information to be presented to the user or to show the user a presentation object such as an exhibit installed at that point, depending on the content of the information to be presented to the user at that point. ), determine the goals to be reached.
  • the route planning unit 404 plans a movement route to the determined goal (step S506).
  • the drive control unit 405 issues a control command to the sub-control unit 63 so that the robot 100 moves along the movement route to the destination planned by the route planning unit 404 . Then, the sub-control unit 63 drives and controls the drive wheel actuator 102 in accordance with the received control command to drive the wheel 101, thereby causing the robot 100 to move to the target determined in step S505 (step S507). ), the information is presented to the user (step S508).
  • the presentation of information to the user is realized by the robot 100 displaying information on the display unit 55 and by making the presentation target such as the exhibit easier to see by the robot 100 setting the target position as the standing position. By moving the robot 100 to the determined target outside the prohibited area, the user can easily see the presentation target. If guidance is being given to a plurality of users, it becomes easier for all users to see the presentation target.
  • step S509 After the robot 100 moves to the target, until a sufficient time has passed for the user to view or appreciate the presentation target (No in step S509), the process returns to step S508 to continue presenting information to the user. do.
  • control system 400 After the robot 100 has moved to the target, when a sufficient amount of time has elapsed for the user to view or appreciate the presentation target (Yes in step S509), the control system 400 causes the robot 100 to follow the guidance route from the subroutine. Return to the main routine to move.
  • FIG. 6 shows a detailed configuration example for the control system 400 to execute the processing procedure shown in FIG.
  • the route information storage unit 403 stores information 601 on a predetermined guidance route, information 602 on points where information is presented to the user on the guidance route, and information 603 on the content of information presented to the user for each point. are doing.
  • the route planning unit 404 includes a prohibited area calculating unit 604 , a goal determining unit 605 and a movement planning unit 606 .
  • the prohibited area calculation unit 604 first calculates a prohibited area that the robot 100 should not enter based on the recognition result of the external environment recognition unit 402 . The details of the calculation method of the prohibited area will be given later.
  • the goal determination unit 605 determines the goal that the robot 100 will stand at outside the prohibited area when presenting information to the user.
  • the goal determination unit 605 determines the goal of the robot 100 outside the prohibited area as a conditional optimization problem.
  • the goal determination unit 605 may determine the goal according to the content of the information presented to the user at that spot. For example, in the case of presenting information on the screen of a display mounted on a robot, a place that minimizes the distance to the furthest user among a plurality of users may be determined as the destination, or the distance to the user may be determined You may make it determine the place which minimizes the average of as an attainment goal. Also, if it is desired to show the user an object to be presented, such as an exhibit installed at that point, a place that requires the shortest moving distance to escape from the prohibited area may be determined as the destination.
  • the movement planning unit 606 plans a movement route to the determined target and outputs it to the drive control unit 405 .
  • the drive control unit 405 issues a control command to the sub-control unit 63 so that the robot 100 follows the movement route planned by the movement planning unit 606 and moves to the target outside the prohibited area.
  • the prohibited area referred to in this specification is an area in which the robot 100 is prohibited from standing when presenting information to the user being guided.
  • an area where the user can see the presentation target is set as a prohibited area.
  • Section C-3 is divided into two cases: the case where the robot 100 itself is the presentation target, and the case where the robot 100 is the presentation target.
  • the prohibited area calculation unit 604 determines the prohibited area. A method and a method of determining a target to be reached, which is the standing position of the robot 100 outside the prohibited area, will be described.
  • the user guided by the robot 100 walks following the trajectory of the robot 100, and if there are a plurality of users, they line up in a line and follow the trajectory of the robot 100. shall be walked.
  • the robot 100 When the robot 100 reaches a predetermined point at which information should be presented on the guidance route, or when the predetermined timing at which information should be presented has arrived, the robot 100 continues to " Suppose that information is presented on the screen of the display unit 55 by making a voice announcement such as "Please see the screen.”
  • the robot 100 stands in the direction in which users are lined up in a line, only the first user can see the screen well, but the second and subsequent users can hardly see the user in front because it is an obstacle.
  • the user 100 stops on the movement route and displays the position on the display unit 55 as it is.
  • the screen is not clearly visible to the rear (or second and subsequent) users.
  • blind spot areas 901 and 902 shown in middle gray can be calculated as prohibited areas.
  • the robot 100 at the head of the line of users is in the prohibited area 901 . Therefore, if the robot 100 wants to show the information displayed on the display unit 55 to all users, the robot 100 must move outside the prohibited areas 901 and 902 to reach the determined target. Therefore, as a conditional optimization problem, the goal determination unit 605 determines, as a goal, a standing position outside the prohibited areas 901 and 902 at which the screen of the display unit 55 can be viewed favorably by all users. Then, if the robot 100 moves to the determined target and then presents the information on the display section 55, all the users can see the information presented on the display section 55 without blocking their view.
  • FIG. 10 shows an example of goals determined when the prohibited areas 901 and 902 as shown in FIG. 9 are calculated.
  • the distance from the robot 100 (or the screen of the display unit 55) to the farthest user, which minimizes the distance from the robot 100 (or the screen of the display unit 55) is approximately in the center of the line of users. is determined as the goal 1001 of The robot 100 stands at this goal 1001 and displays information on the display unit 55 so that all users can see the information equally (or even the user farthest from the display unit 55 can see the information). It is possible to ensure the visibility of the screen).
  • FIG. 11 shows another example of goals determined when the prohibited areas 901 and 902 as shown in FIG. 9 are calculated.
  • the position with the shortest movement distance from the original position of the robot 100 is determined as the goal 1101 at the time of information presentation.
  • the robot 100 can start presenting information in the shortest time.
  • the goal determining unit 605 solves a conditional optimization problem based on the importance of information to be presented, the immediacy of information, power consumption, etc., to solve the goal 1001 shown in FIG. 10 or the attainment shown in FIG. Goal 1101 can be adaptively determined.
  • the robot 100 takes a plurality of users and guides them through a predetermined guide route through art museums, museums, sightseeing spots, and the like. , the robot 100 and the user are lined up in a line. With this layout, even if the robot 100 at the head of the line makes a voice announcement such as "Please see this" to urge the user to look at the presentation object, the robot 100 appears to be an obstacle to the user at the head. It is difficult for the second and subsequent users to see the robot 100 and the user in front because they are obstructive. Also, as shown in FIG. 25, when the robot 100 stands between the presentation target and the user, the robot 100 becomes an obstacle for at least some users, making it difficult to see the presentation target.
  • the robot 100 first approaches the presentation target with the direction orthogonal to the front direction of the presentation target as the course direction. As a result, as shown in FIG. 13, the distance from the presentation target to the furthest user can be minimized. Then, as shown in FIG. 14, the prohibited area calculation unit 604 calculates areas 1401, 1402, 1403, and 1404 where the presentation target can be seen from each user, and then, as shown in FIG. , 1402, 1403, and 1404 are overlapped to set a prohibited area 1501. FIG. It should be noted that finely jagged gap regions that occur when the regions are overlapped interfere with the user's view of the presentation target when the robot 100 stands there. The prohibited area calculator 604 may form a prohibited area 1501 into a simple shape by rounding off the jagged boundaries of the prohibited area, as shown in FIG.
  • the goal determination unit 605 determines the goal of the robot 100 .
  • the reach goal determination unit 605 determines a reach goal that makes the presentation object look good to all users outside the prohibited area 1501 .
  • FIG. 16 shows how the target 1601 is determined to be a location near the forceps area, where the movement distance from the current position of the original robot 100 is the shortest. Then, after moving to the determined target 1601, the robot 100 makes a voice announcement such as "Please see this" to urge the user to look at the presentation target. Since the robot 100 stands outside the prohibited area 1501, all users can see the presentation object without being disturbed by the robot 100 or other users. In addition, all users can equally view the presentation target.
  • the target to be reached by the robot 100 is determined between the presentation target and the line of users as shown in FIG. Good positioning for voice announcements.
  • the presentation target enters at least some of the users' blind spots, making it difficult to see. Therefore, when the goal determination unit 605 solves a conditional optimization problem with the importance of information to be presented, the immediacy of information, power consumption, etc. as conditions, the goal 1601 as shown in FIG. 16 can be determined. can be done.
  • Section C-4-1 deals with a large number of users Section C-3-1 above describes a method of determining the target to be reached by the robot 100 when information is presented to the user using the display unit 55 mounted on the body of the robot 100. Specifically, as shown in FIG. 10, we have described how to determine a goal to reach approximately the middle of the line of users that minimizes the distance to the furthest user outside the forbidden area.
  • the target determination unit 605 determines a target to be reached approximately in the center of the line of users, and after the robot 100 moves to the target, the body of the robot 100 rotates around the roll axis as shown in FIG. Then, the screen of the display unit 55 may be turned to face the front of each user in order. Such an operation makes it possible to make the presentation target equally visible to each user.
  • the distance from the users at both ends of the row to the presentation target is longer than that from the user at the center of the row, and there is a problem that the visibility of the presentation target is uneven among the users. .
  • This problem becomes more pronounced as the number of users increases.
  • the target to be reached is set approximately in the center of the line of users, the farthest user will look at the screen of the display unit 55 of the robot 100 from an oblique direction, and will be compared with the user standing almost in front of the screen. And it becomes quite difficult to see.
  • the robot 100 guides the user in an arc trajectory at the point where the information is presented by using a form of guidance in which a plurality of users line up and follow along the trajectory of the robot 100 movement. Suggest a way to
  • FIG. 19 shows an example in which this solution is applied when the robot 100 itself is the presentation target.
  • the robot 100 switches to an arc trajectory as shown in FIG. 19A to guide the user. Then, a plurality of users line up in a line on an arc according to the locus of movement drawn by the robot 100 .
  • the target determination unit 605 determines the approximate center of the arc as the target to be reached by the robot 100, and the robot 100 moves to the target as shown in FIG. 19B. However, it is assumed that almost the center of the arc is outside the prohibited area. As a result of such user guidance by the robot 100, the distances from the display unit 55 to each user can be made substantially equal, and the visibility of information presented on the screen can be made substantially equal among the users.
  • FIG. 20 shows an example in which this solution method is applied when a presentation target other than the robot 100 is to be presented.
  • the robot 100 guides the user by switching to an arc trajectory centered approximately on the presentation target, as shown in FIG. 20A.
  • a plurality of users line up in a line along an arc about the center of the presentation target, following the locus of movement drawn by the robot 100 .
  • the reachable target determination unit 605 determines the reachable target 2002 of the robot 100 at the shortest place from the current position outside the prohibited area 2001 , and the robot 100 moves to the reachable target 2002 .
  • the distances from the presentation target to each user can be made substantially equal, and the visibility of the presentation target can also be made substantially equal among the users.
  • C-4-3 Information presentation method using multiple robots
  • multiple robots are used to present information to the user when the robot itself is the presentation target and when the presentation target is something other than the robot. how to do this.
  • any one of a plurality of robots may act as a master and the other robots may act as slaves under the control of the master, each robot may cooperate equally, or all robots may They may work together under the control of the same control system.
  • multiple robots do not need to have the same configuration as long as each robot can move and guide the user. It may be a combination of different types of robots such as a legged robot and a wheeled robot, or a combination of ground-moving robots and flying drones.
  • two robots 2101 and 2102 are placed adjacent to each other so that their screens are combined, and the two screens are used as one large screen to present information to the user. It shows how to do it.
  • a plurality of users are lined up in a line following the locus of movement of the robot.
  • Both robots 2101 and 2102 may be used to guide multiple users, or only one of them may be used to guide multiple users. Since a large screen is provided, information can be evenly presented to more users, so a plurality of users need not line up in an arc as shown in FIG. 19, but may line up in a straight line.
  • FIG. 22 shows an example in which two robots 2201 and 2202 each having a display screen are spaced apart and each presents the same information to a plurality of users.
  • eight users are guided by the robot and lined up in a straight line.
  • Both robots 2201 and 2202 may be used to guide multiple users, or only one of them may be used to guide multiple users.
  • the eight users are divided into the first half group of four people and the second half group of four people in the order in which they are lined up, and the first half group and the second half group are assigned to the two robots 2201 and 2202, respectively.
  • Each of the robots 2201 and 2202 presents information to the users of the group they are in charge of.
  • one of the robots 2201 is determined to be the destination 2211 that minimizes the distance to the farthest user among the four users in the first half of the line
  • the other robot 2202 is determined to be the four users in the second half of the line.
  • a location that minimizes the distance to the farthest user among the users is determined as the destination 2212, and the robots 2201 and 2202 move to the destinations 2211 and 2212 and present information. Therefore, by presenting the same information on the screens of the robots 2201 and 2202, it is possible to make the information equally visible to all users (or to ensure that even the farthest user can easily see the screen). can be done).
  • a plurality of users are divided into groups corresponding to the number of robots, one robot is assigned to each group, and each robot presents information to the users of the group it is in charge of. You can also call it a method. However, it is not necessary to assign an even number of users to each robot. Applying the example shown in FIG. 22, one robot 2201 may be in charge of presenting information to five users, and the other robot 2202 may be in charge of presenting information to three users. For example, the number of users assigned to each robot may be adjusted based on differences in hardware specifications such as screen size and performance.
  • Fig. 19 shows an example in which a large number of users are guided to line up in an arc to equalize the visibility of each user.
  • the number of users to whom each robot is responsible for presenting information can be limited, so there is no need to rearrange the users on the arc.
  • FIG. 23 shows an example of presenting presentation targets to many users using two robots 2301 and 2302 .
  • both robots 2301 and 2302 are used to guide multiple users.
  • one robot 2301 stands at the head of a line of users
  • the other robot 2302 stands at the end of the line of users, and guides a plurality of users to a presentation target 2303 so that they line up in a straight line.
  • the users are arranged so that the distances from each user to the presentation target 2303 are uniform.
  • the prohibited areas of the respective robots 2301 and 2302 are calculated, and the reachable targets of the respective robots 2301 and 2302 are determined outside the prohibited areas. Move to the target determined by .
  • a trapezoidal area connecting both ends of the presentation target 2303 and the users at both ends before and after the users lined up in a line can be obtained. becomes the prohibited area 2304 .
  • targets 2311 and 2312 that are the shortest moving distances from the current positions of the robots 2301 and 2302 are determined.
  • the eight users are divided into a group of four in the first half and a group of four in the latter half in the order in which they are arranged, and two robots 2301 and 2302 are assigned to the first half. and the latter group, and each robot 2301 and 2302 can make voice announcements to the users of the groups they are in charge of.
  • each of the robots 2301 and 2302 makes a voice announcement of "Please see this"
  • a plurality of users are divided into groups corresponding to the number of robots, and one robot is assigned to each group. It can also be said that it is a method of guiding to However, it is not necessary to assign an even number of users to each robot 2301 and 2302 . For example, the number of users assigned to each robot may be adjusted based on differences in hardware specifications and performance of each robot.
  • Another object of the present disclosure is to plan the movement route of the robot so that the presented information does not enter the user's blind spot when guiding the guided person to the location where the robot presents the information.
  • the information presented is the information displayed on the screen of the display mounted on the robot, the object of appreciation such as exhibits and buildings at the famous place where the user was guided, and the robot performing the performance (including a group consisting of multiple robots) ) itself.
  • An information processing device that controls a mobile device that guides a user
  • An information processing apparatus comprising a planning unit that plans a movement route of the mobile device at the time of information presentation based on a user's position and information presented to the user.
  • the planning unit plans the travel route of the mobile device at the time of information presentation. start the process, The information processing apparatus according to (1) above.
  • the planning unit sets a prohibited area that the mobile device should not enter when presenting information to the user, determines a target to be reached by the mobile device outside the prohibited region, and determines a target to reach the target. plan a route of travel,
  • the information processing apparatus according to any one of (1) and (2) above.
  • the planning unit sets the position of the mobile device that may cause information to be presented to the user to enter the user's blind spot as a prohibited area.
  • the planning unit sets the prohibited area based on the positional relationship between the user and the information presented to the user;
  • the information processing apparatus according to any one of (3) and (4) above.
  • the planning unit sets a prohibited area where the mobile device that presents information to the user hides behind other users and enters the user's blind spot.
  • the planning unit sets a prohibited area where the information to be presented to the user is hidden behind the mobile device and enters the user's blind spot.
  • the planning unit determines a location that minimizes the distance to the farthest user outside the prohibited area as the destination of the mobile device;
  • the planning unit determines a location that minimizes the average distance to each user outside the prohibited area as the destination of the mobile device. , The information processing apparatus according to any one of (3) to (7) above.
  • the planning unit moves the mobile device to a place where the route from the current position of the mobile device to the outside of the prohibited area is the shortest. Decide on the goal of the body apparatus, The information processing apparatus according to any one of (3) to (7) above.
  • the planning unit plans a moving route for guiding the user so that the information presented to the user can be easily viewed.
  • the information processing apparatus according to any one of (1) to (10) above.
  • the planning unit plans a movement route for approaching the presentation target with the direction orthogonal to the front direction of the presentation target for presenting information as the course direction.
  • the information processing apparatus according to any one of (1) to (11) above.
  • the planning unit plans the movement route of the mobile device so as to rotate the information presentation direction.
  • the information processing apparatus according to (8) above.
  • the planning unit switches to an arc trajectory to guide the user, and then plans a route to move to the center of the arc.
  • the planning unit plans a route for guiding the user by switching to an arc trajectory centered on the presentation target.
  • the planning unit determines the reachable target of the mobile device outside the sector formed by the arc, and plans the movement route to the reachable target.
  • the information processing device according to (15) above.
  • the planning unit plans a movement route for connecting the plurality of mobile devices and presenting one piece of information.
  • the information processing apparatus according to (1) above.
  • the planning unit divides a plurality of users into groups according to the number of mobile devices, allocates mobile devices to each group, and presents information to the users of the groups for which each mobile device is in charge. plan the route of movement of The information processing apparatus according to (1) above.
  • the planning unit divides a plurality of users into groups according to the number of mobile devices, allocates mobile devices to each group, and designates the users of the groups that each mobile device is in charge of as information presentation targets. plan a route of travel to guide, The information processing apparatus according to (1) above.
  • An information processing method for controlling a mobile device that guides a user comprising: An information processing method, comprising a planning step of planning a moving route of the mobile device at the time of information presentation based on a user's position and information to be presented to the user.
  • a mobile device that guides a user. a moving unit that moves the mobile device; a planning unit that plans a movement route of the mobile device at the time of information presentation based on the user's position and information to be presented to the user; a drive control unit that controls driving of the moving unit when presenting information based on the planned movement route;
  • a mobile device comprising:
  • SYMBOLS 100 Robot 101... Drive wheel 102... Actuator for drive wheels, 103... Hip joint pitch axis actuator 104... Shoulder joint pitch axis actuator 105... Shoulder joint roll axis actuator 106... Shoulder joint yaw axis actuator 107... Elbow joint pitch axis actuator 108... Elbow joint yaw axis actuator 109... Wrist joint roll axis actuator 110...
  • Neck Joint Pitch Axis Actuator 111 Neck Joint Pitch Axis Actuator 12 Head Unit 51 Touch Sensor 52
  • Battery 75 External memory 81
  • Camera 82 Microphone 91
  • Battery sensor 92 Acceleration sensor 400
  • Control system 401 External information collecting unit 402
  • External environment recognition unit 403 External environment recognition unit
  • Route information storage unit 404 ... Route planning unit 405 ...
  • Prohibited area calculation unit 605 ... Attainment target determination unit 606 ... Movement planning unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

移動体装置の移動経路の計画に関する情報を処理する情報処理装置を提供する。 ユーザを案内する移動体装置を制御する情報処理装置は、ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画部を具備する。前記計画部は、ユーザに情報を提示する際に前記移動体装置が立ち入るべきでない禁止領域を設定し、禁止領域外で前記移動体装置の到達目標を決定して、到達目標までの移動経路を計画する。

Description

情報処理装置及び情報処理方法、並びにコンピュータプログラム
 本明細書で開示する技術(以下、「本開示」とする)は、移動体装置の移動経路の計画に関する情報を処理する情報処理装置及び情報処理方法、並びにコンピュータプログラムに関する。
 最近、脚式又は車輪式の移動ロボットやドローンなど自律動作可能な移動体装置がさまざまな分野で浸透しつつある。自律動作する移動体装置の用途として、荷物の搬送や危険領域での無人作業、さらにはユーザが不案内な場所への案内又は誘導を挙げることができる。
 例えば、タッチパネルディスプレイに複数の目的地候補を示す目的地候補画像を表示し、被案内者がタッチパネルディスプレイの表示面上でタッチした位置に対応する目的地候補を目的地として設定して、被案内者を目的地まで案内する案内用ロボットが提案されている(特許文献1を参照のこと)。また、撮像画像に基づいて挙動があらかじめ定めた動きを検出した対象者に接近し、その対象者が提示した媒体から読み取った目的地までの移動経路を探索し、利用する公共交通機関の乗り場を示す案内情報を生成する自走式ロボットが提案されている(特許文献2を参照のこと)。
 また、案内用のロボットは、例えば本体の正面や背面にディスプレイを備えて、広告や案内などの情報を被案内者に提示することができる。例えば、場所に合わせてリアルタイムに案内表示を変更する広告案内ロボットが提案されている(特許文献3を参照のこと)。
特開2017-97537号公報 特開2021-140455号公報 特開2005-172879号公報
 本開示の目的は、被案内者の案内を行う移動体装置の移動経路の計画に関する情報を処理する情報処理装置及び情報処理方法、並びにコンピュータプログラムを提供することにある。
 本開示は、上記課題を参酌してなされたものであり、その第1の側面は、ユーザを案内する移動体装置を制御する情報処理装置であって、
 ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画部を具備する、情報処理装置である。
 前記計画部は、ユーザに情報を提示する際に前記移動体装置が立ち入るべきでない禁止領域を設定し、禁止領域外で前記移動体装置の到達目標を決定して、到達目標までの移動経路を計画する。
 前記計画部は、ユーザとユーザに提示する情報の位置関係に基づいて、ユーザに提示する情報がユーザの死角に入る原因となり得る前記移動体装置の位置を禁止領域に設定する。具体的には、前記計画部は、ユーザに情報を提示する前記移動体装置が他のユーザの陰に隠れてユーザの死角に入る禁止領域、並びに、ユーザに提示する情報が前記移動体装置の陰に隠れてユーザの死角に入る禁止領域を設定する。
 前記計画部は、ユーザが提示された情報を見易くなるようにユーザを案内するための移動経路を計画する。例えば、前記計画部は、情報を提示する提示対象の正面方向と直交する方向を進路方向にして提示対象に接近する移動経路を計画する。具体的には、前記計画部は、前記移動体装置がユーザに情報を提示する場合に、円弧の軌道に切り替えてユーザを誘導した後、円弧の中心に移動する経路を計画する。また、前記計画部は、前記移動体装置以外の提示対象がユーザに情報を提示する場合に、提示対象を中心とする円弧の軌道に切り替えてユーザを誘導する経路を計画する。
 また、本開示の第2の側面は、ユーザを案内する移動体装置を制御する情報処理方法であって、
 ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画ステップを有する、情報処理方法である。
 また、本開示の第3の側面は、ユーザを案内する移動体装置を制御するための処理をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータプログラムであって、前記コンピュータを、
 ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画部として機能させる、コンピュータプログラムである。
 本開示の第3の側面に係るコンピュータプログラムは、コンピュータ上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータプログラムを定義したものである。換言すれば、本開示の第3の側面に係るコンピュータプログラムをコンピュータにインストールすることによって、コンピュータ上では協働的作用が発揮され、本開示の第1の側面に係る情報処理装置と同様の作用効果を得ることができる。
 本開示によれば、被案内者に情報を提示しながら案内を行う移動体装置の移動経路の計画に関する情報を処理する情報処理装置及び情報処理方法、並びにコンピュータプログラムを提供することができる。
 なお、本明細書に記載された効果は、あくまでも例示であり、本開示によりもたらされる効果はこれに限定されるものではない。また、本開示が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
 本開示のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、ロボット100の外観構成を示した図である。 図2は、ロボット100の自由度構成を示した図である。 図3は、ロボット100の電気系統の内部構成例を示した図である。 図4は、ロボット100の制御システム400の機能的構成例を示した図である。 図5は、制御システム400がロボット100の移動を制御するための処理手順を示したフローチャートである。 図6は、制御システム400が図5に示した処理手順を実行するための詳細な構成例を示した図である。 図7は、ロボット100が一列に並んだユーザの列の先頭にいる様子を示した図である。 図8は、隣接するユーザが互いに障害物になって死角ができる様子を示した図である。 図9は、複数のユーザが一列に並んでいる状況で形成される禁止領域を示した図である。 図10は、禁止領域外に設定される到達目標の一例を示した図である。 図11は、禁止領域外に設定される到達目標の他の例を示した図である。 図12は、提示対象の前で、ロボット100を先頭に複数のユーザが一列に並んでいる様子を示した図である。 図13は、禁止領域を計算する方法を説明するための図である。 図14は、禁止領域を計算する他の方法を説明するための図である。 図15は、禁止領域を計算するさらに他の方法を説明するための図である。 図16は、禁止領域外で到達目標を決定する方法を説明するための図である。 図17は、禁止領域内に到達目標を決定した例を示した図である。 図18は、ロボット100が一列に並んだ多人数のユーザに対して首振り動作する様子を示した図である。 図19Aは、ロボット100が円弧の軌道でユーザを誘導する様子(ロボット100自体が提示対象となる場合)を示した図である。 図19Bは、ロボット100が円弧の軌道でユーザを誘導した円弧の中心を到達目標にして移動する様子を示した図である。 図20Aは、ロボット100が円弧の軌道でユーザを誘導する様子(ロボット100以外が提示対象となる場合)を示した図である。 図20Bは、ロボット100が提示対象を中心とする円弧の軌道上にユーザを誘導する様子を示した図である。 図21は、2台のロボットが隣接して1つの大画面を提示する例を示した図である。 図22は、2台のロボットが離間して配置して情報を提示する例を示した図である。 図23は、2台のロボットを使って複数のユーザに大きなサイズの提示対象を提示する例を示した図である。 図24は、前方のユーザが邪魔をして後方のユーザがロボットのディスプレイを見えない様子を示した図である。 図25は、ロボットが邪魔をしてユーザが提示対象を見えない様子を示した図である。
 以下、図面を参照しながら本開示について、以下の順に従って説明する。
A.概要
B.ロボットの構成
C.ロボットの移動経路の計画
 C-1.システム構成
 C-2.処理手順
 C-3.禁止領域と到達目標の決定
  C-3-1.ロボット自体が提示対象となる場合
  C-3-2.ロボット以外が提示対象となる場合
 C-4.応用例
  C-4-1.多人数ユーザへの対応
  C-4-2.ユーザの誘導方法の変形例
  C-4-3.複数のロボットを用いた情報提示方法
A.概要
 ロボットやドローンなどの自律型の移動体装置を、例えば美術館や博物館などの施設内、あるいは観光地巡りなどにおける案内に適用することができる。案内用のロボットは、案内の途中でディスプレイに情報を提示したり、美術品や展示物などの提示対象の前で停止したりして、ユーザに情報を提示する。
 ところが、提示対象が障害物の陰に隠れて、ユーザからよく見えなくなる問題がある。他のユーザの陰に隠れて提示対象がユーザの死角に入るケースと、案内しているロボットの陰に隠れて提示対象がユーザの死角に入るケースが挙げられる。
 例えば、1台のロボットが複数のユーザを引率し、複数のユーザが一列に並んで追従しているときに、ロボットの本体に装備されたディスプレイを使って情報を提示する際には、図24に示すように、前方のユーザが邪魔をして、画面が後方のユーザの死角に入ってしまう。また、ロボットが展示物などの提示対象の場所までユーザを案内する際に、ロボットが提示対象の場所を示すために、ユーザよりも提示対象の近く(又は、提示対象とユーザの間)に立つと、図25に示すようにロボットが邪魔をして、提示対象は少なくとも一部のユーザの死角に入ってしまう。
 そこで、本開示では、ユーザの位置とユーザに提示する情報に基づいてロボットの到達目標を決定して、ロボットの決定した到達目標までの移動経路を計画する情報処理方法について提案する。ロボットは、本開示に基づいて計画した移動経路に従って移動を行うことにより、提示対象がユーザの死角に入るのを回避して、すべてのユーザが均等に提示対象を見ることができるようにする。例えば、ロボットはユーザが見易い場所に移動してロボット本体に取り付けられた画面に情報を提示したり、ロボット自身が提示対象の前に立ってユーザの視界を遮らないようにしたりすることができる。
 本明細書で言うユーザは、特に言及しない限り、ロボットが案内する被案内者を指すものとする。ユーザが複数存在する場合には、本開示に係る情報処理方法によれば、各ユーザの位置と提示対象の位置関係に基づいて、提示対象が他のユーザの陰に隠れてユーザの死角に入るのを回避できるような、ロボットの到達目標を決定する。
 また、提示対象は、例えばロボットの機体に取り付けられたディスプレイや、ロボットが案内する美術館や博物館などの展示物、観光地における名所などである。また、ロボットがダンスなどの演技を行う場合や、複数のロボットのグループで組体操などの集団演技を行う場合には、(ロボットが搭載するディスプレイではなく)ロボットの機体自体が提示対象となり得る。図24及び図25に示した例では、他のユーザやロボット自身が原因となって提示対象がユーザの死角に入ってしまう。これに対し、本開示に係る情報処理方法によれば、提示対象がユーザの死角に入る原因となり得るロボットの位置を禁止領域として設定して、ロボットが禁止領域の外の到達目標まで移動するための移動経路を計画して、ロボットを到達目標まで移動させることができる。その結果、他のユーザやロボットが原因で提示対象がユーザの死角に入ることはなくなり、ユーザは、ロボットの機体上のディスプレイ画面や、案内された展示物などを、視界が遮られることなくよく見ることができるようになる。
 複数のユーザが存在する場合には、本開示に係る情報処理方法によれば、ユーザ毎に設定した禁止領域を重ね合わせることによって、すべてのユーザが視界を遮られずに提示対象を見ることができるようにすることができる。
 また、本開示に係る情報処理方法によれば、禁止領域の外にロボットを移動させる到達目標を決定する。いくつかの到達目標の決定方法が考えられる。例えば、ロボットの搭載したディスプレイの画面で情報を提示する場合において、複数のユーザのうち提示対象から最も遠いユーザまでの距離を最小化する場所を到達目標に設定する方法や、提示対象から各ユーザまでの距離の平均を最小化する場所を到達目標に設定する方法、禁止領域から脱出するための移動距離が最短となる場所を到達目標に設定する方法などが挙げられる。
 また、本開示に係る情報処理方法によれば、複数のユーザを案内する場合において、提示対象がすべての(又はより多くの)ユーザから見え易くなるように、ユーザを誘導する移動経路を計画することもできる。
 また、本開示に係る情報処理方法は、1台ではなく複数台のロボットを運用する場合においても、各ロボットの移動経路を計画して、ユーザが提示対象を見易くすることができる。例えば、複数のロボットを使ってユーザを提示対象が見易い場所まで誘導することができる。複数のロボットがそれぞれ搭載するディスプレイの画面を使って情報を提示する場合には、複数のユーザが均等に見易くなるように各ロボットの配置を決めることができる。
 なお、本明細書では、便宜上、地上を移動するロボットに本開示を適用した実施形態を中心に説明するが、ドローンやその他のさまざまなタイプの自律型の移動体装置にも同様に本開示を適用することができる。また、ロボットとドローンなど異種の移動体装置を組み合わせて本開示を適用することもできる。
B.ロボットの構成
 図1には、本開示が適用されるロボット100の外観構成を示している。また、図2には、ロボット100の自由度構成を示している。ロボット100は自律移動型であり、所定の目的地までユーザを案内する機能を有する。
 ロボット100は、移動手段として左右2輪の駆動輪101R及び101Lを備え、それぞれピッチ回りに回転する駆動輪用アクチュエータ102R及び102Lによって駆動する。なお、図2中の参照番号151、152、153は、ロボット100本体の床面に対するX方向(前後方向)の並進自由度、Y方向(左右方向)の並進自由度、並びに、ヨー回りの回転自由度にそれぞれ相当する。
 2輪の駆動輪101R及び101Lは、それぞれ股関節を介してロボット100の上体に接続される。股関節は、ピッチ回りに回転する股関節ピッチ軸アクチュエータ103によって駆動する。ロボット100の上体は、左右2肢の腕部と、首関節を介して接続される頭部で構成される。左右の腕部は、それぞれ肩関節3自由度、肘関節2自由度、手首関節2自由度の合計7自由度を有する。肩関節3自由度は、肩関節ピッチ軸アクチュエータ104R/L、肩関節ロール軸アクチュエータ105R/L、肩関節ヨー軸アクチュエータ106R/Lによって駆動する。肘関節2自由度は、肘関節ピッチ軸アクチュエータ107R/L、肘関節ヨー軸アクチュエータ108R/Lによって駆動する。手首関節2自由度は、手首関節ロール軸アクチュエータ109R/L、手首関節ピッチ軸アクチュエータ110R/Lによって駆動する。また、首関節2自由度は、首関節ピッチ軸アクチュエータ111、首関節ヨー軸アクチュエータ112によって駆動する。
 各軸のアクチュエータには、関節角を計測するためのエンコーダ、トルクを発生するためのモータ、モータを駆動するための電流制御型モータドライバの他、十分な発生力を得るための減速機が取り付けられている。また、アクチュエータには、アクチュエータの駆動制御を行なうマイクロコンピュータが併設されている(いずれも図示しない)。
 ロボット100の特徴の1つとして、図1に示すように胴体の正面に、大画面を有する表示部を装備している点である。表示部は、例えば液晶表示ディスプレイ(Liquid Crystal Display:LCD)や有機EL(electroluminescent)ディスプレイを用いて構成される。表示部には、例えば、案内している目的地や展示物などの提示対象に関する情報がユーザに表示されるが、特定の情報には限定されない。また、表示部を設置する場所は、特に胴体の正面に限定されるものではなく、胴体の背面や左右少なくとも一方の側面であってもよい。
 また、左右の腕部の用途は特に限定されない。例えばユーザを目的地まで案内している最中に左右の腕部を使ったジェスチャを行うようにしてもよい。
 図3には、ロボット100の電気系統の内部構成例を模式的に示している。
 頭部ユニット12には、外部センサ部71として、ロボット100の左右の「目」として機能するカメラ81L及び81R、「耳」として機能する複数のマイクロホン82-1乃至82-N、並びにタッチセンサ51などがそれぞれ所定位置に配設されている。カメラ81L及び81Rには、例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などの撮像素子で構成されるカメラが用いられる。また、頭部ユニット12には、出力部としてスピーカ72や表示部55などがそれぞれ所定位置に配設されている。スピーカ72は、音声を出力して、「口」として機能する。また、ロボット100の胴体部には表示部55が配設されている。ロボット100は、スピーカ72及び表示部55などからなる出力部を用いて、ロボット100の内部状態やユーザからの応答を表示することができる。また、本実施形態では、ロボット100は、スピーカ72及び表示部55などからなる出力部を用いて、例えば、案内している目的地や展示物などの提示対象に関する情報をユーザに提示する。
 制御ユニット52内には、メイン制御部61と、バッテリ74と、バッテリセンサ91及び加速度センサ92などからなる内部センサ部73と、外部メモリ75が配設されている。
 外部センサ部71のカメラ81L及び81Rは、周囲の状況を撮像し、得られた画像信号S1Aを、メイン制御部61に送出する。各マイクロホン82-1乃至82-Nは、ユーザからの音声コマンドなどの音声を集音し、得られた音声信号S1Bをメイン制御部61にそれぞれ送出する。
 また、外部センサ部71のタッチセンサ51は、例えばロボット100の頭部ユニット12の上面に配設されており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出して、その検出結果を圧力検出信号S1Cとしてメイン制御部61に送出する。
 内部センサ部73のバッテリセンサ91は、所定の周期毎にバッテリ74のエネルギ残量を検出して、検出結果をバッテリ残量検出信号S2Aとしてメイン制御部61に送出する。また、加速度センサ92は、ロボット100の移動について、所定の周期毎に3軸方向(x軸、y軸及びz軸)の加速度を検出して、その検出結果を、加速度検出信号S2Bとしてメイン制御部61に送出する。
 外部メモリ75は、プログラムやデータ、及び制御パラメータなどを記憶しており、そのプログラムやデータを必要に応じてメイン制御部61に内蔵されるメモリ61Aに供給する。また、外部メモリ75は、データなどをメモリ61Aから受け取り、記憶する。なお、外部メモリ75は、ロボット100(若しくは、制御ユニット52)から着脱可能なメモリカートリッジ(例えば、USB(Universal Serial Bus)メモリなど)として構成されていてもよい。
 メイン制御部61は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの演算回路で構成され、メモリ61Aを内蔵している。メモリ61Aは、ROM(Read Only Memory)及びRAM(Random Access Memory)で構成される。メモリ61Aは、プログラムやデータを記憶しており、メイン制御部61は、メモリ61Aに記憶されたプログラムを実行することで、各種の処理を行う。
 すなわち、メイン制御部61は、外部センサ部71のカメラ81L及び81R、マイクロホン82、及びタッチセンサ51からそれぞれ供給される、画像信号S1A、音声信号S1B、及び圧力検出信号S1C(以下、これらをまとめて外部センサ信号S1と称する)と、内部センサ部73のバッテリセンサ91及び加速度センサなどからそれぞれ供給される、バッテリ残量検出信号S2A及び加速度検出信号S2B(以下、これらをまとめて内部センサ信号S2と称する)に基づいて、ロボット100の周囲及び内部の状況を認識して、ロボット100の行動計画(移動経路の計画を含む)を決定し、その決定結果に基づく制御コマンドを生成して、対応するサブ制御部63A乃至63Dに送出する。メイン制御部61は、行動計画の決定や制御コマンドの生成に際して、装填されている外部メモリ75に格納されている各種制御パラメータなどを適宜参照する。
 なお、ロボット100の正確な位置制御を実現したい場合には、外部センサ部71の1つとしてGPS(Global Positioning System)センサ(図示しない)をさらに装備して、メイン制御部61は、GPS衛星から受信したGPS信号に基づいてロボット100の現在位置を検出するようにしてもよい。もちろん、メイン制御部61は、カメラ81R及び81Lの撮像画像に基づいて、SLAM(Simultaneous Localization and Mapping)アルゴリズムを利用してロボット100の自己位置を推定するようにしてもよい。
 サブ制御部63A乃至63Dは、メイン制御部61から供給された制御コマンドに基づいて、それぞれに対応するアクチュエータ102~111の駆動を制御する。これにより、ロボット100は、例えば、頭部を上下左右に揺動させたり、左右の腕部を上下に上げ下げしたり左右に横に広げたりし、駆動輪アクチュエータ102を駆動させて移動するなどの行動を行う。
 また、メイン制御部61は、必要に応じて、所定の音声信号S3をスピーカ72に与えることにより、音声信号S3に基づく音声を外部に出力させるさらに、メイン制御部61は、頭部ユニット12の所定位置に設けられた、図示しないLED(Light Emitting Diode)に対して駆動信号を出力して、LEDを点滅させて、ロボット100の内部状態を表示するようにしてもよい。
 なお、図2では図面の簡素化のため図示を省略したが、ロボット100は、外部とデータ通信を行う通信部をさらに備えていてもよい。ここで言う外部は、クラウド又はインターネット上のサーバなどを含んでもよい。通信部は、有線又は無線のうち少なくとも一方の通信インターフェースを備えていてもよい。通信部は、例えばイーサネット(登録商標)やWi-Fi(登録商標)に則った通信路を経由して外部とデータ通信を行うようにしてもよい。
 ロボット100を、例えば完全な自律型に構成することも可能である。例えば、ロボット100は、感情、本能、成長などの状態を感情モデル、本能モデル、成長モデルなどの各モデルで表される値として管理するとともに、外部センサ部71の各センサ情報に基づいて外部環境やユーザとのインタラクション(画像による顔識別や音声認識による話者識別などを含む)などの状態を認識し、現在のモデル値と情報認識結果に基づいて行動を計画し、計画した行動に基づいてロボット100の姿勢制御(駆動輪の駆動による移動を含む)を実施することができる。
C.ロボットの制御
C-1.システム構成
 ロボット100を完全な自律型に構成することも可能であるが、本実施形態ではロボット100の行動を限定的なものとする。具体的には、ロボット100は、ユーザの案内、すなわちあらかじめ決められた経路に従ってユーザを案内するという用途に特化して利用されるものとする。さらに詳しく言うと、案内するユーザは複数であることを想定し、ロボット100は経路上の1又は2以上の地点でユーザに対して情報の提示を実施する。
 ユーザに情報を提示する方法として、ロボット100がユーザを案内する経路上の特定の地点に到達したときに表示部55を使って情報(映像コンテンツや文字情報など)を画面に表示する方法と、ロボット100が提示対象(美術館や博物館などの展示物、観光地における名所など)が設置されている地点までユーザを案内する方法が挙げられる。また、ロボット100がダンスなどの演技を行ったり、複数のロボット100のグループで組体操などの集団演技を行ったりする場合には、ロボット100の機体自体がユーザに提示する情報(又は提示対象)となるケースも想定される。
 ここで、情報の提示を行う地点(又は、提示対象が設置されている地点)は、基本的には案内する経路とともにあらかじめ設定されているものとする。例えば、ロボット100が美術館や博物館、観光地などを案内するケースでは、展示物の解説などのコンテンツを表示部55に表示する地点や、ユーザに提示したい展示物や名所がある地点は、案内する経路とともにあらかじめ決められている。もちろん、ロボット100が学習済みの機械学習モデルを用いて、ユーザを案内する経路から情報を提示する地点や提示対象を自動的に推論するようにしてもよい。
 本実施形態では、ロボット100は、ユーザを案内している経路上で情報の提示を行いたい地点に到達すると、ユーザの位置とユーザに提示する情報に基づいてロボットの到達目標を決定して、ロボット100が到達目標まで移動する経路を計画するという点に主な特徴がある。そして、ロボット100は、計画した移動経路に従って移動を行うことにより、ユーザから見易い場所に移動して表示部55に情報を提示したり、ロボット自身が提示対象の前に立ってユーザの視界を遮ったりしないようにすることができる。
 なお、説明の簡素化のため、ロボット100に案内されているユーザは、ロボット100が移動した軌跡に追従して歩行し、ユーザが複数の場合には一列に並んでロボット100の移動軌跡上をほぼ忠実に歩行するものとする。また、ロボット100が停止するとユーザも止まり、必要に応じてロボット100は音声アナウンスや腕部を使ったジェスチャなどによりユーザに指示を発し、ユーザはこれに従うものとする。
 図4には、ロボット100が経路に従ってユーザを案内するとともに経路上の所定の地点でユーザに情報提示を行うための制御システム400の機能的構成例を模式的に示している。図示の制御システム400は、外部情報収集部401と、外部環境認識部402と、経路情報記憶部403と、経路計画部404と、駆動制御部405を備えている。制御システム400内の各構成要素は、例えばメイン制御部61で実行させる制御プログラムとして実現されるが、一部は外部(クラウドなど)で実現されてもよい。
 外部情報収集部401は、外部センサ部71から、カメラ81で撮像したロボット100の周辺の撮像画像や、マイクロホン82で収音したユーザの音声やその他の周囲音などのセンサ情報を収集する。外部環境認識部402は、外部情報収集部401が収集したセンサ情報に基づいて、ロボット100の現在位置などの外部環境を認識する。例えば外部環境認識部402は、カメラ81R及び81Lの撮像画像に基づいて、SLAMアルゴリズムを利用してロボット100の自己位置を推定する。あるいは、外部センサ部71がGPSセンサを装備する場合には、外部環境認識部402は、GPSセンサが受信したGPS信号に基づいて、SLAMアルゴリズムを利用してロボット100の現在位置を測定するようにしてもよい。
 経路情報記憶部403は、あらかじめ決められた以下の情報(1)~(3)を記憶する。
(1)ユーザを案内する経路の情報
(2)経路上でユーザに情報を提示する地点の情報
(3)各地点でユーザに提示する情報の内容に関する情報
 上記のうち(3)は、具体的には、該当する地点において提示する情報が、表示部55で表示するコンテンツである場合に、そのコンテンツの中身又は所在を示すURL(Uniform Resource Locator)などであってもよい。また、該当する地点に設置されている展示物や名所などの提示対象をユーザに提示したい場合には、その提示対象を特定できる情報(正確な位置情報や画像情報、2次元マーカーなどの識別情報など)であってもよい。
 経路情報記憶部403は、例えば外部メモリ75内に割り当てられた記憶領域であってもよい。例えばクラウド又はインターネット上のサーバから上記の情報(1)~(3)をダウンロードして外部メモリ75に記憶するようにしてもよい。あるいは、経路情報記憶部403は、メイン制御部61内のメモリ61Aであってもよく、上記の情報(1)~(3)をROMに不揮発的に記憶しておくようにしてもよい。
 経路計画部404は、外部環境認識部402によって認識された外部環境に基づいて、ロボット100の移動経路を計画する。一般には、障害物の所在を表した障害物地図及び障害物の存在に起因するコストを表した障害物コスト地図に基づいて経路を計画する。但し、ここでは説明の簡素化のため、経路上には移動に障害となる障害物は存在しないものとする。また、経路計画部404は、基本的には、経路情報記憶部403に記憶されている経路の情報に基づいて、ユーザを案内する経路を計画する。
 また、経路計画部404は、ユーザを案内する経路上で、ユーザに情報を提示する地点に到達したときには、ユーザの位置とユーザに提示する情報に基づいて、情報提示時におけるロボットの到達目標を決定して、決定した到達目標までロボット100が移動する経路を計画する。具体的には、経路計画部404は、該当地点でユーザに提示する情報の内容を考慮して、例えばロボット100の胴体に搭載された表示部55の画面で情報を提示する場合には、ユーザが画面を見易くなる場所となるような場所への移動経路を計画する。また、その地点に設置されている提示対象物をユーザに提示する場合には、経路計画部404は、その提示対象がロボット100や他のユーザの陰に隠れて死角に入らないように、ロボット100の移動経路を計画する。
 駆動制御部405は、あらかじめ決められた、ユーザの案内経路上をロボット100が移動するように、サブ制御部63に制御コマンドを発する。そして、サブ制御部63は、駆動制御部405から受け取った制御コマンドに従って、駆動輪用アクチュエータ102を駆動制御して、車輪101を駆動させて、経路計画部404が計画した移動経路の通りにロボット100を移動させる。また、ロボット100が経路上でユーザに情報を提示する地点に到達したときには、サブ制御部63は、駆動制御部405から受け取った制御コマンドに従って、ユーザの位置とユーザに提示する情報に基づいて決定した到達目標までロボット100を移動させる。
C-2.処理手順
 図5には、ユーザに情報を提示する地点において、制御システム400がロボット100の移動を制御するための処理手順をフローチャートの形式で示している。
 制御システム400は、メインルーチンでは、あらかじめ決められた案内経路に基づいて、ロボット100を移動させる。但し、計画経路に基づいて移動ロボットを移動させる制御は周知技術を利用してもよく、また、本開示の特徴ではないので、図5ではメインルーチンに関する処理の図示を省略するとともに、メインルーチンについての詳細な説明は省略する。
 経路計画部404は、外部環境認識部402によって認識された外部環境に基づいてロボット100の移動経路を計画する。そして、駆動制御部405は、計画された移動経路に沿ってロボット100が移動するように、サブ制御部63に制御コマンドを発して、移動経路に沿ってロボット100を移動させている。また、経路計画部404は、外部環境認識部402によって認識された外部環境に基づいて、ロボット100がユーザに情報を提示する地点に到着したことを検出することができる。
 案内経路上を移動するロボット100がユーザに情報を提示する地点に到着したというイベントが発生すると、制御システム400は、メインルーチンから、その地点で提示することがあらかじめ設定されている情報をユーザに提示するためのサブルーチンに遷移する。
 経路計画部404は、経路情報記憶部403から、その到達時点においてユーザに提示する情報を読み出すと(ステップS501)、その情報の内容に応じて、ユーザの位置とユーザに提示する情報に適合するロボットの到達目標を決定して、決定した立ち到達目標までロボット100が移動する経路を計画するための処理を実施する。
 外部情報収集部401は、外部センサ部71から、その地点においてカメラ81が撮像した周辺画像などのセンサ情報を収集する(ステップS502)。そして、外部環境認識部402は、外部情報収集部401が収集したセンサ情報に基づいて、ユーザに提示したい情報の場所と案内中のユーザの現在位置を認識する(ステップ503)。ロボット100の表示部55を使って情報をユーザに提示する場合には、外部環境認識部402は、ロボット100とユーザの現在位置を認識する。また、到達地点に設置されている対象物(展示物や名所など)をユーザに提示する場合には、外部環境認識部402は、その提示対象とユーザの現在位置を認識する。
 経路計画部404は、外部環境認識部402の認識結果に基づいて、まず、ロボット100が立ち入ってはならない禁止領域を計算する(ステップS504)。ここで言う禁止領域は、提示対象がユーザの死角に入る原因となり得るロボットの位置を意味する。ロボット100が禁止領域に立つと、案内しているユーザのうち少なくとも一部にとっては、提示する情報が死角に入ってよく見えなくなる。
 次いで、経路計画部404は、情報提示時における到達目標を禁止領域外で決定する(ステップS505)。到達目標は、ユーザに情報を提示する際のロボット100の立ち位置となる。経路計画部404は、その地点でユーザに提示する情報の内容に応じて(例えば、ユーザに提示したい情報表示するか、又はその地点に設置されている展示物などの提示対象をユーザに見せるかに応じて)、到達目標を決定する。次いで、経路計画部404は、決定した到達目標までの移動経路を計画する(ステップS506)。
 駆動制御部405は、経路計画部404が計画した到達目標までの移動経路に沿ってロボット100が移動するように、サブ制御部63に制御コマンドを発する。そして、サブ制御部63は、受け取った制御コマンドに従って、駆動輪用アクチュエータ102を駆動制御して、車輪101を駆動させることによって、ロボット100はステップS505で決定した到達目標まで移動して(ステップS507)、ユーザへの情報提示を実施する(ステップS508)。
 ユーザへの情報提示は、ロボット100が表示部55に情報を表示することや、ロボット100が到達目標を立ち位置とすることで展示物などの提示対象を見易くすることで、実現される。ロボット100が禁止領域外で決定された到達目標に移動することによって、提示対象をユーザが見易くすることができる。複数のユーザを案内中であれば、提示対象をすべてのユーザが見易くなる。
 ロボット100が到達目標に移動してから、提示対象をユーザが視聴又は鑑賞するのに十分な時間が経過するまでは(ステップS509のNo)、ステップS508に戻って、ユーザへの情報提示を継続する。
 ロボット100が到達目標に移動してから、提示対象をユーザが視聴又は鑑賞するのに十分な時間が経過すると(ステップS509のYes)、制御システム400は、サブルーチンから、ロボット100を案内経路上で移動させるメインルーチンに復帰する。
 図6には、制御システム400が図5に示した処理手順を実行するための詳細な構成例を示している。
 経路情報記憶部403は、あらかじめ定められた案内経路の情報601と、その案内経路上でユーザに情報を提示する地点の情報602と、地点毎のユーザに提示する情報の内容に関する情報603を格納している。
 経路計画部404は、禁止領域計算部604と、到達目標決定部605と、移動計画部606を備えている。
 禁止領域計算部604は、外部環境認識部402の認識結果に基づいて、まず、ロボット100が立ち入ってはならない禁止領域を計算する。禁止領域の計算方法の詳細については、後述に譲る。
 到達目標決定部605は、ユーザに情報を提示する際に、禁止領域外でロボット100の立ち位置となる到達目標を決定する。到達目標決定部605は、条件付き最適化問題として、禁止領域外でロボット100の到達目標を決定する。また、到達目標決定部605は、その地点でユーザに提示する情報の内容に応じて、到達目標を決定するようにしてもよい。例えば、ロボットの搭載したディスプレイの画面で情報を提示する場合において、複数のユーザのうち最も遠いユーザまでの距離を最小化する場所を到達目標に決定するようにしてもよいし、ユーザまでの距離の平均を最小化する場所を到達目標に決定するようにしてもよい。また、その地点に設置されている展示物などの提示対象をユーザに見せたい場合には、禁止領域から脱出するための移動距離が最短となる場所を到達目標に決定するようにしてもよい。
 移動計画部606は、決定した到達目標までの移動経路を計画して、駆動制御部405に出力する。駆動制御部405は、移動計画部606が計画した移動経路を辿ってロボット100が禁止領域外の到達目標まで移動するように、サブ制御部63に制御コマンドを発する。
C-3.禁止領域と到達目標の決定
 本明細書で言う禁止領域は、案内中のユーザに情報を提示する際にロボット100が立つことを禁止する領域のことである。本開示では、ユーザから提示対象が見える領域を禁止領域として設定する。言い換えれば、禁止領域内にロボット100が立つと、ユーザが提示対象を見るのに邪魔になる(又は、ロボット100が禁止領域に立つと、提示対象がユーザの死角に入る原因となり得る)。このC-3項では、ロボット100自体が提示対象となる場合と、ロボット100以外が提示対象となる場合の2つのケースに分けて、各ケースにおいて、禁止領域計算部604が禁止領域を決定する方法と、禁止領域外でロボット100の立ち位置となる到達目標を決定する方法についてそれぞれ説明する。
 なお、説明の簡素化のため、ロボット100に案内されているユーザは、ロボット100が移動した軌跡に追従して歩行し、ユーザが複数の場合には一列に並んでロボット100が移動した軌跡上を歩行するものとする。
C-3-1.ロボット自体が提示対象となる場合
 ロボット100自体が提示対象となる場合とは、具体的には、ロボット100の胴体に搭載した表示部55を使って情報をユーザに提示する場合である。ここでは、ロボット100が移動した軌跡上を複数のユーザが一列に並んで付いて行くという形態により案内することを想定する。
 案内経路上で情報を提示すべき所定の地点に到達したとき、又は情報を提示すべき所定のタイミングが到来したときに、ロボット100とユーザが一列に並んだレイアウトのままで、ロボット100が「画面をご覧ください」などの音声アナウンスを行って、表示部55の画面に情報を提示したとする。ユーザが一列に並んでいる方向にロボット100が立つと、先頭のユーザだけは画面を良く見えるが、2番目以降のユーザからは前方のユーザが邪魔になって見え難い。例えば、図7に示すように、ロボット100が移動した軌跡に沿って複数のユーザが一列に並んで追従している際に、ユーザ100が移動経路上で立ち止まってその配置のまま表示部55に情報を提示すると、後方(又は2番目以降)のユーザからは画面がよく見えない。
 図8に示すように、2人のユーザが並んでいるケースに簡単化して考えてみる。右側のユーザ801が左方を見る場合には、左側のユーザ802は障害物となり、左側のユーザ802のために参照番号811で示す領域が死角となる。同様に、左側のユーザ802が右方を見る場合には、右側のユーザ801が障害物となり、右側のユーザ801のために参照番号812で示す領域が死角となる。
 図7に示したように多人数のユーザが一列に並んでいる状況において、図8に示したように隣接するユーザ同士で形成する死角領域を重ね合わせると、禁止領域計算部604は、図9中のグレーで表示するような死角領域901及び902を禁止領域として算出することができる。
 図9に示す例では、ユーザの列の先頭にいるロボット100は、禁止領域901にいることが分かる。このため、ロボット100が表示部55に表示している情報をすべてのユーザに見せたい場合には、禁止領域901及び902の外側で決定した到達目標まで移動する必要がある。そこで、到達目標決定部605は、条件付き最適化問題として、禁止領域901及び902の外で、すべてのユーザから表示部55の画面が良好に見えるような立ち位置を到達目標に決定する。そして、ロボット100は、決定した到達目標に移動してから表示部55に情報を提示すれば、すべてのユーザは視界が遮られることなく、表示部55に提示された情報を見ることができる。
 図10には、図9に示したような禁止領域901及び902が算出された場合に決定される到達目標の一例を示している。この例では、禁止領域901及び902外の領域で、ロボット100(又は、表示部55の画面)から最も遠いユーザまでの距離を最小化する、ユーザの列のほぼ中央の位置が、情報提示時の到達目標1001に決定されている。ロボット100は、この到達目標1001に立って、表示部55に情報を表示することで、すべてのユーザから均等に情報を見えるようにすることができる(又は、表示部55から最も遠いユーザからも画面の見え易さを確保することができる)。
 また、図11には、図9に示したような禁止領域901及び902が算出された場合に決定される到達目標の他の例を示している。この例では、禁止領域901及び902外の領域のうち、元のロボット100の位置(ユーザの列の先頭)からの移動距離が最短となる位置が、情報提示時の到達目標1101に決定されている。ロボット100の移動距離が最短となることから、ロボット100は最短時間で情報の提示を開始することができる。
 図10に示す到達目標1001に決定する場合、すべてのユーザから均等に情報を見えるようにすることができるので、例えば重要な情報を提示したい場合に好ましい到達目標であるということができる。但し、ロボット100の移動距離が長くなるため、その分だけ移動時間や消費電力が増大するという問題がある。
 一方、図11に示す到達目標1101に決定する場合、ユーザ間で情報の見え易さのバラツキは大きくなるという問題があるが、ロボット100の移動距離が短いので、その分だけ移動時間が短くなり最短時間で情報の提示を開始することができる、消費電力を低減できるという利点がある。重要度が高くないちょっとした情報をアナウンスするのみであれば、ユーザ間の見え易さの不均等は許容し得る問題である。
 到達目標決定部605は、提示する情報の重要度、情報の即時性、消費電力などを条件として条件付き最適化問題として解くことにより、図10に示した到達目標1001又は図11に示した到達目標1101を適応的に決定することができる。
C-3-2.ロボット以外が提示対象となる場合
 ロボット100以外が提示対象となる場合とは、具体的には、ロボット100がユーザを案内する経路上の所定の地点に提示対象が設置されている場合である。ここでも、ロボット100が移動した軌跡上を複数のユーザが一列に並んで付いて行くという形態により案内することを想定する。
 ロボット100が複数のユーザを引き連れて美術館や博物館、観光地などを所定の案内経路上で案内し、展示物や名所などの所定の提示対象が設置されている地点に到達した時点では、図12に示すように、ロボット100とユーザが一列に並んでいる。このレイアウトのままで、列の先頭にいるロボット100が「こちらをご覧ください」などの音声アナウンスを行って提示対象を見るように促しても、先頭のユーザからはロボット100が邪魔になって見え難く、2番目以降のユーザからはロボット100と前方のユーザが邪魔になって見え難い。また、図25に示したように、ロボット100が提示対象とユーザの間に立つと、少なくとも一部のユーザからはロボット100が邪魔になって提示対象が見え難くなる。
 そこで、ロボット100は、まず、提示対象の正面方向と直交する方向を進路方向にして、提示対象に接近する。その結果、図13に示すように、提示対象から最も遠いユーザまでの距離を最小化することができる。そして、禁止領域計算部604は、図14に示すように各ユーザから提示対象が見える領域1401、1402、1403、1404を計算すると、続いて、図15に示すようにユーザ毎に算出した領域1401、1402、1403、1404をすべて重ね合わせて、禁止領域1501を設定する。なお、領域同士を重ね合わせた際に生じる細かなギザギザの隙間領域は、ロボット100がそこに立つとユーザが提示対象を見るのに邪魔になる。禁止領域計算部604は、図15に示すように、ギザギザの禁止領域の境界を丸め込んで、禁止領域1501を簡単な形状に成形してもよい。
 次いで、到達目標決定部605はロボット100の到達目標を決定する。到達目標決定部605は、条件付き最適化問題として、禁止領域1501の外で、すべてのユーザから提示対象が良好に見えるような到達目標を決定する。
 図16には、元のロボット100の現在位置からの移動距離が最短となる、鉗子領域の近傍の場所を到達目標1601に決定した様子を示している。そして、ロボット100は、決定した到達目標1601に移動してから、「こちらをご覧ください」などの音声アナウンスを行って、提示対象を見るようにユーザに促す。ロボット100は禁止領域1501の外に立っているので、すべてのユーザは、ロボット100や他のユーザに邪魔されずに、提示対象を見ることができる。また、すべてのユーザから均等に提示対象を見ることができる。
 なお、図17に示すように提示対象とユーザの列の間にロボット100の到達目標を決定すると、すべてのユーザの位置から均等にロボット100から出力される音声が聞き取り易くなるので、ロボット100が音声アナウンスを行うによい位置取りである。しかしながら、提示対象とユーザの列の間は禁止領域1501であり、そこにロボット100が立つと、提示対象は少なくとも一部のユーザの死角に入るため、見え難くなる。したがって、到達目標決定部605は、提示する情報の重要度、情報の即時性、消費電力などを条件として条件付き最適化問題として解くと、図16に示したような到達目標1601を決定することができる。
C-4.応用例
C-4-1.多人数ユーザへの対応
 上記C-3-1項では、ロボット100の胴体に搭載した表示部55を使って情報をユーザに提示する場合にロボット100の到達目標を決定する方法について説明し、具体的には、図10に示したように、禁止領域外で最も遠いユーザまでの距離を最小化する、ユーザの列のほぼ中央に到達目標を決定する方法について説明した。
 しかしながら、ユーザの人数が多くなると、ユーザの列のほぼ中央に到達目標を決定すると、最も遠いユーザはロボット100表示部55の画面を斜め方向から見ることになり、画面のほぼ正面に立つユーザと比べると、かなり見え難い。すなわち、提示対象の見え易さがユーザ間で大きくばらついてしまう。
 そこで、到達目標決定部605がユーザの列のほぼ中央に到達目標を決定して、ロボット100がその到達目標まで移動した後に、図18に示すように、ロボット100の胴体をロール軸回りに回転させて、表示部55の画面が各ユーザの正面を順に向くように「首振り」動作を行うようにしてもよい。このような動作により、各ユーザから提示対象を均等に見え易くすることができる。
C-4-2.ユーザの誘導方法の変形例
 上記C-3-1項では、図10に示したように、ユーザの列のほぼ中央に到達目標を決定する方法について説明した。また、上記C-3-2項では、図15~図16に示したように提示対象の正面方向と直交する方向を進路方向にしてユーザを誘導して、ユーザの列のほぼ中央に提示対象を配置する方法について説明した。いずれも、ロボット100が移動した軌跡上を複数のユーザが一列に並んで付いて行くという誘導の形態を前提とするものである。
 図10からも分かるように、列の中央のユーザと比べて、列の両端のユーザから提示対象までの距離が長くなり、ユーザ間で提示対象の見え易さが不均等になるという問題がある。ユーザ数が増えるとこの問題はより顕著になる。特にユーザの人数が多くなると、ユーザの列のほぼ中央に到達目標を決定すると、最も遠いユーザはロボット100表示部55の画面を斜め方向から見ることになり、画面のほぼ正面に立つユーザと比べると、かなり見え難くなる。
 この解決策として、ロボット100が移動した軌跡上を複数のユーザが一列に並んで付いて行くという誘導の形態を利用して、情報を提示する地点において、ロボット100が円弧の軌道でユーザを誘導する方法を提案する。
 図19には、ロボット100自体が提示対象となる場合にこの解決方法を適用した例を示している。案内経路上で情報を提示すべき所定の地点に到達したとき、又は情報を提示すべき所定のタイミングが到来したときに、図19Aに示すようにロボット100が円弧の軌道に切り替えてユーザを誘導すると、複数のユーザはロボット100が描いた移動軌跡に従って円弧上に一列に並ぶ。
 そして、到達目標決定部605は円弧のほぼ中心をロボット100の到達目標に決定して、図19Bに示すように、ロボット100はその到達目標まで移動する。但し、円弧のほぼ中心は禁止領域外であるとする。ロボット100がこのようなユーザの誘導を行った結果、表示部55から各ユーザまでの距離をほぼ均等にして、画面に提示する情報の見え易さもユーザ間でほぼ均等にすることができる。
 また、図20には、ロボット100以外が提示対象となる場合にこの解決方法を適用した例を示している。展示物や名所などの提示対象に近づいたときに、図20Aに示すように、ロボット100は、提示対象をほぼ中心とする円弧の軌道に切り替えてユーザを誘導する。その結果、複数のユーザは、ロボット100が描いた移動軌跡に従って、提示対象をほぼ中心とする円弧に沿って一列に並ぶ。
 ここで、各ユーザから円弧の中心の提示対象が見える領域を算出して、各領域を重ね合わせると、図20Bに示すように、円の2本の半径と円弧によって囲まれた扇形の内側は禁止領域2001となる。したがって、到達目標決定部605は、禁止領域2001の外側で現在位置から最短の場所にロボット100の到達目標2002を決定して、ロボット100はその到達目標2002まで移動する。ロボット100がこのようなユーザの誘導を行った結果、提示対象から各ユーザまでの距離をほぼ均等にして、提示対象の見え易さもユーザ間でほぼ均等にすることができる。
C-4-3.複数のロボットを用いた情報提示方法
 このC-4-3項では、ロボット自体が提示対象となる場合及びロボット以外が提示対象となる場合の各々について、複数のロボットを使ってユーザに情報を提示する方法について説明する。
 但し、複数のロボットはロボット間通信により連携して、互いに最適な配置をとることができるものとする。複数のロボットのうちいずれか1台がマスタとして動作し他のロボットがスレーブとしてマスタの制御下で動作するようにしてもよいし、各ロボットが対等に連携してもよいし、すべてのロボットが同じ制御システムの制御下で協調動作するようにしてもよい。
 また、各ロボットは移動してユーザを誘導することができれば、複数のロボットは同じ構成である必要はない。脚式ロボットと車輪式ロボットなど異種のロボットの組み合わせでもよいし、地上移動型のロボットと飛行型のドローンの組み合わせでもよい。
 図21には、それぞれディスプレイ画面を有する2台のロボット2101及び2102が、互いの画面が結合するように隣接した配置についており、2つの画面を1つの大画面として用いて、ユーザに情報を提示する様子を示している。但し、複数のユーザは、ロボットが移動した軌跡に従って一列に並んでいる。ロボット2101及び2102の両方を用いて複数のユーザを誘導してもよいし、いずれか一方のみを用いて複数のユーザを誘導してもよい。大画面が提供されることから、より多くのユーザに均等に情報を提示できることから、図19に示したように複数のユーザが円弧上に並ぶ必要はなく、直線状に並んでいてよい。
 図22には、それぞれディスプレイ画面を有する2台のロボット2201及び2202が離間して配置についており、それぞれ複数のユーザに同じ情報を提示する例を示している。図示の例では、8人のユーザがロボットに誘導されて直線状に1列に並んでいる。ロボット2201及び2202の両方を用いて複数のユーザを誘導してもよいし、いずれか一方のみを用いて複数のユーザを誘導してもよい。
 まず、8人のユーザを並んだ順番で前半の4人のグループと後半の4人のグループに分けて、2台のロボット2201及び2202にそれぞれ前半のグループと後半のグループを割り当てる。そして、各ロボット2201及び2202は、それぞれ自分が担当するグループのユーザに対して、情報提示を行う。その際、一方のロボット2201は、列の前半の4人のユーザのうち最も遠いユーザまでの距離を最小とする場所が到達目標2211に決定され、他方のロボット2202は、列の後半の4人のユーザのうち最も遠いユーザまでの距離を最小とする場所が到達目標2212に決定され、各ロボット2201及び2202はそれぞれの到達目標2211及び2212に移動して情報提示を行う。したがって、各ロボット2201及び2202の画面が同じ情報を提示することで、すべてのユーザから均等に情報を見えるようにすることができる(又は、最も遠いユーザからも画面の見え易さを確保することができる)。
 図22に示す情報提示方法は、複数のユーザをロボットの台数分のグループに分割してグループ毎にロボットを1台ずつ割り当てて、各ロボットは自分が担当するグループのユーザへの情報提示を行う方法と言うこともできる。但し、各ロボットに均等な数のユーザを割り当てる必要はない。図22に示した例に当て嵌めると、一方のロボット2201が5人のユーザへの情報提示を担当し、他方のロボット2202が3人のユーザへの情報提示を担当するようにしてもよい。例えば画面サイズなどのハードウェア仕様や性能の相違に基づいて、ロボット毎に分担するユーザの人数を調整するようにしてもよい。
 図19では多人数のユーザを円弧上に並ぶように誘導して、各ユーザの見え易さを均等化する例を示した。これに対し、図22に示すように複数台のロボットを使用すれば、各ロボットが情報提示を担当するユーザ数を限定することができるので、ユーザを円弧上に並べ直す必要はなくなる。
 図23には、2台のロボット2301及び2302を使って、多数のユーザに提示対象を提示する例を示している。図示の例では、ロボット2301及び2302の両方を用いて多数のユーザを誘導する。例えば、一方のロボット2301がユーザの列の先頭に立つとともに、他方のロボット2302がユーザの列の最後尾に立って、複数のユーザが直線状に一列に並ぶように、提示対象2303まで誘導する。そして、提示対象2303の正面方向と直交する方向を進路方向にして、提示対象2303に接近することで、各ユーザから提示対象2303までの距離が均等となるようにユーザを配置する。
 その後、複数のユーザと提示対象2303の配置に基づいて各ロボット2301及び2302の禁止領域を算出し、禁止領域外に各ロボット2301及び2302の到達目標を決定して、各ロボット2301及び2302はそれぞれに決定された到達目標に移動する。図23に示す例では、各ユーザから提示対象2303が見える領域を算出して、各領域を重ね合わせると、提示対象李2303の両端と一列に並んだユーザの前後両端のユーザを結ぶ台形の領域が禁止領域2304となる。そして、禁止領域2304の外となる提示対象2303の両端で各ロボット2301及び2302の現在位置から最短の移動距離となる到達目標2311及び2312が決められる。
 このような到達目標2311及び2312の配置によれば、8人のユーザを並んだ順番で前半の4人のグループと後半の4人のグループに分けて、2台のロボット2301及び2302にそれぞれ前半のグループと後半のグループを割り当てて、各ロボット2301及び2302は、それぞれ自分が担当するグループのユーザに対して音声アナウンスを行うことができる。各ロボット2301及び2302が「こちらをご覧ください」と音声アナウンスを行うと、すべてのユーザに対して均等に提示対象2303を見るように促すことができる。
 図23に示す情報提示方法は、複数のユーザをロボットの台数分のグループに分割してグループ毎にロボットを1台ずつ割り当てて、各ロボット2301及び2302は自分が担当するグループのユーザを提示対象に案内する方法と言うこともできる。但し、各ロボット2301及び2302に均等な数のユーザを割り当てる必要はない。例えば各ロボットのハードウェア仕様や性能の相違に基づいて、ロボット毎に分担するユーザの人数を調整するようにしてもよい。
 以上、特定の実施形態を参照しながら、本開示について詳細に説明してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
 本明細書では、便宜上、本開示にロボットを適用した実施形態を中心に説明してきたが、本開示の要旨はこれに限定されるものではない。ドローンやその他のさまざまなタイプの自律型の移動体装置にも同様に本開示を適用することができる。また、ロボットとドローンなど異種の移動体装置を組み合わせて本開示を適用することもできる。
 また、本開示は、ロボットが情報を提示する場所まで被案内者を案内する際に、提示される情報がユーザの死角に入らないようにロボットの移動経路を計画することを1つの目的とするが、提示される情報は、ロボットが搭載するディスプレイの画面に表示される情報、ユーザを案内した名所における展示物や建造物などの鑑賞対象、演技を行うロボット(複数のロボットからなる集団も含む)自体など、さまざまである。
 要するに、例示という形態により本開示について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本開示の要旨を判断するためには、特許請求の範囲を参酌すべきである。
 なお、本開示は、以下のような構成をとることも可能である。
(1)ユーザを案内する移動体装置を制御する情報処理装置であって、
 ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画部を具備する、情報処理装置。
(2)前記移動体装置がユーザを案内する経路上でユーザに情報を提示すべき地点に到達したことに応答して、前記計画部は情報提示時における前記移動体装置の移動経路を計画する処理を起動する、
上記(1)に記載の情報処理装置。
(3)前記計画部は、ユーザに情報を提示する際に前記移動体装置が立ち入るべきでない禁止領域を設定し、禁止領域外で前記移動体装置の到達目標を決定して、到達目標までの移動経路を計画する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
(4)前記計画部は、ユーザに提示する情報がユーザの死角に入る原因となり得る前記移動体装置の位置を禁止領域に設定する、
上記(3)に記載の情報処理装置。
(5)前記計画部は、ユーザとユーザに提示する情報の位置関係に基づいて禁止領域を設定する、
上記(3)又は(4)のいずれかに記載の情報処理装置。
(6)前記計画部は、ユーザに情報を提示する前記移動体装置が他のユーザの陰に隠れてユーザの死角に入る禁止領域を設定する、
上記(3)乃至(5)のいずれかに記載の情報処理装置。
(7)前記計画部は、ユーザに提示する情報が前記移動体装置の陰に隠れてユーザの死角に入る禁止領域を設定する、
上記(3)乃至(6)のいずれかに記載の情報処理装置。
(8)前記移動体装置がユーザに情報を提示する場合に、前記計画部は、禁止領域の外で最も遠いユーザまでの距離を最小化する場所を前記移動体装置の到達目標に決定する、
上記(3)乃至(7)のいずれかに記載の情報処理装置。
(9)前記移動体装置がユーザに情報を提示する場合に、前記計画部は、禁止領域の外で各ユーザまでの距離の平均を最小化する場所を前記移動体装置の到達目標に決定する、
上記(3)乃至(7)のいずれかに記載の情報処理装置。
(10)前記移動体装置以外の提示対象がユーザに情報を提示する場合に、前記計画部は、前記移動体装置の現在位置から禁止領域の外に脱出する経路が最短となる場所を前記移動体装置の到達目標に決定する、
上記(3)乃至(7)のいずれかに記載の情報処理装置。
(11)前記計画部は、ユーザが提示された情報を見易くなるようにユーザを案内するための移動経路を計画する、
上記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)前記計画部は、情報を提示する提示対象の正面方向と直交する方向を進路方向にして提示対象に接近する移動経路を計画する、
上記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)前記計画部は、情報を提示する方向を回転させるように前記移動体装置の移動経路を計画する、
上記(8)に記載の情報処理装置。
(14)前記計画部は、前記移動体装置がユーザに情報を提示する場合に、円弧の軌道に切り替えてユーザを誘導した後、円弧の中心に移動する経路を計画する、
上記(1)に記載の情報処理装置。
(15)前記計画部は、前記移動体装置以外の提示対象がユーザに情報を提示する場合に、提示対象を中心とする円弧の軌道に切り替えてユーザを誘導する経路を計画する、
上記(1)に記載の情報処理装置。
(15-1)前記計画部は、円弧が形成する扇形の外側に前記移動体装置の到達目標を決定して、到達目標までの移動経路を計画する、
上記(15)に記載の情報処理装置。
(16)前記計画部は、前記複数の移動体装置が連結して1つの情報を提示するための移動経路を計画する、
上記(1)に記載の情報処理装置。
(17)前記計画部は、複数のユーザを移動体装置の台数に応じたグループに分割してグループ毎に移動体装置を割り当て、各移動体装置が担当するグループのユーザに情報を提示するための移動経路を計画する、
上記(1)に記載の情報処理装置。
(18)前記計画部は、複数のユーザを移動体装置の台数に応じたグループに分割してグループ毎に移動体装置を割り当て、各移動体装置が担当するグループのユーザを情報の提示対象に案内するための移動経路を計画する、
上記(1)に記載の情報処理装置。
(19)ユーザを案内する移動体装置を制御する情報処理方法であって、
 ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画ステップを有する、情報処理方法。
(20)ユーザを案内する移動体装置を制御するための処理をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータプログラムであって、前記コンピュータを、
 ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画部として機能させる、コンピュータプログラム。
(100)ユーザを案内する移動体装置であって。
 前記移動体装置を移動させる移動部と、
 ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画部と、
 計画した移動経路に基づいて、情報提示時における前記移動部の駆動を制御する駆動制御部と、
を具備する移動体装置。
(101)ユーザに情報を表示する表示部をさらに備える、
上記(100)に記載の移動体装置。
 100…ロボット、101…駆動輪
 102…駆動輪用アクチュエータ、
 103…股関節ピッチ軸アクチュエータ
 104…肩関節ピッチ軸アクチュエータ
 105…肩関節ロール軸アクチュエータ
 106…肩関節ヨー軸アクチュエータ
 107…肘関節ピッチ軸アクチュエータ
 108…肘関節ヨー軸アクチュエータ
 109… 手首関節ロール軸アクチュエータ
 110…首関節ピッチ軸アクチュエータ
 111… 首関節ピッチ軸アクチュエータ
 12…頭部ユニット、51…タッチセンサ、52…制御ユニット
 61…メイン制御部、61A…メモリ、63…サブ制御部
 71…外部センサ部、72…スピーカ、73…内部センサ
 74…バッテリ、75…外部メモリ、81…カメラ
 82…マイクロホン、91…バッテリセンサ、92…加速度センサ
 400…制御システム、401…外部情報収集部
 402…外部環境認識部、403…経路情報記憶部
 404…経路計画部、405…駆動制御部
 604…禁止領域計算部、605…到達目標決定部
 606…移動計画部

Claims (20)

  1.  ユーザを案内する移動体装置を制御する情報処理装置であって、
     ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画部を具備する、情報処理装置。
  2.  前記移動体装置がユーザを案内する経路上でユーザに情報を提示すべき地点に到達したことに応答して、前記計画部は情報提示時における前記移動体装置の移動経路を計画する処理を起動する、
    請求項1に記載の情報処理装置。
  3.  前記計画部は、ユーザに情報を提示する際に前記移動体装置が立ち入るべきでない禁止領域を設定し、禁止領域外で前記移動体装置の到達目標を決定して、到達目標までの移動経路を計画する、
    請求項1に記載の情報処理装置。
  4.  前記計画部は、ユーザに提示する情報がユーザの死角に入る原因となり得る前記移動体装置の位置を禁止領域に設定する、
    請求項3に記載の情報処理装置。
  5.  前記計画部は、ユーザとユーザに提示する情報の位置関係に基づいて禁止領域を設定する、
    請求項3に記載の情報処理装置。
  6.  前記計画部は、ユーザに情報を提示する前記移動体装置が他のユーザの陰に隠れてユーザの死角に入る禁止領域を設定する、
    請求項3に記載の情報処理装置。
  7.  前記計画部は、ユーザに提示する情報が前記移動体装置の陰に隠れてユーザの死角に入る禁止領域を設定する、
    請求項3に記載の情報処理装置。
  8.  前記移動体装置がユーザに情報を提示する場合に、前記計画部は、禁止領域の外で最も遠いユーザまでの距離を最小化する場所を前記移動体装置の到達目標に決定する、
    請求項3に記載の情報処理装置。
  9.  前記移動体装置がユーザに情報を提示する場合に、前記計画部は、禁止領域の外で各ユーザまでの距離の平均を最小化する場所を前記移動体装置の到達目標に決定する、
    請求項3に記載の情報処理装置。
  10.  前記移動体装置以外の提示対象がユーザに情報を提示する場合に、前記計画部は、前記移動体装置の現在位置から禁止領域の外に脱出する経路が最短となる場所を前記移動体装置の到達目標に決定する、
    請求項3に記載の情報処理装置。
  11.  前記計画部は、ユーザが提示された情報を見易くなるようにユーザを案内するための移動経路を計画する、
    請求項1に記載の情報処理装置。
  12.  前記計画部は、情報を提示する提示対象の正面方向と直交する方向を進路方向にして提示対象に接近する移動経路を計画する、
    請求項1に記載の情報処理装置。
  13.  前記計画部は、情報を提示する方向を回転させるように前記移動体装置の移動経路を計画する、
    請求項8に記載の情報処理装置。
  14.  前記計画部は、前記移動体装置がユーザに情報を提示する場合に、円弧の軌道に切り替えてユーザを誘導した後、円弧の中心に移動する経路を計画する、
    請求項1に記載の情報処理装置。
  15.  前記計画部は、前記移動体装置以外の提示対象がユーザに情報を提示する場合に、提示対象を中心とする円弧の軌道に切り替えてユーザを誘導する経路を計画する、
    請求項1に記載の情報処理装置。
  16.  前記計画部は、前記複数の移動体装置が連結して1つの情報を提示するための移動経路を計画する、
    請求項1に記載の情報処理装置。
  17.  前記計画部は、複数のユーザを移動体装置の台数に応じたグループに分割してグループ毎に移動体装置を割り当て、各移動体装置が担当するグループのユーザに情報を提示するための移動経路を計画する、
    請求項1に記載の情報処理装置。
  18.  前記計画部は、複数のユーザを移動体装置の台数に応じたグループに分割してグループ毎に移動体装置を割り当て、各移動体装置が担当するグループのユーザを情報の提示対象に案内するための移動経路を計画する、
    請求項1に記載の情報処理装置。
  19.  ユーザを案内する移動体装置を制御する情報処理方法であって、
     ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画ステップを有する、情報処理方法。
  20.  ユーザを案内する移動体装置を制御するための処理をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータプログラムであって、前記コンピュータを、
     ユーザの位置とユーザに提示する情報に基づいて、情報提示時における前記移動体装置の移動経路を計画する計画部として機能させる、コンピュータプログラム。
PCT/JP2022/045946 2022-01-28 2022-12-13 情報処理装置及び情報処理方法、並びにコンピュータプログラム WO2023145284A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-012179 2022-01-28
JP2022012179 2022-01-28

Publications (1)

Publication Number Publication Date
WO2023145284A1 true WO2023145284A1 (ja) 2023-08-03

Family

ID=87471496

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/045946 WO2023145284A1 (ja) 2022-01-28 2022-12-13 情報処理装置及び情報処理方法、並びにコンピュータプログラム

Country Status (1)

Country Link
WO (1) WO2023145284A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116582A (ja) * 1999-10-15 2001-04-27 Atr Media Integration & Communications Res Lab 巡回誘導システム
JP2005329515A (ja) * 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
JP2008152504A (ja) * 2006-12-18 2008-07-03 Hitachi Ltd 案内ロボット装置及び案内システム
JP2012161851A (ja) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International ロボットシステムおよびそれに用いる空間陣形認識装置
JP2015066624A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット制御プログラムおよび説明ロボット
US20190375094A1 (en) * 2018-06-14 2019-12-12 Lg Electronics Inc. Moving robot and operating method for the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116582A (ja) * 1999-10-15 2001-04-27 Atr Media Integration & Communications Res Lab 巡回誘導システム
JP2005329515A (ja) * 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
JP2008152504A (ja) * 2006-12-18 2008-07-03 Hitachi Ltd 案内ロボット装置及び案内システム
JP2012161851A (ja) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International ロボットシステムおよびそれに用いる空間陣形認識装置
JP2015066624A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット制御プログラムおよび説明ロボット
US20190375094A1 (en) * 2018-06-14 2019-12-12 Lg Electronics Inc. Moving robot and operating method for the same

Similar Documents

Publication Publication Date Title
JP6567563B2 (ja) 衝突回避および軌道復帰能力を有する人型ロボット
KR102298582B1 (ko) 센서 데이터를 이용하여 청소 동선을 결정하는 인공 지능 로봇 및 그 방법
US8725273B2 (en) Situational awareness for teleoperation of a remote vehicle
Reardon et al. Come see this! augmented reality to enable human-robot cooperative search
CN103302664B (zh) 机器人设备以及用于控制机器人设备的方法
CN105310604A (zh) 机器人清洁***以及控制机器人清洁器的方法
JP5946428B2 (ja) 移動ロボットシステム
US20190184569A1 (en) Robot based on artificial intelligence, and control method thereof
US20220260998A1 (en) Navigating a Mobile Robot
JP2016206876A (ja) 自律移動体の走行経路教示システムおよび走行経路教示方法
US20180329409A1 (en) Portable mobile robot and operation thereof
US11526172B2 (en) Mobile object control apparatus and mobile object control method
US20180329424A1 (en) Portable mobile robot and operation thereof
KR20190105214A (ko) 인공 지능을 통해 구속 상황을 회피하는 로봇 청소기 및 그의 동작 방법
CN112631269A (zh) 自主移动机器人及自主移动机器人的控制程序
WO2023145284A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータプログラム
JP2017170568A (ja) サービス提供ロボットシステム
CN115648221A (zh) 基于ros***的教育机器人
WO2021256464A1 (ja) 撮像システム及びロボットシステム
KR20220165948A (ko) 원격 협업 방법 및 그 시스템
KR102089063B1 (ko) Hmd를 이용한 로봇청소 시스템 및 그 제어 방법
CN112823083A (zh) 可配置和交互式的机器人***
US12001216B2 (en) Carpet detection method, movement control method, and mobile machine using the same
JP7503660B2 (ja) ロボットシステム及びロボット作業方法
WO2023127337A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22924135

Country of ref document: EP

Kind code of ref document: A1