WO2011067887A1 - 自律移動装置 - Google Patents

自律移動装置 Download PDF

Info

Publication number
WO2011067887A1
WO2011067887A1 PCT/JP2010/006259 JP2010006259W WO2011067887A1 WO 2011067887 A1 WO2011067887 A1 WO 2011067887A1 JP 2010006259 W JP2010006259 W JP 2010006259W WO 2011067887 A1 WO2011067887 A1 WO 2011067887A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
obstacle
mobile device
autonomous mobile
action
Prior art date
Application number
PCT/JP2010/006259
Other languages
English (en)
French (fr)
Inventor
中野剛
田中昌司
Original Assignee
村田機械株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 村田機械株式会社 filed Critical 村田機械株式会社
Priority to US13/513,202 priority Critical patent/US8676429B2/en
Publication of WO2011067887A1 publication Critical patent/WO2011067887A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay

Definitions

  • the present invention relates to an autonomous mobile device that autonomously moves to a destination.
  • an autonomous mobile device which stores in advance map information indicating the shape of the environment, and autonomously moves to a destination while avoiding an obstacle using this map information and measurement results of the surroundings by sensors.
  • Patent Document 1 In order to avoid the recessed part which becomes an obstacle in a traveling surface, the autonomous movement device given in patent documents 1 adds the information of a ditch which can be run to map information, memorizes it, and a recessed part which is not in map information while traveling Stop when detected.
  • the autonomous mobile device is required to autonomously execute tasks such as getting on and off the elevator and docking to the charging station.
  • these tasks are performed in an environment where moving obstacles such as people, temporarily placed cardboard, etc. have obstacles that are not in map information. For this reason, the autonomous mobile device needs to avoid these obstacles and execute the task.
  • the autonomous mobile device described in Patent Document 1 is set to stop when an obstacle not in the map information is detected, there is a risk that the execution of the task is often canceled.
  • the autonomous mobile device performs boarding on the elevator as a task, after detecting a person in the elevator and canceling boarding, even if the task execution is retried, the task is performed as long as a person is on the elevator The execution of will be cancelled. In this case, the task may take a long time to complete.
  • the task can be completed quickly if it is possible to take action appropriate to the task execution depending on the situation.
  • an object of the present invention is to provide an autonomous mobile device capable of taking an action suitable for task execution according to the situation.
  • the autonomous mobile device is an autonomous mobile device that executes a predetermined task when autonomously moving to a destination, and includes known information storage means for storing information of known obstacles, and surrounding obstacles. Identifying information of an unknown obstacle different from known obstacles stored in the known information storage means from ambient information acquisition means for acquiring information and surrounding obstacle information acquired by the ambient information acquisition means Means, a judgment information acquisition means for acquiring judgment information related to the unknown obstacle when the information of the unknown obstacle is specified by the means, and an action scenario for canceling or continuing the execution of the task Scenario storage means for storing a plurality of action scenarios including an action scenario other than the action scenario and defined to execute the task, and acquired by the determination information acquisition means Based on the determination information, characterized in that it comprises a selection means for selecting one action scenario from a plurality of action scenarios stored in the scenario storage unit.
  • the autonomous mobile device of the present invention when executing a task, information of an unknown obstacle different from known obstacles is identified from the acquired surrounding obstacle information by the specifying means.
  • the judgment information related to the unknown obstacle is acquired by the judgment information acquisition means.
  • one action scenario is selected by the selection unit from among the plurality of action scenarios.
  • the plurality of action scenarios include action scenarios defined to execute a task.
  • the action scenario defined to execute this task is an action scenario other than the action scenario for canceling or continuing the execution of the task. That is, in addition to canceling or continuing the execution of the task, it is possible to select an action scenario suitable for the execution of the task according to the situation. Therefore, even if there is an unknown obstacle, it is possible to take an action suitable for task execution depending on the situation without canceling task execution.
  • the autonomous mobile device when performing the task of getting on the elevator, if a person near the entrance in the elevator is identified as an unknown obstacle, select an action scenario such as saying "I will get on from now.” It is possible to Thus, if a person moves deep inside the elevator, the autonomous mobile device can get on the elevator without colliding with the person. That is, the task can be completed quickly by selecting an action scenario for moving a person according to the situation, instead of canceling the execution of the task.
  • the plurality of action scenarios stored by the scenario storage unit may include an action scenario indicating that the execution of the task is to be canceled or continued.
  • the determination information acquisition unit acquires a plurality of pieces of determination information and the selection unit selects an action scenario based on the plurality of pieces of determination information acquired by the determination information acquisition unit, It is preferable to select an action scenario based on integrated information calculated using at least one piece of judgment information for each of a plurality of action scenarios.
  • the action scenario is selected based on a plurality of pieces of determination information, it becomes possible to select an action scenario more suitable for the situation.
  • the comprehensive information calculated using at least one determination information for each of a plurality of action scenarios is used, information in which a plurality of pieces of determination information are integrated for each of a plurality of action scenarios is used. This makes it possible to properly execute complex information processing in which one action scenario is selected from a plurality of action scenarios based on a plurality of pieces of judgment information.
  • the determination information acquisition means includes, as the determination information related to the unknown obstacle, motion information on the movement of the unknown obstacle, and relative position information on the relative position of the unknown obstacle to the own aircraft. It is preferable to acquire at least two pieces of information on attribute information of the area where the unknown obstacle exists and the unknown obstacle.
  • the scenario storage means stores a plurality of action scenarios for each of a plurality of tasks
  • the selection means selects one action scenario from a plurality of action scenarios corresponding to each task. It is preferable to do. In this case, it is possible to select an action scenario according to the situation according to the task to be executed.
  • the known information storage means stores an environmental map indicating the area of the known obstacle as the information of the known obstacle, and the identification means includes surrounding obstacle information and the environmental map It is preferable to identify the information of an unknown obstacle by contrasting.
  • information on unknown obstacles can be identified by using an environmental map used to make a route plan.
  • the autonomous mobile device makes a route plan using the environment map, and when executing a task on the route, identifies information of an unknown obstacle and selects an action scenario according to the situation. That is, it is possible to cope with unknown obstacles that can not be dealt with only by route planning.
  • the determination information acquisition unit generates the movement information based on a history of information of an unknown obstacle.
  • the determination information can be generated using the information of the identified unknown obstacle.
  • the determination information acquisition means generate the above-mentioned motion information for each sample of information of an unknown obstacle. Furthermore, in the autonomous mobile device according to the present invention, it is preferable that the determination information acquisition means acquire the motion information, the relative position information, and the attribute information for each sample of the unknown obstacle information. In this case, it is possible to select an action scenario more suitable for the situation.
  • the relative position information is a score assigned based on the position of the own aircraft with respect to the division of the region where the unknown obstacle exists. In this case, it is possible to set a score for each category according to the degree of interference between the own aircraft and the obstacle when executing a task. Therefore, it is possible to select an action scenario more suitable for the situation.
  • the division is divided by a plurality of straight lines radially extending about the position of the own device and a plurality of concentric circles about the position of the own device.
  • the action scenario can be appropriately selected according to the position of the unknown obstacle with respect to the own aircraft.
  • a score be assigned to the division for each task.
  • the division to which the score is assigned is within a range in which surrounding obstacle information can be acquired by the surrounding information acquisition means. Thereby, the information amount of the score to memorize
  • the surrounding obstacle information is information of an obstacle existing above the traveling surface of the own vehicle.
  • the ambient information acquiring means is configured to include at least one of a laser range finder, a stereo camera, and an ultrasonic sensor.
  • the task to be performed is, for example, a ride on an elevator or a docking on a charging station.
  • FIG. 1 is a diagram for explaining the configuration of the autonomous mobile device 1 according to the present embodiment.
  • the autonomous mobile device 1 is a device that autonomously moves to a destination while avoiding obstacles such as people and objects. For example, the autonomous mobile device 1 travels in the aisle while avoiding an obstacle from the current location on the first floor in a building such as a hospital, moves to the second floor using an elevator, and docks itself at the charging station.
  • the autonomous mobile device 1 performs the information processing suitable for the task execution by activating the dedicated program set for each task, and the action scenario suitable for the task execution. Select and execute according to the situation.
  • the autonomous moving device 1 has a hollow cylindrical main body 10 made of metal, four omni wheels 11 provided on the lower side of the main body 10, and an electric motor 12 for driving the omni wheels 11. .
  • the autonomous mobile device 1 can move in any direction on the traveling surface by the rotation of the omni wheel 11.
  • the autonomous mobile device 1 includes a laser range finder 20 for detecting an obstacle around the vehicle, an electronic control unit 30 integrally controlling the autonomous movement, and a speaker 35 for speech.
  • the laser range finder 20 is attached to the front of the main body 10 and emits laser in a fan-like and horizontal direction with a central angle of 240 ° centering on its own machine, and propagation time of reflected wave reflected by obstacle for each emission angle Measure
  • the distance calculated from the emission angle and the propagation time of the reflected wave is the obstacle information of the surrounding present above the traveling surface of the autonomous mobile device 1. That is, the laser range finder 20 functions as an ambient information acquisition unit described in the claims.
  • the scanning range of the laser range finder 20 is, for example, a fan-shaped area having a radius of 4 m centering on the own machine and a central angle of 240 ° right and left centering on the front direction.
  • the electronic control unit 30 receives the measurement result output from the laser range finder 20, performs various arithmetic processing such as calculating an area in which an obstacle exists, and controls autonomous traveling. Therefore, the electronic control unit 30 includes a microprocessor for performing calculations, a ROM for storing a program for causing the microprocessor to execute each process, a RAM for temporarily storing various data such as calculation results, and the storage thereof. It is comprised from backup RAM etc. in which the content is hold
  • the electronic control unit 30 includes a storage unit 31 configured by a backup RAM, and the storage unit 31 stores an environment map 311.
  • the environmental map 311 is information indicating an area occupied by a known obstacle. That is, the storage unit 31 functions as a known information storage unit described in the claims.
  • the area occupied by the known obstacle is, for example, an area in which a wall, a pillar, furniture or the like is disposed, and is an area in which the autonomous mobile device 1 can not travel.
  • the electronic control unit 30 uses the environment map 311 and the measurement result of the laser range finder 20 to estimate an own position on the environment map 311 while avoiding an obstacle to control autonomous traveling to a destination.
  • a via point is registered in advance by the manager for each task executed by the autonomous mobile device 1.
  • the electronic control unit 30 performs route planning so as to pass through the via point of the task to be executed. Then, while detecting that the own machine has arrived at the via point while autonomously moving on the route, the electronic control unit 30 starts an execution program of the corresponding task and starts execution of the task. For example, the boarding position of the elevator is set as the via point in association with the task "lift boarding”. After detecting that the aircraft has arrived at the via point associated with the task "lift boarding", the electronic control unit 30 starts executing the task "lift board”.
  • the electronic control unit 30 executes an action scenario suitable for task execution according to the situation, so the unknown information identification unit 32 and the judgment information acquisition unit 33 , A scenario selection unit 34, and a self position estimation unit 36.
  • the storage unit 31 stores an attribute map 312 and a plurality of action scenarios set for each task. That is, the storage unit 31 functions as a scenario storage unit described in the claims.
  • the self position estimation unit 36 estimates the self position on the environmental map 311. For example, the self position estimation unit 36 collates the shape of the obstacle grasped from the obstacle information of the surroundings by the laser range finder 20 with the shape of the obstacle of the environment map 311 in order to estimate the self position, The movement amount of the autonomous mobile device 1 calculated from the rotation amount of the electric motor 12 or the like is used. In this case, the self position estimation unit 36 matches the local map created based on the obstacle information around the laser range finder 20 as the origin with the environment map 311 in consideration of the movement amount of the autonomous mobile device 1 Estimate the self position.
  • the unknown information identification unit 32 coordinate-transforms surrounding obstacle information in accordance with the coordinate system of the environmental map 311 based on the self position estimated by the self position estimation unit 36. Then, the unknown information identification unit 32 identifies unknown obstacle information that is not present in the environmental map 311 from among the obstacle information that has been subjected to the coordinate conversion. That is, the unknown information identification unit 32 functions as an acquisition unit described in the claims.
  • the unknown obstacle information is, for example, information indicating the distance of the reflected wave reflected by the unknown obstacle not on the environment map 311, such as a person or a package present in the elevator, and the emission angle thereof.
  • FIGS. 2A and 2B are diagrams for explaining the unknown information identification unit 32.
  • FIG. FIG. 2A shows surrounding obstacle information
  • FIG. 2B shows unknown obstacle information identified from the surrounding obstacle information.
  • the white area 41 is an area where a known obstacle exists
  • the dark gray area 42 is an area where a known obstacle does not exist
  • the light gray area 43 is a known obstacle Indicates an area where it is unclear whether or not an object exists.
  • the white area 41 includes the three wall surfaces constituting the edge of the elevator, and the area of the dark gray area 42 surrounded by the area 41 is the elevator It corresponds to the area within the cocoon.
  • a hatched position 45 is a via point registered for the task “lift boarding” and is a boarding position for the elevator.
  • ambient obstacle information 50 obtained by the laser range finder 20 is indicated by an arrow.
  • One arrow is sensor information indicating a set of emission angles and distances obtained from measurement results of one sample.
  • the known obstacle information 51 among the plurality of surrounding obstacle information 50 is indicated by a solid arrow, and the unknown obstacle information 52 is indicated by a dashed arrow.
  • the known obstacle information 51 is sensor information based on the reflected wave reflected by the known obstacle included in the environmental map 311, and is identified by comparing the surrounding obstacle information 50 with the environmental map 311.
  • the unknown obstacle information 52 is information of an obstacle not present in the environmental map 311, and is identified by the unknown information identification unit 32.
  • the unknown information identification unit 32 subtracts the known obstacle information 51 from the surrounding obstacle information 50 to identify the unknown obstacle information 52.
  • the judgment information acquisition unit 33 acquires a plurality of pieces of judgment information related to the unknown obstacle. That is, the determination information acquisition unit 33 functions as a determination information acquisition unit described in the claims.
  • the determination information acquisition unit 33 generates the determination information using unknown obstacle information 52 obtained by subtracting the known obstacle information 51 among the surrounding obstacle information 50. Thus, the amount of calculation can be reduced by removing the known obstacle information 51.
  • the determination information includes at least motion information, relative position information, and attribute information.
  • the determination information acquisition unit 33 includes a motion information generation unit 331 for generating motion information, a relative position information generation unit 332 for generating relative position information, and an attribute information generation unit 333 for generating attribute information.
  • the movement information is information indicating that the measurement point of the unknown obstacle information 52 is dynamic or static.
  • the unknown obstacle information of one sample indicates that there is an unknown obstacle at a measurement point at a certain time, so the motion information generation unit 331 determines the measurement point based on the history of the unknown obstacle information 52. Identifies dynamic or static.
  • the measurement point of unknown obstacle information 52 is dynamic means that an unknown obstacle exists at a certain measurement point at a certain time and there is no unknown obstacle at that measurement point at another time.
  • the measurement point of unknown obstacle information 52 is static, it means that an unknown obstacle exists at a certain measurement point at a certain time and an unknown obstacle exists at that measurement point at another time. That is, when the unknown obstacle is a movement of a person or the like, the measurement point of the changed part is determined to be dynamic by changing the area where the unknown obstacle is present. If the unknown obstacle is a stationary object such as a package, the area where the unknown obstacle is present does not change, so the measurement points in that area are determined to be static.
  • the motion information generation unit 331 acquires unknown obstacle information of n (n: natural number) frames at predetermined time intervals, and the unknown obstacle information obtained at time t and time t-1, t-2, ..., perform each comparison difference processing unknown and obstacle information obtained by the t-n.
  • the movement information generation unit 331 uses the unknown obstacle information 52, which is coordinate-converted in accordance with the coordinate system of the environment map 311, to obtain unknown unknown times of acquired time even while the autonomous mobile device 1 is moving.
  • the obstacle information 52 can be compared to generate motion information.
  • the difference processing between the unknown obstacle information obtained at time t and the unknown obstacle information obtained at time t-1 will be described with reference to FIGS. 3A to 3C.
  • 3A to 3C are diagrams for explaining the motion information generation unit 331.
  • FIG. 3A is a view showing known obstacle information 51 and unknown obstacle information 61 to 63 obtained at time t.
  • FIG. 3B is a diagram showing known obstacle information 51 and unknown obstacle information 64-66 obtained at time t-1.
  • FIG. 3C is a diagram showing the result of difference processing between the unknown obstacle information 61 to 63 obtained at time t and the unknown obstacle information 64 to 66 obtained at time t-1.
  • the matched sample 67 indicated by the dashed double-dotted arrow is the unknown obstacle information 61 and 64 matched at time t and time t-1.
  • the unmatched samples 68 and 69 indicated by solid arrows are unknown obstacle information 62 and 63 which were detected at time t and not detected at time t-1.
  • the non-matching samples 70 and 71 are unknown obstacle information 65 and 66 detected at time t-1 and not detected at time t-1.
  • the motion information generation unit 331 performs difference processing between the unknown obstacle information obtained at time t and the unknown obstacle information obtained at time t-2, ..., t-n. Then, the motion information generation unit 331 generates motion information of “no motion” for samples matched at all time points, and generates motion information of “with motion” for the other samples. In this way, the motion information generation unit 331 specifies, for each sample, whether the area where the unknown obstacle is present is dynamic or static. In order to obtain unknown obstacle information 52 for a slowly moving obstacle, it is possible to cope with it by making the number of frames n sufficiently large.
  • the relative position information is information on the relative position of the area where the unknown obstacle is present with respect to the own aircraft. More specifically, the relative position information is a score assigned based on the position of the own aircraft with respect to the division of the area where the unknown obstacle exists.
  • FIGS. 4A and 4B are diagrams for explaining the relative position information generation unit 332.
  • the relative position information generator 332 uses the pie chart 80 shown in FIG. 4A, the relative position information generator 332 generates relative position information.
  • the pie chart 80 is divided into a plurality of straight lines extending radially around the current position of the autonomous mobile device 1 and a plurality of concentric circles centered on the position of the autonomous mobile device 1.
  • the pie chart 80 is a polar coordinate plane based on the current position of the autonomous mobile device 1 and the traveling direction, and corresponds to a plane parallel to the traveling surface of the autonomous mobile device 1.
  • a score is defined for each section within a scanning range in which surrounding obstacle information can be acquired by the laser range finder 20. That is, in the pie chart 80, a sector-shaped area located in the traveling direction of the autonomous mobile device 1 is assigned a score for each section. 4A and 4B, for the sake of explanation, the case where the scanning range is a sector having a radius of 1.5 m and a central angle of 150 degrees is shown.
  • This score is defined for each task and stored by the storage unit 31.
  • the score is set for each category according to the degree of interference between the own aircraft and the obstacle when executing the task. For example, as shown in FIG. 4A, the score assigned for the task “elevator ride” is set to a score that is higher toward the center and higher toward the traveling direction. That is, when the autonomous mobile device 1 advances toward the elevator, if there is an obstacle, a high score is set in the region where collision is likely to occur.
  • the relative position information generation unit 332 uses the unknown obstacle information 52 and the pie chart 80 to calculate the score assigned to the area in which the unknown obstacle exists.
  • the score assigned to the section corresponding to the area where the unknown obstacle exists is relative position information.
  • the relative position information generation unit 332 generates relative position information for each sample of the unknown obstacle information 52.
  • Attribute information is information indicating an attribute of a region in which an unknown obstacle exists. Attribute information will be described with reference to FIGS. 5A to 5C.
  • 5A to 5C are diagrams for explaining attribute information.
  • FIG. 5A shows an environment map 311 as an example of the environment map. Black areas indicate areas without obstacles, white areas indicate areas with obstacles, and gray areas indicate areas with unknown obstacles.
  • FIG. 5C shows an attribute map 312 as an example of the attribute map.
  • FIG. 5B is a diagram in which the environment map 311 and the attribute map 312 are superimposed for the purpose of explanation.
  • the attribute map 312 holds attribute information in association with the positions of the hatched areas 90 to 92.
  • the area 91 is an area within the elevator car, and is associated with the attribute information “elevator ride detection area”.
  • the area 91 is an area in front of the elevator and is associated with the attribute information “elevator getting-off detection area”.
  • the area 92 is, for example, a landing of stairs, and is associated with attribute information “an entry prohibited area”.
  • the attribute map 312 is information in which the meaning of the area is defined.
  • the attribute map 312 can be created by the user, for example, using the environment map 311 displayed on the display.
  • the environmental map 311 and the attribute map 312 are stored in different layers and configured so as not to affect each other.
  • the attribute information generation unit 333 generates attribute information using the attribute map 312 shown in FIG. 5C.
  • 6A and 6B are diagrams for explaining the attribute information generation unit 333.
  • FIG. FIG. 6A shows an attribute map 312.
  • An area 90 shown in white is the attribute information “elevator ride detection area”.
  • the surrounding gray area is an area in which attribute information is not set.
  • known obstacle information 51 is indicated by a solid arrow and unknown obstacle information 52 is indicated by a broken arrow.
  • the attribute information generation unit 333 calculates attribute information of an area where an unknown obstacle exists, using the attribute map 312 and the unknown obstacle information 52.
  • the attribute information generation unit 333 generates attribute information for each sample of the unknown obstacle information 52.
  • the attribute of the area in which the unknown obstacle is present which is indicated by the six unknown obstacle information 52, is the "elevator ride detection area”. Note that the attribute information generation unit 333 is obtained at each time even when the autonomous mobile device 1 is moving by using unknown obstacle information 52 that is coordinate-converted in accordance with the coordinate system of the environment map 311. For the unknown obstacle information 52, the corresponding position on the attribute map 312 can be identified.
  • the judgment information acquisition unit 33 determines three pieces of judgment information, that is, movement for each sample of the unknown obstacle information 52.
  • Sensor data identification information including information, relative position information, and attribute information is acquired.
  • FIG. 7 is a diagram for explaining the determination information.
  • the sensor data identification information includes motion information m “no motion”, relative position information r “33”, and attribute information a “elevator ride detection area”.
  • the determination information acquisition unit 33 since the determination information acquisition unit 33 generates sensor data identification information for each sample, it is possible to generate high-resolution determination information by using all unknown obstacle information 52.
  • the scenario selection unit 34 will be described with reference to FIG. FIG. 8 is a diagram for explaining the scenario selection unit 34. As shown in FIG. The scenario selecting unit 34 selects one action scenario from a plurality of action scenarios based on a plurality of pieces of judgment information including the motion information, the relative position information, and the attribute information acquired by the judgment information acquiring unit 33. That is, the scenario selection unit 34 functions as a selection unit described in the claims.
  • the plurality of action scenarios include an action scenario for canceling the execution of the task, an action scenario for continuing the execution of the task as it is, and an action scenario defined for executing the task.
  • the action scenario defined in order to perform a task is an action scenario except the action scenario of canceling the execution of a task, and the action scenario of continuing execution of a task.
  • an action scenario defined to execute a task performs an action defined separately from the task, such as suspending execution of the task and suspending movement, or speaking while continuing execution of the task. It is a scenario to
  • a plurality of action scenarios are defined for each task, and are stored in the storage unit 31 in association with the task. For example, four action scenarios A1 to D1 are defined for the task “lift boarding”, and five action scenarios A2 to E2 are defined for the task “docking to a charging station”.
  • the scenario selection unit 34 inputs a plurality of sensor data identification information generated for each sample of the unknown obstacle information 52, and executes a situation determination process defined for each task. As the situation determination processing, the scenario selection unit 34 calculates a total score using at least one piece of determination information for each of a plurality of action scenarios. Arithmetic processing for calculating the total score is defined for each action scenario, and determination information as a parameter used for the arithmetic processing is also set for each action scenario.
  • the scenario selection unit 34 calculates, for the task “elevator ride”, total scores S (A1), S (B1), S (C1), and S (D1) for each of the action scenarios A1 to D1.
  • the total score S (A1) f (r, m) of the action scenario A1 is defined to be calculated using the relative position information r and the motion information m.
  • the calculation formula of the total score is defined so that the calculated total score indicates the matching degree of each of the candidate action scenarios in the situation obtained from the judgment information.
  • the scenario selection unit 34 after calculating the total score for each action scenario, selects the action scenario with the highest total score. Thereafter, the electronic control unit 30 controls the own machine so as to act in accordance with the action scenario selected by the scenario selection unit 34.
  • the action scenario A1 defined for the task “lift boarding” is "change of execution task (back)", and is an action scenario for canceling the execution of the task.
  • the action scenario A1 is selected, for example, when the elevator is full and can not continue the task.
  • this action scenario A1 is selected, the task being executed is temporarily canceled and the autonomous mobile device 1 backs, and then the task "lift boarding” is retried.
  • the action scenario B1 is “interruption of the execution task (temporary suspension of travel)”, and is an action scenario defined in advance for executing the task.
  • this action scenario B1 is selected, the task being executed is suspended temporarily, and the autonomous mobile device 1 suspends traveling. Then, for example, the task may be continued after the autonomous mobile device 1 utters “Now ride. Please be careful.” Or the like.
  • the action scenario C1 is a "speech" and is a action scenario defined in advance for executing a task.
  • the action scenario C1 is selected when there is a person in the elevator.
  • This action scenario C1 is a scenario where an utterance such as "Side from now. Please leave a space.” Is an action scenario for having a person in the elevator move. In this case, when the autonomous mobile device 1 speaks according to the situation, the situation can be changed so that the task can be executed.
  • the action scenario D1 is "continuation of execution task (ride in elevator)" and is an action scenario to continue the task as it is.
  • this action scenario D1 is selected, the autonomous mobile device 1 gets on the elevator as it is.
  • the action scenario A2 defined for the task “docking to a charging station” is a scenario in which an error is notified while the task being executed is temporarily canceled.
  • the action scenario B2 is a scenario in which the running task and the relative position detection function are suspended while the task being executed is suspended.
  • the relative position detection function is a function of calculating the relative position between the docking position of the charging station and the autonomous mobile device 1.
  • the action scenarios C2 and D2 are scenarios in which speech is given to execute a task.
  • the action scenario E2 is a scenario in which the task is continued as it is.
  • FIG. 9 is a flowchart showing the processing procedure of action scenario selection processing by the autonomous mobile device 1.
  • step S101 surrounding obstacle information 50 is acquired by the laser range finder 20.
  • step S102 the unknown obstacle information 52 is specified by the unknown information identification unit 32 from among the surrounding obstacle information 50.
  • steps S103 to S105 the movement information, the relative position information, and the attribute information are generated by the determination information acquisition unit 33 for each sample of the unknown obstacle information 52. The method of generating these pieces of determination information is as described above, and thus the detailed description is omitted here.
  • step S106 the overall score is calculated by the scenario selection unit 34 for each action scenario using the motion information, the relative position information, and the attribute information.
  • step S107 the scenario selection unit 34 selects one action scenario with the highest overall score. Then, the selected action scenario is executed.
  • the selected action scenario includes an utterance
  • audio information stored in advance in the storage unit 31 is output from the speaker 35.
  • an action scenario B1 is selected to say “I will ride from now. Please be careful.” .
  • the autonomous mobile device 1 gets on the elevator and the execution of the elevator getting-on task is completed. Thereafter, the autonomous mobile device 1 autonomously travels to the destination.
  • the unknown information identification unit 32 identifies unknown obstacle information 52 from the acquired surrounding obstacle information 50.
  • the judgment information acquisition unit 33 acquires judgment information related to the unknown obstacle.
  • one scenario scenario is selected by the scenario selection unit 34 from among the plurality of scenario scenarios A1 to D1.
  • the plurality of action scenarios A1 to D1 are action scenarios other than the action scenario for canceling or continuing the execution of the task, and include action scenarios B1 and C1 defined to execute the task. That is, in addition to canceling or continuing the execution of the task, it is possible to select an action scenario suitable for the execution of the task according to the situation. Therefore, even when there is an unknown obstacle, it is possible to take an action suitable for task execution depending on the situation without canceling task execution.
  • the autonomous mobile device 1 since the action scenario is selected based on a plurality of pieces of determination information, it becomes possible to select the action scenario suitable for the situation.
  • a total score using at least one determination information is calculated for each of a plurality of action scenarios A1 to D1, an action scenario is performed using comprehensive information obtained by integrating a plurality of determination information for each of a plurality of action scenarios A1 to D1. Is selected. This makes it possible to properly execute complex information processing in which one action scenario is selected from a plurality of action scenarios based on a plurality of pieces of judgment information.
  • the action scenario is selected based on a plurality of judgment information including the movement information, the relative position information, and the attribute information, the movement of the obstacle in executing the task involving the movement. It is possible to select an optimal action scenario according to the positional relationship between the autonomous mobile device and the obstacle, and the attribute of the area in which the obstacle is present.
  • the motion information, the relative position information, and the attribute information are information on an area related to the execution of the task, such as an area where the autonomous mobile device 1 moves or an area around it when executing the task. Therefore, it is possible to select an action scenario suitable for task execution according to the situation without detecting the movement, position, size, etc. of the unknown obstacle itself.
  • a plurality of action scenarios A1 to D1 are defined for the task “elevator ride”, and a plurality of action scenarios A2 to E2 are defined for the task "docking to a charging station”. . For this reason, it becomes possible to select an action scenario according to a situation according to the task to perform.
  • the autonomous mobile device 1 identifies the unknown obstacle information 52 by using the environment map 311 used to make a route plan.
  • the autonomous mobile device 1 makes a route plan using the environment map 311, and when executing a task on the route, identifies unknown obstacle information 52 and selects an action scenario according to the situation. . That is, it is possible to cope with unknown obstacles that can not be dealt with only by route planning.
  • the action scenario more suitable for the situation should be selected. Can.
  • the autonomous mobile device 1 since the division is divided into a plurality of straight lines extending radially about the position of the own aircraft and a plurality of concentric circles about the position of the own aircraft, the own aircraft is used as a reference The score corresponding to the direction and the distance can be used as relative position information. Therefore, the action scenario can be properly selected according to the position of the unknown obstacle with respect to the own aircraft.
  • the autonomous mobile device 1 since the score is assigned to the division for each task, it is possible to select the action scenario using the relative position information according to the task.
  • the laser range finder 20 is used as means for acquiring surrounding obstacle information, but instead of the laser range finder 20, a stereo camera or an ultrasonic sensor may be used, or a combination thereof You may use it.
  • the determination information is not limited to the combination of motion information, relative position information, and attribute information.
  • the determination information may include information indicating whether or not the unknown obstacle is a person.
  • the pie chart was used in order to produce
  • a task and an action scenario are not restricted to the said embodiment, Another task and another action scenario may be sufficient.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

 状況に応じてタスクの実行に適した行動をとることが可能な自律移動装置を提供する。 自律移動装置(1)は、目的地まで自律的に移動する際に所定のタスクを実行する自律移動装置であり、環境地図(311)を記憶する記憶部(31)と、周囲の障害物情報(50)を取得するレーザレンジファインダ(20)と、周囲の障害物情報(50)から未知の障害物情報(52)を特定する未知情報特定部(32)と、未知の障害物情報(52)が特定された場合に、該未知の障害物に関連した動き情報、相対位置情報、属性情報からなる複数の判断情報を取得する判断情報取得部(33)と、判断情報に基づいて、タスクの実行をキャンセル又は続行する旨の行動シナリオ以外の行動シナリオであってタスクを実行するために定義された行動シナリオを含む、複数の行動シナリオ(A1~D1)の中から一つの行動シナリオを選択するシナリオ選択部(34)とを備える。

Description

自律移動装置
 本発明は、目的地まで自律的に移動する自律移動装置に関する。
 従来から、環境の形状を示す地図情報を予め記憶し、この地図情報とセンサによる周囲の計測結果とを用いて、障害物を回避しながら目的地まで自律的に移動する自律移動装置が知られている(例えば、特許文献1参照)。特許文献1に記載の自律移動装置は、走行面において障害となる凹部を回避するため、走行可能な凹部の情報を地図情報に付加して記憶し、走行中に地図情報にない凹部がセンサによって検出されると停止する。
特開2005-157625公報
 ところで、自律移動装置には、エレベータへの乗降、充電ステーションへのドッキング等のタスクを自律的に実行することが求められる場合がある。通常、これらのタスクは、人などの動く障害物、一時的に置かれた段ボール等、地図情報にない障害物が存在する環境内で実行される。このため、自律移動装置は、これらの障害物を回避してタスクを実行する必要がある。
 しかしながら、上記特許文献1に記載された自律移動装置のように、地図情報にない障害物を検出した場合に停止するように設定すれば、タスクの実行が度々キャンセルされる虞がある。例えば、自律移動装置がタスクとしてエレベータへの乗車を実行する場合、エレベータ内の人を検知して乗車をキャンセルした後、タスクの実行を再試行しても、エレベータに人が乗っている限りタスクの実行はキャンセルされることになる。この場合、タスクが完了するまでに長時間かかる虞がある。
 一方、地図情報にない障害物が存在する場合であっても、状況に応じてタスクの実行に適した行動をとることができれば、タスクを早く完了させることができる。
 そこで本発明は、状況に応じてタスクの実行に適した行動をとることが可能な自律移動装置を提供することを目的とする。
 本発明の自律移動装置は、目的地まで自律的に移動する際に所定のタスクを実行する自律移動装置であって、既知の障害物の情報を記憶する既知情報記憶手段と、周囲の障害物情報を取得する周囲情報取得手段と、周囲情報取得手段によって取得された周囲の障害物情報から、既知情報記憶手段に記憶された既知の障害物とは異なる未知の障害物の情報を特定する特定手段と、特定手段によって未知の障害物の情報が特定された場合に、該未知の障害物に関連した判断情報を取得する判断情報取得手段と、タスクの実行をキャンセル又は続行する旨の行動シナリオ以外の行動シナリオであってタスクを実行するために定義された行動シナリオを含む、複数の行動シナリオを記憶するシナリオ記憶手段と、判断情報取得手段によって取得された判断情報に基づいて、シナリオ記憶手段に記憶された複数の行動シナリオの中から一つの行動シナリオを選択する選択手段と、を備えることを特徴とする。
 本発明に係る自律移動装置によれば、タスクを実行する際に、取得された周囲の障害物情報から既知の障害物とは異なる未知の障害物の情報が、特定手段によって特定される。この未知の障害物の情報が特定された場合、未知の障害物に関連した判断情報が判断情報取得手段によって取得される。そして、取得された判断情報に基づいて、複数の行動シナリオの中から一つの行動シナリオが、選択手段によって選択される。ここで、複数の行動シナリオには、タスクを実行するために定義された行動シナリオが含まれる。このタスクを実行するために定義された行動シナリオは、タスクの実行をキャンセル又は続行する旨の行動シナリオ以外の行動シナリオである。すなわち、タスクの実行をキャンセル又はそのまま続行する以外に、タスクの実行に適した行動シナリオを状況に合わせて選択することができる。従って、未知の障害物が存在する場合であっても、タスクの実行をキャンセルすることなく、状況に応じてタスクの実行に適した行動をとることが可能となる。
 例えば、エレベータへの乗車というタスクを実行する際、エレベータ内の入口付近に居る人を未知の障害物として特定した場合に、「今から乗車します。」等の発話をするという行動シナリオを選択することが可能となる。これにより、人がエレベータ内の奥に移動すれば、自律移動装置は人と衝突せずにエレベータに乗車することができる。すなわち、タスクの実行をキャンセルするのではなく、人に移動してもらうための行動シナリオを状況に合わせて選択することにより、タスクを早く完了させることができる。なお、シナリオ記憶手段によって記憶される複数の行動シナリオには、タスクの実行をキャンセル又は続行する旨の行動シナリオが含まれていてもよい。
 本発明に係る自律移動装置では、判断情報取得手段が、複数の判断情報を取得し、選択手段が、判断情報取得手段によって取得された複数の判断情報に基づいて行動シナリオを選択する際に、複数の行動シナリオ毎に少なくとも一つの判断情報を用いて演算した総合情報に基づいて行動シナリオを選択することが好ましい。
 この場合、複数の判断情報に基づいて行動シナリオを選択するので、状況により適した行動シナリオを選択することが可能となる。また、複数の行動シナリオ毎に少なくとも一つの判断情報を用いて演算した総合情報が利用されるので、複数の行動シナリオ毎に複数の判断情報を統合した情報が用いられることになる。これにより、複数の判断情報に基づいて複数の行動シナリオから1つの行動シナリオを選択するという複雑な情報処理を的確に実行することができる。
 本発明に係る自律移動装置では、判断情報取得手段が、未知の障害物に関連した判断情報として、未知の障害物の動きに関する動き情報、未知の障害物の自機に対する相対位置に関する相対位置情報、及び未知の障害物が存在する領域の属性情報のうち少なくとも2つの情報を取得することが好ましい。
 この場合、移動を伴うタスクを実行するに当たって、障害物の動き、自律移動装置と障害物との位置関係、障害物が存在する領域の属性に応じた最適な行動シナリオを選択することが可能となる。
 本発明に係る自律移動装置では、シナリオ記憶手段が、複数のタスク毎に複数の行動シナリオを記憶し、選択手段が、それぞれのタスクに対応して、複数の行動シナリオから一つの行動シナリオを選択することが好ましい。この場合、実行するタスクに応じて、行動シナリオを状況に合わせて選択することが可能となる。
 本発明に係る自律移動装置では、既知情報記憶手段が、既知の障害物の情報として、既知の障害物の領域を示す環境地図を記憶し、特定手段が、周囲の障害物情報と環境地図とを対比することにより、未知の障害物の情報を特定することが好ましい。
 この場合、経路計画を立てるために用いる環境地図を利用して、未知の障害物の情報を特定することができる。また、この場合、自律移動装置は環境地図を用いて経路計画を立て、その経路上でタスクを実行する際、未知の障害物の情報を特定し、その状況に応じて行動シナリオを選択する。すなわち、経路計画だけでは対応しきれない未知の障害物に対応することができる。
 本発明に係る自律移動装置では、判断情報取得手段が、未知の障害物の情報の履歴に基づいて、上記動き情報を生成することが好ましい。この場合、特定した未知の障害物の情報を利用して判断情報を生成することができる。
 本発明に係る自律移動装置では、判断情報取得手段が、未知の障害物の情報の1サンプル毎に上記動き情報を生成することが好ましい。更に、本発明に係る自律移動装置では、判断情報取得手段が、未知の障害物の情報の1サンプル毎に、動き情報、相対位置情報、及び属性情報を取得することも好ましい。この場合、より状況に適した行動シナリオを選択することができる。
 本発明に係る自律移動装置では、相対位置情報が、未知の障害物が存在する領域の区分に対して、自機の位置を基準に割り当てられたスコアであることが好ましい。この場合、タスクを実行する際に自機と障害物とが干渉する度合いに応じて、区分毎にスコアを設定することができる。従って、より状況に適した行動シナリオを選択することができる。
 本発明に係る自律移動装置では、区分が、自機の位置を中心として放射状に伸びた複数の直線と、自機の位置を中心とする複数の同心円によって区分けされていることが好ましい。この場合、自機を基準とした方向及び距離に応じたスコアを相対位置情報とすることができるので、自機に対する未知の障害物の位置に応じて行動シナリオを的確に選択することができる。
 本発明に係る自律移動装置では、スコアが、タスク毎に区分に対して割り当てられていることが好ましい。これにより、タスクに応じた相対位置情報を用いて行動シナリオを選択することができる。
 本発明に係る自律移動装置では、スコアの割り当てられる区分が、周囲情報取得手段によって周囲の障害物情報が取得可能な範囲内であることも好ましい。これにより、記憶するスコアの情報量を抑制することができる。
 本発明に係る自律移動装置では、周囲の障害物情報が、自機の走行面より上に存在する障害物の情報であることも好ましい。このような周囲の障害物情報の中から特定された未知の障害物の情報を利用することにより、状況に適した行動シナリオを選択することができる。
 本発明に係る自律移動装置では、周囲情報取得手段が、レーザレンジファインダ、ステレオカメラ、超音波センサのうち少なくとも一つを含んで構成される。
 本発明に係る自律移動装置では、実行するタスクが、例えばエレベータへの乗車又は充電ステーションへのドッキングである。
 本発明によれば、状況に応じてタスクの実行に適した行動をとることが可能となる。
本実施形態に係る自律移動装置の構成を説明するための図である。 自律移動装置が備える未知情報特定部について説明するための図である。 自律移動装置が備える未知情報特定部について説明するための図である。 自律移動装置が備える動き情報生成部について説明するための図である。 自律移動装置が備える動き情報生成部について説明するための図である。 自律移動装置が備える動き情報生成部について説明するための図である。 自律移動装置が備える相対位置情報生成部について説明するための図である。 自律移動装置が備える相対位置情報生成部について説明するための図である。 自律移動装置が記憶する属性地図について説明するための図である。 自律移動装置が記憶する属性地図について説明するための図である。 自律移動装置が記憶する属性地図について説明するための図である。 自律移動装置が備える属性情報生成部について説明するための図である。 自律移動装置が備える属性情報生成部について説明するための図である。 自律移動装置が生成する判断情報について説明するための図である。 自律移動装置が備えるシナリオ選択部について説明するための図である。 自律移動装置による行動シナリオの選択処理の処理手順を示すフローチャートである。
 以下、図面を参照して本発明の好適な実施形態について詳細に説明する。
 まず、図1を参照して、本実施形態に係る自律移動装置1の構成について説明する。図1は、本実施形態に係る自律移動装置1の構成を説明するための図である。自律移動装置1は、人及び物等の障害物を回避して目的地まで自律的に移動する装置である。例えば、自律移動装置1は、病院等の建物内において一階の現在地から障害物を回避しながら通路を走行し、エレベータを使って二階に移動し、充電ステーションに自らドッキングする。
 エレベータの乗車及び降車、充電ステーションへのドッキングといった移動を伴うタスクの実行は、通路の走行に比べて比較的複雑である。このため、自律移動装置1は、タスクを実行する際に、タスク毎に設定された専用プログラムを起動することで、タスクの実行に適した情報処理を行い、タスクの実行に適した行動シナリオを状況に合わせて選択し実行する。
 この自律移動装置1は、金属で形成された中空円柱状の本体10と、本体10の下側に設けられた4つのオムニホイール11と、オムニホイール11を駆動する電動モータ12を有している。自律移動装置1は、オムニホイール11の回転によって、走行面において任意の方向に移動することができる。また、自律移動装置1は、周囲の障害物を検出するためのレーザレンジファインダ20と、自律移動を統合的に制御する電子制御装置30と、発話するためのスピーカ35とを備えている。
 レーザレンジファインダ20は、本体10の正面に取り付けられ、自機を中心とした中心角240°の扇状且つ水平方向にレーザを射出し、各射出角度について、障害物により反射した反射波の伝播時間を計測する。射出角度、及び反射波の伝播時間から算出される距離が、自律移動装置1の走行面より上に存在する周囲の障害物情報である。すなわち、レーザレンジファインダ20は、特許請求の範囲に記載の周囲情報取得手段として機能する。レーザレンジファインダ20の走査範囲は、例えば、自機を中心として半径が4m、中心角が正面方向を中心にして左右240°の扇状の領域である。
 電子制御装置30は、レーザレンジファインダ20から出力された計測結果を入力して、障害物が存在する領域を算出する等の各種演算処理を行い、自律走行を制御する。このため、電子制御装置30は、演算を行うマイクロプロセッサ、マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果などの各種データを一時的に記憶するRAM、及び、その記憶内容が保持されるバックアップRAM等から構成されている。
 電子制御装置30は、バックアップRAMによって構成された記憶部31を備え、この記憶部31には、環境地図311が記憶されている。環境地図311は、既知の障害物が占める領域を示す情報である。すなわち、記憶部31は、特許請求の範囲に記載の既知情報記憶手段として機能する。なお、既知の障害物が占める領域は、例えば、壁、柱、家具等が配置された領域であり、自律移動装置1が走行不可能な領域である。
 電子制御装置30は、環境地図311とレーザレンジファインダ20の計測結果とを用いて、環境地図311上における自己位置を推定しつつ障害物を回避して目的地までの自律走行を制御する。
 環境地図311には、自律移動装置1が実行するタスク毎に経由地ポイントが管理者により予め登録されている。電子制御装置30は、目的地までの走行経路を計画する際に、実行するタスクの経由地ポイントを通るように経路計画を行う。そして、電子制御装置30は、経路上を自律的に移動中、自機が経由地ポイントに到着したことを検出した後、該当するタスクの実行プログラムを起動し、タスクの実行を開始する。例えば、タスク「エレベータ乗車」と関連付けて、エレベータの乗車位置が経由地ポイントとして設定されている。電子制御装置30は、タスク「エレベータ乗車」と関連付けられた経由地ポイントに自機が到着したことを検出した後、タスク「エレベータ乗車」の実行を開始する。
 電子制御装置30は、環境地図311にない未知の障害物が検出された場合に、タスクの実行に適した行動シナリオを状況に合わせて実行するため、未知情報特定部32、判断情報取得部33、シナリオ選択部34、及び自己位置推定部36を備える。また、記憶部31は、上記の環境地図311に加えて、属性地図312、及びタスク毎に設定された複数の行動シナリオを記憶している。すなわち、記憶部31は、特許請求の範囲に記載のシナリオ記憶手段として機能する。
 自己位置推定部36は、環境地図311上の自己位置を推定する。自己位置推定部36は、自己位置を推定するために、例えば、レーザレンジファインダ20による周囲の障害物情報から把握される障害物の形状と環境地図311の障害物の形状とを照合した結果、電動モータ12の回転量等から演算した自律移動装置1の移動量等を用いる。この場合、自己位置推定部36は、レーザレンジファインダ20を原点にして周囲の障害物情報に基づいて作成されたローカルマップを、自律移動装置1の移動量を考慮して環境地図311と照合することにより、自己位置を推定する。
 未知情報特定部32は、自己位置推定部36によって推定された自己位置を基準に、環境地図311の座標系に合わせて周囲の障害物情報を座標変換する。そして、未知情報特定部32は、座標変換された周囲の障害物情報の中から、環境地図311にない未知の障害物情報を特定する。すなわち、未知情報特定部32は、特許請求の範囲に記載の取得手段として機能する。未知の障害物情報とは、例えば、エレベータ内に存在する人や荷物等、環境地図311にない未知の障害物によって反射した反射波の距離及びその射出角度を示す情報である。
 図2A,図2Bを参照して、未知の障害物情報を特定する方法を説明する。図2A,図2Bは、未知情報特定部32を説明するための図である。図2Aは周囲の障害物情報を示し、図2Bは、周囲の障害物情報から特定した未知の障害物情報を示している。図2A,図2Bに示す環境地図311において、白色の領域41は既知の障害物が存在する領域、濃い灰色の領域42は既知の障害物が存在しない領域、薄い灰色の領域43は既知の障害物が存在するか否かが不明の領域を示す。
 エレベータ周辺を示す環境地図311を一例として説明すると、白色の領域41は、エレベータの籠を構成する3つの壁面を含み、濃い灰色の領域42のうち領域41に3方を囲まれた領域がエレベータの籠内の領域に相当する。ハッチングで示す位置45は、タスク「エレベータ乗車」について登録された経由地ポイントであり、エレベータへの乗車位置である。この位置45に自律移動装置1が到着した後、タスクの実行が開始され、レーザレンジファインダ20により例えばエレベータに向けてレーザが出力される。これにより、自律移動装置1は、エレベータの籠内を走査し、周囲の障害物情報50を取得する。
 図2Aでは、レーザレンジファインダ20によって得られた周囲の障害物情報50が矢印で示されている。一つの矢印が、1サンプルの測定結果から得られる一組の射出角度及び距離を示すセンサ情報である。図2Bでは、複数の周囲の障害物情報50のうち既知の障害物情報51が実線の矢印で示され、未知の障害物情報52が破線の矢印で示されている。
 既知の障害物情報51は、環境地図311に含まれる既知の障害物により反射した反射波によるセンサ情報であり、周囲の障害物情報50と環境地図311とを対比することにより特定される。未知の障害物情報52は、環境地図311にない障害物の情報であり、未知情報特定部32によって特定される。未知情報特定部32は、周囲の障害物情報50から、既知の障害物情報51を差し引いて未知の障害物情報52を特定する。
 判断情報取得部33は、未知の障害物情報52が特定されると、未知の障害物に関連した複数の判断情報を取得する。すなわち、判断情報取得部33は、特許請求の範囲に記載の判断情報取得手段として機能する。判断情報取得部33は、周囲の障害物情報50のうち既知の障害物情報51を差し引いた未知の障害物情報52を用いて判断情報を生成する。このように、既知の障害物情報51を除くことにより、計算量を少なくすることができる。
 判断情報は、動き情報、相対位置情報、及び属性情報を少なくとも含む。判断情報取得部33は、動き情報を生成するための動き情報生成部331、相対位置情報を生成するための相対位置情報生成部332、属性情報を生成するための属性情報生成部333を備える。
 動き情報は、未知の障害物情報52の測定点が動的か静的を示す情報である。1サンプルの未知の障害物情報は、ある時刻ある測定点に未知の障害物が存在することを示すので、動き情報生成部331は、この未知の障害物情報52の履歴に基づいて、測定点が動的か静的を特定する。
 ここで、未知の障害物情報52の測定点が動的とは、ある時刻ある測定点に未知の障害物が存在し、別の時刻にその測定点に未知の障害物が存在しない場合をいう。未知の障害物情報52の測定点が静的とは、ある時刻ある測定点に未知の障害物が存在し、別の時刻にもその測定点に未知の障害物が存在する場合をいう。すなわち、未知の障害物が人等の動くものである場合、未知の障害物の存在する領域が変化することにより、変化があった部分の測定点は動的と判定される。未知の障害物が荷物等の動かない物である場合、未知の障害物の存在する領域は変化しないので、その領域内の測定点は静的と判定される。
 動き情報生成部331は、所定の時間間隔でn(n:自然数)フレームの未知の障害物情報を取得し、時刻tで得られた未知の障害物情報と時刻t-1,t-2,・・・,t-nで得られた未知の障害物情報とをそれぞれ比較し差分処理を行う。動き情報生成部331は、環境地図311の座標系に合わせて座標変換された未知の障害物情報52を用いることにより、自律移動装置1が移動中であっても、取得した時刻の異なる未知の障害物情報52を比較して動き情報を生成することができる。図3A~図3Cを参照して、時刻tで得られた未知の障害物情報と時刻t-1で得られた未知の障害物情報との差分処理について説明する。図3A~図3Cは、動き情報生成部331を説明するための図である。
 図3Aは、時刻tで得られる既知の障害物情報51及び未知の障害物情報61~63を示す図である。図3Bは、時刻t-1で得られる既知の障害物情報51及び未知の障害物情報64~66を示す図である。図3Cは、時刻tで得られた未知の障害物情報61~63と時刻t-1で得られた未知の障害物情報64~66とを比較し差分処理をした結果を示す図である。
 図3Cにおいて、二点鎖線の矢印で示した一致サンプル67は、時刻tと時刻t-1とで一致した未知の障害物情報61,64である。実線の矢印で示した不一致サンプル68,69は、時刻tに検出され時刻t-1に検出されなかった未知の障害物情報62,63である。不一致サンプル70,71は、時刻t-1に検出され時刻tに検出されなかった未知の障害物情報65,66である。
 同様に、動き情報生成部331は、時刻tで得られた未知の障害物情報と時刻t-2,・・・,t-nで得られた未知の障害物情報との差分処理を行う。そして、動き情報生成部331は、全ての時刻について一致したサンプルについては「動きなし」の動き情報を生成し、それ以外のサンプルについては「動きあり」の動き情報を生成する。このようにして、動き情報生成部331は、1サンプル毎に未知の障害物の存在する領域が動的か静的かを特定する。なお、動きの遅い障害物について、未知の障害物情報52を得るためには、フレーム数nを十分に大きくすることで対処できる。
 相対位置情報は、未知の障害物が存在する領域の自機に対する相対位置に関する情報である。より具体的には、相対位置情報は、未知の障害物が存在する領域の区分に対して、自機の位置を基準に割り当てられたスコアである。
 図4A,図4Bを参照して、相対位置情報について説明する。図4A,図4Bは、相対位置情報生成部332を説明するための図である。図4Aに示されるパイチャート80を利用して、相対位置情報生成部332は、相対位置情報を生成する。パイチャート80は、自律移動装置1の現在位置を中心として放射状に伸びた複数の直線と、自律移動装置1の位置を中心とする複数の同心円によって区分けされている。パイチャート80は、自律移動装置1の現在位置と進行方向とを基準とした極座標平面であり、自律移動装置1の走行面と平行な面に対応する。
 パイチャート80において、レーザレンジファインダ20によって周囲の障害物情報が取得可能な走査範囲内の区分にそれぞれスコアが定義されている。すなわち、パイチャート80において、自律移動装置1の進行方向に位置する扇形形状の領域は、区分毎にスコアが割り当てられている。なお、図4A,図4Bでは、説明のため、走査範囲が半径1.5m、中心角150度の扇形である場合を示している。
 このスコアは、タスク毎に定義され、記憶部31によって記憶されている。また、スコアは、タスクを実行する際に自機と障害物とが干渉する度合いに応じて、区分毎に設定されている。例えば、図4Aに示されるように、タスク「エレベータ乗車」について割り当てられたスコアは、中心ほど高いスコアに設定されると共に、進行方向ほど高いスコアに設定されている。すなわち、自律移動装置1がエレベータに向かって前進する際に、障害物が存在した場合、衝突しやすい領域に高いスコアが設定されている。
 図4Bに示すように、相対位置情報生成部332は、未知の障害物情報52とパイチャート80とを用いて、未知の障害物が存在する領域に割り当てられたスコアを算出する。パイチャート80において、未知の障害物が存在する領域に相当する区分に割り当てられたスコアが、相対位置情報となる。相対位置情報生成部332は、未知の障害物情報52のサンプル毎に相対位置情報を生成する。
 属性情報は、未知の障害物が存在する領域の属性を示す情報である。図5A~図5Cを参照して、属性情報について説明する。図5A~図5Cは、属性情報を説明するための図である。図5Aは、環境地図の一例として環境地図311を示す。黒色の領域が障害物のない領域を示し、白色の領域が障害物のある領域を示し、灰色の領域は障害物があるか否か未知の領域を示している。
 図5Cは、属性地図の一例として属性地図312を示す。図5Bは、説明のために環境地図311と属性地図312とを重ね合わせた図である。属性地図312は、ハッチングで示したエリア90~92の位置と関連付けて属性情報を保持している。
 エリア91は、エレベータの籠内の領域であり、属性情報「エレベータ乗車時検知エリア」と関連付けられている。エリア91は、エレベータ前の領域であり、属性情報「エレベータ降車時検知エリア」と関連付けられている。エリア92は、例えば階段の踊り場などであり、属性情報「進入禁止エリア」と関連付けられている。
 すなわち、属性地図312は、領域の意味が定義された情報である。この属性地図312は、例えば、ディスプレイに表示された環境地図311を利用してユーザが作成することができる。ただし、環境地図311と属性地図312とは、異なるレイヤーで保存され、相互に影響を及ぼさないように構成されている。
 属性情報生成部333は、図5Cに示される属性地図312を利用して属性情報を生成する。図6A,図6Bは、属性情報生成部333を説明するための図である。図6Aは、属性地図312を示している。白色で示すエリア90が属性情報「エレベータ乗車時検知エリア」である。周囲の灰色の領域は、属性情報が設定されていない領域である。図6Bでは、既知の障害物情報51が実線の矢印で示され、未知の障害物情報52が破線の矢印で示されている。
 属性情報生成部333は、属性地図312と未知の障害物情報52とを用いて未知の障害物が存在する領域の属性情報を算出する。属性情報生成部333は、未知の障害物情報52のサンプル毎に属性情報を生成する。図6Bに示されるように、6つの未知の障害物情報52によって示される未知の障害物が存在する領域の属性は、「エレベータ乗車時検知エリア」である。なお、属性情報生成部333は、環境地図311の座標系に合わせて座標変換された未知の障害物情報52を用いることにより、自律移動装置1が移動中であっても、各時刻に取得された未知の障害物情報52について、属性地図312上の対応する位置を特定することができる。
 以上説明した動き情報生成部331、相対位置情報生成部332、及び属性情報生成部333によって、判断情報取得部33は、未知の障害物情報52について1サンプル毎に、3つの判断情報、つまり動き情報、相対位置情報及び属性情報からなるセンサデータ識別情報を取得する。図7は、判断情報について説明するための図である。
 図7に示されるように、未知の障害物情報52として3つのサンプルが取得された場合に、3つのサンプル毎にセンサデータ識別情報が生成される。例えば、センサデータ識別情報は、動き情報m「動きなし」、相対位置情報r「33」、属性情報a「エレベータ乗車時検知エリア」を含む。このように、判断情報取得部33は、サンプル毎にセンサデータ識別情報を生成するので、未知の障害物情報52を全て利用して、分解能の高い判断情報を生成することができる。
 図8を参照して、シナリオ選択部34について説明する。図8は、シナリオ選択部34を説明するための図である。シナリオ選択部34は、判断情報取得部33によって取得された動き情報、相対位置情報、及び属性情報からなる複数の判断情報に基づいて、複数の行動シナリオから一つの行動シナリオを選択する。すなわち、シナリオ選択部34は、特許請求の範囲に記載の選択手段として機能する。
 複数の行動シナリオは、タスクの実行をキャンセルする旨の行動シナリオ、タスクの実行をそのまま続行する旨の行動シナリオ、及びタスクを実行するために定義された行動シナリオを含む。なお、タスクを実行するために定義された行動シナリオは、タスクの実行をキャンセルする旨の行動シナリオ、及びタスクの実行を続行する旨の行動シナリオ以外の行動シナリオである。例えば、タスクを実行するために定義された行動シナリオは、タスクの実行を一時中断すると共に移動を一時停止する、タスクの実行を続行しながら発話するといった、タスクとは別に定義された行動を実行するためのシナリオである。
 複数の行動シナリオは、タスク毎に定義され、タスクと関連付けて記憶部31に記憶されている。例えば、タスク「エレベータ乗車」については、4つの行動シナリオA1~D1が定義され、タスク「充電ステーションへのドッキング」については5つの行動シナリオA2~E2が定義されている。
 シナリオ選択部34は、未知の障害物情報52のサンプル毎に生成された複数のセンサデータ識別情報を入力し、タスク毎に定義された状況判断処理を実行する。状況判断処理として、シナリオ選択部34は、複数の行動シナリオ毎に少なくとも一つの判断情報を用いて総合スコアを演算する。行動シナリオ毎に総合スコアを演算するための演算処理が定義され、その演算処理に用いるパラメータとしての判断情報も行動シナリオ毎に設定されている。
 例えば、シナリオ選択部34は、タスク「エレベータ乗車」について、行動シナリオA1~D1毎の総合スコアS(A1),S(B1),S(C1),S(D1)を演算する。行動シナリオA1の総合スコアS(A1)=f(r,m)は、相対位置情報rと動き情報mとを用いて演算するように定義されている。
 総合スコアの演算式は、判断情報から得られる状況において、演算される総合スコアが候補となる各行動シナリオの適合度合いを示すように定義されている。シナリオ選択部34は、行動シナリオ毎に総合スコアを演算した後、総合スコアが最も高い行動シナリオを選択する。その後、電子制御装置30が、シナリオ選択部34によって選択された行動シナリオに沿って行動するように自機の制御を行う。
 例えば、タスク「エレベータ乗車」について定義された行動シナリオA1は「実行タスクの変更(バックする)」であり、タスクの実行をキャンセルする旨の行動シナリオである。行動シナリオA1は、例えば、エレベータが満員等、タスクを続行できない場合に選択される。この行動シナリオA1が選択された場合には、実行しているタスクが一旦キャンセルされると共に自律移動装置1がバックし、その後、タスク「エレベータ乗車」が再試行される。
 行動シナリオB1は、「実行タスクの中断(走行の一時停止)」であり、タスクを実行するために予め定義された行動シナリオである。この行動シナリオB1が選択された場合には、実行しているタスクが一時中断され、自律移動装置1が走行を一時停止する。そして、例えば、自律移動装置1が「今から乗ります。ご注意下さい。」等の発話をした後、タスクが続行されてもよい。
 行動シナリオC1は、「発話」であり、タスクを実行するために予め定義された行動シナリオである。例えば、行動シナリオC1は、エレベータ内に人がいる場合に選択される。この行動シナリオC1は、「今から乗ります。スペースを空けて下さい。」等の発話を行うシナリオであり、エレベータ内の人に移動してもらうための行動シナリオである。この場合、自律移動装置1が状況に合わせた発話を行うことにより、タスクを実行できるように状況を変えることができる。
 行動シナリオD1は、「実行タスクの続行(エレベータに乗車)」であり、タスクをそのまま続行する旨の行動シナリオである。この行動シナリオD1が選択された場合、自律移動装置1はそのままエレベータに乗車する。
 また、タスク「充電ステーションへのドッキング」について定義された行動シナリオA2は、実行しているタスクが一旦キャンセルされると共にエラーが通知されるシナリオである。行動シナリオB2は、実行しているタスクが一時中断されると共に、走行及び相対位置検知機能が一時停止されるシナリオである。なお、相対位置検知機能は、充電ステーションのドッキング位置と自律移動装置1との相対位置を算出する機能である。行動シナリオC2,D2は、タスクを実行するために発話がなされるシナリオである。行動シナリオE2は、タスクをそのまま続行するシナリオである。
 次に、図9を用いて自律移動装置1の動作について説明する。図9は、自律移動装置1による行動シナリオの選択処理の処理手順を示すフローチャートである。
 自律移動装置1が、経路に沿って目的地まで自律的に移動する途中で、タスクについて設定された経由地ポイントに自機が到着した後、該当するタスクの実行が開始される。そして、ステップS101において、周囲の障害物情報50が、レーザレンジファインダ20によって取得される。次に、ステップS102において、未知の障害物情報52が、周囲の障害物情報50の中から未知情報特定部32によって特定される。続いて、ステップS103~S105において、未知の障害物情報52のサンプル毎に、動き情報、相対位置情報、及び属性情報が、判断情報取得部33によって生成される。これらの判断情報の生成方法は、上述した通りであるので、ここでは詳細な説明を省略する。
 そして、ステップS106において、総合スコアが、動き情報、相対位置情報、及び属性情報を用いて行動シナリオ毎にシナリオ選択部34によって算出される。続いて、ステップS107において、最も総合スコアの高い一つの行動シナリオが、シナリオ選択部34によって選択される。そして、選択された行動シナリオが実行される。なお、選択された行動シナリオが発話を含む場合、予め記憶部31に記憶された音声情報が、スピーカ35から出力される。
 例えば、タスク「エレベータ乗車」が実行される際、未知の障害物がエレベータ内に居る人である場合には、「今から乗ります。ご注意ください。」と発話する行動シナリオB1が選択される。発話により人が移動すれば、自律移動装置1はエレベータに乗車し、エレベータ乗車タスクの実行が完了する。その後、自律移動装置1は、目的地まで自律的に移動する。
 以上説明した自律移動装置1によれば、タスクを実行する際に、取得された周囲の障害物情報50から未知の障害物情報52が、未知情報特定部32によって特定される。この未知の障害物情報52が特定された場合、未知の障害物に関連した判断情報が判断情報取得部33によって取得される。そして、取得された判断情報に基づいて、複数の行動シナリオA1~D1の中から一つの行動シナリオが、シナリオ選択部34によって選択される。複数の行動シナリオA1~D1には、タスクの実行をキャンセル又は続行する旨の行動シナリオ以外の行動シナリオであって、タスクを実行するために定義された行動シナリオB1,C1が含まれる。すなわち、タスクの実行をキャンセル又はそのまま続行する以外に、タスクの実行に適した行動シナリオを状況に合わせて選択することができる。従って、未知の障害物が存在する場合であっても、タスクの実行をキャンセルすることなく、状況に応じてタスクの実行に適した行動をとることが可能となる。
 また、自律移動装置1では、複数の判断情報に基づいて行動シナリオを選択するので、状況により適した行動シナリオを選択することが可能となる。また、複数の行動シナリオA1~D1毎に少なくとも一つの判断情報を用いた総合スコアが演算されるので、複数の行動シナリオA1~D1毎に複数の判断情報を統合した総合情報を用いて行動シナリオが選択される。これにより、複数の判断情報に基づいて複数の行動シナリオから1つの行動シナリオを選択するという複雑な情報処理を的確に実行することができる。
 また、自律移動装置1では、動き情報、相対位置情報、及び属性情報からなる複数の判断情報に基づいて、行動シナリオが選択されるので、移動を伴うタスクを実行するに当たって、障害物の動き、自律移動装置と障害物との位置関係、障害物が存在する領域の属性に応じた最適な行動シナリオを選択することが可能となる。また、動き情報、相対位置情報、及び属性情報は、タスクを実行するに当たって自律移動装置1が移動する領域又はその周囲の領域等、タスクの実行に関わる領域についての情報である。従って、未知の障害物自体の動き、位置、大きさ等を検出することなく、タスクの実行に適した行動シナリオを状況に合わせて選択することができる。
 また、自律移動装置1では、タスク「エレベータ乗車」に対して複数の行動シナリオA1~D1が定義され、タスク「充電ステーションへのドッキング」に対して複数の行動シナリオA2~E2が定義されている。このため、実行するタスクに応じて、行動シナリオを状況に合わせて選択することが可能となる。
 また、自律移動装置1では、経路計画を立てるために用いる環境地図311を利用して、未知の障害物情報52を特定する。この場合、自律移動装置1は、環境地図311を用いて経路計画を立て、その経路上でタスクを実行する際、未知の障害物情報52を特定し、その状況に応じて行動シナリオを選択する。すなわち、経路計画だけでは対応しきれない未知の障害物に対応することができる。
 また、自律移動装置1では、タスクを実行する際に自機と障害物とが干渉する度合いに応じて、区分毎にスコアを設定しているので、より状況に適した行動シナリオを選択することができる。
 また、自律移動装置1では、区分が、自機の位置を中心として放射状に伸びた複数の直線と、自機の位置を中心とする複数の同心円によって区分けされているので、自機を基準とした方向及び距離に応じたスコアを相対位置情報とすることができる。従って、自機に対する未知の障害物の位置に応じて行動シナリオを的確に選択することができる。
 また、自律移動装置1では、スコアが、タスク毎に区分に対して割り当てられているため、タスクに応じた相対位置情報を用いて行動シナリオを選択することができる。
 以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に限定されるものではなく種々の変形が可能である。例えば、上記実施形態では、周囲の障害物情報を取得する手段としてレーザレンジファインダ20を用いたが、レーザレンジファインダ20に代えて、ステレオカメラ、超音波センサを用いてもよいし、これらを組み合わせて用いてもよい。
 また、例えば、上記実施形態では、動き情報として、未知の障害物情報の測定点が動的か静的を示す情報を用いたが、未知の障害物自体が動的か否かを検出し、その結果を動き情報として用いてもよい。また、判断情報は、動き情報、相対位置情報、属性情報の組み合わせに限られない。例えば、判断情報には、未知の障害物が人か否かを示す情報が含まれていてもよい。また、上記実施形態では、相対位置情報を生成するためにパイチャートを用いたが、グリット状に分割されたチャートを用いてもよい。また、タスク、行動シナリオは、上記実施形態に限られず、他のタスク、他の行動シナリオであってもよい。
 1 自律移動装置
 20 レーザレンジファインダ
 30 電子制御装置
 31 記憶部
 311 環境地図
 312 属性地図
 32 未知情報特定部
 33 判断情報取得部
 331 動き情報生成部
 332 相対位置情報生成部
 333 属性情報生成部
 34 シナリオ選択部
 50 周囲の障害物情報
 51 既知の障害物情報
 52 未知の障害物情報

Claims (20)

  1.  目的地まで自律的に移動する際に所定のタスクを実行する自律移動装置において、
     既知の障害物の情報を記憶する既知情報記憶手段と、
     周囲の障害物情報を取得する周囲情報取得手段と、
     前記周囲情報取得手段によって取得された周囲の障害物情報から、前記既知情報記憶手段に記憶された既知の障害物とは異なる未知の障害物の情報を特定する特定手段と、
     前記特定手段によって未知の障害物の情報が特定された場合に、該未知の障害物に関連した判断情報を取得する判断情報取得手段と、
     前記タスクの実行をキャンセル又は続行する旨の行動シナリオ以外の行動シナリオであって前記タスクを実行するために定義された行動シナリオを含む、複数の行動シナリオを記憶するシナリオ記憶手段と、
     前記判断情報取得手段によって取得された判断情報に基づいて、前記シナリオ記憶手段に記憶された複数の行動シナリオの中から一つの行動シナリオを選択する選択手段と、
     を備えることを特徴とする自律移動装置。
  2.  前記判断情報取得手段は、複数の前記判断情報を取得し、
     前記選択手段は、前記判断情報取得手段によって取得された複数の判断情報に基づいて前記行動シナリオを選択する際に、前記複数の行動シナリオ毎に少なくとも一つの前記判断情報を用いて演算した総合情報に基づいて前記行動シナリオを選択することを特徴とする請求項1に記載の自律移動装置。
  3.  前記判断情報取得手段は、前記未知の障害物に関連した判断情報として、
      前記未知の障害物の動きに関する動き情報、
      前記未知の障害物の自機に対する相対位置に関する相対位置情報、
      前記未知の障害物が存在する領域の属性情報、
     のうち少なくとも2つの情報を取得することを特徴とする請求項2に記載の自律移動装置。
  4.  前記シナリオ記憶手段は、複数の前記タスク毎に前記複数の行動シナリオを記憶し、
     前記選択手段は、それぞれの前記タスクに対応して、前記複数の行動シナリオから一つの行動シナリオを選択することを特徴とする請求項1に記載の自律移動装置。
  5.  前記既知情報記憶手段は、前記既知の障害物の情報として、前記既知の障害物の領域を示す環境地図を記憶し、
     前記特定手段は、前記周囲の障害物情報と前記環境地図とを対比することにより、前記未知の障害物の情報を特定することを特徴とする請求項1に記載の自律移動装置。
  6.  前記判断情報取得手段は、前記未知の障害物の情報の履歴に基づいて前記動き情報を生成することを特徴とする請求項3に記載の自律移動装置。
  7.  前記判断情報取得手段は、前記未知の障害物の情報の1サンプル毎に前記動き情報を生成することを特徴とする請求項3に記載の自律移動装置。
  8.  前記判断情報取得手段は、前記未知の障害物の情報の1サンプル毎に、前記動き情報、前記相対位置情報、及び前記属性情報を取得することを特徴とする請求項3に記載の自律移動装置。
  9.  前記相対位置情報は、前記未知の障害物が存在する領域の区分に対して、自機の位置を基準に割り当てられたスコアであることを特徴とする請求項3に記載の自律移動装置。
  10.  前記区分は、自機の位置を中心として放射状に伸びた複数の直線と、前記自機の位置を中心とする複数の同心円によって区分けされていることを特徴とする請求項9に記載の自律移動装置。
  11.  前記スコアは、前記タスク毎に前記区分に対して割り当てられていることを特徴とする請求項9に記載の自律移動装置。
  12.  前記スコアが割り当てられる区分は、前記周囲情報取得手段によって前記周囲の障害物情報が取得可能な範囲内であることを特徴とする請求項9に記載の自律移動装置。
  13.  前記周囲の障害物情報は、自機の走行面より上に存在する障害物の情報であることを特徴とする請求項1に記載の自律移動装置。
  14.  前記周囲情報取得手段は、レーザレンジファインダ、ステレオカメラ、超音波センサのうち少なくとも一つを含んで構成されることを特徴とする請求項1に記載の自律移動装置。
  15.  前記タスクは、エレベータへの乗車であることを特徴とする請求項1に記載の自律移動装置。
  16.  前記タスクは、充電ステーションへのドッキングであることを特徴とする請求項1に記載の自律移動装置。
  17.  前記シナリオ記憶手段は、複数の前記タスク毎に前記複数の行動シナリオを記憶し、
     前記選択手段は、それぞれの前記タスクに対応して、前記複数の行動シナリオから一つの行動シナリオを選択することを特徴とする請求項2に記載の自律移動装置。
  18.  前記シナリオ記憶手段は、複数の前記タスク毎に前記複数の行動シナリオを記憶し、
     前記選択手段は、それぞれの前記タスクに対応して、前記複数の行動シナリオから一つの行動シナリオを選択することを特徴とする請求項3に記載の自律移動装置。
  19.  前記既知情報記憶手段は、前記既知の障害物の情報として、前記既知の障害物の領域を示す環境地図を記憶し、
     前記特定手段は、前記周囲の障害物情報と前記環境地図とを対比することにより、前記未知の障害物の情報を特定することを特徴とする請求項2に記載の自律移動装置。
  20.  前記既知情報記憶手段は、前記既知の障害物の情報として、前記既知の障害物の領域を示す環境地図を記憶し、
     前記特定手段は、前記周囲の障害物情報と前記環境地図とを対比することにより、前記未知の障害物の情報を特定することを特徴とする請求項3に記載の自律移動装置。
     
PCT/JP2010/006259 2009-12-02 2010-10-22 自律移動装置 WO2011067887A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/513,202 US8676429B2 (en) 2009-12-02 2010-10-22 Autonomous mobile device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009274519A JP5803054B2 (ja) 2009-12-02 2009-12-02 自律移動装置
JP2009-274519 2009-12-02

Publications (1)

Publication Number Publication Date
WO2011067887A1 true WO2011067887A1 (ja) 2011-06-09

Family

ID=44114750

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/006259 WO2011067887A1 (ja) 2009-12-02 2010-10-22 自律移動装置

Country Status (3)

Country Link
US (1) US8676429B2 (ja)
JP (1) JP5803054B2 (ja)
WO (1) WO2011067887A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014027945A1 (en) * 2012-08-14 2014-02-20 Husqvarna Ab Mower with object detection system
CN107209515A (zh) * 2014-09-01 2017-09-26 法雷奥开关和传感器有限责任公司 定位和地图绘制装置及方法
CN109784201A (zh) * 2018-12-24 2019-05-21 中国海洋大学 基于四维风险评估的auv动态避障方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5560978B2 (ja) * 2010-07-13 2014-07-30 村田機械株式会社 自律移動体
US8965641B2 (en) * 2012-09-19 2015-02-24 Caterpillar Inc. Positioning system using radio frequency signals
US9141107B2 (en) 2013-04-10 2015-09-22 Google Inc. Mapping active and inactive construction zones for autonomous driving
JP6035209B2 (ja) * 2013-07-11 2016-11-30 ヤマハ発動機株式会社 ナビゲーション装置、シミュレーション装置、移動装置およびナビゲーション方法
JP2016066206A (ja) * 2014-09-24 2016-04-28 株式会社クボタ 自動走行車両
JP2017226064A (ja) * 2016-06-24 2017-12-28 日本精工株式会社 障害物判定装置
JP6635996B2 (ja) * 2017-10-02 2020-01-29 ソフトバンク株式会社 自律走行装置、自律走行システム及びプログラム
JP2019109773A (ja) * 2017-12-19 2019-07-04 株式会社ダイヘン 移動体
WO2020188671A1 (ja) 2019-03-18 2020-09-24 三菱電機株式会社 地図情報補正装置、移動体、地図情報作成装置、地図情報補正システム、地図情報補正方法および地図情報補正プログラム
KR102224637B1 (ko) 2019-07-05 2021-03-08 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102275300B1 (ko) 2019-07-05 2021-07-08 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102361130B1 (ko) 2019-07-11 2022-02-09 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102297496B1 (ko) * 2019-07-11 2021-09-02 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
CN111012254A (zh) * 2019-12-30 2020-04-17 北京太坦科技有限公司 智能扫地机器人
US11457483B2 (en) * 2020-03-30 2022-09-27 Citrix Systems, Inc. Managing connections between a user device and peripheral devices
CN113673383B (zh) * 2021-08-05 2024-04-19 苏州智加科技有限公司 一种面向复杂道路场景的时空域障碍物检测方法及***
WO2023063208A1 (ja) * 2021-10-15 2023-04-20 学校法人 芝浦工業大学 イメージセンサデータ制御システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325620A (ja) * 1994-06-02 1995-12-12 Hitachi Ltd 知能ロボット装置及び知能ロボットシステム
JP2005157625A (ja) * 2003-11-25 2005-06-16 Matsushita Electric Works Ltd 自律移動装置
JP2005209090A (ja) * 2004-01-26 2005-08-04 Matsushita Electric Works Ltd 自己位置認識配膳車
JP2008065755A (ja) * 2006-09-11 2008-03-21 Hitachi Ltd 移動装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4962453A (en) * 1989-02-07 1990-10-09 Transitions Research Corporation Autonomous vehicle for working on a surface and method of controlling same
JP2772682B2 (ja) * 1989-09-01 1998-07-02 株式会社小松製作所 無人移動体の走行制御装置
US5400244A (en) * 1991-06-25 1995-03-21 Kabushiki Kaisha Toshiba Running control system for mobile robot provided with multiple sensor information integration system
JP2761454B2 (ja) * 1993-12-09 1998-06-04 インターナショナル・ビジネス・マシーンズ・コーポレイション 自律移動機械の誘導方法
US5777690A (en) * 1995-01-20 1998-07-07 Kabushiki Kaisha Toshiba Device and method for detection of moving obstacles
JP3745472B2 (ja) * 1996-11-18 2006-02-15 三菱電機株式会社 自走車、自律誘導装置、および自動搬送装置
JP2004149251A (ja) * 2002-10-30 2004-05-27 Yaskawa Electric Corp 建造物階層間昇降手段自動呼出システム
US7317388B2 (en) * 2004-03-31 2008-01-08 Honda Motor Co., Ltd. Position detection system for mobile object
JP4261466B2 (ja) * 2004-11-17 2009-04-30 株式会社日立製作所 自律移動装置、並びに物体及び自己位置検出システム
WO2006080120A1 (ja) * 2005-01-28 2006-08-03 Matsushita Electric Industrial Co., Ltd. 追尾システムおよび自走体
JP2006236098A (ja) * 2005-02-25 2006-09-07 Mitsubishi Heavy Ind Ltd 移動体の障害物回避方法及び該移動体
JP4621073B2 (ja) * 2005-05-23 2011-01-26 本田技研工業株式会社 ロボット制御装置
JP4699426B2 (ja) * 2006-08-08 2011-06-08 パナソニック株式会社 障害物回避方法と障害物回避移動装置
KR100946723B1 (ko) * 2008-04-12 2010-03-12 재단법인서울대학교산학협력재단 차량의 조향 방법 및 그 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325620A (ja) * 1994-06-02 1995-12-12 Hitachi Ltd 知能ロボット装置及び知能ロボットシステム
JP2005157625A (ja) * 2003-11-25 2005-06-16 Matsushita Electric Works Ltd 自律移動装置
JP2005209090A (ja) * 2004-01-26 2005-08-04 Matsushita Electric Works Ltd 自己位置認識配膳車
JP2008065755A (ja) * 2006-09-11 2008-03-21 Hitachi Ltd 移動装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014027945A1 (en) * 2012-08-14 2014-02-20 Husqvarna Ab Mower with object detection system
US9563204B2 (en) 2012-08-14 2017-02-07 Husqvarna Ab Mower with object detection system
CN107209515A (zh) * 2014-09-01 2017-09-26 法雷奥开关和传感器有限责任公司 定位和地图绘制装置及方法
CN109784201A (zh) * 2018-12-24 2019-05-21 中国海洋大学 基于四维风险评估的auv动态避障方法

Also Published As

Publication number Publication date
US8676429B2 (en) 2014-03-18
JP2011118591A (ja) 2011-06-16
JP5803054B2 (ja) 2015-11-04
US20120239240A1 (en) 2012-09-20

Similar Documents

Publication Publication Date Title
WO2011067887A1 (ja) 自律移動装置
JP5112666B2 (ja) 移動装置
KR101864948B1 (ko) 이동 로봇의 엘리베이터 승하차 제어 방법
US11762397B2 (en) Autonomous driving cart
WO2020170644A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP6880552B2 (ja) 自律移動体システム
JP5800613B2 (ja) 移動体の位置・姿勢推定システム
JP5298741B2 (ja) 自律移動装置
JP2014197294A (ja) 位置同定装置、及びそれを備えた移動ロボット
JP5247494B2 (ja) 自律移動装置
JP2011253414A (ja) 無人搬送車および走行制御方法
JP2010061293A (ja) 経路探索装置、経路探索方法、及び経路探索プログラム
JP6828579B2 (ja) 環境整備ロボットおよびその制御プログラム
JP6074205B2 (ja) 自律移動体
US11241790B2 (en) Autonomous moving body and control program for autonomous moving body
EP3892426A1 (en) Autonomously traveling mobile robot and traveling control method therefor
JP5553220B2 (ja) 移動体
JP6348971B2 (ja) 移動体
JP2014178789A (ja) 追跡装置、追跡プログラムおよび追跡方法
JP2014010797A (ja) 自律走行装置
JP6299957B2 (ja) 移動体制御装置、移動体制御プログラムおよび移動体制御方法
US20220404495A1 (en) Detection system, processing apparatus, movement object, detection method, and non-transitory computer-readable storage medium
JP2020155033A (ja) 移動車両
JP7338048B2 (ja) 移動体システム
JP2020107024A (ja) 移動体、学習器、及び学習器製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10834343

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13513202

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10834343

Country of ref document: EP

Kind code of ref document: A1