WO2016009585A1 - 自律移動体とその制御方法 - Google Patents

自律移動体とその制御方法 Download PDF

Info

Publication number
WO2016009585A1
WO2016009585A1 PCT/JP2015/002810 JP2015002810W WO2016009585A1 WO 2016009585 A1 WO2016009585 A1 WO 2016009585A1 JP 2015002810 W JP2015002810 W JP 2015002810W WO 2016009585 A1 WO2016009585 A1 WO 2016009585A1
Authority
WO
WIPO (PCT)
Prior art keywords
passage
autonomous mobile
mobile body
information
sensor
Prior art date
Application number
PCT/JP2015/002810
Other languages
English (en)
French (fr)
Inventor
村井 亮介
酒井 龍雄
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2015558265A priority Critical patent/JPWO2016009585A1/ja
Publication of WO2016009585A1 publication Critical patent/WO2016009585A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present disclosure relates to an autonomous moving body that moves autonomously while avoiding a collision with a moving obstacle and a control method thereof.
  • the inside of the passage is measured by a first sensor having a first measurement plane parallel to the surface of the passage. And it is judged whether it can pass through a passage based on information from the 1st sensor.
  • the second measurement plane of the second sensor having the second measurement plane inclined with respect to the first measurement plane is scanned in the left-right direction of the autonomous moving body, Based on the information, it is determined again whether the passage is possible.
  • the vehicle moves to a standby position outside the passage, and when it is determined that the passage can be passed, the passage is entered.
  • the autonomous mobile body includes the first sensor, the second sensor, the moving unit, and the control device.
  • the control device controls the moving unit to execute the control method.
  • the autonomous mobile body it is possible to prevent the autonomous mobile body from encountering another mobile body that cannot be avoided in the passage section, and in particular, in a narrow passage where the possibility of contact of the autonomous mobile body is high, the autonomous mobile body The possibility of a movement problem occurring can be reduced.
  • FIG. 1 is a block diagram illustrating a functional configuration of the autonomous mobile body according to the embodiment.
  • FIG. 2 is a perspective view schematically showing the autonomous mobile body according to the embodiment together with the detection area.
  • FIG. 3 is an explanatory diagram visibly showing a part of map information included in the autonomous mobile body according to the embodiment.
  • FIG. 4 is a flowchart showing a flow of control of the autonomous mobile body according to the embodiment.
  • FIG. 5 is a diagram illustrating a state when the autonomous mobile body according to the embodiment detects a moving obstacle.
  • FIG. 6 is an explanatory diagram regarding grouping of moving obstacles of the autonomous mobile body according to the embodiment.
  • FIG. 7 is an explanatory diagram of the avoidance operation in the passage portion of the autonomous mobile body according to the embodiment.
  • FIG. 1 is a block diagram illustrating a functional configuration of the autonomous mobile body according to the embodiment.
  • FIG. 2 is a perspective view schematically showing the autonomous mobile body according to the embodiment together with the detection area.
  • FIG. 3
  • FIG. 8 is an explanatory diagram of a movement obstacle recognition flow of the autonomous mobile body according to the embodiment.
  • FIG. 9 is an explanatory diagram of a difference between the case where the autonomous moving body according to the embodiment measures a moving obstacle located nearby and the time when a moving obstacle located far away is measured.
  • FIG. 10 is a perspective view when the autonomous mobile body according to the embodiment measures an obstacle.
  • FIG. 11 is a perspective view when the autonomous mobile body according to the embodiment measures an obstacle.
  • FIG. 12 is a flowchart in the case where the autonomous mobile body according to the embodiment performs object recognition using the second sensor.
  • Patent Document 1 Prior to the description of the embodiment of the present invention, problems in a conventional autonomous mobile body will be briefly described.
  • the method shown in Patent Document 1 described above does not work unless the positions and traveling directions of a plurality of autonomous mobile bodies are grasped.
  • the method shown in Patent Document 1 cannot be applied when the autonomous mobile body cannot grasp the existence and position of the other moving obstacle, such as when the autonomous mobile body and a person or a carriage pass each other. There is. Therefore, there is a possibility that a problem may occur in the autonomous movement of the autonomous mobile body, particularly in a narrow passage where the possibility of contact of the autonomous mobile body is high.
  • FIG. 1 is a block diagram showing a functional configuration of an autonomous mobile body according to the present embodiment
  • FIG. 2 is a perspective view schematically showing the autonomous mobile body according to the present embodiment together with a detection area.
  • the autonomous mobile body 1 includes a sensor 2, a moving unit 3, a control device 4, a battery 8, and a position information acquisition unit 31.
  • the sensor 2 acquires environmental information of its surroundings such as position information of a moving obstacle existing in the surrounding space of the autonomous mobile body 1 that is itself.
  • the moving unit 3 moves itself.
  • the control device 4 controls the moving unit 3 based on the environmental information acquired by the sensor 2.
  • the battery 8 supplies power to them.
  • the position information acquisition unit 31 acquires its own position information.
  • the moving obstacle includes not only a thing having a moving function (for example, a wheel) such as a bed or a wheelchair but also a thing movable by human power or a machine such as a cardboard box or a flower pot.
  • a moving function for example, a wheel
  • a machine such as a cardboard box or a flower pot.
  • the control device 4 includes a self-position estimation unit 5, a route generation unit 6, a storage unit 7, a moving obstacle identification unit 9, and a learning device 10.
  • the self position estimation unit 5 estimates the self position using the sensor 2 and the map information stored in the storage unit 7.
  • the route generation unit 6 generates a route to the destination using the sensor 2 and the map information.
  • the storage unit 7 stores control parameters, the above-described map information, self-position information indicating its own position, acquired environment information, and the like.
  • the moving obstacle identification unit 9 recognizes the moving obstacle based on the environmental information acquired by the sensor 2.
  • the learning device 10 performs machine learning for recognizing a moving obstacle.
  • the control device 4 is, for example, a computer that realizes the functions of the above-described units by executing software.
  • the sensor 2 includes a first sensor 21 and a second sensor 22.
  • the first sensor 21 acquires information in a plane (first measurement plane 21 ⁇ / b> P) parallel to the traveling plane P.
  • the second sensor 22 is information in a plane different from that of the first sensor 21, and is a plane inclined from the vertical plane in the vicinity of the side of the autonomous mobile body 1 (second measurement plane 22P). Get the information in. That is, the second measurement plane 22P is inclined with respect to the first measurement plane 21P.
  • a laser radar that scans a plane can be listed.
  • the laser radar scans the laser beam within a predetermined fixed angle range within the scanning plane, and can detect a moving obstacle in a front semicircular detection area having a predetermined radius. When there is a moving obstacle in the detection area, the distance to the moving obstacle and the angle with respect to the self are acquired.
  • the laser radar can measure a distance from an object within 30 m from itself.
  • the laser radar measures a range of ⁇ 90 ° left and right around the traveling direction every 0.5 °.
  • the first sensor 21 and the second sensor 22 scan intermittently under a constant control cycle.
  • the distance data indicating the distance between the object and the object acquired for each scan and the set of scan angles when the distance data is acquired are combined with the discrimination information (for example, time information) for distinguishing each scan.
  • the information is stored in the storage unit 7 as environmental information (sensor information).
  • a first measurement plane 21P measured by the first sensor 21 indicates an area measured by the first sensor 21.
  • the second measurement plane 22 ⁇ / b> P measured by the second sensor 22 indicates an area measured by the second sensor 22.
  • the first measurement plane 21P is parallel to the traveling surface P on which the autonomous mobile body 1 travels, and extends from the autonomous mobile body 1 to the front side in the traveling direction.
  • the first measurement plane 21 ⁇ / b> P has a semicircular fan shape with the radius of the measurable distance of the first sensor 21.
  • the second measurement plane 22P is inclined slightly outward from the vertical plane in the vicinity of the side of the autonomous mobile body 1 and extends in the front-rear direction of the traveling direction of the autonomous mobile body 1.
  • the moving unit 3 is composed of, for example, a motor driven by the battery 8 and driving wheels.
  • the motor is provided with an encoder for measuring the rotation speed and rotation speed of the motor as the position information acquisition unit 31.
  • the control device 4 can acquire information on the moving distance and moving direction of the autonomous mobile body 1 based on the output of the position information acquiring unit 31 included in the moving unit 3.
  • the autonomous mobile body 1 can autonomously move by performing dead reckoning based on information such as the output of the position information acquisition unit 31 to calculate self-position information indicating its own position.
  • the self-position estimation unit 5 processes the environment information, and features such as information indicating walls and the like existing around the autonomous mobile body 1 and information indicating landmarks previously provided in the vicinity of the passage for position recognition. Extract information from environmental information. The feature information extracted from the environmental information is also included in the travel area map information stored in advance in the storage unit 7. By comparing the feature information extracted from the environment information with the feature information included in the map information, a correction amount for correcting the self-location information calculated from the output of the location information acquisition unit 31 is estimated. The estimated self-position by dead reckoning is corrected by the correction amount acquired in this way. The corrected self-location information acquired by the estimation of the self-position estimation unit 5 is stored in the storage unit 7 and is appropriately referred to by the control device 4 or the like.
  • FIG. 3 is an explanatory diagram visibly showing a part of the map information that the autonomous mobile body 1 has.
  • FIG. 3 shows a part of the map information in a visible manner and is superimposed on an actual object, and is a passage that is particularly narrow and difficult to pass between the moving obstacle 300 and the autonomous mobile body 1.
  • the relationship between the passage part 101 and the passage information 201 is shown.
  • the passage portion 101 that is difficult to pass has a width that is not less than twice and not more than three times the vehicle body width of the autonomous mobile body 1 among the plurality of passage portions.
  • the vehicle body width is a length in a direction intersecting with the traveling direction of the autonomous mobile body 1. In the following description, the vehicle body width may be simply referred to as the width of the autonomous mobile body 1.
  • the width of the maximum moving obstacle 300 existing in the area where the autonomous mobile body 1 travels is narrower than the width obtained by adding the width of the autonomous mobile body 1 and the maximum width of the moving obstacle 300
  • These passage portions may be set as the passage portion 101 that is difficult to pass among the plurality of passage portions.
  • a standby position 106 exists in a region outside the passage portion 101 and near the passage portion 101 and not in the center of the passage so as not to hinder the movement of other moving bodies.
  • the standby position 106 is, for example, outside the passage portion 101 and at a position other than the extended region of the passage portion 101. More specifically, the standby position 106 exists within one area in the width direction of the passage portion 101 within 3 m from the end of the passage portion 101, for example.
  • path part 101 is not required. Therefore, description of the movement in such a passage part is omitted.
  • passage information 201 indicates the position of the passage portion 101, the extending direction, and the like.
  • the destination information 202 indicates the destination of the autonomous mobile body 1.
  • the node information 203 indicates a waypoint until the destination is reached.
  • the route information 204 links the node information 203 and the destination information 202 and the node information 203 in a virtual space.
  • the passage opening information 205 indicates the position and range of the passage opening 105.
  • the standby position information 206 indicates the position and range of the standby position 106.
  • other areas and passages are set in the map information as normal travel information.
  • the passage information 201 is set in advance in the map information at a place where the autonomous mobile body 1 is to perform the retreat operation when passing through the passage portion 101 that needs to be retreated as described above.
  • the passage portion 101 means a passage having a passage width that makes it difficult for the autonomous mobile body 1 to pass another mobile body such as a bed or a wheelchair.
  • the passage information 201 is information indicating a passage selected in advance from information indicating a plurality of passages included in the map information. Specifically, the passage portion 101 is assumed to have a passage width of about 2 to 3 times the vehicle body width of the autonomous mobile body 1. Therefore, for example, information indicating the passage width is extracted from the information indicating the passage included in the map information, and the information indicating the passage width is selected from a range of 2 to 3 times the vehicle body width of the autonomous mobile body 1. In this case, information indicating this passage may be used as the passage information 201. Alternatively, when the information indicating the passage width is a value corresponding to two to three times the vehicle body width of the autonomous mobile body 1, the information indicating the passage may be used as the passage information 201.
  • a passage having a passage width of 1 m or more and 1.5 m or less is the passage portion 101.
  • the information indicating the passage width is less than the first threshold set from the range of 1 m or more and 1.5 m or less, or when the value is equivalent to 1 m or more and 1.5 m or less, the passage is indicated.
  • the information becomes passage information 201.
  • the distance in the longitudinal direction of the passage portion 101 (the length of the passage portion 101) when the passage information 201 is a rectangular region is preferably within the measurement distance of the first sensor 21 of the autonomous mobile body 1. For example, when a laser sensor capable of measuring a distance of about 30 m is used as the first sensor 21, a path up to a maximum of 20 m is set as the path portion 101.
  • the path information 201 for example, assuming the width of the maximum moving obstacle 300 that may exist in the area where the autonomous mobile body 1 travels, the width of the autonomous mobile body 1 and the maximum moving obstacle are assumed.
  • a passage having a narrower width than the sum of the widths of 300 may be used as the passage portion 101.
  • passage information 201 is set as information indicating such a passage portion 101.
  • the passage port portion 105 is an area adjacent to the passage portion 101, and exists at both ends outside the entrance / exit of the passage portion 101.
  • the passage entrance information 205 may be selected at the time of setting the map information, or may be selected from already existing map information. Further, when selecting the passage information 201, information indicating the entrance / exit of the passage portion 101 corresponding to the passage information 201 or the vicinity thereof may be selected as the passage opening information 205.
  • the standby position information 206 indicates a region of the standby position 106 that is set one by one outside the both end portions of the passage portion 101 indicated by the set passage information 201.
  • the standby position information 206 is information corresponding to a region that is not in the center of the passage so as not to hinder the movement of other moving bodies outside the passage portion 101 and close to the passage portion 101. That is, the standby position information 206 is information corresponding to the standby position 106 described above. Further, it is desirable that the standby position 106 is set at the above-described location and at a position and orientation that allow the sensor 2 to measure the inside of the passage portion 101.
  • the autonomous mobile body 1 When the autonomous mobile body 1 receives a command to move to the destination (destination information 202), the autonomous mobile body 1 generates the route information 204 by connecting the node information 203 set in advance in the map information by the route generation unit 6. , Generate a route to the destination.
  • the control device 4 determines that the autonomous mobile body 1 passes through the passage unit 101. .
  • the standby position 106 existing in the passage opening 105 on the side where the autonomous mobile body 1 enters the passage portion 101 based on the generated route is set as the approach side standby position 161, and the autonomous mobile body is moved from the passage portion 101.
  • the waiting position 106 existing at the passage opening 105 on the side where 1 is leaving is defined as the leaving side waiting position 162.
  • information corresponding to the approach side standby position 161 is referred to as approach side standby position information 261
  • information corresponding to the exit side standby position 162 is referred to as exit side standby position information 262.
  • the approach side standby position 161 and the exit side standby position 162 are switched depending on the traveling direction of the autonomous mobile body 1.
  • the entrance-side passageway information 205 is entrance / exit information 251
  • the exit-side passageway information 205 is exit / exit information 252.
  • FIG. 4 is a flowchart showing a flow of control of the autonomous mobile body 1.
  • the autonomous mobile body 1 travels to the destination along the route corresponding to the route information 204 generated as described above. On the way, when environmental information indicating a moving obstacle is acquired by at least one of the first sensor 21 and the second sensor 22, it continuously moves to the destination while autonomously avoiding the moving obstacle. To do.
  • the saving operation described later is not performed at first (no in F1). If the route information 204 generated by the route generation unit 6 passes through the passage unit 101 (Yes in F2), the self-position information estimated by the self-position estimation unit 5 and the entrance-side passage port information 205 (entrance) Based on the information 251), it is determined whether or not the position of the autonomous mobile body 1 is present in the passage opening 105 (the entrance 151) (F4). When it is determined that the position of the autonomous mobile body 1 is present in the passage opening 105 (Yes in F4), the autonomous mobile body 1 moves to be retreated to the passage section 101 using the moving obstacle identification section 9 It is determined whether an obstacle exists (F5).
  • the moving obstacle to be evacuated is, for example, a moving body that passes through the passage portion 101 such as a bed or a wheelchair in a hospital or the like.
  • the moving obstacle to be evacuated is moving in the passage portion 101 or stopped (yes in F5), the autonomous mobile body 1 cannot perform a passing operation with the moving obstacle in the passage portion 101. And the evacuation operation is started (F6).
  • the retreat operation is a standby position 106 (entrance side standby position that is a point that does not hinder the movement of the moving obstacle until the passage of the moving obstacle moving through the passage section 101 is completed. 161)
  • the autonomous mobile body 1 moves and waits at this point. More specifically, the autonomous mobile body 1 starts moving to the approach side standby position 161 shown in FIG. 3, and after reaching the entrance side standby position 161, it enters until the moving obstacle passes through the passage portion 101. Stand by at the side standby position 161.
  • the autonomous mobile body 1 resumes moving to the destination.
  • the autonomous mobile body 1 since the autonomous mobile body 1 enters the passage opening 105 (the entrance portion 151) again and starts moving to the destination, there is again a moving obstacle to be retreated in the passage portion 101. It is determined whether or not it exists (F5), and if it is determined that there is a moving obstacle to be evacuated, the operation again moves to the evacuation operation. That is, the autonomous mobile body 1 does not enter the passage portion 101 until there is no moving obstacle in the narrow passage portion 101.
  • the determination as to whether or not the moving obstacle has passed through the passage portion 101 can be made by tracking the movement of the moving obstacle using the sensor 2, for example.
  • the position information of the moving obstacle obtained as a result of tracking is removed from the passage information 201. Based on this result, it can be determined whether or not the moving obstacle has passed through the passage portion 101.
  • the accuracy is reduced, more simply, it may be determined that the moving obstacle has passed after a predetermined time since it is determined that there is a moving obstacle to be retreated in the passage portion 101 (F5). .
  • the predetermined time may be determined from the length of the passage unit 101 based on the passage information 201. Further, the certain time may be calculated based on the distance between the moving obstacle 300 obtained from the sensor 2 and the autonomous mobile body 1.
  • the fixed time is set to about 3 minutes, for example.
  • FIG. 5 shows a state of the first measurement plane 21 ⁇ / b> P of the first sensor 21 and a detection position 301 of the moving obstacle 300 when the first sensor 21 detects the moving obstacle 300 in the passage portion 101.
  • the autonomous mobile body 1 acquires distance information to the moving obstacle 300 every 0.5 ° in the first measurement plane 21P. From this information, the autonomous mobile body 1 can grasp the position of the moving obstacle.
  • the sensor 2 may not be able to determine the difference between a large moving obstacle 300 such as a bed or a wheelchair and a relatively small moving obstacle such as a person.
  • a moving obstacle of a small shape such as a person is passing through the passage portion 101, so as to pass the moving obstacle in the passage portion 101.
  • the autonomous mobile body 1 moves to the standby position 106, and when it can pass the moving obstacle, the autonomous mobile body 1. It is desirable to create a state that does not evacuate.
  • the detection position information 401 is obtained from the distance information included in the environmental information acquired by the first sensor 21 such as a laser radar that measures the horizontal plane and the angle information when the distance is measured. Constitute. Then, the detection position information 401 is grouped using a second threshold value or the like to create cluster information 402. The grouped cluster information 402 is identified as the moving obstacle information 400 corresponding to the moving obstacle 300, which is the moving obstacle 300 to be saved or the moving obstacle 300 that does not need to be saved. The control device 4 performs the above control.
  • a group of detected position information 401 existing within a certain distance D that is the second threshold value is set as cluster information 402. .
  • the cluster information 402 is one moving obstacle 300.
  • the distance corresponding to the width direction between the detection position information 401 corresponding to both ends of the direction corresponding to the width direction of the passage portion 101 from the cluster information 402 is defined as width information W. If the width information W is equal to or greater than a certain distance (third threshold), it can be determined that the moving obstacle corresponding to the cluster information 402 is an object having a large shape. Therefore, this moving obstacle can be determined as the moving obstacle 300 to be evacuated.
  • the autonomous moving body 1 When the autonomous mobile body 1 is traveling in the passage portion 101, the autonomous moving body 1 may move while avoiding the avoidable small obstacle 300A existing in the passage portion 101. On the other hand, there is a possibility that a moving obstacle 300 having a large shape to be retracted enters the passage portion 101 while the autonomous mobile body 1 is traveling along the passage portion 101. For this reason, it is often better for the autonomous mobile body 1 to exit the passage portion 101 as soon as possible in the passage portion 101.
  • the turning angle ⁇ for performing the avoiding operation it is preferable to limit the turning angle ⁇ for performing the avoiding operation to ⁇ ⁇ with respect to the traveling direction S as shown in FIG. .
  • the fourth threshold value ⁇ that limits the turning angle ⁇ is, for example, 30 °.
  • the fourth threshold value ⁇ that limits the turning angle ⁇ is, for example, 180 °. In other words, the turning angle when traveling along the passage 101 is smaller than that during normal traveling other than the passage 101, for example, limited to 1/6.
  • the moving obstacle identification unit 9 calculates a feature amount from the environmental information and determines whether or not the moving obstacle 300 is to be evacuated. Specifically, first, the environment information acquired by the first sensor 21 is grouped by the clustering unit 91 of the moving obstacle identification unit 9. As described above, the clustering unit 91 groups the moving obstacle data in which the position of the acquired moving obstacle 300 exists within a certain distance D as the same object. Next, the feature quantity calculation unit 92 calculates a feature vector using the grouped data (cluster information 402). The moving obstacle discriminating unit 93 learned in advance uses the calculated feature vector to evaluate whether the cluster is the moving obstacle 300 to be evacuated. For the moving obstacle discriminating unit 93, an SVM (support vector machine) of an RBF (Radial Basis Function) kernel can be used. A known method can be used to calculate the feature vector.
  • SVM support vector machine
  • RBF Radial Basis Function
  • SVM learns in advance using teacher data.
  • teacher data a set of detection position information 401 (cluster information 402) that is measurement data of the moving obstacle 300 to be evacuated and a set of detection position information 401 (measurement data of the moving obstacle 300A that should not be evacuated) ( Cluster information 402) is used.
  • the sensor 2 includes the first sensor 21 and the second sensor 22.
  • the first sensor 21 acquires information in the first measurement plane 21P parallel to the traveling surface P.
  • the second sensor 22 acquires information in a second measurement plane 22P that is different from the first measurement plane 21P that is a horizontal plane.
  • the second sensors 22 are provided on the left and right of the autonomous mobile body 1.
  • positioning of the 2nd sensor 22 is not necessarily limited to this arrangement position, The various attachment aspect arrange
  • the detection position information 401 can be acquired only for the leg portion.
  • the bed that is the moving obstacle 300 cannot be recognized as one cluster information 402 and may not be identified as the moving obstacle to be evacuated although it is the moving obstacle 300 to be evacuated. Therefore, it is preferable to identify a moving obstacle three-dimensionally. Thereby, the identification accuracy of the moving obstacle 300 to be evacuated can be improved.
  • the second sensor 22 may or may not be able to measure the moving obstacle 300 depending on the orientation of the autonomous mobile body 1. This will be described with reference to FIGS. As shown in FIG. 10, when the autonomous mobile body 1 faces so that the second measurement plane 22 ⁇ / b> P does not cross the moving obstacle 300, the autonomous mobile body 1 cannot measure the moving obstacle 300 by the second sensor 22. On the other hand, as shown in FIG. 11, when the autonomous mobile body 1 is facing such that the second measurement plane 22 ⁇ / b> P intersects the moving obstacle 300, the autonomous mobile body 1 determines the position of the moving obstacle 300 by the second sensor 22. It can be measured.
  • f1 Total number of data points in the cluster
  • f2 Minimum distance to data points in the cluster
  • f3 Three-dimensional covariance matrix of data points
  • f4 Elements of the three-dimensional moment of inertia matrix of data points
  • f5 From end point to end point in the cluster Distance (width information W)
  • FIG. 12 is a flowchart for explaining in more detail F5 in the control flow of FIG.
  • the control device 4 uses the environmental information acquired by the first sensor 21 when the autonomous mobile body 1 passes through the passage opening 105, 1: there is a moving obstacle to be withdrawn, 2: movement obstacle to be withdrawn There is a possibility that an object exists. It is determined whether there is no moving obstacle to be evacuated (G1).
  • the environmental information from the first sensor 21 indicates that the determination result indicates that there is a moving obstacle to be evacuated in a narrow passage.
  • the width information W of the cluster information 402 is greater than or equal to the third threshold value. This is the case.
  • information indicating that there is a moving obstacle to be evacuated in the passage portion 101 is output (G7).
  • the environmental information from the first sensor 21 indicates that there is a possibility that there is a moving obstacle to be evacuated.
  • the cluster information 402 exists but the width information W is third. This is the case when it is less than the threshold.
  • the environmental information from the first sensor 21 gives a determination result that 2: there is a possibility that there is a moving obstacle to be evacuated, and the second sensor 22 of the autonomous mobile body 1 detects the moving obstacle. If not (G2, no), the autonomous mobile body 1 is turned in a direction in which the second sensor 22 can detect the moving obstacle (G5). Specifically, as shown in FIG. 10, the moving obstacle 300 cannot be detected by the second sensor 22 and there is a moving obstacle in the environmental information from the first sensor 21, but this moving obstacle is When it is determined that it is not a moving obstacle to be evacuated, the autonomous mobile body 1 is turned. Then, as shown in FIG. 11, the autonomous moving body 1 is turned so that the second measurement plane 22 ⁇ / b> P of the second sensor 22 faces the moving obstacle 300 detected by the first sensor 21, and the direction thereof is changed. Control.
  • the detection position information 401 of the moving obstacle 300 acquired from the second sensor 22 is stored for a certain time, and the movement obstacle is detected using the stored information and the detection position information 401 acquired from the first sensor 21.
  • the object 300 can also be identified.
  • the present disclosure is not limited to the above embodiment.
  • another embodiment realized by arbitrarily combining the above-described components and excluding some of the components may be used as the embodiment.
  • the present disclosure also includes modifications obtained by making various modifications conceived by those skilled in the art without departing from the meaning indicated by the gist of the present disclosure with respect to the above-described embodiments.
  • the inside of the passage is measured by the first sensor 21 having the first measurement plane 21P parallel to the surface of the passage. Then, based on information from the first sensor 21, it is determined whether or not the passage can be made. Further, as a result of the determination, when it is determined that the passage can be made, the second measurement plane 22P of the second sensor 22 having the second measurement plane 22P inclined with respect to the first measurement plane 21P is moved in the left-right direction of the autonomous mobile body 1 Scan to. Then, based on the information from the scanned second sensor 22, it is determined again whether or not the passage is possible.
  • the autonomous mobile body 1 when it is determined that the passage cannot be made, the autonomous mobile body 1 is moved to the standby position 106 outside the passage portion, and when it is determined that the passage can be passed, the autonomous mobile body 1 is caused to enter the passage.
  • the standby position 106 is located in a passage (passage opening 105) wider than the passage.
  • the retraction operation can be performed more smoothly by waiting at the wide passage opening portion 105.
  • the passage After re-determination and moving to the standby position 106, it is determined whether or not the passage can be passed based on information from the first sensor 21. You may control the autonomous mobile body 1 so that it may approach. Thereby, it can be confirmed that the moving obstacle 300 in the passage portion 101 that has been determined to be unable to pass has moved out of the passage portion 101, and then the autonomous mobile body 1 is allowed to enter the passage portion 101 safely. be able to. Although the accuracy is lowered, when moving to the standby position 106, it may be entered into the passage after a certain period of time.
  • the scanning of the second measurement plane 22P is preferably performed by turning the autonomous mobile body 1. Since the function of an autonomous moving mechanism (for example, a wheel or a caterpillar) provided for the autonomous mobile body 1 to move can be utilized, it is necessary to provide a driving mechanism (an actuator or the like) for scanning the second sensor 22 separately. Absent. Although the apparatus becomes complicated, a drive mechanism for scanning the second sensor 22 may be provided separately.
  • an autonomous moving mechanism for example, a wheel or a caterpillar
  • control method is executed by software processing.
  • the software is recorded on a recording medium such as a ROM, an optical disk, and an HDD.
  • a processor of the autonomous mobile body 1 the processor and a device provided in the autonomous mobile body 1 execute each process. .
  • the autonomous mobile body according to the present invention can realize a highly reliable retreat operation for moving obstacles, particularly in an environment where a bed or the like travels in a building such as a hospital. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

 自律移動体の制御方法では、通路へ進入するに際し、通路の表面と平行な第一計測平面を有する第一センサで通路内を計測する。そして、第一センサからの情報に基づき通路を通過可能か否かを判断する。次いで、通路を通過可能と判断した場合、第一計測平面に対して傾いた第二計測平面を有する第二センサの第二計測平面を自律移動体の左右方向に走査し、第二センサからの情報に基づき通路を通過可能か否かを再判断する。再判断の結果、通路を通過不能と判断した場合、通路外の待機位置へ自律移動体を移動させ、通路を通過可能と判断した場合、通路に自律移動体を進入させる。

Description

自律移動体とその制御方法
 本開示は、移動障害物との衝突を回避しつつ自律的に移動する自律移動体とその制御方法に関する。
 従来、工場や病院等の建物内において、狭い通路で自律移動体同士が衝突しないようにするため、一方の自律移動体を退避させる手法が知られている。例えば、2つの自律移動体同士が交差点等において接近する可能性があるとき、一方の自律移動体を一時的に停止させ、2台の自律移動体が接触することを防止する(例えば特許文献1)。
特開2006-113687号公報
 本開示の自律移動体の制御方法では、通路へ進入するに際し、通路の表面と平行な第一計測平面を有する第一センサで通路内を計測する。そして、第一センサからの情報に基づき通路を通過可能か否かを判断する。次いで、通路を通過可能と判断した場合、第一計測平面に対して傾いた第二計測平面を有する第二センサの第二計測平面を自律移動体の左右方向に走査し、第二センサからの情報に基づき通路を通過可能か否かを再判断する。再判断の結果、通路を通過不能と判断した場合、通路外の待機位置へ移動し、通路を通過可能と判断した場合、通路に進入する。
 また本開示による自律移動体は、上記第一センサと第二センサと、移動部と、制御装置とを有する。制御装置は移動部を制御して上記制御方法を実行する。
 本開示によれば、自律移動体が、通路部で他の回避できない移動体との遭遇を防止することができ、特に自律移動体の接触の可能性が高い狭い通路において、自律移動体の自律移動の問題発生の可能性を軽減することができる。
図1は、実施の形態に係る自律移動体の機能構成を示すブロック図である。 図2は、実施の形態に係る自律移動体を検出エリアと共に模式的に示す斜視図である。 図3は、実施の形態に係る自律移動体が有する地図情報の一部を可視的に示す説明図である。 図4は、実施の形態に係る自律移動体の制御の流れを示すフローチャートである。 図5は、実施の形態に係る自律移動体が移動障害物を検知するときの様子を示す図である。 図6は、実施の形態に係る自律移動体の移動障害物のグループ化に関する説明図である。 図7は、実施の形態に係る自律移動体の通路部での回避動作の説明図である。 図8は、実施の形態に係る自律移動体の移動障害物の認識フローの説明図である。 図9は、実施の形態に係る自律移動体が近くに位置する移動障害物を計測する場合と、遠方に位置する移動障害物を計測するときの差異の説明図である。 図10は、実施の形態に係る自律移動体が障害物を計測するときの斜視図である。 図11は、実施の形態に係る自律移動体が障害物を計測するときの斜視図である。 図12は、実施の形態に係る自律移動体が第二センサを用いて物体認識を行う場合のフローチャートである。
 本発明の実施の形態の説明に先立ち、従来の自律移動体における問題点を簡単に説明する。上述した特許文献1に示す方法は、複数の自律移動体のそれぞれの位置および進行方向を把握しなければ成立しない。しかし、自律移動体と人や台車などがすれ違う場合のように、自律移動体が他方の移動障害物の存在や位置を把握できない場合には特許文献1に示す方法を適用することができない可能性がある。そのため、特に自律移動体の接触の可能性が高い狭い通路において、自律移動体の自律移動に問題が発生する可能性がある。
 以下、本開示の実施の形態に係る自律移動体について、図面を参照して説明する。
 図1は、本実施の形態に係る自律移動体の機能構成を示すブロック図であり、図2は、本実施の形態に係る自律移動体を検出エリアと共に模式的に示す斜視図である。
 図1に示すように、自律移動体1は、センサ2と、移動部3と、制御装置4と、電池8と、位置情報取得部31を有する。センサ2は、自己である自律移動体1の周囲空間に存在する移動障害物の位置情報などの自己の周囲の環境情報を取得する。移動部3は、自己を移動させる。制御装置4は、センサ2によって取得した環境情報を基に移動部3を制御する。電池8は、これらに電力を供給する。位置情報取得部31は、自己の位置情報を取得する。
 ここで、移動障害物とは、ベッドや車椅子のような移動機能(例えば車輪)を有する物ばかりでなく、段ボール箱や植木鉢など、人力または機械によって移動可能な物も含む。
 制御装置4は、自己位置推定部5、経路生成部6、記憶部7、移動障害物識別部9、学習器10を有する。自己位置推定部5は、センサ2と記憶部7に格納された地図情報とを用いて自己の位置を推定する。経路生成部6は、センサ2と地図情報とを用いて目的地までの経路を生成する。記憶部7は、制御パラメータや上記地図情報、自己の位置を示す自己位置情報、取得した環境情報等を記憶している。移動障害物識別部9は、センサ2によって取得した環境情報をもとに、移動障害物を認識する。学習器10は、移動障害物を認識するための機械学習を実施する。制御装置4は、例えばソフトウエアを実行することにより上記各部の機能を実現するコンピュータなどである。
 センサ2は、第一センサ21と第二センサ22により構成されている。第一センサ21は、図2に示すように、走行面Pに平行な面(第一計測平面21P)内の情報を取得する。第二センサ22は、図2に示すように、第一センサ21とは異なる平面内の情報であって、自律移動体1の側方近傍に鉛直面から傾斜した平面(第二計測平面22P)内の情報を取得する。すなわち、第二計測平面22Pは第一計測平面21Pに対し傾いている。
 第一センサ21、第二センサ22としては、例えば、平面をスキャンするレーザレーダを挙示することができる。レーザレーダは、そのスキャン面内において所定一定角度範囲内でレーザビームを走査し、所定の半径を有する前方の半円形の検出エリアにおいて移動障害物を検出することができる。そして、検出エリア内に移動障害物がある場合、当該移動障害物までの距離、および、自己に対する角度を取得する。レーザレーダは、具体的に例えば、自己からの距離が30m以内の物との距離を測定することができる。またレーザレーダは、進行方向を中心として左右±90゜の角度範囲を0.5゜毎に測距する。第一センサ21、第二センサ22は、例えば、一定の制御周期のもとで間欠的にスキャンを行う。そして1回のスキャン毎に取得する自己と物との距離を示す距離データ、および、当該距離データを取得したときのスキャン角度の集合を各スキャンを区別する区別情報(例えば時刻情報)と結びつけて環境情報(センサ情報)として記憶部7に記憶させる。
 図2において、第一センサ21が計測する第一計測平面21Pは、第一センサ21によって計測されるエリアを示している。第二センサ22が計測する第二計測平面22Pは、第二センサ22によって計測されるエリアを示している。第一計測平面21Pは、自律移動体1が走行する走行面Pに平行であり、自律移動体1から進行方向の前側に広がっている。また、第一計測平面21Pは、第一センサ21の計測可能距離を半径とした半円状の扇形を有している。第二計測平面22Pは、自律移動体1の側方近傍において鉛直面から少し外側に傾斜して広がり、自律移動体1の進行方向の前後方向に向かって広がっている。
 移動部3は、例えば電池8で駆動されるモータと駆動輪などで構成される。このモータには、位置情報取得部31としてモータの回転数や回転速度を計測するエンコーダが設けられている。制御装置4は、移動部3が有する位置情報取得部31の出力によって自律移動体1の移動距離や移動方向の情報を取得することができる。自律移動体1は、位置情報取得部31の出力などの情報をもとにデッドレコニングを行って自己の位置を示す自己位置情報を算出し、自律的に移動することができる。
 自己位置推定部5は、環境情報を処理して、自律移動体1の周辺に存在する壁などを示す情報や位置認識用に予め通路やその近傍に設けられたランドマークを示す情報などの特徴情報を、環境情報から抽出する。これら環境情報から抽出された特徴情報は、記憶部7に予め記憶されている走行領域の地図情報にも含まれている。環境情報から抽出された特徴情報を地図情報に含まれている特徴情報と比較することにより、位置情報取得部31の出力から算出される自己位置情報を補正するための補正量が推定される。このようにして取得された補正量によって、デッドレコニングによる推定自己位置が修正される。自己位置推定部5の推定によって取得された修正後の自己位置情報は記憶部7に記憶され、制御装置4等によって適宜参照される。
 図3は、自律移動体1が有する地図情報の一部を可視的に示す説明図である。図3は、地図情報の一部を可視的に示し、実際の物と重ね合わせて示しており、特に、幅が狭く、移動障害物300と自律移動体1とのすれ違いが困難な通路である通路部101と通路情報201との関係を示している。本実施の形態では、具体的には、すれ違いが困難な通路部101は、複数の通路部のうちで、自律移動体1の車体幅の2倍以上かつ3倍以下の幅を有している。車体幅とは、自律移動体1の進行方向と交差する方向の長さである。以下の説明で車体幅を単に自律移動体1の幅ということもある。また、自律移動体1が走行するエリア内において存在する最大の移動障害物300の幅を想定し、自律移動体1の幅と最大の移動障害物300の幅とを足し合わせた幅より狭い幅の通路部を、複数の通路部のうちですれ違いが困難な通路部101として設定してもよい。
 幅の狭い通路部101の出入り口の外側両端には、通路部101に隣接して通路口部105が存在する。通路口部105内には、通路部101の外側かつ通路部101に近いところで、他の移動体の移動を妨げないような通路の中央でないところの領域に、待機位置106が存在する。すなわち、待機位置106は、例えば、通路部101の外側で、かつ通路部101の延長領域以外の位置にある。より具体的には、待機位置106は、例えば、通路部101の端より3m以内で、通路部101の幅方向の一方の領域に存在する。なお、自律移動体1の接触の可能性が低い通路部(幅の広い通路部)については、通路部101のような制御は必要ない。そのため、このような通路部における移動の説明は省略する。
 地図情報には、通路情報201、目的地情報202、ノード情報203、経路情報204、通路口情報205、待機位置情報206が設定されている。通路情報201は、通路部101の位置や延在方向などを示す。目的地情報202は、自律移動体1の目的地を示す。ノード情報203は、目的地に到達するまでの経由地点を示す。経路情報204は、ノード情報203間や目的地情報202とノード情報203とを仮想空間的に連結している。通路口情報205は、通路口部105の位置や範囲などを示す。待機位置情報206は、待機位置106の位置や範囲などを示す。また、それら以外のエリアや通路は通常走行情報として地図情報に設定されている。通路情報201は、前述のように退避が必要な通路部101を通行するに際し、自律移動体1に退避動作を実施させたい場所にあらかじめ地図情報に設定されている。
 したがって、通路部101とは、自律移動体1が他の移動体、たとえば、ベッドや車椅子などとのすれ違いが困難となる通路幅の通路を意味する。また、通路情報201は、地図情報の中に含まれる複数の通路をそれぞれ示す情報の中から予め選定された通路を示す情報である。具体的に通路部101としては、自律移動体1の車体幅の2倍以上、3倍以下程度の通路幅の通路が想定されている。したがって例えば地図情報の中に含まれる通路を示す情報から通路幅を示す情報を抽出し、通路幅を示す情報が、自律移動体1の車体幅の2倍以上、3倍以下の範囲から選定される第一閾値以下になった場合、この通路を示す情報を通路情報201としてもよい。あるいは、通路幅を示す情報が、自律移動体1の車体幅の2倍以上、3倍以下に相当する値になった場合、この通路を示す情報を通路情報201としてもよい。
 たとえば、自律移動体1の幅が0.5mである場合、通路幅が1m以上、1.5m以下の通路が通路部101である。通路幅を示す情報が1m以上、1.5m以下の範囲から設定される第一閾値以下となった場合や、1m以上、1.5m以下に相当する値になった場合に、当該通路を示す情報が通路情報201となる。通路情報201を矩形領域とした場合の通路部101の長手方向の距離(通路部101の長さ)は、自律移動体1の第一センサ21の計測距離以内であることが望ましい。例えば、およそ30mの距離を計測できるレーザセンサを第一センサ21として用いる場合は、最大20mまでの通路を通路部101として設定する。
 また、通路情報201としては、例えば、自律移動体1が走行するエリア内において存在する可能性のある最大の移動障害物300の幅を想定し、自律移動体1の幅と最大の移動障害物300の幅とを足し合わせた幅より狭い幅の通路を通路部101としてもよい。この場合、このような通路部101を示す情報として通路情報201が設定される。
 通路口部105は、通路部101に隣接する領域であり、通路部101の出入り口の外側両端に存在する。通路口情報205は、地図情報を設定時に選定してもかまわない、また、既に存在している地図情報のなから選定してもかまわない。また、通路情報201を選定する際に、通路情報201に対応する通路部101の出入り口またはその近傍を示す情報を通路口情報205として選定してもよい。
 待機位置情報206は、設定された通路情報201が示す通路部101の両側端部外方に一箇所ずつ設定される待機位置106の領域を示す。具体的に待機位置情報206は、通路部101の外側で、かつ通路部101に近いところで、他の移動体の移動を妨げないよう、通路の中央でないところの領域に対応する情報である。すなわち、待機位置情報206は前述の待機位置106に対応する情報である。また、待機位置106は、上記の場所でかつ、センサ2によって、通路部101内を計測できるような位置、向きに設定することが望ましい。
 自律移動体1は、目的地までの移動の指令(目的地情報202)を受けたとき、経路生成部6で予め地図情報に設定されているノード情報203を接続して経路情報204を生成し、目的地までの経路を生成する。生成された経路が通路部101を通過する場合、つまり、目的地情報202までの経路情報204が通路情報201を通過する場合、自律移動体1が通路部101を通行すると制御装置4が判断する。
 本実施の形態では、生成された経路に基づき通路部101に自律移動体1が進入する側の通路口部105に存在する待機位置106を進入側待機位置161とし、通路部101から自律移動体1が退去する側の通路口部105に存在する待機位置106を退去側待機位置162としている。また、進入側待機位置161に対応する情報を進入側待機位置情報261とし、退去側待機位置162に対応する情報を退去側待機位置情報262としている。進入側待機位置161と退去側待機位置162とは、自律移動体1の進行方向によって入れ替わる。また、進入側の通路口情報205は進入口情報251であり、退出側の通路口情報205は退出口情報252である。
 次に、図3、図4を参照しながら、自律移動体1が通路部101に進入するまでの制御方法を説明する。図4は、自律移動体1の制御の流れを示すフローチャートである。
 自律移動体1は、前述のように生成した経路情報204に対応した経路に沿って、目的地まで走行する。途中、移動障害物を示す環境情報を第一センサ21、および、第二センサ22の少なくともいずれか一方で取得した場合に、その移動障害物を自律的に回避しながら目的地まで継続して移動する。
 図4において、最初は後述する退避動作を行っていない(F1でno)。そして、経路生成部6で生成された経路情報204が通路部101を通過する場合(F2でyes)、自己位置推定部5によって推定された自己位置情報と進入側の通路口情報205(進入口情報251)とに基づき、自律移動体1の位置が通路口部105(進入口部151)内に存在しているか否かを判断する(F4)。自律移動体1の位置が通路口部105内に存在していると判断した場合(F4でyes)、自律移動体1は、移動障害物識別部9を用いて通路部101に退避すべき移動障害物が存在するかどうかを判断する(F5)。退避すべき移動障害物とは、たとえば、病院等ではベッドや車椅子など通路部101を通過する移動体である。退避すべき移動障害物が通路部101内を移動中、または、停止中である場合(F5でyes)には、自律移動体1は、通路部101内で移動障害物とのすれ違い動作ができないと判断し、退避動作を開始する(F6)。
 本実施の形態において、退避動作とは、通路部101を移動する移動障害物の通路部101の通過が完了するまで、移動障害物の移動を妨げない地点である待機位置106(進入側待機位置161)まで自律移動体1が移動して、この地点て待機する動作である。より具体的には、自律移動体1は、図3に示す進入側待機位置161へ移動を開始し、進入側待機位置161に到着した後は、移動障害物が通路部101を通過するまで進入側待機位置161で待機する。
 その後、移動障害物の通路部101の通過が完了したと判断した場合(F3でyes)、自律移動体1は目的地への移動を再開する。このとき、自律移動体1は、再度、通路口部105(進入口部151)に入って目的地への移動を開始するため、再度、上記の通路部101内に退避すべき移動障害物が存在するか否かを判断し(F5)、退避すべき移動障害物が存在すると判断した場合には、再び退避動作に移行する。すなわち、自律移動体1は、幅の狭い通路部101に移動障害物が存在しなくなるまで、通路部101に進入しない。
 移動障害物が通路部101を通過したかどうかの判断は、例えばセンサ2を用いて移動障害物の移動をトラッキングすることによって判断することができる。移動障害物が通路部101の外に出た場合、トラッキングした結果として得られる移動障害物の位置情報が通路情報201の中から脱する。この結果によって移動障害物が通路部101を通過したかどうかを判断することができる。また、精度は落ちるが、より簡単には、通路部101内に退避すべき移動障害物が存在する(F5)と判断してから一定時間後に当該移動障害物が通過したと判断してもよい。また、これらを組み合わせることも可能である。なお、この一定時間は通路情報201に基づき通路部101の長さから決定されてもよい。また、センサ2から得られる移動障害物300と自律移動体1との距離に基づきこの一定時間を算出してもよい。
 自律移動体1が待機位置で待機し、一定時間以上、移動障害物が通路部101内に留まっていると判断した場合には、エラー状態とし、周囲に通知する。一定時間は、たとえば3分程度に設定される。
 通路部101に退避すべき移動障害物300が存在するかどうかを自律移動体1が判断する方法を、図5を参照しながら説明する。図5は、第一センサ21の第一計測平面21Pの様子と、第一センサ21で通路部101内の移動障害物300を検知したときの移動障害物300の検知位置301を示している。第一センサ21としてレーザレーダを用いた場合、前述のように、自律移動体1は、第一計測平面21P内において、0.5゜毎に移動障害物300までの距離情報を取得する。この情報から、自律移動体1は移動障害物の位置を把握することができる。
 なお、センサ2では、ベッドや車椅子などの大きな形状の移動障害物300と、人などの比較的小さな形状の移動障害物との違いを判定できない場合もある。自律移動体1の稼動率向上のためには、人などの小さな形状の移動障害物が通路部101内を通過している場合を判断して通路部101内で移動障害物とすれ違うように、自律移動体1を制御することが好ましい。このように、ベッドなどの大きな形状の移動障害物300が通路部101内を通過している場合、待機位置106に移動するとともに、移動障害物とすれ違うことが可能な場合には自律移動体1を退避させない状態を創出することが望ましい。
 そこで、本実施の形態では、水平面を計測するレーザレーダなどの第一センサ21が取得した環境情報の中に含まれる距離情報と、その距離を測定した際の角度情報とで検知位置情報401を構成する。そして、検知位置情報401を第二閾値などを用いてグループ化してクラスタ情報402を作成する。このグループ化されたクラスタ情報402を移動障害物300に対応する移動障害物情報400として退避すべき移動障害物300か退避する必要が無い移動障害物300かを識別する。制御装置4は、以上の制御を実施する。
 具体的には、図6に示すように、第一センサ21が取得した検知位置情報401の内、第二閾値である一定距離D内に存在する検知位置情報401のグループをクラスタ情報402とする。そして、クラスタ情報402を一つの移動障害物300であると判断する。さらに、クラスタ情報402から通路部101の幅方向に対応する方向の両端のそれぞれに対応する検知位置情報401間の幅方向に対応する距離を幅情報Wとする。この幅情報Wが一定距離(第三閾値)以上であれば、クラスタ情報402に対応する移動障害物は大きな形状を有する物体であると判断できる。そのため、この移動障害物は、退避すべき移動障害物300として判断することができる。
 次に、自律移動体1が通路部101に進入した後の制御装置4の制御方法について説明する。
 通路部101を自律移動体1が走行していると、通路部101内に存在する回避可能な小さな形状の移動障害物300Aを回避して移動する場合がある。一方、自律移動体1が通路部101を走行している途中に、退避すべき大きな形状の移動障害物300が通路部101に進入してくる可能性がある。そのため、通路部101内において、自律移動体1は、できるだけ早く通路部101から外に出る方が良い場合が多い。
 そこで、自律移動体1では、通路部101を移動している間は、図7に示すように、回避動作を行うための旋回角度θを進行方向Sに対して±αに制限することが好ましい。これにより、回避にともなう時間ロスを軽減することができる。旋回角度θを制限する第四閾値αとしては、例えば30°である。また、通路部101を通過している状態ではない通常走行時には、旋回角度θを制限する第四閾値αは、例えば180°である。すなわち、通路部101以外を走行する通常走行時に比べて、通路部101を走行している時の旋回角度を小さく、例えば、1/6に制限する。
 続いて、本実施の形態における移動障害物識別部9の識別方法について、図8を参照してさらに詳しく説明する。
 移動障害物識別部9は、環境情報から特徴量を算出し、退避すべき移動障害物300か否かを判定している。具体的には、まず、第一センサ21が取得した環境情報を、移動障害物識別部9のクラスタリング部91によってグループ化する。クラスタリング部91は、前述のように、取得した移動障害物300の位置が一定距離D内に存在する移動障害物データを、同一物体とみなしてグループ化する。次に、グループ化されたデータ(クラスタ情報402)を用いて、特徴量算出部92が特徴ベクトルを算出する。事前に学習した移動障害物判別部93は、算出された特徴ベクトル用い、クラスタが退避すべき移動障害物300であるか否かを評価する。移動障害物判別部93には、RBF(Radial Basis Function)カーネルのSVM(サポートベクターマシン)を用いることができる。特徴ベクトルの算出には、公知の手法を用いることができる。
 SVMは、事前に教師データを用いて学習する。教師データとしては、退避すべき移動障害物300の計測データである検知位置情報401のセット(クラスタ情報402)と、退避すべきでない移動障害物300Aの計測データである検知位置情報401のセット(クラスタ情報402)を用いる。
 続いて、第一センサ21および第二センサ22によって取得する3次元の環境情報を用いた移動障害物300の識別方法について、さらに詳しく述べる。
 図2を用いて前述したように、センサ2は、第一センサ21と、第二センサ22とを有する。第一センサ21は、走行面Pに平行な第一計測平面21P内の情報を取得する。第二センサ22は、水平面である第一計測平面21Pとは異なる第二計測平面22P内の情報を取得する。第二センサ22は自律移動体1の左右に設けられている。なお、第二センサ22の配置は、この配置位置に限定されるわけではなく、第一計測平面21P以外を計測するように配置する多種の取り付け態様が可能である。自律移動体1が第一センサ21に加え第二センサ22を有することで、走行面Pに平行な水平面だけでなく、3次元的に移動障害物300の位置を計測することができる。
 第一センサ21のみを用いる方法では、通路部101の長手方向の距離が長くなり、対象となる移動障害物が自律移動体1から遠方に位置した場合、移動障害物に対応する環境情報が少なくなる。したがって、クラスタ情報402を作成するために必要な情報量が少なくなり、十分に移動障害物を識別することができないことがある。この様子を図9を参照しながら説明する。図9の上部に示すように、移動障害物300の位置が自律移動体1から比較的近い場合には、移動障害物300を識別するための検知位置情報401を十分取得することができる。一方、図9の下部に示すように、移動障害物300の位置が自律移動体1から比較的遠方であれば、移動障害物300を識別するための検知位置情報401が十分に得られない。また、第一センサ21のみでは対象とする移動障害物300がベッドなどの場合、脚の部分しか検知位置情報401を取得できない。そのため、移動障害物300であるベッドを一つのクラスタ情報402として認識できず、退避すべき移動障害物300であるのに退避すべき移動障害物として識別できないことがある。そのため、3次元的に移動障害物を識別することが好ましい。これにより、退避すべき移動障害物300の識別精度を向上することができる。
 ただし、第二センサ22では、第一センサ21とは異なり、自律移動体1の向きによって移動障害物300を計測できる場合とできない場合がある。この様子を、図10、図11を参照しながら説明する。図10に示すように、第二計測平面22Pが移動障害物300と交わらないように自律移動体1が向いている場合、自律移動体1は第二センサ22によって移動障害物300を計測できない。一方、図11に示すように、第二計測平面22Pが移動障害物300と交わるように自律移動体1が向いている場合、自律移動体1は第二センサ22によって移動障害物300の位置を計測することができる。
 本実施の形態では、特徴量の算出を、移動障害物300の3次元の環境情報を得られることから、以下のように拡張することが好ましい。
f1:クラスタ内の総データ点数
f2:クラスタ内のデータ点までの最小距離
f3:データ点3次元共分散行列
f4:データ点の3次元慣性モーメント行列の要素
f5:クラスタ内の端点から端点までの距離(幅情報W)
このように設定することで、より信頼性の高い移動障害物の識別が可能となる。
 前述のように、対象となる移動障害物300の3次元の環境情報を取得することで、より信頼性の高い識別が可能となる。
 次に、図12を参照しながら、第一センサ21で移動障害物300を検知し、さらに信頼性向上のため第二センサ22でさらに移動障害物300を検知する場合の自律移動体1の向きを制御する方法を説明する。なお、図12は、図4の制御フローにおけるF5をより詳細に説明するフローチャートである。
 制御装置4は、自律移動体1が通路口部105を通行時に、第一センサ21が取得した環境情報を用いて、1:退避すべき移動障害物が存在する、2:退避すべき移動障害物が存在する可能性がある、3:退避すべき移動障害物は存在しない、のいずれであるか判断する(G1)。
 第一センサ21からの環境情報で、3:退避すべき移動障害物が存在しないという判断結果であった場合には、通路部101内に退避すべき移動障害物が存在しない旨を示す情報を出力する(G6)。この場合は、例えば通路部101内には移動障害物が一切存在しないと判断された場合を含む。
 第一センサ21からの環境情報で、1:狭い通路内に退避すべき移動障害物が確実に存在するという判断結果であった場合とは、例えばクラスタ情報402の幅情報Wが第三閾値以上であった場合である。この場合には、通路部101内に退避すべき移動障害物が存在する旨を示す情報を出力する(G7)。
 第一センサ21からの環境情報で、2:退避すべき移動障害物が存在する可能性があるという判断結果であった場合とは、例えばクラスタ情報402は存在するがその幅情報Wが第三閾値未満であった場合である。この場合には、第二センサ22からの環境情報に基づき第二センサ22で移動障害物を検知しているか否かを判断する(G2)。
 第二センサ22からの環境情報中に移動障害物を検知している情報が存在する場合(G2、yes)には、3次元の環境情報に対応した識別器を用いて対象となる移動障害物を識別する(G3)。第二センサ22からの環境情報に基づき通路部101内に退避すべき移動障害物が存在すると判断された場合(G4、yes)には、通路部101内に退避すべき移動障害物が存在する旨を示す情報を出力する(G7)。通路部101内に退避すべき移動障害物が存在しないと判断された場合(G4、no)には、通路部101内に退避すべき移動障害物が存在しない旨を示す情報を出力する(G6)。
 第一センサ21からの環境情報で、2:退避すべき移動障害物が存在する可能性があるという判断結果が得られ、かつ、自律移動体1の第二センサ22で移動障害物を検知していない場合(G2、no)には、第二センサ22で移動障害物を検知できる向きに自律移動体1を旋回させる(G5)。具体的には、図10に示すように、第二センサ22で移動障害物300を検知できず、かつ、第一センサ21からの環境情報では移動障害物は存在するが、この移動障害物が退避すべき移動障害物ではないと判断している場合に、自律移動体1を旋回させる。そして、図11に示すように、第一センサ21が検出している移動障害物300に第二センサ22の第二計測平面22Pが向くように、自律移動体1を旋回させて、その向きを制御する。
 なお、この動作において、旋回させる向きに移動障害物が存在するなど、他の事象により旋回させることができない事由がある場合には、その事由の対応を優先してもよい。
 また、上記旋回途中において、第二センサ22から取得する移動障害物300の検知位置情報401を一定時間記憶し、これら記憶した情報と第一センサ21から取得する検知位置情報401を用いて移動障害物300の識別を行うこともできる。
 なお、本開示は、上記実施の形態に限定されるものではない。例えば、上述の構成要素を任意に組み合わせて、また、構成要素のいくつかを除外して実現される別の実施の形態を実施の形態としてもよい。また、上記実施の形態に対して本開示の主旨が示す意味を逸脱しない範囲で当業者が思いつく各種変形を施して得られる変形例も本開示に含まれる。
 すなわち、自律移動体1の制御方法では、通路(通路部101)へ進入するに際し、通路の表面と平行な第一計測平面21Pを有する第一センサ21で通路内を計測する。そして、第一センサ21からの情報に基づき通路を通過可能か否かを判断する。また、判断の結果、通路を通過可能と判断した場合、第一計測平面21Pに対して傾いた第二計測平面22Pを有する第二センサ22の第二計測平面22Pを自律移動体1の左右方向に走査する。そして、走査した第二センサ22からの情報に基づき通路を通過可能か否かを再判断する。再判断の結果、通路を通過不能と判断した場合、通路部外の待機位置106へ自律移動体1を移動し、通路を通過可能と判断した場合、自律移動体1を通路に進入させる。
 また、待機位置106は、通路よりも幅広の通路(通路口部105)に位置する。幅がより狭い通路部101へ進入する際に、幅広の通路口部105で待機することで、よりスムースに退避動作を実施できる。
 また、再判断をして待機位置106へ移動した後、第一センサ21からの情報に基づいて通路を通過可能か否かを判断し、その後、通路を移動可能と判断した場合に、通路へ進入するように自律移動体1を制御してもよい。これにより、通過不能と判断した理由となった通路部101内の移動障害物300が、通路部101外に移動したことを確認でき、その後、安全に通路部101に自律移動体1を進入させることができる。なお、精度は落ちるが、待機位置106へ移動した場合、一定時間経過後に通路へ進入させてもよい。
 またセンサ2からの情報を基に、予め学習済みの機械学習の結果に基づいて通路に進入可能か否かを判断することが好ましい。
 なお、第二計測平面22Pの走査は、自律移動体1を旋回させることで実施するのが望ましい。自律移動体1が移動するために設けられた自律移動機構(例えば、車輪、キャタピラ)の機能を活用できるため、別途、第二センサ22を走査するための駆動機構(アクチュエータ等)を設ける必要がない。装置の複雑化を招くが、第二センサ22を走査するための駆動機構を別途設けてもよい。
 なお、上記の制御方法は、ソフトウェア処理によって実行される。ソフトウェアはROM、光学ディスク、HDDなどの記録媒体に記録され、ソフトウェアが、自律移動体1の有するプロセッサによって実行された場合に、プロセッサと自律移動体1に設けられたデバイスに各処理を実行させる。
 上述のように、本発明に係る自律移動体は、特に病院のような建物内で、ベッドなどが行きかう環境において、それら移動する移動障害物に対する信頼性の高い退避動作を実現することができる。
1  自律移動体
2  センサ
3  移動部
4  制御装置
5  自己位置推定部
6  経路生成部
7  記憶部
8  電池
9  移動障害物識別部
10  学習器
21  第一センサ
21P  第一計測平面
22  第二センサ
22P  第二計測平面
31  位置情報取得部
91  クラスタリング部
92  特徴量算出部
93  移動障害物判別部
101  通路部
105  通路口部
106  待機位置
151  進入口部
161  進入側待機位置
162  退去側待機位置
201  通路情報
202  目的地情報
203  ノード情報
204  経路情報
205  通路口情報
206  待機位置情報
251  進入口情報
252  退出口情報
261  進入側待機位置情報
262  退去側待機位置情報
300,300A  移動障害物
301  検知位置
400  移動障害物情報
401  検知位置情報
402  クラスタ情報

Claims (10)

  1. 自律移動体の制御方法であって、
    通路へ進入するに際し、前記通路の表面と平行な第一計測平面を有する第一センサで前記通路内を計測し、
    前記第一センサからの情報に基づき前記通路を通過可能か否かを判断し、
    前記通路を通過可能と判断した場合、前記第一計測平面に対して傾いた第二計測平面を有する第二センサの前記第二計測平面を前記自律移動体の左右方向に走査し、
    走査した前記第二センサからの情報に基づき前記通路を通過可能か否かを再判断し、
    再判断の結果、前記通路を通過不能と判断した場合、前記通路外の待機位置へ前記自律移動体を移動させ、
    再判断の結果、前記通路を通過可能と判断した場合、前記自律移動体を前記通路に進入させる、
    自律移動体の制御方法。
  2. 前記待機位置は、前記通路よりも幅広の通路に位置する、
    請求項1に記載の自律移動体の制御方法。
  3. 前記通路は、当該自律移動体の車体幅の2倍以上、3倍以下の幅の通路である、
    請求項1、2のいずれか一項に記載の自律移動体の制御方法。
  4. 前記通路は、前記自律移動体の幅と予め設定された移動障害物の幅とを足し合わせた幅より狭い幅を有する、
    請求項1~3のいずれか一項に記載の自律移動体の制御方法。
  5. 前記待機位置へ移動した後、前記第一センサからの情報に基づいて前記通路を通過可能か否かを判断し、その後、前記通路を移動可能と判断した場合に、前記通路へ進入する、
    請求項1~4のいずれか一項に記載の自律移動体の制御方法。
  6. 前記待機位置へ移動した場合、一定時間経過後に前記通路へ進入する、
    請求項1~4のいずれか一項に記載の自律移動体の制御方法。
  7. 前記通路を走行している間は、前記通路以外を走行している場合と比べて旋回角度を小さく制限する、
    請求項1~6のいずれか一項に記載の自律移動体の制御方法。
  8. 前記センサからの情報を基に、予め学習済みの機械学習の結果に基づいて前記通路に進入可能か否かを判断する、
    請求項1~7のいずれか一項に記載の自律移動体の制御方法。
  9. 前記第二計測平面の走査は、前記自律移動体を旋回させることで実施する、
    請求項1~8のいずれか一項に記載の自律移動体の制御方法。
  10. 自律移動体であって、
    進入対象の通路の表面と平行な第一計測平面を有し、前記通路内を計測する第一センサと、
    前記第一計測平面に対して傾いた第二計測平面を有し、前記第二計測平面を前記自律移動体の左右方向に走査する第二センサと、
    前記自律移動体を移動させる移動部と、
    前記第一センサからの情報に基づき前記通路を通過可能か否かを判断するとともに、前記第二センサからの情報に基づき前記通路を通過可能か否かを再判断し、再判断の結果、前記通路を通過不能と判断した場合、前記通路外の待機位置へ前記自律移動体を移動させるように前記移動部を制御し、再判断の結果、前記通路を通過可能と判断した場合、前記自律移動体を前記通路に進入させるように前記移動部を制御する制御装置と、を備えた、
    自律移動体。
PCT/JP2015/002810 2014-07-18 2015-06-03 自律移動体とその制御方法 WO2016009585A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015558265A JPWO2016009585A1 (ja) 2014-07-18 2015-06-03 自律移動体とその制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-148288 2014-07-18
JP2014148288 2014-07-18

Publications (1)

Publication Number Publication Date
WO2016009585A1 true WO2016009585A1 (ja) 2016-01-21

Family

ID=55078100

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/002810 WO2016009585A1 (ja) 2014-07-18 2015-06-03 自律移動体とその制御方法

Country Status (2)

Country Link
JP (1) JPWO2016009585A1 (ja)
WO (1) WO2016009585A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113768420A (zh) * 2021-09-18 2021-12-10 安克创新科技股份有限公司 扫地机及其控制方法、装置
JP7020575B1 (ja) * 2021-03-09 2022-02-16 三菱電機株式会社 管制システムおよび移動体
JP2022035927A (ja) * 2020-08-20 2022-03-04 上海姜歌机器人有限公司 ロボット障害回避処理方法、装置、ロボット

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005304540A (ja) * 2004-04-16 2005-11-04 Funai Electric Co Ltd 監視カメラを備えた自走式掃除機
JP2006323618A (ja) * 2005-05-19 2006-11-30 Sanyo Electric Co Ltd 自走式ロボット

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3648604B2 (ja) * 2000-10-26 2005-05-18 松下電工株式会社 自律移動装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005304540A (ja) * 2004-04-16 2005-11-04 Funai Electric Co Ltd 監視カメラを備えた自走式掃除機
JP2006323618A (ja) * 2005-05-19 2006-11-30 Sanyo Electric Co Ltd 自走式ロボット

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022035927A (ja) * 2020-08-20 2022-03-04 上海姜歌机器人有限公司 ロボット障害回避処理方法、装置、ロボット
JP7020575B1 (ja) * 2021-03-09 2022-02-16 三菱電機株式会社 管制システムおよび移動体
CN115043272A (zh) * 2021-03-09 2022-09-13 三菱电机株式会社 管制***和移动体
CN115043272B (zh) * 2021-03-09 2024-05-14 三菱电机株式会社 管制***和移动体
CN113768420A (zh) * 2021-09-18 2021-12-10 安克创新科技股份有限公司 扫地机及其控制方法、装置

Also Published As

Publication number Publication date
JPWO2016009585A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
US9164512B2 (en) Autonomous moving body and control method thereof
US9244463B2 (en) Automated guided vehicle and method of operating an automated guided vehicle
US9020682B2 (en) Autonomous mobile body
JP5402057B2 (ja) 移動ロボット制御システム、経路探索方法、経路探索プログラム
JP5949814B2 (ja) 自律移動ロボット、及びその制御方法
JP4462196B2 (ja) 移動車両
JP4464893B2 (ja) 移動ロボット
JP6711138B2 (ja) 自己位置推定装置、及び、自己位置推定方法
US20190079537A1 (en) Automatic guided vehicle
WO2014156502A1 (ja) 位置同定装置、及びそれを備えた移動ロボット
KR20130037684A (ko) 자율 이동체
JP4910219B2 (ja) 自律移動方法及び自律移動体
KR20190095622A (ko) 회피경로 생성방법 및 그를 위한 장치
JP4670807B2 (ja) 移動経路作成方法、自律移動体および自律移動体制御システム
EP3738495B1 (en) Robotic vacuum cleaner and control method therefor
JP5085251B2 (ja) 自律移動装置
JP2009237851A (ja) 移動体制御システム
JP5553220B2 (ja) 移動体
EP3892426A1 (en) Autonomously traveling mobile robot and traveling control method therefor
JP2020004095A (ja) 自律移動体制御装置及び自律移動体
WO2016009585A1 (ja) 自律移動体とその制御方法
JP2009110251A (ja) 障害認識装置及びこれを有する自律走行移動体並びにその制御方法
JP2011141663A (ja) 無人搬送車、および、その走行制御方法
JP6962027B2 (ja) 移動車両
KR20130056655A (ko) 무인 자율주행 운반차량의 충돌회피 대응방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015558265

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15821801

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15821801

Country of ref document: EP

Kind code of ref document: A1