WO2020235392A1 - 搬送車システム、搬送車、及び、制御方法 - Google Patents

搬送車システム、搬送車、及び、制御方法 Download PDF

Info

Publication number
WO2020235392A1
WO2020235392A1 PCT/JP2020/018937 JP2020018937W WO2020235392A1 WO 2020235392 A1 WO2020235392 A1 WO 2020235392A1 JP 2020018937 W JP2020018937 W JP 2020018937W WO 2020235392 A1 WO2020235392 A1 WO 2020235392A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
transport vehicle
sensor
peripheral
transport
Prior art date
Application number
PCT/JP2020/018937
Other languages
English (en)
French (fr)
Inventor
雅昭 松本
Original Assignee
村田機械株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 村田機械株式会社 filed Critical 村田機械株式会社
Priority to JP2021520721A priority Critical patent/JP7255676B2/ja
Priority to US17/608,535 priority patent/US20230333568A1/en
Priority to CN202080031353.1A priority patent/CN113748392A/zh
Publication of WO2020235392A1 publication Critical patent/WO2020235392A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling

Definitions

  • the present invention relates to a transport vehicle system, particularly a transport vehicle system having a plurality of transport vehicles traveling in a moving region while estimating a position in the moving region, a transport vehicle included in the transport vehicle system, and control of the transport vehicle. Regarding the method.
  • a moving body that autonomously travels in a moving area while estimating a position in the moving area has been known.
  • a mobile body using SLAM Simultaneus Localization and Mapping
  • This moving object uses SLAM to estimate its own position by matching a local map obtained as a result of distance measurement with a laser range finder (LRF: Laser Range Finder) or a camera with an environmental map.
  • LRF Laser Range Finder
  • An object of the present invention is to change the self-position estimation method by reducing the influence of the presence of other transport vehicles and obstacles in a transport vehicle system having a plurality of transport vehicles using SLAM as a self-position estimation method. Instead, it is to accurately estimate the self-position.
  • the transport vehicle system includes a plurality of transport vehicles and a map data storage unit.
  • Each of the plurality of transport vehicles has a distance measuring sensor, an on-board controller, and a communication unit.
  • the map data storage unit stores map data in which peripheral objects in the moving area are stored.
  • the on-board controller of the transport vehicle has an estimation unit and a first peripheral information generation unit. The estimation unit is based on the first peripheral information, the position information of the own vehicle (the main body of the vehicle on which the on-board controller is mounted, the same applies hereinafter), and the map data, which are currently grasped. Estimate the self-position of the own vehicle.
  • the first peripheral information is peripheral information of the own vehicle including the first sensor information obtained by the distance measuring sensor of the own vehicle.
  • the first peripheral information generation unit adds the supplementary information to the first sensor information to generate the first peripheral information.
  • the supplementary information includes the second sensor information obtained by the distance measuring sensor of another transport vehicle.
  • the first peripheral information generation unit uses the first sensor information obtained by the distance measuring sensor. Supplementary information is added to generate the first peripheral information used for estimating the self-position of the own vehicle. In this way, the supplementary information possessed by the other transport vehicle is added to the sensor information acquired by the own transport vehicle to generate the first peripheral information. Since the amount of information in the first peripheral information is larger than that in the first sensor information, the self-propelled vehicle can estimate its own position more accurately.
  • the own transport vehicle has an unintended obstacle including the other transport vehicle around it. Even so, the effects of the presence of such obstacles can be reduced and accurate self-position estimation can be performed. This is because, even if sufficient first sensor information cannot be obtained due to the presence of an unintended obstacle, the own carrier vehicle can obtain more information by adding supplementary information to the first sensor information of the own carrier vehicle. This is because the first peripheral information including the information can be generated.
  • the first peripheral information generation unit may add supplementary information to the first sensor information based on the position information of the own carrier vehicle and the position information of other transport vehicles. As a result, more accurate first peripheral information can be generated based on the positional relationship between the own vehicle and another vehicle.
  • the first peripheral information generation unit may add the supplementary information to the first sensor information after offsetting the supplementary information by the difference between the position information of the own carrier vehicle and the position information of the other transport vehicle. As a result, more accurate first peripheral information can be generated.
  • the position information of the other transport vehicle may be acquired from the other transport vehicle through the communication unit together with the supplementary information.
  • the position information of the other carrier vehicle can be obtained without going through another device such as the host controller, so that the load on the other device (upper controller) can be reduced.
  • the transport vehicles directly communicate with each other to acquire the position information of the other transport vehicles the communication loss for acquiring the position information can be reduced.
  • the position information of the other transport vehicle may be grasped based on the information obtained by the distance measuring sensor of the own transport vehicle. This eliminates the need to receive the position information of the other transport vehicle from the other transport vehicle.
  • the first peripheral information generation unit may acquire supplementary information from another transport vehicle specified based on the specific information.
  • the specific information is information for identifying the transport vehicle. That is, the specific information is information that can be used to identify another transport vehicle, such as information representing the characteristics of the transport vehicle, information for identifying the transport vehicle, and conditions for identifying the transport vehicle.
  • the first peripheral information generation unit acquires supplementary information from the other transport vehicle. Supplementary information can be added to the first sensor information of the own machine carrier before the abnormality (for example, abnormal stop) occurs. As a result, it is possible to reduce the possibility that an abnormality (abnormal stop) will occur in the own vehicle.
  • the transport vehicle may further include a photographing unit that photographs the front in the traveling direction.
  • the specific information is the appearance information of another transport vehicle photographed by the photographing unit.
  • the other transport vehicle can be identified more accurately from the appearance of the other transport vehicle.
  • the above-mentioned transport vehicle system may further include a host controller.
  • the host controller assigns the transport command to a plurality of transport vehicles.
  • the specific information is information about another transport vehicle that the host controller grasps as existing in the vicinity of the transport path of the own machine transport vehicle based on the transport command.
  • supplementary information can be acquired from other transport vehicles specified on the host controller.
  • the specific information may be information about other transport vehicles within the range that can be communicated by the communication unit. As a result, supplementary information can be acquired from other transport vehicles within a limited range, and the communication load by the communication unit can be reduced.
  • the first peripheral information generation unit may acquire supplementary information from all other transport vehicles. As a result, supplementary information can be obtained from all other transport vehicles, so that more supplementary information can be added to the first sensor information of the own transport vehicle to perform more accurate position estimation.
  • the first peripheral information generation unit may use the first sensor information as the first peripheral information.
  • the position can be estimated by collating the first peripheral information with the map data. That is, the self-propelled vehicle can use the same self-position estimation method regardless of whether or not supplementary information is acquired.
  • the transport vehicle is a transport vehicle of a transport vehicle system including a plurality of transport vehicles traveling in a moving area.
  • the transport vehicle includes a distance measuring sensor, a communication unit, an estimation unit, and a first peripheral information generation unit.
  • the estimation unit self-positions based on the first peripheral information including the first sensor information obtained by the distance measuring sensor, the position information currently grasped, and the map data in which the peripheral objects in the moving area are stored. To estimate.
  • the first peripheral information generation unit adds the supplementary information to the first sensor information and first. Generate peripheral information.
  • the first peripheral information generation unit obtains it with the distance measuring sensor of the own transport vehicle. Supplementary information is added to the first sensor information to be generated, and the first peripheral information used for estimating the self-position of the own vehicle is generated. In this way, the supplementary information possessed by the other transport vehicle is added to the sensor information acquired by the own transport vehicle to generate the first peripheral information. Since the amount of information in the first peripheral information is larger than that in the first sensor information, the self-propelled vehicle can estimate its own position more accurately.
  • the own transport vehicle has an unintended obstacle including the other transport vehicle around it. Even so, the effects of the presence of such obstacles can be reduced and accurate self-position estimation can be performed. This is because, even if sufficient first sensor information cannot be obtained due to the presence of an unintended obstacle, the own carrier vehicle can obtain more information by adding supplementary information to the first sensor information of the own carrier vehicle. This is because the first peripheral information including the information can be generated.
  • a control method includes a distance measuring sensor, a communication unit, a plurality of transport vehicles traveling in a moving area, and map data in which peripheral objects in the moving area are stored. It is a control method of own-machine transport vehicle in a transport vehicle system including a map data storage unit to be stored.
  • the control method includes the following steps. ⁇ The step of acquiring the first sensor information by the distance measuring sensor of the own vehicle. ⁇ A step of determining whether or not supplementary information including the second sensor information obtained by the distance measuring sensor of another transport vehicle can be acquired through the communication unit of the own transport vehicle.
  • the step of adding the supplementary information to the first sensor information to generate the first peripheral information
  • the first peripheral information generation unit of the own vehicle conveys the own vehicle. Supplementary information is added to the first sensor information obtained by the distance measuring sensor of the vehicle to generate the first peripheral information used for estimating the self-position of the own vehicle.
  • the first peripheral information is generated by adding the supplementary information possessed by the other transport vehicle to the sensor information acquired by the own transport vehicle. Since the amount of information in the first peripheral information is larger than that in the first sen difference information, the self-propelled vehicle can estimate its own position more accurately.
  • the own transport vehicle has an unintended obstacle including the other transport vehicle around it. Even so, the effects of the presence of such obstacles can be reduced and accurate self-position estimation can be performed. This is because, even if sufficient first sensor information cannot be obtained due to the presence of an unintended obstacle, the own carrier vehicle can obtain more information by adding supplementary information to the first sensor information of the own carrier vehicle. This is because the first peripheral information including the information can be generated.
  • a transport vehicle system having a plurality of transport vehicles using SLAM as a self-position estimation method the influence of the presence of other transport vehicles and obstacles is reduced, and the self-position is accurately self-positioned without changing the self-position estimation method. Estimates can be made.
  • the schematic plan view of the transport vehicle system as 1st Embodiment of this invention Schematic block diagram of a transport vehicle.
  • the block diagram which shows the structure of the control part.
  • a flowchart showing a self-position estimation operation The figure which shows an example of the case where another transport vehicle exists in front of the own transport vehicle.
  • FIG. 1 is a schematic plan view of a transport vehicle system according to the first embodiment of the present invention.
  • the transport vehicle system 100 includes a plurality of transport vehicles 1a, 1b, 1c, 1d, and 1e.
  • the plurality of transport vehicles 1a to 1e are transport robots that move in the moving area ME (for example, in a factory).
  • the plurality of transport vehicles 1a to 1e have the same shape, or all the shapes are known.
  • the number of transport vehicles is 5, but the number is not limited.
  • transport vehicle 1 when the transport vehicle 1 is generally described, it is referred to as "transport vehicle 1".
  • marks (not shown) that can be detected by the laser range sensor 13 are arranged at predetermined intervals in the moving region ME.
  • the transport vehicles 1a to 1e can perform self-position estimation at any position in the moving region ME.
  • the transport vehicle system 100 has a host controller 3 (FIG. 3).
  • the host controller 3 is a general computer like the on-board controller 14 described later.
  • the host controller 3 can communicate with a plurality of transport vehicles 1a to 1e.
  • the host controller 3 controls the transport vehicle system 100. Specifically, the host controller 3 allocates a transport command to the transport vehicles 1a to 1e, and transmits the assigned transport command to the corresponding transport vehicles 1a to 1e.
  • FIG. 2 is a schematic configuration diagram of a transport vehicle.
  • the transport vehicle 1 has a main body portion 11.
  • the main body 11 is a housing that constitutes the transport vehicle 1.
  • the “self-position” described later is defined as the position (coordinates) of the center of the main body 11 on the environment map representing the moving area ME.
  • the transport vehicle 1 has a moving portion 12.
  • the moving unit 12 is, for example, a differential two-wheel type traveling unit that moves the main body portion 11.
  • the moving unit 12 has a pair of motors 121a and 121b.
  • the pair of motors 121a and 121b are electric motors such as a servo motor and a brushless motor provided at the bottom of the main body 11.
  • the moving unit 12 has a pair of drive wheels 123a and 123b.
  • the pair of drive wheels 123a and 123b are connected to the pair of motors 121a and 121b, respectively.
  • the transport vehicle 1 has a laser range sensor 13 (an example of a distance measuring sensor).
  • the laser range sensor 13 radiates the laser beam pulse-oscillated by the laser oscillator onto the loading portion O and the wall W in the moving region ME, and receives the reflected light reflected from them by the laser receiver. By doing so, you get information about them.
  • the laser range sensor 13 is, for example, a laser range finder (LRF: Laser Range Finder).
  • the laser range sensor 13 includes a front laser range sensor 131 arranged at the front portion of the main body portion 11 and a rear laser range sensor 133 arranged at the rear portion of the main body portion 11.
  • the front laser range sensor 131 is provided in front of the main body 11.
  • the front laser range sensor 131 radiates laser light in the left-right direction, so that the loading portion O, the wall W, and the other transport vehicle 1 existing in front of the main body 11 centered on the front laser range sensor 131. Get information about.
  • the detection range of the object of the front laser range sensor 131 is, for example, within a circle having a radius of about 20 m in front of the main body 11.
  • the rear laser range sensor 133 is provided behind the main body 11.
  • the rear laser range sensor 133 radiates laser light in the left-right direction, so that the loading portion O, the wall W, and the other transport vehicle 1 existing behind the main body 11 centered on the rear laser range sensor 133. Get information about.
  • the detection range of the object of the front laser range sensor 131 is, for example, within a circle having a radius of about 20 m behind the main body 11.
  • the detectable distance of the laser range sensor is not limited to the above value, and can be appropriately changed according to the application of the transport vehicle system 100 and the like.
  • the transport vehicle 1 has a load holding unit and / or a load transfer device (not shown). As a result, the transport vehicle 1 can carry the load and transfer the load to and from other devices.
  • the transport vehicle 1 has an on-board controller 14.
  • the on-board controller 14 includes a processor (for example, a CPU), a storage device (for example, ROM, RAM, HDD, SSD, etc.) and various interfaces (for example, an A / D converter, a D / A converter, a communication interface, etc.). It is a computer system that has.
  • the on-board controller 14 performs various control operations by executing a program stored in a storage unit (corresponding to a part or all of a storage area of the storage device).
  • the on-board controller 14 may be composed of a single processor, or may be composed of a plurality of independent processors for each control.
  • each element of the vehicle-mounted controller 14 may be realized as a program that can be executed by the computer system constituting the control unit.
  • a part of the function of each element of the control unit may be configured by a custom IC.
  • the on-vehicle controller 14 is connected to a sensor and a switch for detecting the state of each device, and an information input device.
  • the on-vehicle controller 14 has a storage unit 141.
  • the storage unit 141 is a part of the storage area of the storage device of the computer system that constitutes the on-board controller 14.
  • the storage unit 141 stores various information used for controlling the transport vehicle 1.
  • the storage unit 141 stores the environment map M1 (an example of map data).
  • the environment map M1 is, for example, a collection of coordinate value data indicating the positions of the loading portion O and / or the wall W on the coordinate plane representing the moving area ME, and is a map representing a part or all of the moving area ME. is there.
  • the environment map M1 may be configured as one whole map, or may be configured to represent the entire moving area ME with a plurality of partial maps.
  • the storage unit 141 stores the position information PI and the peripheral information M2.
  • the position information PI is information representing the position (self-position) of the own vehicle as a coordinate value on the XY coordinates.
  • the XY coordinates are the coordinate system in which the environment map M1 is defined.
  • the position information PI is the self-position and the self-posture estimated by the self-position estimation unit 143.
  • Peripheral information M2 is information used for self-position estimation executed by the self-position estimation unit 143.
  • the on-board controller 14 has a sensor information acquisition unit 142.
  • the sensor information acquisition unit 142 generates the sensor information SI based on the signal acquired from the laser range sensor 13.
  • the sensor information acquisition unit 142 stores the generated sensor information SI in the storage unit 141.
  • the sensor information SI is generated as follows.
  • the sensor information acquisition unit 142 first determines the distance between the laser range sensor 13 and the object from the time difference between the timing at which the laser beam is irradiated from the laser range sensor 13 and the timing at which the reflected light is received by the laser range sensor 13. calculate. Further, for example, the direction in which the object as seen from the main body 11 exists can be calculated from the angle of the light receiving surface of the laser receiver when the reflected light is received.
  • the on-vehicle controller 14 has a self-position estimation unit 143 (an example of an estimation unit).
  • the self-position estimation unit 143 estimates the self-position (coordinates of the center position) and the self-posture (self-posture) of the main body 11 on the environment map while moving in the moving area ME. The operation of the self-position estimation unit 143 will be described later.
  • the on-vehicle controller 14 has a traveling control unit 144.
  • the travel control unit 144 controls the motors 121a and 121b.
  • the travel control unit 144 is, for example, a motor driver that calculates the control amounts of the motors 121a and 121b and outputs the drive power based on the control amounts to the motors 121a and 121b, respectively.
  • the travel control unit 144 calculates the control amount of the motors 121a and 121b so that the rotation speeds of the motors 121a and 121b input from the encoders 125a and 125b become desired values (feed
  • the travel control unit 144 determines, for example, the difference between each target arrival point (for example, the coordinate value on the environment map) indicated in the transport command from the host controller 3 and the self-position determined by the self-position estimation unit 143. Based on this, the control amounts of the motors 121a and 121b are calculated, and the drive power based on the calculated control amounts is output to these motors.
  • the on-board controller 14 has a communication unit 145.
  • the communication unit 145 is, for example, a wireless communication (wireless LAN, Wi-Fi, etc.) module for directly communicating with the host controller 3 and another carrier 1 using an antenna (not shown).
  • the communication unit 145 uses a communication protocol such as UDP (User Datagram Protocol) or TCP / IP (Transmission Control Protocol / Internet Protocol) in ad hoc communication, for example.
  • UDP User Datagram Protocol
  • TCP / IP Transmission Control Protocol / Internet Protocol
  • the on-vehicle controller 14 has a first peripheral information generation unit 146.
  • the first peripheral information generation unit 146 adds supplementary information AI acquired from another transport vehicle to the sensor information SI acquired by the own vehicle, and uses it for self-position estimation executed by the self-position estimation unit 143.
  • Peripheral information M2 (an example of the first peripheral information) is generated.
  • the on-vehicle controller 14 has a photographing unit 147.
  • the photographing unit 147 is provided in front of the main body 11 in the traveling direction (straight direction in FIG. 2).
  • the photographing unit 147 is a device for photographing another transport vehicle 1 existing in front of the own transport vehicle, and is, for example, a camera.
  • the identification unit 148 identifies another transport vehicle 1 existing in front of the own transport vehicle from the captured image acquired by the photographing unit 147.
  • the specific unit 148 has a function of detecting an obstacle by using the photographed image acquired by the photographing unit 147.
  • FIG. 4 is a flowchart showing a basic operation of the transport vehicle during autonomous traveling.
  • the operation of one of the plurality of transport vehicles 1 will be described.
  • the other transport vehicle 1 operates in the same manner.
  • the reference transport vehicle 1 for explaining the operation will be referred to as the transport vehicle 1a in FIG. 1 and will be referred to as "own machine transport vehicle 1a".
  • the other transport vehicles 1b to 1e are referred to as "other transport vehicles”.
  • each step can be omitted or replaced as necessary.
  • a plurality of steps may be executed at the same time, or some or all of them may be executed in an overlapping manner.
  • each block of the control flowchart is not limited to a single control operation, and can be replaced with a plurality of control operations represented by a plurality of blocks.
  • the operation of each device is the result of a command from the on-board controller 14 to each device, and these are represented by each step of the software application.
  • step S1 the on-board controller 14 determines whether or not the transport command assigned to the own machine transport vehicle 1a has been received from the host controller 3.
  • the transport command includes a travel schedule TS that is route information to the final destination (for example, a position in front of the loading unit O) and includes a plurality of target arrival points.
  • the on-vehicle controller 14 stores the received travel schedule TS in the storage unit 141.
  • the travel schedule TS may be generated by the on-board controller 14.
  • step S2 peripheral information M2 used for self-position estimation is generated.
  • the peripheral information M2 is acquired from the other carrier 1b in the sensor information SI acquired by the own carrier 1a. It is generated by adding supplementary information AI.
  • the supplementary information AI is the sensor information SI'of the other transport vehicle (not limited to the other transport vehicle 1b) included in the peripheral information M2 possessed by the other transport vehicle 1b.
  • step S3 the self-position estimation unit 143 estimates the self-position of the own vehicle 1a based on the peripheral information M2 generated in step S2, the signals acquired from the encoders 125a and 125b, and the environment map M1. To do.
  • the self-position estimation method executed in step S3 will be described in detail later.
  • step S4 the travel control unit 144 compares the current self-position estimated in step S2 with the next target arrival point acquired from the travel schedule TS, and from the current self-position to the next target arrival point.
  • the control amount of the motors 121a and 121b for moving to is calculated and output to the motors 121a and 121b.
  • the own machine carrier 1a travels from the current estimated position toward the next target arrival point.
  • step S5 it is determined whether or not the final destination of the travel schedule TS has been reached. When it is reached, the process proceeds to step S6. If not, the process returns to step S2. In step S6, the own machine carrier 1a stops traveling at the final destination.
  • FIG. 5 is a flowchart showing a generation operation of peripheral information M2.
  • the sensor information acquisition unit 142 acquires the position information of obstacles existing around the own machine carrier 1a as the sensor information SI. Specifically, in the sensor information acquisition unit 142, the front laser range sensor 131 and the rear laser range sensor 133 irradiate the laser light and further receive the reflected light reflected from the obstacle. After that, the sensor information acquisition unit 142 uses the detection signal output based on the received reflected light as information on the distance from the own machine carrier 1a to the detected obstacle and the obstacle seen from the own machine carrier 1a. It is converted into sensor information SI including information on the direction in which the object exists.
  • the first peripheral information generation unit 146 identifies another transport vehicle 1b existing in the vicinity of the own machine transport vehicle 1a.
  • other transport vehicles are specified as follows. First, if the image taken by the specific unit 148 by the photographing unit 147 includes the other transport vehicle 1b, the appearance information of the other transport vehicle 1b included in the image is obtained by image processing (an example of the specific information). Is extracted.
  • the extracted appearance information is information that can identify the other transport vehicle, such as the machine number of the other transport vehicle, the identification marker attached to the other transport vehicle, and the appearance of the other transport vehicle.
  • the identification unit 148 specifically identifies another transport vehicle 1b existing in the vicinity from the above appearance information. That is, the specific information according to the present embodiment is information representing the characteristics of the other transport vehicle and information for identifying the other transport vehicle.
  • step S13 If the other carrier 1b can be specifically specified (“Yes” in step S13), the peripheral information generation operation proceeds to step S14. On the other hand, if the other carrier 1b cannot be specifically specified (“No” in step S13), the peripheral information generation operation proceeds to step S16.
  • the other transport vehicle 1b cannot be identified based on the appearance information for example, when the image of the other transport vehicle 1b is not included in the captured image of the photographing unit 147, appropriate appearance information is obtained from the image of the other transport vehicle 1b. If not, etc.
  • step S12 it is assumed that the own vehicle 1a identifies the other vehicle 1b in front of the vehicle 1a.
  • the first peripheral information generation unit 146 is owned by the other transport vehicle 1b because the specified other transport vehicle 1b and the communication unit 145 directly communicate with each other in step S14. Peripheral information M2'is acquired through the communication unit 145. Even if the other carrier 1b and the own carrier 1a do not communicate directly with each other, the first peripheral information generation unit 146 may acquire the peripheral information M2'from the other carrier 1b via the host controller 3. Good.
  • the first peripheral information generation unit 146 uses the peripheral information M2'of the other transport vehicle 1b and the position information PI'(other transport vehicle 1b) estimated by the other transport vehicle 1b using the peripheral information M2'of the other transport vehicle 1b.
  • the self-position and self-position of 1b) are acquired from the other carrier 1b.
  • the first peripheral information generation unit 146 acquires a time stamp relating to the peripheral information M2' possessed by the other carrier 1b. This time stamp is a time when the other carrier 1b generates peripheral information M2'and estimates its own position as position information PI' based on the peripheral information M2'. That is, the time information (acquisition timing) of the position information PI'and the peripheral information M2' match.
  • the first peripheral information generation unit 146 adds the supplementary information AI acquired in step S14 to the sensor information SI acquired in step S11 in step S15, and uses the peripheral information AI acquired in step S14 for self-estimation of the own machine carrier 1a.
  • Information M2 is generated.
  • the supplementary information AI is the sensor information SI'included in the peripheral information M2'of the other carrier 1b acquired in step S14 above.
  • the first peripheral information generation unit 146 uses the sensor information SI of the own machine carrier 1a and the other carrier based on the position information PI of the own machine carrier 1a and the position information PI'of the other carrier 1b. The actual positional relationship with the sensor information SI'of the car 1b is calculated. According to this positional relationship, the first peripheral information generation unit 146 adds the sensor information SI'of the other carrier 1b to the sensor information SI of the own carrier 1a as supplementary information AI.
  • the first peripheral information generation unit 146 generates peripheral information M2 of the own machine carrier 1a as follows.
  • the method of generating the peripheral information M2 shown below is to offset the peripheral information M2'by the difference between the position information of the own carrier 1a and the position information PI'of the other carrier 1b, and then generate the peripheral information M2'after the offset.
  • This is an example of a method of adding the supplementary information AI to the sensor information SI acquired by the own vehicle 1a.
  • the first peripheral information generation unit 146 applies the previously estimated self-position (position information PI) to the distance and attitude change calculated from the rotation amounts of the motors 121a and 121b from the previous self-position estimation to the present.
  • position and attitude of the own carrier 1a are estimated (position estimation by dead reckoning).
  • the first peripheral information generation unit 146 calculates the difference between the position and orientation of the own transport vehicle 1a estimated by dead reckoning and the position and orientation indicated in the position information PI'of the other transport vehicle 1b. To do. Further, the first peripheral information generation unit 146 translates the peripheral information M2'by the difference between the estimated position of the own carrier 1a and the position of the other carrier 1b.
  • the peripheral information M2' is rotated by the difference between the current posture of the own carrier 1a and the posture of the other carrier 1b.
  • the first peripheral information generation unit 146 adds the sensor information SI'included in the peripheral information M2'after translation and rotation to the sensor information SI acquired by the own machine carrier 1a as supplementary information AI. Then, the peripheral information M2 of the own machine carrier 1a is generated.
  • the first peripheral information generation unit 146 uses the sensor information SI of the own machine transport vehicle 1a to identify the other transport vehicle 1b.
  • the sensor information SI'included in the peripheral information M2' can be added as supplementary information AI to generate the peripheral information M2 of the own vehicle 1a.
  • the first peripheral information generation unit 146 keeps the sensor information SI acquired by the sensor information acquisition unit 142 as it is and surrounds the own transport vehicle 1a. Information M2.
  • the first peripheral information generation unit 146 stores the peripheral information M2 generated as described above in the storage unit 141 together with the generated time stamp.
  • step S21 the self-position estimation unit 143 determines whether or not sufficient information is included in the peripheral information M2 generated in step S2. For example, the self-position estimation unit 143 determines that the peripheral information M2 contains sufficient information if the number of coordinate points (the number of detected points such as obstacles) included in the peripheral information M2 is equal to or greater than a predetermined value. If the peripheral information M2 contains sufficient information (“Yes” in step S21), the self-position estimation operation proceeds to step S22. On the other hand, if the peripheral information M2 does not include sufficient information (“No” in step S21), the self-position estimation operation proceeds to step S25.
  • step S22 the self-position estimation unit 143 arranges the peripheral information M2 at the position estimated by dead reckoning on the environment map M1. Specifically, the self-position estimation unit 143 first calculates the current position and posture of the own machine carrier 1a on the moving region ME based on the rotation amount of the motors 121a and 121b acquired from the encoders 125a and 125b. To do. Next, the self-position estimation unit 143 arranges the peripheral information M2 generated in step S2 at a position on the environment map M1 corresponding to the position estimated by dead reckoning. Further, the self-position estimation unit 143 rotates the peripheral information M2 at the position by the posture (angle) estimated by dead reckoning.
  • step S23 the self-position estimation unit 143 performs map matching between the environment map M1 and the surrounding information M2. Specifically, the self-position estimation unit 143 translates and rotates the peripheral information M2 within a predetermined range centered on the current arrangement position of the peripheral information M2, and translates and rotates the peripheral information M2 after the translation and rotation. And the degree of agreement with the environment map M1 are calculated.
  • the self-position estimation unit 143 determines the position and attitude (angle) of the peripheral information M2 at which the degree of coincidence between the peripheral information M2 and the environmental map M1 is maximum as a result of the map matching, by the own machine carrier 1a. It is estimated that the self-position and self-posture of. Specifically, the self-position estimation unit 143 calculates the self-position by adding the estimated position by dead reckoning to the amount of translation of the peripheral information M2 when the degree of coincidence is maximum. On the other hand, the self-posture is calculated by adding the estimated posture by dead reckoning to the rotation amount of the peripheral information M2 when the degree of coincidence is maximum. The self-position estimation unit 143 stores the calculated self-position and self-posture in the storage unit 141 as the position information PI of the own machine carrier 1a.
  • the self-position estimation unit 143 can estimate the self-position and the self-posture as described above. On the other hand, in step S25 when the peripheral information M2 of the own machine carrier 1a does not include sufficient information, the self-position estimation unit 143 determines that the self-position estimation cannot be executed, and the own machine carrier 1a is abnormal. Stop.
  • FIG. 7 is a diagram showing an example of a case where another carrier 1b is present in front of the own carrier 1a.
  • FIG. 8A is a diagram showing an example of the sensor information SI acquired by the own machine carrier 1a.
  • FIG. 8B is a diagram showing an example of peripheral information M2'acquired by the other carrier 1b.
  • FIG. 9 is a diagram showing an example in the case where the peripheral information M2'of the other carrier 1b is added as it is.
  • FIG. 8A is a diagram showing an example of the sensor information SI acquired by the own machine carrier 1a.
  • FIG. 8B is a diagram showing an example of peripheral information M2'acquired by the other carrier 1b.
  • FIG. 9 is a diagram showing an example in the case where the peripheral information M2'of the other carrier 1b is added as it is.
  • FIG. 9 is a diagram showing an example in the case where the peripheral information M2'of the other carrier 1b is added as it is.
  • FIG. 10 is a diagram showing an example in the case where the peripheral information M2'of the other carrier 1b is added after the offset.
  • another carrier 1b exists in front of the own carrier 1a.
  • a loading portion O exists in front of the other transport vehicle 1b.
  • the sensor information acquisition unit 142 of the own machine carrier 1a acquires the sensor information SI that does not include the information of the loading unit O as shown in FIG. 8A.
  • the field of view of the sensor information acquisition unit 142 of the other transport vehicle 1b is not blocked by the presence of the other transport vehicle 1. Therefore, the sensor information acquisition unit 142 of the other carrier 1b acquires peripheral information M2'(sensor information SI') including the information of the loading unit O as shown in FIG. 8B.
  • the own machine carrier 1a and the other carrier 1b are in the positional relationship as shown in FIG. 7, and the peripheral information M2'of the other carrier 1b is not added to the sensor information SI of the own machine carrier 1a, the own machine carrier 1a is transported.
  • the amount of information contained in the sensor information SI of the car 1a is small. Therefore, in the own machine carrier 1a, the accuracy of map matching between the peripheral information M2 and the environment map M1 may be lowered, or map matching may not be possible.
  • the sensor information SI'included in the peripheral information M2'of the other carrier 1b is used as supplementary information AI to carry the own machine.
  • the peripheral information M2 of the own vehicle 1a is generated.
  • the sensor information SI'included in the peripheral information M2'of the other carrier 1b is simply added to the sensor information SI of the own carrier 1a, as shown in FIG. 9, the peripheral information M2 is conveyed by the own machine. The surrounding condition of the car 1a cannot be accurately represented.
  • the reason why the peripheral information M2 is inappropriate is that the sensor information SI and the peripheral information M2'are generated with the center of the transport vehicle 1 as the origin, and the wall W and the loading portion O viewed from the forward direction of the transport vehicle 1 are formed.
  • the reason is that it represents information. That is, if the sensor information SI'included in the peripheral information M2'is added to the sensor information SI without considering the positional relationship between the own machine carrier 1a and the other carrier 1b, appropriate peripheral information M2 cannot be generated.
  • the first peripheral information generation unit 146 of the present embodiment considers the positional relationship between the own machine carrier 1a and the other carrier 1b, and adds the sensor information SI of the own carrier 1a to the peripheral information of the other carrier 1b.
  • Peripheral information M2 is generated by adding the sensor information SI'included in M2'.
  • the first peripheral information generation unit 146 translates the peripheral information M2'by the difference between the estimated position of the own carrier 1a by dead reckoning and the position indicated by the position information PI'of the other carrier 1b. By moving, the origin position of the peripheral information M2'is moved to a position corresponding to the relative position of the other carrier 1b as seen from the own carrier 1a.
  • the peripheral information M2' is rotated by the difference between the estimated attitude of the own vehicle 1a by dead reckoning and the attitude shown in the position information PI'of the other vehicle 1b, and the direction of the peripheral information M2'is changed.
  • the angle corresponding to the relative posture of the other transport vehicle 1b as seen from the transport vehicle 1a is different.
  • the first peripheral information generation unit 146 adds the sensor information SI'included in the peripheral information M2'after the translation and rotation to the sensor information SI of the own machine carrier 1a as supplementary information AI.
  • the peripheral information M2 of the own machine carrier 1a is generated.
  • the sensor information SI'included in the peripheral information M2'after translation and rotation is added to the sensor information SI of the own carrier 1a to generate the peripheral information M2, which is shown in FIG.
  • the information not included in the field of view of the sensor information acquisition unit 142 of the own machine carrier 1a can be included in the peripheral information M2 of the own machine carrier 1a.
  • the information of the wall W and the loading portion O which is not included in the sensor information SI of the own machine carrier 1a, is used for the peripheral information M2 (self-position estimation) of the own machine carrier 1a. Map information) will be included.
  • FIG. 11 is a diagram showing another example in the case where the other carrier 1b is present in front of the own carrier 1a.
  • FIG. 12 is a diagram showing another example in the case where the sensor information SI'included in the peripheral information M2'of the other carrier 1b is added after the offset.
  • another carrier 1b exists in front of the own carrier 1a.
  • the own carrier 1a is facing the Y direction, while the other carrier 1b is facing the X direction.
  • the sensor information SI'included in the M2'of the other carrier 1b is used as the supplementary information AI in the sensor information SI of the own carrier 1a in the same manner as described in Example 1 above.
  • the peripheral information M2 as shown in FIG. 12 is generated in the own machine transport vehicle 1a.
  • the sensor information SI of the own machine carrier 1a includes only the information of one surface (the surface extending in the Y direction) of the wall W, and in such a case, the position is estimated by map matching. Is difficult.
  • the peripheral information M2 of the own carrier 1a can be obtained.
  • the peripheral information M2 has information on two or more surfaces extending in different directions in this way, self-position estimation can be executed by map matching between the peripheral information M2 and the environment map M1.
  • the transport vehicle 1c is the transport vehicle 1c.
  • peripheral information used for self-position estimation of the transport vehicle 1c can be generated. .. That is, the sensor information SI and SI'of the transport vehicle 1a and the transport vehicle 1b are added to the sensor information acquired by the transport vehicle 1c to the peripheral information of the transport vehicle 1c.
  • the other transport vehicle 1c can include the sensor information SI acquired by the other transport vehicle 1b in the peripheral information of the transport vehicle 1c even if the transport vehicle 1c cannot identify the other transport vehicle 1b. This is because, in the transport vehicle 1a, the peripheral information M2 to which the sensor information SI'included in the peripheral information M2'of the other transport vehicle 1b is added is generated, and the transport vehicle is added to the sensor information SI included in the peripheral information M2. This is because the sensor information SI of 1c is added to generate peripheral information of the transport vehicle 1c.
  • peripheral information of the transport vehicle 1c when the peripheral information of the transport vehicle 1c is generated, only the sensor information SI possessed by the transport vehicle 1a is acquired, and the sensor information SI of the transport vehicle 1a is added to the sensor information of the transport vehicle 1c.
  • the peripheral information of the transport vehicle 1c may be generated.
  • the transport vehicle system 100 has the following effects. It should be noted that all of the following plurality of effects may be obtained, but one or a part may be obtained.
  • the sensor information SI acquired by the own carrier vehicle the sensor information SI'included in the peripheral information M2' possessed by the other carrier is added as supplementary information AI to the peripheral information M2 of the own carrier 1a.
  • the self-position estimation unit 143 of the own-machine transport vehicle 1a can perform map matching between the peripheral information M2 containing more information than the sensor information SI acquired by the own-machine transport vehicle 1a and the environment map M1. , The self-position and self-position of the own-machine carrier 1a can be estimated more accurately. This is because, in the position estimation method by map matching, in general, the larger the number of points (amount of information) for matching, the higher the accuracy of position estimation.
  • the probability that the own vehicle 1a will stop abnormally can be reduced.
  • the cause of the abnormal stop is, for example, that in step S21 described above, it is determined that the peripheral information M2 of the own machine carrier 1a does not include sufficient information. From the above, the own machine transport vehicle 1a can continue traveling to the target position without decelerating or stopping during traveling.
  • the peripheral information M2 of the own vehicle 1a is generated regardless of whether or not the peripheral information M2'of the other transport vehicle 1b is acquired, and the peripheral information M2 and the environmental map M1 are generated.
  • Self-position estimation is performed by map matching. That is, in the present embodiment, the self-position estimation method is the same regardless of whether or not the peripheral information M2 is generated by using the peripheral information M2'of the other carrier 1b. As a result, it is not necessary to control such as changing the self-position estimation method depending on whether or not the peripheral information M2'is acquired.
  • the own carrier 1a has an unintended obstacle such as the other carrier 1b around it. Even if an object is present, the effect of the presence of such an obstacle can be reduced and accurate self-position estimation can be performed. This is because, even if sufficient sensor information SI cannot be obtained due to the presence of an unintended obstacle, the own machine carrier 1a adds the sensor information SI'included in the peripheral information M2'to the sensor information SI of the own machine carrier. This is because the peripheral information M2 including more information can be generated.
  • the first peripheral information generation unit 146 determines the sensor information SI of the own machine carrier 1a when the peripheral information M2' possessed by the other carrier 1b is obtained through the communication unit 145 of the own machine carrier 1a.
  • the own machine transport vehicle 1a collates the peripheral information M2 of the own machine transport vehicle with the environment map M1 to estimate the position regardless of whether or not the peripheral information M2' possessed by the other transport vehicle 1b is acquired. It can be performed. That is, the own machine carrier 1a can use the same self-position estimation method regardless of whether or not the peripheral information M2'is acquired.
  • the own machine carrier 1a has acquired the position information PI'of the other carrier 1b from the other carrier 1b through the communication unit 145.
  • the method of acquiring the position information of the other carrier is not particularly limited.
  • the information regarding the position of the other transport vehicle 1b (position information) and whether or not the other transport vehicle 1b exists may be determined based on the sensor information SI acquired by the laser range sensor 13.
  • the first peripheral information generation unit 146 provides information representing the shape of the other transport vehicle 1b (The amount of translation and the amount of rotation of the peripheral information M2'are calculated based on the distance between the coordinate value of the point group) and the origin position of the sensor information SI and the direction in which the information exists as seen from the origin position. it can.
  • the first The peripheral information generation unit 146 can estimate the position information of the other carrier 1b from the sensor information SI.
  • the transport vehicle system according to the second embodiment is the same as the first embodiment in other configurations and functions except that the method of determining the position information of the other transport vehicle is different from that of the first embodiment. Therefore, the description of other configurations and functions of the transport vehicle system according to the second embodiment will be omitted here.
  • the specific unit 148 identifies the other transport vehicle 1b by image processing of the image obtained by the photographing unit 147.
  • the method for specifying the other carrier is not particularly limited.
  • the identification unit 148 identifies the other transport vehicle 1b based on the information of the other transport vehicle 1b (an example of the specific information) input from the host controller 3.
  • the information for identifying the other transport vehicle 1b can be, for example, a transport command assigned to the other transport vehicle 1b in the host controller 3. That is, the specific information according to the present embodiment is information related to the conditions for specifying the transport vehicle (conditions related to traveling indicated in the transport command).
  • the identification unit 148 can identify the other transport vehicle 1b based on, for example, the traveling start position and the end position indicated in the transport command and the elapsed time from the output of the transport command. Specifically, the specific unit 148 exists in the vicinity of the transport path of the own machine transport vehicle 1a based on, for example, the transport command of the own machine transport vehicle 1a and the other transport vehicle 1b and the position information PI, PI'. By specifying the vehicle 1b, the own vehicle 1a and the specified other vehicle 1b can directly communicate with each other.
  • the photographing unit 147 may be omitted.
  • the specific unit 148 may specify the other transport vehicle 1b based on the information acquired from the host controller 3 when the other transport vehicle 1b cannot be specified because the image cannot be obtained by the photographing unit 147. Good.
  • the transport vehicle system according to the third embodiment is different from the first embodiment and the second embodiment only in the method of specifying the other transport vehicle, and the other configurations and functions are the first embodiment and the second embodiment. It is the same as the form. Therefore, the description of other configurations and functions of the transport vehicle system according to the third embodiment will be omitted here.
  • the specific unit 148 identifies the other carrier 1b by image processing of the image obtained by the photographing unit 147, and in the third embodiment, the upper controller 3
  • the other carrier 1b was specified based on the information input from. Not limited to this, the other carrier 1b may be specified by another method.
  • the specific unit 148 can identify the other transport vehicle 1b based on the information (an example of specific information) about the transport vehicle 1 within the range that can be communicated by the communication unit 145. That is, the specific information according to the present embodiment is information regarding conditions for specifying the transport vehicle (information regarding the transport vehicle within the communicable range). As a result, the peripheral information M2'can be acquired from the other carrier 1b within a limited range, and the communication load by the communication unit 145 can be reduced.
  • the information about the transport vehicle 1 can be, for example, the reception strength of a signal from the communication unit 145 of another transport vehicle 1.
  • the signal includes, for example, the identification number (unit) of the transport vehicle 1, the address of the communication unit 145 of the transport vehicle 1 (for example, MAC address, IP address, etc.), and the identification information of the communication unit 145 (for example, SSID). Etc.) and other information for identifying the transport vehicle 1.
  • the identification unit 148 receives the signal with an intensity equal to or higher than a predetermined threshold value, and based on the above identification information included in the signal, the other carrier 1b Can be identified.
  • the photographing unit 147 may be omitted.
  • the specific unit 148 provides information on the transport vehicle 1 within a range that can be communicated by the communication unit 145 (specific information).
  • Another transport vehicle 1b may be specified based on one example).
  • the specific unit 148 provides information on the transport vehicle 1 within a range that can be communicated by the communication unit 145 (specific information). Another transport vehicle 1b may be specified based on one example).
  • the transport vehicle system according to the fourth embodiment is different from the first to third embodiments only in the method of specifying the other transport vehicle, and the other configurations and functions are the first to third embodiments. It is the same as the form. Therefore, the description of other configurations and functions of the transport vehicle system according to the fourth embodiment will be omitted here.
  • the transport vehicle 1 identified by a specific method is specified as another transport vehicle 1b, and peripheral information M2'is received from the specified other transport vehicle 1b. It was. Not limited to this, for example, in the transport vehicle system according to the fifth embodiment in which the number of (operating) transport vehicles 1 is small, all the transport vehicles 1 do not specify the other transport vehicle 1b that receives the peripheral information M2'. Peripheral information M2'may be obtained from.
  • peripheral information M2' can be obtained from all other transport vehicles 1b, so that more sensor information SI'included in more peripheral information M2' can be added to the sensor information SI of the own transport vehicle 1a. More accurate position estimation can be performed by using the peripheral information M2 including the information.
  • the peripheral information M2' is acquired from all the other transport vehicles 1b, does the first peripheral information generation unit 146 acquire the position information PI'from all the other transport vehicles 1b in the same manner as in the first embodiment? Or, the positions of all other transport vehicles 1b are estimated based on the sensor information SI acquired by the laser range sensor 13.
  • the identification unit 148 identifies each transport vehicle 1 from the image acquired by the photographing unit 147, or from the host controller 3. Each transport vehicle 1 is specified based on the output transport command or the like.
  • the transport vehicle system according to the fifth embodiment is different from the first to fourth embodiments only in that peripheral information M2'is acquired from all the transport vehicles 1 without specifying the other transport vehicle 1b.
  • peripheral information M2' is acquired from all the transport vehicles 1 without specifying the other transport vehicle 1b.
  • Other configurations and functions are the same as those of the first to fourth embodiments. Therefore, the description of other configurations and functions of the transport vehicle system according to the fifth embodiment will be omitted here.
  • the transport vehicle system (for example, the transport vehicle system 100) includes a plurality of transport vehicles (for example, transport vehicles 1a to 1e) and a map data storage unit (for example, storage unit 141).
  • Each of the plurality of transport vehicles has a distance measuring sensor (for example, a laser range sensor 13), an on-vehicle controller (for example, an on-vehicle controller 14), and a communication unit (for example, a communication unit 145).
  • the map data storage unit stores map data (for example, environmental map M1) in which peripheral objects (for example, wall W and loading unit O) in the moving area (for example, moving area ME) are stored.
  • the on-board controller of the transport vehicle has an estimation unit (for example, self-position estimation unit 143) and a first peripheral information generation unit (for example, first peripheral information generation unit 146).
  • the estimation unit includes the first peripheral information (for example, peripheral information M2 of the own carrier 1a), the position information of the own carrier (for example, the own carrier 1a) grasped at present, map data, and the like. Based on, the self-position of the own-machine carrier is estimated.
  • the first peripheral information is peripheral information of the own vehicle including the first sensor information (for example, sensor information SI) obtained by the distance measuring sensor of the own vehicle.
  • the first peripheral information generation unit Supplementary information is added to the first sensor information to generate the first peripheral information.
  • the supplementary information includes the second sensor information obtained by the distance measuring sensor of another transport vehicle.
  • the first peripheral information generation unit of the own transport vehicle measures the own transport vehicle.
  • Supplementary information is added to the first sensor information obtained by the distance sensor to generate the first peripheral information used for estimating the self-position of the own vehicle.
  • the own transport vehicle is acquired by the own transport vehicle.
  • the self-position can be estimated more accurately by using the first peripheral information including more information than the first sensor information.
  • the own transport vehicle has an unintended obstacle including the other transport vehicle around it. Even so, the effects of the presence of such obstacles can be reduced and accurate self-position estimation can be performed. This is because, even if sufficient first sensor information cannot be obtained due to the presence of an unintended obstacle, the own carrier vehicle can obtain more information by adding supplementary information to the first sensor information of the own carrier vehicle. This is because the first peripheral information including the information can be generated.
  • the first peripheral information generation unit adds the supplementary information to the first sensor information when the supplementary information possessed by the other transport vehicle is obtained through the communication unit of the own transport vehicle. That is, if the supplementary information cannot be obtained, the first peripheral information generation unit uses the first sensor information acquired by the own vehicle as the first peripheral information. In this way, the own-machine transport vehicle can perform position estimation by collating the first peripheral information with the map data regardless of whether or not the supplementary information possessed by the other transport vehicle is acquired. That is, the self-propelled vehicle can use the same self-position estimation method regardless of whether or not supplementary information is acquired.
  • the position of the car 1b is not particularly limited.
  • the supplementary information AI to be added to the sensor information SI may be acquired from the other carrier vehicle 1b existing behind the own machine carrier vehicle 1a.
  • the sensor information SI'included in the peripheral information M2' Can be added to the sensor information SI as supplementary information AI to generate peripheral information M2 having a complicated shape.
  • position estimation by map matching in general, the more complicated the shape of the map used for matching, the better the accuracy of position estimation. Therefore, by complicating the shape of the peripheral information M2, the position can be estimated more accurately.
  • the sensor information acquisition unit 142 determines the relative distance of the object as seen from the main body unit 11 calculated from the above time difference.
  • the sensor information SI may be generated by converting the angle of the light receiving surface when the reflected light is received into a coordinate value on the coordinate plane representing the moving region ME.
  • the coordinate system representing the moving region ME is the XY coordinate system
  • the position estimated when the sensor information SI is acquired is used as a reference.
  • the center of the main body 11 is set as the origin of the XY coordinate system, and the relative distance (for example, r) of the object as seen from the main body 11 and the light receiving surface when the reflected light is received. From the angle of (for example, ⁇ ), the X coordinate value of the XY coordinate system can be calculated as, for example, r * cos ⁇ , and the Y coordinate value can be calculated as r * sin ⁇ .
  • the technology of the transport vehicle system 100 described above can be applied not only to a system having a transport vehicle but also to, for example, a system in which a plurality of robots operate in cooperation with each other.
  • the present invention is widely applicable to a transport vehicle system.
  • Transport vehicle system 1a to 1e Transport vehicle 11
  • Main body Moving unit 121a, 121b Motor 123a, 123b Drive wheel 125a, 125b Encoder 13
  • Laser range sensor 131
  • Front laser range sensor 133
  • Rear laser range sensor 14
  • On-board controller 141
  • Storage Unit 142
  • Sensor information acquisition unit 143
  • Self-position estimation unit 144
  • Travel control unit 145
  • Communication unit 147
  • Imaging unit 148 Specific unit 3 Upper controller M1 Environmental map M2, M2'Peripheral information AI Supplementary information ME Movement area O Loading part PI, PI'Position information SI, SI'Sensor information TS Travel schedule W Wall

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

他の障害物等による影響を低減して精度よく自己位置推定を行う。搬送車システム(100)は、複数の搬送車(1a~1e)と、記憶部(141)と、を備える。複数の搬送車(1a~1e)は、それぞれ、レーザレンジセンサ(13)と、車上コントローラ(14)と、通信部(145)と、を有する。記憶部(141)は、環境地図(M1)を記憶する。車上コントローラ(14)は、自己位置推定部(143)と、第1周辺情報生成部(146)と、を有する。自己位置推定部(143)は、自機搬送車(1a)の周辺情報(M2)と、現状で把握される自機搬送車(1a)の位置情報と、環境地図(M1)と、に基づいて、自機搬送車(1a)の自己位置を推定する。第1周辺情報生成部(146)は、補足情報(AI)を自機搬送車(1a)の通信部(145)を通じて得られた場合、自機搬送車(1a)のセンサ情報(SI)に補足情報(AI)を追加して、自機搬送車(1a)の周辺情報(M2)を生成する。

Description

搬送車システム、搬送車、及び、制御方法
 本発明は、搬送車システム、特に、移動領域における位置を推定しながら移動領域を走行する複数の搬送車を有する搬送車システム、当該搬送車システムに含まれる搬送車、及び、当該搬送車の制御方法に関する。
 従来から、移動領域における位置を推定しながら移動領域を自律的に走行する移動体が知られている。例えば、リアルタイムで位置の推定と環境地図の作成を行う技術であるSLAM(Simultaneous Localization and Mapping)を用いる移動体が知られている(例えば、特許文献1を参照)。
 この移動体は、SLAMを利用して、レーザレンジファインダ(LRF:Laser Range Finder)又はカメラなどによる距離計測の結果で得られた局所地図と、環境地図をマッチングすることで自己位置推定を行う。
特開2014-186694号公報
 移動環境において、SLAMを自己位置推定手法として用いた複数の移動体を自律的に走行させることが検討されている。複数の移動体を走行させる場合には、例えば、ある移動体の前方に他の移動体又は障害物が存在することがある。このような場合、他の移動体又は障害物の存在により、LRF又はカメラの視野が遮られ、他の移動体又は障害物の後方にある移動体において、十分な局所地図を得られないことがある。
 その結果、この後方の移動体において、自己位置の推定精度が低下するか、又は、間違った自己位置推定がなされることがある。
 また、複数の移動体を自律的に走行させ、特定の移動体で十分な局所地図が取得できなかった場合に、十分な局所地図を得られた他の移動体の推定位置と、当該他の移動体と前記特定の移動体との間の相対距離と、に基づいて前記特定の移動体の自己位置推定をすることが考えられる。この場合には、局所地図の状態により自己位置推定の手法を変える必要があるため、自己位置推定の処理が複雑となる。
 本発明の目的は、SLAMを自己位置推定手法として用いる複数の搬送車を有する搬送車システムにおいて、他の搬送車及び障害物の存在による影響を低減して、自己位置推定の手法を変更することなく、精度よく自己位置推定を行うことにある。
 以下に、課題を解決するための手段として複数の態様を説明する。これら態様は、必要に応じて任意に組み合せることができる。
 本発明の一見地に係る搬送車システムは、複数の搬送車と、地図データ記憶部と、を備える。複数の搬送車は、それぞれ、測距センサと、車上コントローラと、通信部と、を有する。地図データ記憶部は、移動領域にある周辺物が記憶された地図データを記憶する。
 上記搬送車の車上コントローラは、推定部と、第1周辺情報生成部と、を有する。推定部は、第1周辺情報と、現状で把握される自機搬送車(上記車上コントローラが搭載されている搬送車の本体、以下同じ)の位置情報と、地図データと、に基づいて、自機搬送車の自己位置を推定する。第1周辺情報は、自機搬送車の測距センサにより得られる第1センサ情報を含む自機搬送車の周辺情報である。
 第1周辺情報生成部は、補足情報を自機搬送車の通信部を通じて得られた場合、第1センサ情報に補足情報を追加して第1周辺情報を生成する。補足情報は、他の搬送車の測距センサにより得た第2センサ情報を含む。
 上記の搬送車システムでは、自機搬送車において、他の搬送車から補足情報が通信部を通じて得られた場合には、第1周辺情報生成部が、測距センサで得られる第1センサ情報に補足情報を追加して、自機搬送車の自己位置の推定に用いる第1周辺情報を生成している。
 このように、他の搬送車が有する補足情報を、自機搬送車が取得したセンサ情報に追加して第1周辺情報が生成される。第1周辺情報は第1センサ情報よりも情報量が多いので、自機搬送車はより正確に自己位置推定できる。
 また、他の搬送車が有する補足情報を、自機搬送車の第1センサ情報に追加することで、自機搬送車は、その周囲に他の搬送車を含む意図しない障害物が存在していても、そのような障害物の存在の影響を低減して、正確に自己位置推定を実行できる。なぜなら、意図しない障害物の存在により十分な第1センサ情報を取得できなくとも、自機搬送車は、補足情報を自機搬送車の第1センサ情報に追加することにより、より多くの情報を含んだ第1周辺情報を生成できるからである。
 第1周辺情報生成部は、自機搬送車の位置情報と他の搬送車の位置情報とに基づいて、補足情報を第1センサ情報に追加してもよい。これにより、自機搬送車と他の搬送車との位置関係に基づいて、より正確な第1周辺情報を生成できる。
 第1周辺情報生成部は、自機搬送車の位置情報と他の搬送車の位置情報との差分だけ補足情報をオフセットした後に、補足情報を第1センサ情報に追加してもよい。これにより、より正確な第1周辺情報を生成できる。
 複数の搬送車は互いに直接通信してもよい。この場合、他の搬送車の位置情報は、補足情報とともに、通信部を通じて他の搬送車から取得されてもよい。これにより、上位コントローラなどの他の装置を介することなく他の搬送車の位置情報を得ることができるので、当該他の装置(上位コントローラ)の負荷を軽減できる。また、搬送車同士が直接通信を行って他の搬送車の位置情報を取得することで、当該位置情報の取得のための通信ロスを少なくできる。
 他の搬送車の位置情報は、自機搬送車の測距センサにより得られた情報に基づいて把握されてもよい。これにより、他の搬送車の位置情報を、当該他の搬送車から受信する必要がなくなる。
 第1周辺情報生成部は、特定情報に基づいて特定された他の搬送車から補足情報を取得してもよい。特定情報は、搬送車を特定するための情報である。すなわち、特定情報は、搬送車の特徴を表す情報、搬送車を識別する情報、搬送車を特定するための条件など、他の搬送車を特定するために用いることができる情報である。
 第1周辺情報生成部は、特定情報に基づいて特定した他の搬送車を特定したら、当該他の搬送車から補足情報を取得するので、第1センサ情報が十分でないために自機搬送車が異常(例えば、異常停止)となる前に、補足情報を自機搬送車の第1センサ情報に追加できる。その結果、自機搬送車において異常(異常停止)が発生する可能性を低減できる。
 搬送車は、走行方向前方を撮影する撮影部をさらに備えてもよい。この場合、特定情報は、撮影部により撮影した他の搬送車の外観情報である。これにより、他の搬送車の外観から、より正確に他の搬送車を特定できる。
 上記の搬送車システムは、上位コントローラをさらに備えてもよい。上位コントローラは、搬送指令を複数の搬送車に割り付ける。この場合、特定情報は、上位コントローラが搬送指令に基づいて、自機搬送車の搬送経路近傍に存在すると把握する他の搬送車に関する情報である。これにより、上位コントローラ上で特定された他の搬送車から補足情報を取得できる。
 特定情報は、通信部により通信可能な範囲内にある他の搬送車に関する情報であってもよい。これにより、限られた範囲内の他の搬送車から補足情報を取得して、通信部による通信負荷を低減できる。
 第1周辺情報生成部は、全ての他の搬送車から補足情報を取得してもよい。これにより、全ての他の搬送車から補足情報を得られるので、より多くの補足情報を自機搬送車の第1センサ情報に追加して、より正確な位置推定を行うことができる。
 第1周辺情報生成部は、補足情報を自機搬送車の通信部を通じて得られない場合、第1センサ情報を第1周辺情報としてもよい。
 これにより、自機搬送車は、他の搬送車が有する補足情報を取得できない場合でも、第1周辺情報と地図データとを照合して位置推定を行うことができる。すなわち、自機搬送車は、補足情報の取得の有無に拘わらず、自己位置推定手法を同じにできる。
 本発明の他の見地に係る搬送車は、移動領域を走行する複数の搬送車を含む搬送車システムの搬送車である。搬送車は、測距センサと、通信部と、推定部と、第1周辺情報生成部と、を備える。
 推定部は、測距センサにより得られる第1センサ情報を含む第1周辺情報と、現状で把握される位置情報と、移動領域にある周辺物が記憶された地図データと、に基づいて自己位置を推定する。
 第1周辺情報生成部は、他の搬送車の測距センサにより得られた第2センサ情報を含む補足情報が通信部を通じて得られた場合、第1センサ情報に補足情報を追加して第1周辺情報を生成する。
 上記の搬送車(自機搬送車と呼ぶ)では、他の搬送車から補足情報が通信部を通じて得られた場合には、第1周辺情報生成部が、自機搬送車の測距センサで得られる第1センサ情報に補足情報を追加して、自機搬送車の自己位置の推定に用いる第1周辺情報を生成している。このように、他の搬送車が有する補足情報を、自機搬送車が取得したセンサ情報に追加して第1周辺情報が生成される。第1周辺情報は第1センサ情報より情報量が多いので、自機搬送車はより正確に自己位置推定できる。
 また、他の搬送車が有する補足情報を、自機搬送車の第1センサ情報に追加することで、自機搬送車は、その周囲に他の搬送車を含む意図しない障害物が存在していても、そのような障害物の存在の影響を低減して、正確に自己位置推定を実行できる。なぜなら、意図しない障害物の存在により十分な第1センサ情報を取得できなくとも、自機搬送車は、補足情報を自機搬送車の第1センサ情報に追加することにより、より多くの情報を含んだ第1周辺情報を生成できるからである。
 本発明のさらに他の見地に係る制御方法は、測距センサと、通信部と、を有し、移動領域を走行する複数の搬送車と、移動領域にある周辺物が記憶された地図データを記憶する地図データ記憶部と、を備える搬送車システムにおける自機搬送車の制御方法である。制御方法は、以下のステップを備える。
 ◎自機搬送車の測距センサにより第1センサ情報を取得するステップ。
 ◎他の搬送車の測距センサにより得た第2センサ情報を含む補足情報を自機搬送車の通信部を通じて取得できるか否かを判定するステップ。
 ◎他の搬送車の測距センサにより得られた第2センサ情報を含む補足情報が通信部を通じて得られた場合、第1センサ情報に補足情報を追加して第1周辺情報を生成するステップ。
 ◎第1周辺情報と、現状で把握される自機搬送車の位置情報と、地図データと、に基づいて、自機搬送車の自己位置を推定するステップ。
 上記の自機搬送車の制御方法では、他の搬送車から補足情報が自機搬送車の通信部を通じて得られた場合には、自機搬送車の第1周辺情報生成部が、自機搬送車の測距センサで得られる第1センサ情報に補足情報を追加して、自機搬送車の自己位置の推定に用いる第1周辺情報を生成している。このように、他の搬送車が有する補足情報を、自機搬送車が取得したセンサ情報に追加することで、第1周辺情報が生成される。第1周辺情報は第1銭差情報よりも情報量が多いので、自機搬送車はより正確に自己位置推定できる。
 また、他の搬送車が有する補足情報を、自機搬送車の第1センサ情報に追加することで、自機搬送車は、その周囲に他の搬送車を含む意図しない障害物が存在していても、そのような障害物の存在の影響を低減して、正確に自己位置推定を実行できる。なぜなら、意図しない障害物の存在により十分な第1センサ情報を取得できなくとも、自機搬送車は、補足情報を自機搬送車の第1センサ情報に追加することにより、より多くの情報を含んだ第1周辺情報を生成できるからである。
 SLAMを自己位置推定手法として用いる複数の搬送車を有する搬送車システムにおいて、他の搬送車及び障害物の存在による影響を低減して、自己位置推定の手法を変更することなく、精度よく自己位置推定を行うことができる。
本発明の第1実施形態としての搬送車システムの模式的平面図。 搬送車の模式的構成図。 制御部の構成を示すブロック図。 搬送車の自律走行時の基本動作を示すフローチャート。 周辺情報の生成動作を示すフローチャート。 自己位置推定動作を示すフローチャート。 自機搬送車の前方に他搬送車が存在する場合の一例を示す図。 自機搬送車により取得されるセンサ情報の一例を示す図。 他搬送車により取得される周辺情報の一例を示す図。 他搬送車の周辺情報をそのまま追加した場合の一例を示す図。 他搬送車の周辺情報をオフセット後に追加した場合の一例を示す図。 自機搬送車の前方に他搬送車が存在する場合の他の一例を示す図。 他搬送車の周辺情報をオフセット後に追加した場合の他の一例を示す図。
1.第1実施形態
(1)搬送車システムの全体構成
 以下、図1を用いて、第1実施形態の搬送車システム100の構成を説明する。図1は、本発明の第1実施形態としての搬送車システムの模式的平面図である。搬送車システム100は、複数の搬送車1a、1b、1c、1d、1eを含む。複数の搬送車1a~1eは、移動領域ME(例えば、工場内)を移動する搬送ロボットである。複数の搬送車1a~1eは形状が同じである、又は全ての形状は知られている。
 なお、図1では搬送車の数は5であるが、数は限定されない。
 なお、以下の説明では、搬送車1を一般的に説明する場合は、「搬送車1」とする。
 また、移動領域MEには、レーザレンジセンサ13で検出可能な目印(図示せず)が所定の間隔で配置されている。これにより、搬送車1a~1eは移動領域MEのどの位置にあっても、自己位置推定を実行できる。
 搬送車システム100は、上位コントローラ3(図3)を有している。上位コントローラ3は、後述する車上コントローラ14と同じく一般的なコンピュータである。
 上位コントローラ3は、複数の搬送車1a~1eと通信可能である。上位コントローラ3は、搬送車システム100を制御する。具体的には、上位コントローラ3は、搬送車1a~1eに搬送指令を割り付けて、割り付けた搬送指令を対応する搬送車1a~1eに送信する。
(2)搬送車の構成
 次に、図2を用いて、搬送車1の構成を説明する。図2は、搬送車の模式的構成図である。
 搬送車1は、本体部11を有する。本体部11は、搬送車1を構成する筐体である。本実施形態において、後述する「自己位置」は、移動領域MEを表す環境地図上における本体部11の中心の位置(座標)と定義する。
 搬送車1は、移動部12を有する。移動部12は、例えば、本体部11を移動させる差動二輪型の走行部である。
 具体的には、移動部12は、一対のモータ121a、121bを有する。一対のモータ121a、121bは、本体部11の底部に設けられた、例えばサーボモータやブラシレスモータなどの電動モータである。
 移動部12は、一対の駆動車輪123a、123bを有する。一対の駆動車輪123a、123bは、一対のモータ121a、121bにそれぞれ接続される。
 搬送車1は、レーザレンジセンサ13(測距センサの一例)を有する。レーザレンジセンサ13は、例えば、レーザ発振器によりパルス発振されたレーザ光を、移動領域ME中の荷載置部Oや壁Wに放射状に照射し、それらから反射した反射光をレーザ受信器により受信することにより、それらに関する情報を取得する。レーザレンジセンサ13は、例えば、レーザレンジファインダ(LRF:Laser Range Finder)である。
 レーザレンジセンサ13は、本体部11の前部に配置された前方レーザレンジセンサ131と、本体部11の後部に配置された後方レーザレンジセンサ133と、を有する。
 前方レーザレンジセンサ131は、本体部11の前方に設けられる。前方レーザレンジセンサ131は、左右方向にレーザ光を放射状に発生することにより、前方レーザレンジセンサ131を中心とした本体部11の前方に存在する荷載置部O、壁W、他の搬送車1に関する情報を取得する。前方レーザレンジセンサ131の物体の検出範囲は、例えば、本体部11の前方の半径20m程度の円内である。
 後方レーザレンジセンサ133は、本体部11の後方に設けられる。後方レーザレンジセンサ133は、左右方向にレーザ光を放射状に発生することにより、後方レーザレンジセンサ133を中心とした本体部11の後方に存在する荷載置部O、壁W、他の搬送車1に関する情報を取得する。前方レーザレンジセンサ131の物体の検出範囲は、例えば、本体部11の後方の半径20m程度の円内である。
 なお、上記レーザレンジセンサの検出可能距離は、上記の値に限られず、搬送車システム100の用途等に応じて適宜変更できる。
 搬送車1は、図示しない荷保持部及び/又は荷移載装置を有している。これにより、搬送車1は荷を搬送して、他の装置との間で荷を移載できる。
(3)制御部の構成
 搬送車1は、車上コントローラ14を有する。以下、図3を用いて、車上コントローラ14の構成を説明する。図3は、制御部の構成を示すブロック図である。
 車上コントローラ14は、プロセッサ(例えば、CPU)と、記憶装置(例えば、ROM、RAM、HDD、SSDなど)と、各種インターフェース(例えば、A/Dコンバータ、D/Aコンバータ、通信インターフェースなど)を有するコンピュータシステムである。車上コントローラ14は、記憶部(記憶装置の記憶領域の一部又は全部に対応)に保存されたプログラムを実行することで、各種制御動作を行う。
 車上コントローラ14は、単一のプロセッサで構成されていてもよいが、各制御のために独立した複数のプロセッサから構成されていてもよい。
 車上コントローラ14の各要素の機能は、一部又は全てが、制御部を構成するコンピュータシステムにて実行可能なプログラムとして実現されてもよい。その他、制御部の各要素の機能の一部は、カスタムICにより構成されていてもよい。
 車上コントローラ14には、図示しないが、各装置の状態を検出するためのセンサ及びスイッチ、並びに情報入力装置が接続されている。
 車上コントローラ14は、記憶部141を有する。記憶部141は、車上コントローラ14を構成するコンピュータシステムの記憶装置の記憶領域の一部である。記憶部141は、搬送車1を制御するために用いられる各種情報を記憶する。
 具体的には、記憶部141には、環境地図M1(地図データの一例)が記憶されている。環境地図M1は、例えば、移動領域MEを表す座標平面上の荷載置部O及び/または壁Wの位置を示す座標値データの集合体であり、移動領域MEの一部又は全部を表す地図である。環境地図M1は、1枚の全体地図として構成されてもよいし、複数枚の部分的な地図で移動領域ME全体を表す構成としてもよい。
 記憶部141には、位置情報PIと、周辺情報M2とが記憶されている。位置情報PIは、自機搬送車の位置(自己位置)をX-Y座標上の座標値として表した情報である。X-Y座標は、環境地図M1が定義された座標系である。位置情報PIは、自己位置推定部143にて推定された自己位置及び自己姿勢である。
 周辺情報M2は、自己位置推定部143で実行される自己位置推定に用いる情報である。
 車上コントローラ14は、センサ情報取得部142を有する。センサ情報取得部142は、レーザレンジセンサ13から取得した信号に基づいて、センサ情報SIを生成する。センサ情報取得部142は、生成したセンサ情報SIを、記憶部141に記憶する。
 センサ情報SIは、具体的には、以下のようにして生成される。
 センサ情報取得部142は、最初に、レーザレンジセンサ13からレーザ光を照射したタイミングと、反射光をレーザレンジセンサ13にて受信したタイミングとの時間差から、レーザレンジセンサ13と物体との距離を算出する。また、例えば、反射光を受信した時のレーザ受信器の受光面の角度から、本体部11から見た物体が存在する方向を算出できる。
 車上コントローラ14は、自己位置推定部143(推定部の一例)を有する。自己位置推定部143は、移動領域MEを移動中に、本体部11の環境地図上の自己位置(中心位置の座標)、及び、自己の姿勢(自己姿勢)を推定する。自己位置推定部143の動作は後述する。
 車上コントローラ14は、走行制御部144を有する。走行制御部144は、モータ121a、121bを制御する。走行制御部144は、例えば、モータ121a、121bのそれぞれの制御量を算出し、当該制御量に基づいた駆動電力をモータ121a、121bのそれぞれに出力するモータドライバである。走行制御部144は、エンコーダ125a、125bから入力したモータ121a、121bの回転速度が、所望の値になるように、モータ121a、121bの制御量を算出している(フィードバック制御)。
 走行制御部144は、例えば、上位コントローラ3からの搬送指令に示された各目標到達点(例えば、環境地図上の座標値)と、自己位置推定部143において決定された自己位置との差に基づいて、モータ121a、121bのそれぞれの制御量を算出して、算出された制御量に基づいた駆動電力を、これらのモータに出力する。
 車上コントローラ14は、通信部145を有する。通信部145は、アンテナ(図示せず)を用いて上位コントローラ3や他の搬送車1と互いに直接通信するための、例えば無線通信(無線LAN、Wi-Fiなど)モジュールである。通信部145は、例えば、アドホック通信にて、UDP(User Datagram Protocol)やTCP/IP(Transmission Control Protocol/Internet Protocol)といった通信プロトコルを用いる。
 車上コントローラ14は、第1周辺情報生成部146を有する。第1周辺情報生成部146は、自機搬送車で取得したセンサ情報SIに、他の搬送車から取得した補足情報AIを追加して、自己位置推定部143で実行される自己位置推定に用いる周辺情報M2(第1周辺情報の一例)を生成する。
 車上コントローラ14は、撮影部147を有している。撮影部147は、本体部11の走行方向前方(図2の直進方向)に設けられている。撮影部147は、自機搬送車の前方に存在する他の搬送車1を撮影する装置であって、例えばカメラである。特定部148は、撮影部147にて取得した撮影画像から、自機搬送車の前方に存在する他の搬送車1を特定する。また、特定部148は、撮影部147にて取得した撮影画像を用いて障害物を検知する機能を有している。
(4)搬送車の自律走行時の基本動作
 図4を用いて、搬送車1の自律走行時の基本動作を説明する。図4は、搬送車の自律走行時の基本動作を示すフローチャートである。以下では、複数の搬送車1のうちの一台の動作について説明する。他の搬送車1も同様に動作する。以下では、動作を説明する基準の搬送車1を、図1の搬送車1aとし、「自機搬送車1a」と呼ぶことにする。また、その他の搬送車1b~1eを「他搬送車」と呼ぶ。
 以下に説明する制御フローチャートは例示であって、各ステップは必要に応じて省略及び入れ替え可能である。また、複数のステップが同時に実行されたり、一部又は全てが重なって実行されたりしてもよい。
 さらに、制御フローチャートの各ブロックは、単一の制御動作とは限らず、複数のブロックで表現される複数の制御動作に置き換えることができる。
 なお、各装置の動作は、車上コントローラ14から各装置への指令の結果であり、これらはソフトウェア・アプリケーションの各ステップによって表現される。
 ステップS1では、車上コントローラ14は、自機搬送車1aに割り付けられた搬送指令を上位コントローラ3から受信したか否かを判断する。なお、搬送指令には、最終目的地(例えば、荷載置部Oの手前位置)までの経路情報であり複数の目標到達点を含む走行スケジュールTSが含まれている。車上コントローラ14は、受信した走行スケジュールTSを記憶部141に記憶する。ただし、走行スケジュールTSは、車上コントローラ14で生成してもよい。
 ステップS2では、自己位置推定に用いる周辺情報M2が生成される。後ほど詳しく説明するが、周辺情報M2は、補足情報AIを通信部145を通じて他搬送車1bから得られた場合に、自機搬送車1aで取得したセンサ情報SIに、他搬送車1bから取得した補足情報AIを追加して生成される。本実施形態では、補足情報AIは、他搬送車1bが有する周辺情報M2に含まれる他搬送車(他搬送車1bのみに限られない)のセンサ情報SI’である。
 ステップS3では、自己位置推定部143が、ステップS2で生成した周辺情報M2と、エンコーダ125a、125bから取得した信号と、環境地図M1と、に基づいて、自機搬送車1aの自己位置を推定する。ステップS3にて実行される自己位置の推定方法については、後ほど詳しく説明する。
 ステップS4では、走行制御部144が、ステップS2にて推定した現在の自己位置と、走行スケジュールTSから取得した次の目標到達点との比較に基づいて、現在の自己位置から次の目標到達点まで移動するためのモータ121a、121bの制御量を算出し、モータ121a、121bに出力する。その結果、自機搬送車1aは現在の推定位置から次の目標到達点に向かって走行する。
 ステップS5では、走行スケジュールTSの最終目的地に到達したか否かを判断する。到達すればステップS6に移行する。到達しなければプロセスはステップS2に戻る。
 ステップS6では、自機搬送車1aは最終目的地で走行停止する。
(5)周辺情報の生成動作
 以下、図5を用いて、ステップS2で実行される周辺情報M2の生成動作を説明する。図5は、周辺情報M2の生成動作を示すフローチャートである。
 ステップS11では、センサ情報取得部142が、自機搬送車1aの周囲に存在する障害物の位置情報を、センサ情報SIとして取得する。具体的には、センサ情報取得部142は、前方レーザレンジセンサ131及び後方レーザレンジセンサ133が、レーザ光を照射しさらに障害物から反射した反射光を受信する。
 その後、センサ情報取得部142は、受信した反射光に基づいて出力される検出信号を、自機搬送車1aから検出された障害物までの距離に関する情報と、自機搬送車1aから見た障害物が存在する方向に関する情報と、を含むセンサ情報SIに変換する。
 ステップS12では、第1周辺情報生成部146が、自機搬送車1aの近辺に存在する他搬送車1bを特定する。具体的には、以下のようにして他搬送車を特定する。
 最初に、特定部148が、撮影部147にて撮影した画像に他搬送車1bが含まれていれば、画像処理により、当該画像に含まれる他搬送車1bの外観情報(特定情報の一例)を抽出する。抽出される外観情報は、例えば、他搬送車の号機番号、他搬送車に付された識別マーカ、他搬送車の外観、など他搬送車を特定できる情報である。特定部148は、上記の外観情報から、近辺に存在する他搬送車1bを具体的に特定する。つまり、本実施形態に係る特定情報は、他搬送車の特徴を表す情報、他搬送車を識別する情報である。
 他搬送車1bを具体的に特定できれば(ステップS13で「Yes」)、周辺情報生成動作は、ステップS14に進む。一方、他搬送車1bを具体的に特定できなければ(ステップS13で「No」)、周辺情報生成動作は、ステップS16に進む。
 外観情報に基づいて他搬送車1bを特定できない場合とは、例えば、撮影部147の撮影像に他搬送車1bの像が含まれない場合、他搬送車1bの像から適切な外観情報を得られない場合、などである。
 以下、他搬送車が特定された場合の処理(ステップS14及びステップS15)を説明する。上記ステップS12で、自機搬送車1aは、その前方の他搬送車1bを特定したとする。
 他搬送車1bが特定されると、第1周辺情報生成部146は、ステップS14で、特定した他搬送車1bと通信部145とが互いに直接通信することで、当該他搬送車1bが所有する周辺情報M2’を、通信部145を通じて取得する。なお、他搬送車1bと自機搬送車1aが互いに直接通信しなくとも、第1周辺情報生成部146は、上位コントローラ3を介して、他搬送車1bから周辺情報M2’を取得してもよい。
 このとき、第1周辺情報生成部146は、他搬送車1bの周辺情報M2’とともに、他搬送車1bが他搬送車1bの周辺情報M2’を用いて推定した位置情報PI’(他搬送車1bの自己位置及び自己姿勢)を他搬送車1bから取得する。さらに、第1周辺情報生成部146は、他搬送車1bが有する周辺情報M2’に関するタイムスタンプを取得する。このタイムスタンプは、他搬送車1bが周辺情報M2’を生成しこれに基づいて自己位置を位置情報PI’として推定した時刻である。すなわち、位置情報PI’と周辺情報M2’の時間情報(取得タイミング)は一致する。
 次に、第1周辺情報生成部146は、ステップS15で、ステップS11で取得したセンサ情報SIに、ステップS14で取得した補足情報AIを追加して、自機搬送車1aの自己推定に用いる周辺情報M2を生成する。本実施形態では、補足情報AIは、上記のステップS14にて取得した他搬送車1bの周辺情報M2’に含まれるセンサ情報SI’である。
 具体的には、第1周辺情報生成部146は、自機搬送車1aの位置情報PIと他搬送車1bの位置情報PI’とに基づいて、自機搬送車1aのセンサ情報SIと他搬送車1bのセンサ情報SI’との実際の位置関係を算出する。第1周辺情報生成部146は、この位置関係に従って、自機搬送車1aのセンサ情報SIに、他搬送車1bのセンサ情報SI’を補足情報AIとして追加する。
 さらに具体的には、第1周辺情報生成部146は、以下のようにして自機搬送車1aの周辺情報M2を生成する。以下に示す周辺情報M2の生成方法は、自機搬送車1aの位置情報と他搬送車1bの位置情報PI’との差分だけ周辺情報M2’をオフセットした後に、オフセット後の周辺情報M2’を補足情報AIとして、自機搬送車1aで取得したセンサ情報SIに追加する方法の一例である。
 最初に、第1周辺情報生成部146は、前回の自己位置推定から現在までのモータ121a、121bの回転量から算出される距離と姿勢変化に、前回推定された自己位置(位置情報PI)を加算して、自機搬送車1aの位置及び姿勢を推定する(デッドレコニングによる位置推定)。
 次に、第1周辺情報生成部146は、デッドレコニングにより推定された自機搬送車1aの位置及び姿勢と、他搬送車1bの位置情報PI’に示された位置及び姿勢との差分を算出する。さらに、第1周辺情報生成部146は、自機搬送車1aの上記推定位置と他搬送車1bの位置との差分だけ周辺情報M2’を平行移動する。また、自機搬送車1aの現在の姿勢と他の搬送車1bの姿勢の差分だけ周辺情報M2’を回転する。
 最後に、第1周辺情報生成部146は、平行移動及び回転後の周辺情報M2’に含まれるセンサ情報SI’を補足情報AIとして、自機搬送車1aにて取得したセンサ情報SIに追加して、自機搬送車1aの周辺情報M2を生成する。
 このように、自機搬送車1aが他の搬送車1bを特定できる場合には、第1周辺情報生成部146は、自機搬送車1aのセンサ情報SIに、特定した他の搬送車1bの周辺情報M2’に含まれるセンサ情報SI’を補足情報AIとして追加して、自機搬送車1aの周辺情報M2を生成できる。
 その一方、他の搬送車1bを特定できなかった場合のステップS16では、第1周辺情報生成部146は、センサ情報取得部142にて取得したセンサ情報SIをそのまま、自機搬送車1aの周辺情報M2とする。
 第1周辺情報生成部146は、上記のようにして生成した周辺情報M2を、それを生成したタイムスタンプとともに、記憶部141に記憶する。
(6)自己位置推定動作
 以下、図6を用いて、図4のステップS3で実行される自己位置推定の動作を説明する。図6は、自己位置推定動作を示すフローチャートである。
 ステップS21では、自己位置推定部143は、ステップS2で生成した周辺情報M2に十分な情報が含まれているか否かを判断する。例えば、自己位置推定部143は、周辺情報M2に含まれる座標点数(障害物等の検出点数)が所定の値以上であれば、周辺情報M2に十分な情報が含まれると判定する。
 周辺情報M2に十分な情報が含まれていれば(ステップS21で「Yes」)、自己位置推定動作はステップS22に進む。一方、周辺情報M2に十分な情報が含まれていなければ(ステップS21で「No」)、自己位置推定動作は、ステップS25に進む。
 ステップS22では、自己位置推定部143は、環境地図M1上において、デッドレコニングにより推定された位置に、周辺情報M2を配置する。具体的には、自己位置推定部143は、まず、エンコーダ125a、125bから取得したモータ121a、121bの回転量に基づいて、移動領域ME上の自機搬送車1aの現在位置を及び姿勢を算出する。
 次に、自己位置推定部143は、デッドレコニングにより推定された位置に対応する環境地図M1上の位置に、ステップS2で生成した周辺情報M2を配置する。さらに、自己位置推定部143は、当該位置において、周辺情報M2をデッドレコニングにより推定された姿勢(角度)だけ回転する。
 ステップS23では、自己位置推定部143は、環境地図M1と周辺情報M2とのマップマッチングを行う。具体的には、自己位置推定部143は、周辺情報M2の現在の配置位置を中心とした所定の範囲内で、周辺情報M2を平行移動及び回転させて、平行移動及び回転後の周辺情報M2と環境地図M1との一致度を算出する。
 ステップS24では、自己位置推定部143は、上記マップマッチングの結果、周辺情報M2と環境地図M1との一致度が最大であった周辺情報M2の位置及び姿勢(角度)を、自機搬送車1aの自己位置及び自己姿勢と推定する。
 具体的には、自己位置推定部143は、一致度が最大であったときの周辺情報M2の平行移動量にデッドレコニングによる推定位置を加算することで、自己位置を算出する。一方、一致度が最大であったときの周辺情報M2の回転量にデッドレコニングによる推定姿勢を加算することで、自己姿勢を算出する。自己位置推定部143は、算出した自己位置及び自己姿勢を、自機搬送車1aの位置情報PIとして、記憶部141に記憶する。
 自機搬送車1aの周辺情報M2に十分な情報が含まれていれば、自己位置推定部143は、上記のようにして、自己位置及び自己姿勢を推定できる。
 一方で、自機搬送車1aの周辺情報M2に十分な情報が含まれていない場合のステップS25では、自己位置推定部143が自己位置推定を実行できないと判断し、自機搬送車1aは異常停止する。
(7)他搬送車の周辺情報の追加の実例1
 図7~図10を用いて、自機搬送車1aのセンサ情報SIに他搬送車1bの周辺情報M2’を追加することの利点を説明する。図7は、自機搬送車1aの前方に他搬送車1bが存在する場合の一例を示す図である。図8Aは、自機搬送車1aにより取得されるセンサ情報SIの一例を示す図である。図8Bは、他搬送車1bにより取得される周辺情報M2’の一例を示す図である。図9は、他搬送車1bの周辺情報M2’をそのまま追加した場合の一例を示す図である。図10は、他搬送車1bの周辺情報M2’をオフセット後に追加した場合の一例を示す図である。
 図7では、自機搬送車1aの前方に他搬送車1bが存在している。また、他の搬送車1bの前方には荷載置部Oが存在している。
 図7に示す場合、自機搬送車1aのセンサ情報取得部142の視野の一部は、他搬送車1bにより遮られている。そのため、自機搬送車1aのセンサ情報取得部142は、図8Aに示すような、荷載置部Oの情報を含んでいないセンサ情報SIを取得する。
 その一方、他搬送車1bのセンサ情報取得部142の視野は、他の搬送車1の存在により遮られていない。そのため、他搬送車1bのセンサ情報取得部142は、図8Bに示すような、荷載置部Oの情報を含んだ周辺情報M2’(センサ情報SI’)を取得する。
 自機搬送車1aと他搬送車1bが図7に示すような位置関係にあり、自機搬送車1aのセンサ情報SIに他の搬送車1bの周辺情報M2’を追加しない場合、自機搬送車1aのセンサ情報SIに含まれる情報量は少ない。そのため、自機搬送車1aにおいて、周辺情報M2と環境地図M1とのマップマッチングの精度が低下したり、マップマッチングができなかったりする。
 一方、本実施形態では、自機搬送車1aのセンサ情報SIにより多くの情報を追加するために、他搬送車1bの周辺情報M2’に含まれるセンサ情報SI’を補足情報AIとして自機搬送車1aのセンサ情報SIに追加して、自機搬送車1aの周辺情報M2を生成している。
 ただし、単に他搬送車1bの周辺情報M2’に含まれるセンサ情報SI’を自機搬送車1aのセンサ情報SIに追加するだけでは、図9に示すように、周辺情報M2は、自機搬送車1aの周囲の状態を的確に表すことができない。この周辺情報M2が不適切であるのは、センサ情報SI及び周辺情報M2’が、搬送車1の中心を原点として生成され、搬送車1の前進方向からみた壁W及び荷載置部Oなどの情報を表していることが理由である。
 つまり、自機搬送車1aと他搬送車1bとの位置関係を考慮することなくセンサ情報SIに周辺情報M2’に含まれるセンサ情報SI’を追加すると、適切な周辺情報M2を生成できない。
 そこで、本実施形態の第1周辺情報生成部146は、自機搬送車1aと他搬送車1bの位置関係を考慮して、自機搬送車1aのセンサ情報SIに他搬送車1bの周辺情報M2’に含まれるセンサ情報SI’を追加して周辺情報M2を生成する。
 具体的には、第1周辺情報生成部146は、自機搬送車1aのデッドレコニングによる推定位置と他搬送車1bの位置情報PI’に示された位置との差分だけ周辺情報M2’を平行移動させて、周辺情報M2’の原点位置を、自機搬送車1aから見た他搬送車1bの相対的な位置に対応する位置に移動させる。また、自機搬送車1aのデッドレコニングによる推定姿勢と他搬送車1bの位置情報PI’に示された姿勢の差分だけ周辺情報M2’を回転させて、周辺情報M2’の向きを、自機搬送車1aから見た他搬送車1bの相対的な姿勢に対応する角度だけ異ならせる。この後、第1周辺情報生成部146は、当該平行移動及び回転後の周辺情報M2’に含まれるセンサ情報SI’を、補足情報AIとして自機搬送車1aのセンサ情報SIに追加して、自機搬送車1aの周辺情報M2を生成する。
 上記のように、平行移動及び回転後の周辺情報M2’に含まれるセンサ情報SI’を、自機搬送車1aのセンサ情報SIに追加して周辺情報M2を生成することで、図10に示すように、自機搬送車1aのセンサ情報取得部142の視野に含まれなかった情報を、自機搬送車1aの周辺情報M2に含めることができる。図10に示す例では、自機搬送車1aのセンサ情報SIには含まれなかった壁W及び荷載置部Oの情報が、自機搬送車1aの周辺情報M2(自己位置推定に使用される地図情報)には含まれるようになる。
(8)他搬送車の周辺情報の追加の実例2
 図11及び図12を用いて、自機搬送車1aのセンサ情報SIに他搬送車1bの周辺情報M2’に含まれるセンサ情報SI’を追加する実例2を説明する。図11は、自機搬送車1aの前方に他搬送車1bが存在する場合の他の一例を示す図である。図12は、他搬送車1bの周辺情報M2’に含まれるセンサ情報SI’をオフセット後に追加した場合の他の一例を示す図である。
 図11では、自機搬送車1aの前方に他搬送車1bが存在している。ただし、自機搬送車1aはY方向を向いている一方、他搬送車1bはX方向を向いている。
 図11に示す場合、自機搬送車1aのセンサ情報取得部142の視野の一部は、他搬送車1bにより遮られている。その一方、他搬送車1bのセンサ情報取得部142の視野は、他の搬送車1の存在により遮られていない。
 図11に示す場合に、上記の実例1などで説明したのと同様にして、自機搬送車1aのセンサ情報SIに他搬送車1bのM2’に含まれるセンサ情報SI’を補足情報AIとして追加することで、自機搬送車1aにおいては、図12に示すような周辺情報M2が生成される。
 図12に示すように、自機搬送車1aのセンサ情報SIは壁Wの1面(Y方向に延びる面)の情報しか含んでおらず、このような場合にはマップマッチングにより位置推定することが困難である。その一方で、自機搬送車1aのセンサ情報SIに他搬送車1bの周辺情報M2’に含まれるセンサ情報SI’を補足情報AIとして追加することで、自機搬送車1aの周辺情報M2は、壁WのY方向に延びる1面の情報のみでなく、それとは垂直なX方向に延びる面の情報も含むようになる。このように異なる方向に延びる2面以上の情報が周辺情報M2に存在すれば、この周辺情報M2と環境地図M1とのマップマッチングにより自己位置推定を実行できる。
 なお、上記の説明は、移動領域MEにおいて、搬送車1が3台以上連なった場合においても同様に適用できる。例えば、図7の場合において、自機搬送車1aの後方に、自機搬送車1aとほぼ同じ方向に走行中の他の搬送車1cが存在する場合、この搬送車1cは、搬送車1cが取得したセンサ情報SIに、搬送車1aにて生成された周辺情報M2に含まれるセンサ情報SIを平行移動/回転して追加することで、搬送車1cの自己位置推定に用いる周辺情報を生成できる。つまり、搬送車1cの周辺情報には、搬送車1cにて取得したセンサ情報に、搬送車1a及び搬送車1bのセンサ情報SI、SI’が追加されている。
 この場合、他搬送車1cは、搬送車1cが他搬送車1bを特定できなくとも、他搬送車1bにて取得したセンサ情報SIを、搬送車1cの周辺情報に含めることができる。なぜなら、搬送車1aにおいては、他搬送車1bの周辺情報M2’に含まれるセンサ情報SI’が追加された周辺情報M2が生成されており、当該周辺情報M2に含まれるセンサ情報SIに搬送車1cのセンサ情報SIが追加されて搬送車1cの周辺情報が生成されるからである。
 なお、他の実施形態において、搬送車1cの周辺情報を生成する場合に、搬送車1aが有するセンサ情報SIのみを取得し、搬送車1cのセンサ情報に搬送車1aのセンサ情報SIを追加して、搬送車1cの周辺情報を生成してもよい。
(9)まとめ
 上記に説明した第1実施形態に係る搬送車システム100は、以下のような効果を奏する。なお、以下の複数の効果は全てが得られてもよいが、一つ又は一部が得られてもよい。
 第1に、自機搬送車にて取得したセンサ情報SIに、他搬送車が有する周辺情報M2’に含まれるセンサ情報SI’を補足情報AIとして追加して自機搬送車1aの周辺情報M2を生成することで、自機搬送車1aの自己位置推定部143は、自機搬送車1aが取得したセンサ情報SIよりも多くの情報を含んだ周辺情報M2と環境地図M1とのマップマッチングにより、自機搬送車1aの自己位置及び自己姿勢をより正確に推定できる。なぜなら、マップマッチングによる位置推定手法においては、一般的に、マッチングさせるための点数(情報量)が多いほど、位置推定の精度が向上するからである。
 第2に、周辺情報M2に含まれる情報量が多い場合は、自機搬送車1aが異常停止する確率を低減できる。異常停止の原因は、例えば、上記のステップS21において、自機搬送車1aの周辺情報M2に十分な情報が含まれていないと判断されることである。以上より、自機搬送車1aは、走行の途中で減速や停止をすることなく、目的位置まで走行を継続できる。
 第3に、本実施形態においては、他搬送車1bの周辺情報M2’が取得されるか否かにかかわらず自機搬送車1aの周辺情報M2が生成され、周辺情報M2と環境地図M1のマップマッチングにより自己位置推定が実行されている。すなわち、本実施形態では、他搬送車1bの周辺情報M2’を用いて周辺情報M2を生成したか否かにかかわらず、自己位置の推定手法を同一としている。その結果、周辺情報M2’の取得に有無により、自己位置の推定手法を変更するなどの制御をする必要がなくなる。
 第4に、他搬送車1bが有する周辺情報M2’を、自機搬送車1aのセンサ情報SIに追加することで、自機搬送車1aは、その周囲に他搬送車1bなどの意図しない障害物が存在していても、そのような障害物の存在の影響を低減して、正確に自己位置推定を実行できる。なぜなら、意図しない障害物の存在により十分なセンサ情報SIを取得できなくとも、自機搬送車1aは、周辺情報M2’に含まれるセンサ情報SI’を自機搬送車のセンサ情報SIに追加することにより、より多くの情報を含んだ周辺情報M2を生成できるからである。
 第5に、第1周辺情報生成部146は、他搬送車1bが有する周辺情報M2’が、自機搬送車1aの通信部145を通じて得られた場合に、自機搬送車1aのセンサ情報SIに周辺情報M2’に含まれるセンサ情報SI’を追加している。すなわち、第1周辺情報生成部146は、周辺情報M2’が得られなければ、自機搬送車で取得したセンサ情報SIを周辺情報M2とする。
 このように、自機搬送車1aは、他搬送車1bが有する周辺情報M2’を取得したか否かによらず、自機搬送車の周辺情報M2と環境地図M1とを照合して位置推定を行うことができる。すなわち、自機搬送車1aは、周辺情報M2’の取得の有無に拘わらず、自己位置推定手法を同じにできる。
2.第2実施形態
 第1実施形態では、自機搬送車1aは、他搬送車1bの位置情報PI’を、当該他搬送車1bから通信部145を通じて取得していた。しかし、他搬送車の位置情報の取得方法は特に限定されない。例えば、他搬送車1bの位置に関する情報(位置情報)、及び、他搬送車1bが存在するか否かを、レーザレンジセンサ13により取得したセンサ情報SIに基づいて決定してもよい。
 第2実施形態に係る搬送車システムでは、センサ情報SIに他搬送車1bに特有の形状を有する情報が含まれる場合、第1周辺情報生成部146は、他搬送車1bの形状を表す情報(点群の座標値)とセンサ情報SIの原点位置との間の距離と、原点位置から見たその情報が存在する方向と、に基づいて、周辺情報M2’の平行移動量及び回転量を算出できる。
 その他、例えば、複数の搬送車1の形状を表すモデルを記憶部141に記憶しておき、そのモデルとセンサ情報SIとを「マップマッチング」させることによっても、自機搬送車1aに対する他搬送車1bの相対的な位置及び姿勢、すなわち、周辺情報M2’の平行移動量及び回転量を算出できる。上記の「マップマッチング」をする場合、搬送車1のモデルとセンサ情報SI中の搬送車1に対応する情報との一致度から、搬送車1の号機等を特定することもできる。
 上記のように、レーザレンジセンサ13により取得した情報に基づいて他搬送車1bの存在及び位置情報を把握する場合には、他搬送車1bから位置情報PI’を取得する必要がなくなる。また、例えば、撮影部147にて得られた画像から前方に他搬送車1bの存在が認められるにもかかわらず、当該他搬送車1bから位置情報PI’を得られない場合には、第1周辺情報生成部146は、センサ情報SIから他搬送車1bの位置情報を推定できる。
 なお、第2実施形態に係る搬送車システムは、他搬送車の位置情報の決定方法が第1実施形態と異なるのみで、他の構成及び機能については、第1実施形態と同じである。よって、ここでは、第2実施形態に係る搬送車システムの他の構成及び機能等の説明を省略する。
3.第3実施形態
 第1実施形態と第2実施形態では、特定部148が、撮影部147にて得られた画像の画像処理により他搬送車1bを特定していた。しかし、他搬送車の特定方法は特に限定されない。
 第3実施形態に係る搬送車システムでは、特定部148は、上位コントローラ3から入力した他搬送車1bの情報(特定情報の一例)に基づいて、他搬送車1bを特定する。他搬送車1bを特定するための情報は、例えば、上位コントローラ3において他搬送車1bに割り付けられた搬送指令とできる。つまり、本実施形態に係る特定情報は、搬送車を特定するための条件に関する情報(搬送指令に示された走行に関する条件)である。
 この場合、特定部148は、例えば、搬送指令に示された走行開始位置と終了位置、及び、搬送指令が出力されてからの経過時間に基づいて、他搬送車1bを特定できる。具体的には、特定部148が、例えば、自機搬送車1aと他搬送車1bの搬送指令及び位置情報PI、PI’に基づいて、自機搬送車1aの搬送経路近傍に存在する他搬送車1bを特定することで、自機搬送車1aと特定した他搬送車1bとが直接通信できる。
 上位コントローラ3から他搬送車1bの情報を取得する第3実施形態に係る搬送車システムでは、撮影部147は省略されていてもよい。または、特定部148は、撮影部147により画像が得られないなどの理由により他搬送車1bを特定できない場合に、上位コントローラ3から取得した情報に基づいて、他搬送車1bを特定してもよい。
 なお、第3実施形態に係る搬送車システムは、他搬送車の特定方法が第1実施形態及び第2実施形態と異なるのみで、他の構成及び機能については、第1実施形態及び第2実施形態と同じである。よって、ここでは、第3実施形態に係る搬送車システムの他の構成及び機能等の説明を省略する。
4.第4実施形態
 第1実施形態及び第2実施形態では、特定部148が、撮影部147にて得られた画像の画像処理により他搬送車1bを特定し、第3実施形態では、上位コントローラ3から入力した情報に基づいて他搬送車1bを特定していた。これに限られず、さらに他の方法により他搬送車1bを特定してもよい。
 第4実施形態に係る搬送車システムでは、特定部148は、通信部145により通信可能な範囲内にある搬送車1に関する情報(特定情報の一例)に基づいて、他搬送車1bを特定できる。つまり、本実施形態に係る特定情報は、搬送車を特定するための条件に関する情報(通信可能範囲内の搬送車に関する情報)である。これにより、限られた範囲内の他搬送車1bから周辺情報M2’を取得して、通信部145による通信負荷を低減できる。
 第4実施形態に係る搬送車システムにおいて、搬送車1に関する情報は、例えば、他の搬送車1の通信部145からの信号の受信強度とできる。また、当該信号には、例えば、搬送車1の識別番号(号機)、搬送車1の通信部145のアドレス(例えば、MACアドレス、IPアドレスなど)、当該通信部145の識別情報(例えば、SSIDなど)などの搬送車1を特定するための情報が含まれる。
 受信強度に基づいて他搬送車1bを特定する場合、特定部148は、所定の閾値以上の強度で信号を受信した場合に、当該信号に含まれる上記の識別情報に基づいて、他搬送車1bを特定できる。
 通信部145により通信可能な範囲内にある搬送車1を他搬送車1bと特定する第4実施形態に係る搬送車システムでは、撮影部147は省略されていてもよい。または、特定部148は、撮影部147により画像が得られないなどの理由により他搬送車1bを特定できない場合に、通信部145により通信可能な範囲内にある搬送車1に関する情報(特定情報の一例)に基づいて、他搬送車1bを特定してもよい。
 また、第4実施形態に係る搬送車システムでは、上位コントローラ3から他搬送車1bを特定するための情報を受信しなくてもよい。または、特定部148は、上位コントローラ3から情報が得られないなどの理由により他搬送車1bを特定できない場合に、通信部145により通信可能な範囲内にある搬送車1に関する情報(特定情報の一例)に基づいて、他搬送車1bを特定してもよい。
 なお、第4実施形態に係る搬送車システムは、他搬送車の特定方法が第1実施形態~第3実施形態と異なるのみで、他の構成及び機能については、第1実施形態~第3実施形態と同じである。よって、ここでは、第4実施形態に係る搬送車システムの他の構成及び機能等の説明を省略する。
5.第5実施形態
 第1実施形態~第4実施形態では、特定の方法により特定できた搬送車1を他搬送車1bとして特定し、当該特定した他搬送車1bから周辺情報M2’を受信していた。
 これに限られず、例えば、搬送車1の(稼働)台数が少ない第5実施形態に係る搬送車システムでは、周辺情報M2’を受信する他搬送車1bを特定することなく、全ての搬送車1から周辺情報M2’を取得してもよい。
 これにより、全ての他搬送車1bから周辺情報M2’を得られるので、より多くの周辺情報M2’に含まれるセンサ情報SI’を自機搬送車1aのセンサ情報SIに追加してより多くの情報を含んだ周辺情報M2を用いて、より正確な位置推定を行うことができる。
 なお、全ての他搬送車1bから周辺情報M2’を取得する場合、第1周辺情報生成部146は、第1実施形態と同様にして全ての他搬送車1bから位置情報PI’を取得するか、又は、レーザレンジセンサ13により取得したセンサ情報SIに基づいて全ての他搬送車1bの位置を推定する。
 また、どの位置にいずれの他搬送車1bが存在するかを特定するために、特定部148は、撮影部147にて取得した画像から各搬送車1を特定するか、または、上位コントローラ3から出力される搬送指令などに基づいて各搬送車1を特定する。
 なお、第5実施形態に係る搬送車システムは、他搬送車1bを特定することなく全ての搬送車1から周辺情報M2’を取得する点で第1実施形態~第4実施形態と異なるのみで、他の構成及び機能については、第1実施形態~第4実施形態と同じである。よって、ここでは、第5実施形態に係る搬送車システムの他の構成及び機能等の説明を省略する。
6.実施形態の共通事項
 上記の第1実施形態~第5実施形態は、以下の構成及び機能を共通に備える。
 搬送車システム(例えば、搬送車システム100)は、複数の搬送車(例えば、搬送車1a~1e)と、地図データ記憶部(例えば、記憶部141)と、を備える。複数の搬送車は、それぞれ、測距センサ(例えば、レーザレンジセンサ13)と、車上コントローラ(例えば、車上コントローラ14)と、通信部(例えば、通信部145)と、を有する。地図データ記憶部は、移動領域(例えば、移動領域ME)にある周辺物(例えば、壁W、荷載置部O)が記憶された地図データ(例えば、環境地図M1)を記憶する。
 上記搬送車の車上コントローラは、推定部(例えば、自己位置推定部143)と、第1周辺情報生成部(例えば、第1周辺情報生成部146)と、を有する。推定部は、第1周辺情報(例えば、自機搬送車1aの周辺情報M2)と、現状で把握される自機搬送車(例えば、自機搬送車1a)の位置情報と、地図データと、に基づいて、自機搬送車の自己位置を推定する。第1周辺情報は、自機搬送車の測距センサにより得られる第1センサ情報(例えば、センサ情報SI)を含む自機搬送車の周辺情報である。
 第1周辺情報生成部は、補足情報(例えば、補足情報AI、すなわち、他搬送車1bの周辺情報M2’に含まれるセンサ情報SI’)が自機搬送車の通信部を通じて得られた場合、第1センサ情報に補足情報を追加して第1周辺情報を生成する。補足情報は、他の搬送車の測距センサにより得られる第2センサ情報を含む。
 上記の搬送車システムでは、自機搬送車において、他の搬送車から補足情報が通信部を通じて得られた場合には、自機搬送車の第1周辺情報生成部が、自機搬送車の測距センサで得られる第1センサ情報に補足情報を追加して、自機搬送車の自己位置の推定に用いる第1周辺情報を生成している。
 このように、他の搬送車が有する補足情報を、自機搬送車が取得したセンサ情報に追加して第1周辺情報を生成することで、自機搬送車は、自機搬送車が取得した第1センサ情報よりも多くの情報を含んだ第1周辺情報を用いて、より正確に自己位置推定できる。
 また、他の搬送車が有する補足情報を、自機搬送車の第1センサ情報に追加することで、自機搬送車は、その周囲に他の搬送車を含む意図しない障害物が存在していても、そのような障害物の存在の影響を低減して、正確に自己位置推定を実行できる。なぜなら、意図しない障害物の存在により十分な第1センサ情報を取得できなくとも、自機搬送車は、補足情報を自機搬送車の第1センサ情報に追加することにより、より多くの情報を含んだ第1周辺情報を生成できるからである。
 さらに、第1周辺情報生成部は、他の搬送車が有する補足情報が、自機搬送車の通信部を通じて得られた場合に、第1センサ情報に補足情報を追加している。すなわち、第1周辺情報生成部は、補足情報が得られなければ、自機搬送車で取得した第1センサ情報を第1周辺情報とする。
 このように、自機搬送車は、他の搬送車が有する補足情報を取得したか否かによらず、第1周辺情報と地図データとを照合して位置推定を行うことができる。すなわち、自機搬送車は、補足情報の取得の有無に拘わらず、自己位置推定手法を同じにできる。
7.他の実施形態
 以上、本発明の複数の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。特に、本明細書に書かれた複数の実施形態及び変形例は必要に応じて任意に組み合せ可能である。
 (A)上記の第1実施形態~第5実施形態を組み合わせた場合、動作モードの設定によりいずれの実施形態の制御動作をするかを決定するようにしてもよい。また、自機搬送車1aに対する他搬送車1bの相対位置の複数の決定動作、他搬送車1bの複数の特定動作について、いずれの動作を優先させるかをあらかじめ決めておいてもよい。
 (B)上記の第1実施形態~第5実施形態では、主に、自機搬送車1aの前方に他搬送車1bが存在する場合を例にとって説明したが、自機搬送車1aに対する他搬送車1bの位置は特に限定されない。例えば、自機搬送車1aの後方に存在する他搬送車1bからも、センサ情報SIに追加する補足情報AIを取得してもよい。
 これにより、例えば、自機搬送車1aの後方に存在する他搬送車1bにおいて複雑な形状を有する周辺情報M2’が取得されていた場合には、その周辺情報M2’に含まれるセンサ情報SI’を補足情報AIとしてセンサ情報SIに追加して、複雑な形状の周辺情報M2を生成できる。マップマッチングによる位置推定では、一般的に、マッチングに用いるマップの形状が複雑であるほど、位置推定の精度がよい。従って、周辺情報M2の形状を複雑にすることで、より精度よく位置推定できる。
 (C)レーザレンジセンサ13にて取得した信号からセンサ情報SIを算出する場合に、センサ情報取得部142は、上記の時間差から算出される本体部11から見た物体の相対的な距離と、反射光を受光したときの受光面の角度とを、移動領域MEを表す座標平面上の座標値に変換することでセンサ情報SIを生成してもよい。
 具体的には、例えば、移動領域MEを表す座標系をX-Y座標系とした場合に、センサ情報SIを取得したときに推定される位置(例えば、デッドレコニングにより推定された位置)を基準とするか、又は、本体部11の中心をX-Y座標系の原点とし、本体部11から見た物体の相対的な距離(例えば、rとする)と反射光を受光したときの受光面の角度(例えば、θとする)から、X-Y座標系のX座標値を例えばr*cosθと算出し、Y座標値をr*sinθと算出できる。
 (D)上記にて説明した搬送車システム100の技術は、搬送車を有するシステムだけでなく、例えば、複数のロボットが協働して動作するシステムに対しても適用できる。
 本発明は、搬送車システムに広く適用可能である。
100 搬送車システム
1、1a~1e搬送車
11   本体部
12   移動部
121a、121b   モータ
123a、123b   駆動車輪
125a、125b   エンコーダ
13   レーザレンジセンサ
131 前方レーザレンジセンサ
133 後方レーザレンジセンサ
14   車上コントローラ
141 記憶部
142 センサ情報取得部
143 自己位置推定部
144 走行制御部
145 通信部
146 第1周辺情報生成部
147 撮影部
148 特定部
3     上位コントローラ
M1   環境地図
M2、M2’  周辺情報
AI   補足情報
ME   移動領域
O     荷載置部
PI、PI’  位置情報
SI、SI’  センサ情報
TS   走行スケジュール
W     壁

Claims (13)

  1.  測距センサと、車上コントローラと、通信部と、を有し、移動領域を走行する複数の搬送車と、
     前記移動領域にある周辺物が記憶された地図データを記憶する地図データ記憶部と、
    を備え、
     前記車上コントローラは、
     自機搬送車の前記測距センサにより得られる第1センサ情報を含む第1周辺情報と、現状で把握される前記自機搬送車の位置情報と、前記地図データと、に基づいて、前記自機搬送車の自己位置を推定する推定部と、
     他の搬送車の前記測距センサにより得た第2センサ情報を含む補足情報を前記自機搬送車の前記通信部を通じて得られた場合、前記第1センサ情報に前記補足情報を追加して前記第1周辺情報を生成する第1周辺情報生成部と、
     を有する、搬送車システム。
  2.  前記第1周辺情報生成部は、前記自機搬送車の位置情報と前記他の搬送車の位置情報とに基づいて、前記補足情報を前記第1センサ情報に追加する、請求項1に記載の搬送車システム。
  3.  前記第1周辺情報生成部は、前記自機搬送車の位置情報と前記他の搬送車の位置情報との差分だけ前記補足情報をオフセットした後に、当該補足情報を前記第1センサ情報に追加する、請求項2に記載の搬送車システム。
  4.  前記複数の搬送車は互いに直接通信し、
     前記他の搬送車の位置情報は、前記補足情報とともに、前記通信部を通じて前記他の搬送車から取得される、請求項2に記載の搬送車システム。
  5.  前記他の搬送車の位置情報は、前記自機搬送車の前記測距センサにより得られた情報に基づいて把握される、請求項2に記載の搬送車システム。
  6.  前記第1周辺情報生成部は、前記搬送車を特定する特定情報に基づいて特定された前記他の搬送車から前記補足情報を取得する、請求項1に記載の搬送車システム。
  7.  前記搬送車は、自機搬送車の走行方向前方を撮影する撮影部をさらに備え、
     前記特定情報は、前記撮影部により撮影した前記他の搬送車の外観情報である、請求項6に記載の搬送車システム。
  8.  搬送指令を前記複数の搬送車に割り付ける上位コントローラをさらに備え、
     前記特定情報は、前記上位コントローラが前記搬送指令に基づいて前記自機搬送車の搬送経路近傍に存在すると把握する前記他の搬送車に関する情報である、請求項6に記載の搬送車システム。
  9.  前記特定情報は、前記通信部により通信可能な範囲内にある他の搬送車に関する情報である、請求項6に記載の搬送車システム。
  10.  前記第1周辺情報生成部は、全ての他の搬送車から前記補足情報を取得する、請求項1に記載の搬送車システム。
  11.  前記第1周辺情報生成部は、前記補足情報を前記自機搬送車の前記通信部を通じて得られない場合、前記第1センサ情報を前記第1周辺情報とする、請求項1に記載の搬送車システム。
  12.  移動領域を走行する複数の搬送車を含む搬送車システムの搬送車であって、
     測距センサと、
     通信部と、
     前記測距センサにより得られる第1センサ情報を含む第1周辺情報と、現状で把握される位置情報と、前記移動領域にある周辺物が記憶された地図データと、に基づいて自己位置を推定する推定部と、
     他の搬送車の測距センサにより得られた第2センサ情報を含む補足情報が前記通信部を通じて得られた場合、前記第1センサ情報に前記補足情報を追加して前記第1周辺情報を生成する第1周辺情報生成部と、
     を備える搬送車。
  13.  測距センサと、通信部と、を有し、移動領域を走行する複数の搬送車と、前記移動領域にある周辺物が記憶された地図データを記憶する地図データ記憶部と、を備える搬送車システムにおける自機搬送車の制御方法であって、
     前記自機搬送車の前記測距センサにより第1センサ情報を取得するステップと、
     他の搬送車の前記測距センサにより得た第2センサ情報を含む補足情報を前記自機搬送車の前記通信部を通じて取得できるか否かを判定するステップと、
     他の搬送車の測距センサにより得られた第2センサ情報を含む補足情報が前記自機搬送車の前記通信部を通じて得られた場合、前記第1センサ情報に前記補足情報を追加して第1周辺情報を生成するステップと、
     前記第1周辺情報と、現状で把握される前記自機搬送車の位置情報と、前記地図データと、に基づいて、前記自機搬送車の自己位置を推定するステップと、
     を備える制御方法。
PCT/JP2020/018937 2019-05-17 2020-05-12 搬送車システム、搬送車、及び、制御方法 WO2020235392A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021520721A JP7255676B2 (ja) 2019-05-17 2020-05-12 搬送車システム、搬送車、及び、制御方法
US17/608,535 US20230333568A1 (en) 2019-05-17 2020-05-12 Transport vehicle system, transport vehicle, and control method
CN202080031353.1A CN113748392A (zh) 2019-05-17 2020-05-12 输送车***、输送车以及控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-093501 2019-05-17
JP2019093501 2019-05-17

Publications (1)

Publication Number Publication Date
WO2020235392A1 true WO2020235392A1 (ja) 2020-11-26

Family

ID=73458459

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/018937 WO2020235392A1 (ja) 2019-05-17 2020-05-12 搬送車システム、搬送車、及び、制御方法

Country Status (4)

Country Link
US (1) US20230333568A1 (ja)
JP (1) JP7255676B2 (ja)
CN (1) CN113748392A (ja)
WO (1) WO2020235392A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023000301A (ja) * 2021-06-17 2023-01-04 株式会社シンテックホズミ 無線モジュール及び自動搬送車システム
JP7499828B2 (ja) 2021-12-22 2024-06-14 サムス カンパニー リミテッド 半導体製造工場の物品保管設備、及びそれを含む半導体製造工場の物流システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11812280B2 (en) 2021-06-01 2023-11-07 Kabushiki Kaisha Toshiba Swarm control algorithm to maintain mesh connectivity while assessing and optimizing areal coverage in unknown complex environments

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002178283A (ja) * 2000-12-12 2002-06-25 Honda Motor Co Ltd 自律ロボット
JP2011054082A (ja) * 2009-09-04 2011-03-17 Hitachi Ltd 自律移動装置
JP2017142659A (ja) * 2016-02-10 2017-08-17 村田機械株式会社 自律移動体システム
WO2019065546A1 (ja) * 2017-09-29 2019-04-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ作成方法、クライアント装置及びサーバ

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5503419B2 (ja) * 2010-06-03 2014-05-28 株式会社日立製作所 無人搬送車および走行制御方法
JP7087290B2 (ja) * 2017-07-05 2022-06-21 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
US10229590B2 (en) * 2017-08-14 2019-03-12 GM Global Technology Operations LLC System and method for improved obstable awareness in using a V2X communications system
WO2019044500A1 (ja) * 2017-09-04 2019-03-07 日本電産株式会社 位置推定システム、および当該位置推定システムを備える移動体
WO2019054208A1 (ja) * 2017-09-13 2019-03-21 日本電産シンポ株式会社 移動体および移動体システム
WO2019059307A1 (ja) * 2017-09-25 2019-03-28 日本電産シンポ株式会社 移動体および移動体システム
US11194847B2 (en) * 2018-12-21 2021-12-07 Here Global B.V. Method, apparatus, and computer program product for building a high definition map from crowd sourced data
US11507084B2 (en) * 2019-03-27 2022-11-22 Intel Corporation Collaborative 3-D environment map for computer-assisted or autonomous driving vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002178283A (ja) * 2000-12-12 2002-06-25 Honda Motor Co Ltd 自律ロボット
JP2011054082A (ja) * 2009-09-04 2011-03-17 Hitachi Ltd 自律移動装置
JP2017142659A (ja) * 2016-02-10 2017-08-17 村田機械株式会社 自律移動体システム
WO2019065546A1 (ja) * 2017-09-29 2019-04-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ作成方法、クライアント装置及びサーバ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023000301A (ja) * 2021-06-17 2023-01-04 株式会社シンテックホズミ 無線モジュール及び自動搬送車システム
JP7499828B2 (ja) 2021-12-22 2024-06-14 サムス カンパニー リミテッド 半導体製造工場の物品保管設備、及びそれを含む半導体製造工場の物流システム

Also Published As

Publication number Publication date
JP7255676B2 (ja) 2023-04-11
JPWO2020235392A1 (ja) 2020-11-26
US20230333568A1 (en) 2023-10-19
CN113748392A (zh) 2021-12-03

Similar Documents

Publication Publication Date Title
WO2020235392A1 (ja) 搬送車システム、搬送車、及び、制御方法
RU2720138C2 (ru) Способ автоматического подведения к погрузочно-разгрузочной площадке для применения в грузовых автомобилях большой грузоподъемности
EP4016230A1 (en) Method and system for simultaneous localization and calibration
WO2018003814A1 (ja) 移動体誘導システム、移動体、誘導装置およびコンピュータプログラム
JP2019537078A (ja) ロボット車両の位置測定
JP6825712B2 (ja) 移動体、位置推定装置、およびコンピュータプログラム
CN111123925A (zh) 一种移动机器人导航***以及方法
KR100779510B1 (ko) 정찰 로봇 및 정찰 로봇 운행 제어시스템
KR101049906B1 (ko) 자율 이동 장치 및 이의 충돌 회피 방법
TW201833702A (zh) 進行障礙物之迴避動作的移動體及記錄其之電腦程式的記錄媒體
CN108369418A (zh) 用于自主车辆的虚拟线路跟随和改进方法
EP3556625B1 (en) Vehicle control system, external electronic control unit, vehicle control method, and application
EP3470947B1 (en) Method and system for guiding an autonomous vehicle
JP6891753B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US11623641B2 (en) Following target identification system and following target identification method
JP2017142659A (ja) 自律移動体システム
JP7133251B2 (ja) 情報処理装置および移動ロボット
CN109917790A (zh) 一种自主导引车辆及其行驶控制方法和控制装置
JP2019148870A (ja) 移動体管理システム
WO2018179960A1 (ja) 移動体および自己位置推定装置
CN113459852A (zh) 一种路径规划方法、装置以及移动工具
CN109960260A (zh) 一种自主导引车辆及其导航方法和控制装置
JP2020087307A (ja) 自己位置推定装置、自己位置推定方法及び荷役システム
US20230022637A1 (en) Information processing apparatus, information processing method, and program
JP2022075256A (ja) 座標変換用パラメータ取得方法及び装置、自己位置推定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20810047

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2021520721

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20810047

Country of ref document: EP

Kind code of ref document: A1