WO2010140533A1 - ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム - Google Patents
ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム Download PDFInfo
- Publication number
- WO2010140533A1 WO2010140533A1 PCT/JP2010/059004 JP2010059004W WO2010140533A1 WO 2010140533 A1 WO2010140533 A1 WO 2010140533A1 JP 2010059004 W JP2010059004 W JP 2010059004W WO 2010140533 A1 WO2010140533 A1 WO 2010140533A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- robot
- map data
- map
- data
- management terminal
- Prior art date
Links
- 238000000034 method Methods 0.000 title description 27
- 238000005259 measurement Methods 0.000 claims abstract description 32
- 238000007726 management method Methods 0.000 claims description 96
- 238000004088 simulation Methods 0.000 description 43
- 238000012545 processing Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 3
- 238000007634 remodeling Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40424—Online motion planning, in real time, use vision to detect workspace changes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40506—Self motion topology knowledge, configuration mapping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40516—Replanning
Definitions
- the present invention relates to a robot management system, a robot management terminal, a robot management method, and a program technology.
- This position and orientation is generally estimated by matching the geometric data obtained from the robot sensor to the map data representing the geometric shape of the environment that has been set in advance. It has become.
- This position and orientation estimation assumes that the preset map data matches the actual environment (actual environment), but depending on the operating environment of the robot, people and other robots may By moving the object inside, a mismatch may occur between the preset map data and the actual environment.
- the discrepancy between the map data and the actual environment thus generated causes a matching error between the map data of the robot and the sensor data, that is, an estimation error of the position and orientation, leading to a failure of the robot's autonomous movement. Therefore, it is necessary to recreate the map data for the robot so as to eliminate the discrepancy between the map data and the actual environment.
- the robot or its management system visualizes the inconsistency that occurred between the map data and the actual environment, and the robot administrator in charge of map creation Presenting is considered effective.
- Non-Patent Document 1 can be cited as a technique related to visualization of the mismatched portion between the map data and the actual environment.
- Non-Patent Document 1 compares the latest sensor data with past sensor data, detects changes in the map, and draws a point cloud using 3DCG (3-Dimension Computer Graphics), A method has been proposed for presenting changes in the map to the robot administrator.
- 3DCG 3-Dimension Computer Graphics
- Non-Patent Document 1 a range of mismatch between the past and current map data is presented to the robot administrator, but whether or not there is a large mismatch leading to a robot position estimation error, that is, The problem is that the display is not sufficient for the robot administrator to determine whether the map data needs to be recreated.
- the present invention has been made in view of such a background, and an object of the present invention is to notify a robot administrator of the necessity of recreating map data.
- the present invention provides a robot that travels a route while detecting an obstacle by a distance measuring sensor, and a robot management terminal that stores map data in a storage unit and instructs the robot on the travel route.
- a robot management system having the robot in progress along a route transmits a measurement result of the distance measuring sensor to a robot management terminal, and the robot management terminal displays a measurement result at a future position where the robot moves.
- the prediction is made so that it can be compared with the map data, and the ratio of the mismatched portion between the measurement result of the prediction and the map data is based on a preset threshold value. If it is larger, the user is notified of the re-creation of the map data.
- Other solutions are described as appropriate in the embodiments.
- FIG. 1 is a diagram illustrating a configuration example of a robot management system according to the first embodiment.
- the robot management system 1 includes a robot 2 and a robot management terminal 3 that perform wireless communication with each other via a wireless LAN (Local Area Network) or the like.
- a wireless LAN Local Area Network
- the robot 2 includes a distance sensor unit 21, a position / orientation estimation unit 22, a path following control unit 23, and a movement mechanism unit 24.
- the distance sensor unit 21 has a function of measuring a distance from an obstacle with a laser and generating sensor data 324 as a laser measurement result.
- the position / orientation estimation unit 22 estimates the position and orientation of the robot 2 itself based on the sensor data 324 (measurement result) acquired from the distance sensor unit 21 and the map data 321 transmitted from the robot management terminal 3. It has a function of generating estimated position and orientation data 326 and transmitting the sensor data 324 and the estimated position and orientation data 326 to the robot management terminal 3.
- the route tracking control unit 23 is configured to move the robot 2 itself to the destination based on the estimated position / orientation data 326 acquired from the position / orientation estimation unit 22 and the route data 323 transmitted from the robot management terminal 3.
- the unit 24 is controlled to control the movement of the robot 2 itself.
- the position and orientation data will be described later with reference to FIG.
- the moving mechanism unit 24 is a mechanism for moving the robot 2.
- the moving mechanism unit 24 is assumed to be a moving mechanism that includes two drive wheels and casters and realizes turning by controlling the difference in rotational angular velocity of the drive wheels. If obtained, a moving mechanism such as a ship, an aircraft, an airship, a vehicle having an endless track, or a robot 2 having a leg may be used.
- the robot management terminal 3 includes a map reconstruction determination map creation unit 31, a sensor data simulation unit 32 (prediction unit), a map reconstruction determination unit 33 (determination unit), a route data storage unit 323A, a map data storage unit 321A, and a sensor data storage.
- the route data storage unit 323A stores route data 323 that is data in which the position and orientation when the robot 2 passes in an environment input via the keyboard 306 (FIG. 3) of the robot management terminal 3 or the like is recorded in advance. is doing.
- the sensor data storage unit 324A stores data (sensor data 324) transmitted from the distance sensor unit 21 of the robot 2.
- the map data storage unit 321A stores preset map data 321 that is map data in which the geometric shape of an obstacle in an environment in which the robot 2 autonomously moves is recorded.
- the map data 321 is created based on sensor data 324 collected by the robot 2 traveling in the environment in advance.
- the estimated position / orientation data storage unit 326 ⁇ / b> A stores estimated position / orientation data 326 that is data calculated by the position / orientation estimation unit 22 of the robot 2 and transmitted to the robot management terminal 3.
- the map re-creation determination map creation unit 31 generates map re-creation determination map data 322 for creating a temporary map used for map re-creation determination based on the sensor data 324, the map data 321 and the estimated position and orientation data 326.
- the sensor data simulation unit 32 has a function of predicting by simulating sensor data 324 obtained when the robot 2 moves based on the path data 323 and generating simulation sensor data 325 that is a predicted laser measurement result.
- the map remodeling determination unit 33 has a function of determining the presence or absence of a map remodeling based on the map remodeling determination map data 322 and the simulation sensor data 325.
- the functions are divided into the robot 2 and the robot management terminal 3, but all or a part of the functions in the robot management terminal 3 may be mounted on the robot 2.
- FIG. 2 is a diagram illustrating a hardware configuration example of the robot according to the first embodiment.
- the robot 2 includes a processor 202, a memory 203, a wireless LAN card 204, a laser distance sensor 205 (ranging sensor), a moving mechanism device 206, a storage device 201, and a bus.
- the laser distance sensor 205 has a function of irradiating a laser and detecting reflection of the laser from an obstacle.
- the sensor data acquisition program 213 uses the data from the laser distance sensor 205 to generate sensor data 324.
- the laser distance sensor 205 calculates the distance from the sensor to the obstacle by measuring the time until the irradiated laser light is reflected from the obstacle and returns while scanning the laser in the horizontal 180 ° direction.
- the geometric shape of the object in the two-dimensional horizontal plane is measured.
- a laser distance sensor that measures a three-dimensional geometric shape of an object by scanning in other than the horizontal direction, and image features when an object is photographed by a camera are captured by a plurality of cameras.
- a stereo camera or the like that measures the three-dimensional geometric shape of the object by triangulation may be used, and the sensor method is not limited as long as the geometric shape can be measured.
- the movement mechanism device 206 corresponds to the movement mechanism unit 24 in FIG.
- the storage device 201 is a nonvolatile storage device such as an HD (Hard Disk) or a flash memory, and stores a program and data for the robot 2 to move autonomously.
- the program includes an OS (Operating System) 211, an overall control program 212, a sensor data acquisition program 213, a position / orientation estimation program 214, a moving mechanism control program 215, and a communication program 216 responsible for data transmission / reception with the robot management terminal 3.
- the OS 211 and the overall control program 212 are programs for controlling the entire program.
- Each of the sensor data acquisition program 213, the position / orientation estimation program 214, and the moving mechanism control program 215 is expanded in the memory 203 and executed by the processor 202, whereby the distance sensor unit 21, the position / orientation estimation unit 22, the path in FIG.
- the tracking control unit 23 is embodied.
- the OS 211, the overall control program 212, and the communication program 216 are expanded from the storage device 201 to the memory 203 and executed by the processor 202, thereby executing the processing shown in FIG.
- the storage device 201 stores map data 321, route data 323, sensor data 324, and the like distributed from the robot management terminal 3.
- FIG. 3 is a diagram illustrating a hardware configuration of the robot management terminal according to the first embodiment.
- the robot management terminal 3 includes a processor 302, a memory 303, a video card 304, a display 305 (display unit) connected to the video card 304, a keyboard 306 (input unit), a wireless LAN card 307, a mouse 308 (input unit), It has a storage device 301 (storage unit) and a bus.
- the storage device 301 is a non-volatile storage device such as an HD or a flash memory, and stores a program and data for determining re-creation of a map and displaying a warning.
- the programs include an OS 311, an overall control program 312, a map re-creation determination map creation program 313, a sensor data simulation program 314, a map re-creation determination program 315, a display program 316, and a communication program 317.
- the OS 311 and the overall control program 312 are programs for controlling the entire program.
- Each of the map re-creation determination map creation program 313, the sensor data simulation program 314, and the map re-creation determination program 315 is expanded in the memory 303 and executed by the processor 302, whereby the map re-creation determination map creation unit 31 in FIG.
- the sensor data simulation unit 32 and the map re-creation determination unit 33 are embodied.
- the OS 311, the overall control program 312, the display program 316, the communication program 317, and the like are expanded from the storage device 301 to the memory 303 and executed by the processor 302, thereby executing the processing illustrated in FIG. 7.
- the display program 316 has a function of drawing information such as the location of re-creation on the display 305 via the video card 304 in accordance with the determination of re-creation of the map.
- the communication program 317 has a function of transmitting / receiving sensor data 324 and the like with the robot 2.
- the storage device 301 stores the map data 321 described above with reference to FIG. 1, the map data for map re-creation determination 322, route data 323, sensor data 324, simulation sensor data 325, estimated position and orientation data 326 of the robot 2, and the like. Is stored. 2 and 3, the map data 321, the route data 323, and the sensor data 324 are common data in the robot 2 and the robot management terminal 3, and are therefore given the same reference numerals.
- the processors 202 and 302 may be realized by programmable hardware such as an FPGA (Field Programmable Grid Array) or a CPLD (Complex Programmable Logic Device). Each program and data may be transferred from a storage medium such as a CD-ROM (Compact Disk-Read Only Memory), or may be downloaded from another device via a network. Also, the hardware and software shown in FIGS. 2 and 3 may be selected according to the embodiment. Further, although it is assumed that a wireless LAN is used for communication between the robot 2 and the robot management terminal 3, other communication methods such as PHS (Personal Handy Phone) may be used. Also, wired communication may be used. Furthermore, although it is assumed that the robot 2 and the robot management terminal 3 are connected by wired communication lines (buses), the components may be wireless as long as communication is possible. . Moreover, if communication is possible, a specific element may be physically remote among these components.
- FPGA Field Programmable Grid Array
- CPLD Complex Programmable Logic Device
- FIGS. 4A and 4B are diagrams for explaining the position and orientation data and the grid type.
- FIG. 4A illustrates the position and orientation data
- FIG. 4B illustrates the grid type.
- a coordinate system such as a world coordinate system is defined for the environment in which the robot 2 moves.
- the position indicates the coordinates of the robot 2 in this coordinate system.
- (x1, y1) is the position.
- the posture is the direction of the robot 2 and is represented by, for example, an angle ( ⁇ 1) between the x axis and the direction of the robot 2 as shown in FIG.
- the position / orientation data is data (x1, y1, ⁇ 1) of a set of the position and orientation.
- the map data 321 (FIGS. 1 to 3) defines a square grid having a predetermined size.
- the robot 2 irradiates the laser 401, the laser 401 hits the obstacle 402.
- the grid including the point where the laser 401 hits the obstacle 402 becomes the occupied grid 412, and the grid that goes straight without the laser 401 hitting the obstacle 402 becomes the unoccupied grid 411.
- the unknown grid 413 is provided after the obstacle 402. Regardless of whether the obstacle 402 is a thin plate or a pillar having a thickness, the tip of the obstacle 402 is an unknown grid 413.
- the robot management method according to the present embodiment will be described with reference to FIGS. 5 to 8 with reference to FIGS. First, an outline of the notification of re-creating the map according to this embodiment will be described.
- Whether or not the inconsistent portion generated between the actual environment and the preset map data 321 may hinder the movement of the robot 2 is determined when the robot 2 moves along a given route. It depends on whether or not the position / orientation estimation is performed using the sensor data 324 including the mismatched portion.
- the robot management terminal 3 simulates the sensor data 324 obtained from the robot 2 in various paths that the robot 2 can take when a certain inconsistent portion occurs. It is predicted whether the position and orientation can be estimated by measuring the mismatched portion.
- one simulation sensor data 325 means sensor data that will be obtained when measurement is performed on the assumption that the robot 2 has taken a position and orientation on the path. It is not all sensor data that is expected to be obtained when traveling along a route. That is, referring to FIG. 8 as an example, “single simulation sensor data 325” refers to the sensor data indicated by the reference numeral 810 in FIG. It is not an accumulation of sensor data. That is, the processing in steps S205 to S210 in FIG. 7 is performed for each location where the robot 2 performs position and orientation estimation, assuming that the robot travels on the route.
- a route is provided to the robot 2 including the laser distance sensor 205 (FIG. 2).
- FIG. 2 An example in which 501 and a route 502 are given is shown.
- the robot 2 and the robot management terminal 3 are each notified of an example of a map re-creation notification when an obstacle 511 that is not in the map data 321 is placed by the person while the robot 2 is moving on the route 501.
- the processing (FIGS. 6 and 7) performed in step 1 will be described. It is assumed that the robot 2 travels along the route 501, then returns to the starting point of the route 501 and travels along the route 502.
- the map data 321 is created separately using a program (not shown) for creating map data based on the sensor data 324 collected by the robot 2 in advance and traveling in the environment in advance. It is assumed that the map data 321 and the map data 321 of the robot management terminal 3 are stored. Further, it is assumed that the position and orientation data that the robot 2 should take on the map is recorded in the route data 323 in correspondence with the time. Reference numerals 521 and 324 will be described later.
- FIG. 6 is a flowchart showing a processing procedure in the robot according to the first embodiment.
- the position / orientation estimation program 214 reads the map data 321 transmitted from the robot management terminal 3 (S101). Further, the movement mechanism control program 215 reads the route data 323 transmitted from the robot management terminal 3 (S102). Subsequently, the environment is measured using the laser distance sensor 205, and the sensor data acquisition program 213 acquires measurement data and generates sensor data 324 (S103). Then, the position / orientation estimation program 214 estimates the position / orientation of the robot 2 based on the matching between the sensor data 324 and the map data 321 (S104), and generates estimated position / orientation data 326.
- the position / orientation estimation program 214 associates the points having the shortest distance between the points of the sensor data 324 and the map data 321 so that the sum of the distances between the points becomes small.
- the relative position and orientation of the robot 2 itself is estimated from the sensor data 324 and the map data 321 when the geometric features of the sensor data 324 and the map data 321 overlap most.
- the position and orientation of the sensor data 324 on the map data 321 estimated by ICP are regarded as the position and orientation of the robot 2.
- the use of ICP is assumed as a matching method, but any method can be used as long as the same effect can be obtained.
- the communication program 216 transmits the sensor data 324 and the generated estimated position / orientation data 326 to the robot management terminal 3 via the wireless LAN card 204 (S105). At this time, only the sensor data 324 may be transmitted to the robot management terminal 3.
- the movement mechanism control program 215 performs movement mechanism control for following the path of the robot 2 using the estimated position / orientation data 326 and the path data 323 read in step S102 (S106). Then, the movement mechanism control program 215 rotates the wheels of the robot 2 in the movement mechanism device 206 so as to eliminate the difference between the position / orientation data that the robot 2 previously recorded in the path data 323 should take and the estimated position / orientation data 326. Following the path is realized by controlling.
- the overall control program 212 determines whether or not the destination has been reached by determining whether or not the position of the destination registered in the route data 323 matches the position of the estimated position and orientation data 326. Is determined (S107). If the result of step S107 is that the destination has not been reached (S107 ⁇ No), the robot 2 returns the process to step S103. As a result of step S107, if the destination has arrived (S107 ⁇ Yes), the robot 2 ends the process.
- FIG. 7 is a flowchart showing a processing procedure in the robot management terminal according to the first embodiment.
- the map making program 313 for map remaking determination reads the map data 321 in the storage device 301 (S201).
- the sensor data simulation program 314 reads the path data 323 in the storage device 301 (S202).
- the communication program 317 receives the sensor data 324 and the estimated position / orientation data 326 transmitted from the robot 2 in step S105 of FIG. 6 via the wireless LAN card 307 (S203).
- the received sensor data 324 and estimated position / orientation data 326 are temporarily stored in the storage device 301.
- the map re-creation determination map creation program 313 creates map re-creation determination map data 322 in which occupied, unoccupied, and unknown states are recorded for each grid (S204).
- the map re-creation determination map data 322 is created by integrating the map data copied from the map data 321 with the sensor data 324 coordinate-converted into the coordinate system of the map data 321 according to the estimated position and orientation data 326.
- a state is newly assigned to each grid from the relationship between the position and orientation of the sensor and the obstacle.
- the assigned state is occupied / unoccupied / unknown as described above with reference to FIG.
- the map re-creation determination map creation program 313 creates map re-creation determination map data 322 shown in FIG. 8 by integrating the sensor data 324 obtained at the point 521 in FIG. 5 and the map data 321.
- map re-creation determination map data 322 in FIG. 8 an area 830 corresponding to a grid in an occupied state in which the presence of an obstacle is newly determined and an area 831 corresponding to a grid in which the presence or absence of an obstacle is unknown are added.
- an obstacle originally based on the map data 321 is immobile.
- the areas 830 and 831 are inconsistent portions with the map data 321 (FIG. 5), and whether or not this causes a position estimation error of the robot 2 is predicted when moving along the path of the robot 2 and the path.
- sensor data stimulation sensor data 325. Reference numerals 801, 810, and 820 will be described later.
- the sensor data simulation program 314 simulates the sensor data 324 obtained when the robot 2 moves along the route data 323 within the environment represented by the map data 322 for map re-determination determination (S205). ).
- the sensor data simulation program 314 has coordinates (simulation sensors) at which the laser 2 intersects an obstacle when the robot 2 scans the path data 323 at the position and orientation that the robot 2 should take.
- a simulation for calculating data 325) is performed.
- the sensor data simulation unit 32 acquires sensor data 324 at a point where the laser passes through the unknown grid and the path of the laser intersects with the occupied grid.
- the simulation sensor data 325 when the robot 2 moves along the path 502 and takes the position and orientation of reference numeral 801 is as indicated by reference numeral 810.
- the simulation sensor data 325 is stored in the storage device 301 of the robot management terminal 3.
- the re-map determination program 315 determines an effective portion in the simulation sensor data 325 (S206). In this determination, for each of the coordinates of the point group (reference numeral 810 in FIG. 8) made by the simulation sensor data 325, the line segment connecting the coordinates and the sensor position on the robot 2 is in an unknown state. This is done by considering the case where it does not pass through the grid as effective and the other case as invalid. In the example of FIG. 8, the re-map determination unit 33 determines that the sensor data 810 obtained by the simulation is the invalid portion of the simulation sensor data (outlined) 820 and the other portion is the valid portion.
- the re-map determination program 315 determines whether or not the proportion of the effective portion in the simulation sensor data 325 in one simulation is larger than a preset threshold value (S207).
- the threshold value is set as follows. First, at the time when the map data 321 is created, the map remaking determination program 315 is obtained in chronological order during autonomous movement after confirming that the robot 2 can normally move autonomously in the environment according to the route data 323. The sensor data 324 and the estimated position / orientation data 326 are calculated and stored.
- the re-map determination program 315 converts the simulation sensor data 325 to the coordinate system of the map data 321 based on the estimated position / orientation data 326, and sets the ratio of the simulation sensor data 325 overlapping the occupied grid of the map data 321. Ask. Then, the re-map determination program 315 obtains this ratio for each sensor data 324 obtained during the autonomous movement, obtains the average value, and multiplies this by a coefficient indicating the percentage allowing the mismatch, thereby determining the effective portion.
- the threshold for use In the present embodiment, the above threshold value is assumed to be set, but other methods may be used as long as they can be used to determine whether or not a map needs to be recreated.
- step S207 when the ratio of the effective portion to the entire simulation sensor data 325 is equal to or less than a preset threshold value (S207 ⁇ No), the invalid portion, that is, the unknown portion is large, so the map re-creation determination program 315 is executed.
- the display program 316 displays on the display 305 the time and place for recreating the map (map data 321) together with a warning (S208).
- the overall control program 312 determines whether the simulation position (reference numeral 801 in FIG. 8) is at the end of the path (S209).
- the time is, for example, whether or not the map data 321 should be recreated immediately.
- the display time is set in the storage device 301 in advance.
- the time may not be displayed.
- the warning is displayed when the display program 316 includes the simulation sensor data 325 including the unknown grid obtained in step S204 and the portion determined to be invalid in step S206 on the current map data 321 and the route data 323, the invalid sensor. This is performed by displaying a partial route where the acquisition of the data 324 is expected to be superimposed with a warning color such as red.
- a warning color such as red.
- step S209 when the simulation position is not the end of the route (S209 ⁇ No), the overall control program 312 advances the simulation position by one and returns the process to step S205.
- “advance the simulation position by one” means that the simulation position is advanced to the position / orientation measurement position on the path after a preset measurement time. If the result of step S209 is that the simulation position is at the end of the path (S209 ⁇ Yes), the overall control program 312 returns the processing to step S203, the sensor data 324 at the position in the environment of the next robot 2, and the estimated position and orientation. Data 326 is received.
- step S207 ⁇ Yes When the ratio of the effective portion with respect to the entire sensor data 324 is larger than a preset threshold value as a result of step S207 (S207 ⁇ Yes), the overall control program 312 is executed from the keyboard 306 when the operation of the robot 2 ends. It is determined whether an end command has been input (S210). As a result of step S210, when the end command is not input (S210 ⁇ No), the overall control program 312 advances the process to step S209. If an end command is input as a result of step S210 (S210 ⁇ Yes), the process ends.
- the robot management terminal 3 performs a simulation (S205 to S210) on the route along which the robot 2 to be processed travels.
- steps S205 to S210 are performed for other routes. Processing may be performed.
- a route to be simulated a route through which another robot 2 passes, a route through which the robot 2 can pass in the future, although not a route through which the robot 2 passes at present, can be considered. By doing in this way, it is possible to determine whether or not the map data 321 needs to be recreated with respect to a route through which another robot 2 passes and a route through which the robot 2 can pass in the future.
- the robot management terminal 3 sets the portion related to the difference between the map re-creation determination map data 322 and the map data 321 as an invalid portion, and sets the other portions as valid portions, and the simulation sensor data 325 By determining whether or not the proportion of the effective portion is larger than the threshold value, it is determined whether or not the proportion of the mismatched portion between the simulation sensor data 325 and the map data 321 is larger than a preset threshold value.
- the sensor data 324 is used to calculate the proportion of effective portions, but a grid may be used. That is, in step S207, the re-map determination program 315 may determine whether the ratio of the unknown grid to the occupied grid in one simulation exceeds a preset threshold value. That is, by determining whether or not the ratio of the grid corresponding to the difference between the map data 321 and the map re-creation determination map data 322 is greater than the threshold, the mismatched portion between the simulation sensor data 325 and the map data 321 It may be determined whether or not the ratio is greater than a preset threshold value.
- a mismatch between the real environment and the map data 321 that may cause a position / orientation estimation error during autonomous movement of the robot 2 is detected, and is set in advance by the administrator of the robot management system 1. It is possible to notify that it is time to remake a map and where to remake it.
- the robot 2 moves autonomously, but the robot 2 may be remotely operated by a person.
- the map data 321 is assumed to be two-dimensional data, but may be three-dimensional data.
- the robot 2 transmits the sensor data 324 and the estimated position / orientation data 326 to the robot management terminal 3 in step S105.
- the present invention is not limited to this, and the robot 2 only includes the sensor data 324. May be transmitted to the robot management terminal 3.
- the estimated position / orientation data 326 is calculated by matching the sensor data 324 and the map data 321 on the robot management terminal 3 side.
- steps S203 to S209 are performed regardless of the detection of the mismatch with the map data 321, but not limited to this, when the robot management terminal 3 detects the mismatch with the map data 321. Only steps S203 to S209 may be performed.
- FIG. 10 is a diagram illustrating an example of a GUI screen for setting a threshold according to the second embodiment.
- map data 321 (FIGS. 1 to 3) and route data 323 (FIGS. 1 to 3) are displayed, and the administrator of the robot 2 uses the mouse 308 (FIG. 3),
- the rectangular areas 1001, 1002 and the like are designated, and a threshold value is set for each designated rectangular area 1001, 1002.
- the threshold value in the rectangular area 1002 is set to be higher than that in the rectangular area 1001. Is done.
- the place is a busy place or a place such as a carriage, the threshold value of the area may be increased.
- the shape of the area to be specified may be an arbitrary shape such as a circle in addition to the rectangle.
- a flexible threshold value can be set according to the environmental situation.
- an example of assigning a threshold value for notification of re-creating a map has been described.
- an error allowed when estimating the position and orientation can be set by drawing with the mouse 308 (FIG. 3) as shown in FIG. 10. It may be.
- the position / orientation is estimated based on the matching by ICP.
- the average value of the sum of the distances to the data 321 may be used as the threshold value.
- the robot management terminal 3 may set this threshold, that is, the average value of the sum of the distances between points between the sensor data 324 and the map data 321 for each region as shown in FIG. In this case, when the average value of the sum of the distances between the points between the simulation sensor data 325 and the map data 321 is larger than the set threshold, the robot management terminal 3 determines that the position and orientation estimation error is large, The administrator of the robot 2 may be notified that the map data 321 needs to be recreated.
- the mouse 308 is used as a pointing device here, but any device such as a joystick, keyboard 306, touch panel, or the like that plays an equivalent role may be used.
- a rectangular region is assumed as an example of the region for specifying the threshold, but any method may be used as long as the region can be defined, such as a free curve.
- any method may be used as long as the region can be defined, such as a free curve.
- FIG. 11 is a diagram illustrating a hardware configuration example of the robot according to the third embodiment.
- the configuration of the robot 2a shown in FIG. 11 is a configuration in which a camera platform 207 and a projector 208 (instruction display unit) that presents a mismatched part to a worker on site are added to the configuration of FIG.
- a projector 208 is attached to the camera platform 207, and the posture and height of the projector 208 can be changed.
- the robot 2 estimates the position and orientation in step S104 in FIG. 6 and sends the result to the robot management terminal 3, so that the robot management terminal 3 performs step S204 in FIG.
- the map re-creation determination map data 322 as shown in FIG. 9 is created.
- the robot 2a receives the map re-creation determination map data 322 as shown in FIG. 3, based on the received data, the camera platform 207 is controlled so that the projector 208 faces the mismatched part in the real environment, and the projector 208 projects a warning color such as red on the mismatched part in the real environment, Notify surrounding people (on-site workers, etc.) that a mismatch has occurred.
- the projector 208 is used, but a light or a laser may be used.
- the robot 2a turns in a super-confident manner (where the robot 2a does not move forward and backward, and turns on the spot), the map data 321 and the actual environment around the robot 2a are moved. It may indicate that a mismatch has occurred.
- the map data 322 for re-map determination determination is performed on the robot 2a side by performing the processing from step S204 to step S209 on the robot 2a side.
- the warning screen 900 data is created, the camera platform 207 is controlled so that the projector 208 faces the mismatched part in the actual environment, and a warning color such as red is projected on the mismatched part, resulting in a mismatched part in the surrounding people. It is possible to notify that.
- the robot 2 is preferably a transfer robot in a factory, but can also be applied to a traveling robot such as a monitoring robot.
- the map data 321 may be recreated by the robot 2 that is traveling along the route temporarily stopping the route travel and re-creating the map data 321 by patroling around the obstacle,
- the map data 321 may be recreated by a robot 2 that is different from the robot 2 traveling around in the environment.
- it is estimated that the processing of steps S203 to S209 is performed every time the robot 2 moves. For example, when the robot 2 moves several times, the processing of steps S203 to S209 is performed. Alternatively, the processes of steps S203 to S209 may be performed every few seconds.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Testing And Monitoring For Control Systems (AREA)
Abstract
Description
その他の解決手段については、実施形態中において適宜記載する。
(システム構成)
図1は、第1実施形態に係るロボット管理システムの構成例を示す図である。
ロボット管理システム1は、互いに無線LAN(Local Area Network)などで無線通信を行っているロボット2およびロボット管理端末3を有している。
距離センサ部21は、レーザによって障害物との距離を計測し、レーザ計測結果としてセンサデータ324を生成する機能を有する。位置姿勢推定部22は、距離センサ部21から取得したセンサデータ324(計測結果)と、ロボット管理端末3から送信された地図データ321を基に、ロボット2自身の位置および姿勢の推定を行い、推定位置姿勢データ326を生成し、センサデータ324と、推定位置姿勢データ326をロボット管理端末3へ送信する機能を有する。経路追従制御部23は、位置姿勢推定部22から取得した推定位置姿勢データ326と、ロボット管理端末3から送信された経路データ323を基に、ロボット2自身が目的地まで移動するように移動機構部24を制御して、ロボット2自身の移動を制御する。位置姿勢データについては、図4を参照して後記する。移動機構部24は、ロボット2の移動を行うための機構である。本実施形態では、移動機構部24として、2つの駆動輪とキャスターを備え、駆動輪の回転角速度の差の制御によって旋回を実現する移動機構を想定しているが、環境内を移動する効果が得られるのであれば、船舶、航空機、飛行船、無限軌道を備える車両、脚を備えるロボット2などの移動機構であってもよい。
経路データ記憶部323Aは、ロボット管理端末3のキーボード306(図3)などを介して入力される環境内でロボット2が通過する際の位置と姿勢を予め記録したデータである経路データ323を格納している。センサデータ記憶部324Aは、ロボット2の距離センサ部21から送信されるデータ(センサデータ324)を格納している。地図データ記憶部321Aは、予め設定してあるデータであり、ロボット2が自律移動する環境内の障害物の幾何形状を記録した地図のデータである地図データ321を格納している。地図データ321は、予めロボット2が環境内を巡回し、収集したセンサデータ324を基に作成される。推定位置姿勢データ記憶部326Aは、ロボット2の位置姿勢推定部22が算出し、ロボット管理端末3へ送信されたデータである推定位置姿勢データ326を格納している。
図2は、第1実施形態に係るロボットのハードウェア構成例を示す図である。
ロボット2は、プロセッサ202、メモリ203、無線LANカード204、レーザ距離センサ205(測距センサ)、移動機構装置206、記憶装置201、バスを有している。
レーザ距離センサ205は、レーザを照射し、障害物からのレーザの反射を検知する機能を有する。このレーザ距離センサ205からのデータを利用してセンサデータ取得プログラム213は、センサデータ324を生成する。なお、レーザ距離センサ205は、水平180°方向にレーザを走査しながら、照射したレーザ光が障害物から反射して返ってくるまでの時間の計測によってセンサから障害物までの距離を算出することで、2次元水平面における物体の幾何形状を計測する。なお、レーザ距離センサ205の代わりに、例えば、水平方向以外も走査することで物体の3次元の幾何形状を計測するレーザ距離センサ、物体をカメラで撮影した際の画像特徴量を複数のカメラで三角測量することで物体の3次元の幾何形状を計測するステレオカメラなどを使用してもよく、幾何形状が計測可能であればそのセンサの方式は問わない。移動機構装置206は、図1における移動機構部24に相当するため、ここでは説明を省略する。
さらに、記憶装置201には、ロボット管理端末3から配信された地図データ321、経路データ323、センサデータ324などが格納されている。
図3は、第1実施形態に係るロボット管理端末のハードウェア構成を示す図である。
ロボット管理端末3は、プロセッサ302、メモリ303、ビデオカード304、ビデオカード304に接続されているディスプレイ305(表示部)、キーボード306(入力部)、無線LANカード307、マウス308(入力部)、記憶装置301(記憶部)、バスを有している。
記憶装置301は、HDや、フラッシュメモリなどの不揮発性記憶装置であり、地図の作り直しを判定して、警告を表示するためのプログラムとデータを格納している。プログラムは、OS311、全体制御プログラム312、地図作り直し判定用地図作成プログラム313、センサデータシミュレーションプログラム314、地図作り直し判定プログラム315、表示プログラム316、通信プログラム317などを有している。OS311および全体制御プログラム312は、プログラム全体を制御するためのプログラムである。地図作り直し判定用地図作成プログラム313、センサデータシミュレーションプログラム314、地図作り直し判定プログラム315のそれぞれは、メモリ303に展開され、プロセッサ302によって実行されることにより図1の地図作り直し判定用地図作成部31、センサデータシミュレーション部32、地図作り直し判定部33を具現化させる。また、OS311、全体制御プログラム312、表示プログラム316および通信プログラム317なども、記憶装置301からメモリ303に展開され、プロセッサ302で実行されることにより、図7に示す処理を実行する。
なお、図2および図3において、地図データ321、経路データ323、センサデータ324は、ロボット2およびロボット管理端末3において、共通のデータであるため、同一の符号を付すものとする。
さらに、ロボット2やロボット管理端末3は、それぞれの構成要素が、有線の通信線(バス)にて接続されていることを想定しているが、通信が可能であれば無線であってもよい。また、通信が可能であれば、これらの構成要素のうち、特定の要素が物理的に遠隔にあってもよい。
ここで、図4を参照して、位置姿勢データおよびグリッドの種類について説明する。
図4は、位置姿勢データおよびグリッドの種類の説明のための図であり、(a)は、位置姿勢データの説明を示し、(b)は、グリッドの種類の説明を示している。
図4(a)に示すように、ロボット2が移動する環境には、例えば世界座標系などの座標系が定義されている。位置とは、この座標系におけるロボット2の座標を示しており、図4(a)では、(x1,y1)が位置となる。また、姿勢とは、ロボット2の向きであり、例えば、図4(a)のようにx軸とロボット2の向きとの角度(θ1)で表される。
位置姿勢データとは、この位置と姿勢の組のデータ(x1,y1,θ1)のことである。
次に、図2および図3を参照しつつ、図5~図8を参照して、本実施形態に係るロボット管理方法を説明する。
まず始めに、本実施形態に係る地図の作り直しの通知の概略について記述する。実環境と、予め設定されている地図データ321との間に生じた不一致部分が、ロボット2の移動に支障をきたすか否かは、ロボット2が与えられた経路に沿って移動する際に、その不一致部分を含むセンサデータ324を用いて、位置姿勢推定を行うか否かによる。本実施形態では、この点に着目し、ロボット管理端末3は、ある不一致部分が生じた際に、ロボット2が通り得る様々な経路において、ロボット2から得られるセンサデータ324をシミュレートし、その不一致部分を計測して位置姿勢推定を行い得るか否かを予測する。そして、不一致部分が、1回のシミュレーションセンサデータ325において、多く占める場合、ロボット管理端末3は、位置姿勢推定誤りが生じて自律移動に失敗する可能性があると判定して、地図データ321の作り直しが必要であることをロボット2の管理者に通知する。ここで、「1回のシミュレーションセンサデータ325」とは、ロボット2が経路上において位置姿勢をとったと仮定した場合に、そこで計測を行った際に得られるであろうセンサデータという意味であり、経路上を進んだ際に得られると思われるすべてのセンサデータではない。つまり、図8を例として参照すると、「1回のシミュレーションセンサデータ325」とは図8における符号810が示すセンサデータを指し、経路502を進んだと仮定した際に得られるであろうすべてのセンサデータを累積したものではない。すなわち、図7のステップS205~S210の処理は経路上を進んだと仮定した際に、ロボット2が位置姿勢推定を行う各場所毎に行われる。
このような地図データ321の作り直しの通知の考え方に基づき、具体的な処理について記述する。ここでは、実環境内を自律移動する車両型ロボット2により計測された実環境の幾何形状を表すセンサデータ324と、ロボット2に予め与えた経路データ323と地図データ321とを用いて、地図データ321と実環境との間の不一致の有無とそのロボット2の位置姿勢推定への影響を判定し、地図を作り直す時期と場所を管理者に提示するロボット管理システム1について記述する。
なお、ここでは、地図データ321は、予めロボット2が環境内を巡回し、収集したセンサデータ324を基に予め地図データ作成用のプログラム(図示せず)を用いて別途作成され、ロボット2の地図データ321とロボット管理端末3の地図データ321として保存されているものとする。また、経路データ323には、ロボット2が地図上でとるべき位置姿勢データが時刻と対応して記録されているものとする。符合521および符号324については後記して説明する。
まず、ロボット2の全体制御プログラム212が起動すると、位置姿勢推定プログラム214が、ロボット管理端末3から送信された地図データ321を読み込む(S101)。
さらに、移動機構制御プログラム215が、ロボット管理端末3から送信された経路データ323を読み込む(S102)。
続いて、レーザ距離センサ205を用いた環境の計測が行われ、センサデータ取得プログラム213が計測データを取得し、センサデータ324を生成する(S103)。
そして、位置姿勢推定プログラム214が、センサデータ324と地図データ321とのマッチングに基づいたロボット2の位置姿勢の推定を行い(S104)、推定位置姿勢データ326を生成する。マッチングの手法としては、ICP(Iterative Closest Point)と呼ばれる手法の利用を想定する。これにより、位置姿勢推定プログラム214は、センサデータ324と地図データ321をなす点のうち、点間距離が最短となる点同士を対応付けて、対応づけられた点間距離の総和が小さくなるように、つまりはセンサデータ324と地図データ321の幾何的特徴が最も重なり合うときのセンサデータ324と地図データ321から、ロボット2自身の相対位置姿勢を推定する。ここでは、ICPで推定される地図データ321上におけるセンサデータ324の位置姿勢をロボット2の位置姿勢とみなすものとする。なお、ここでは、マッチング手法としてICPの利用を想定しているが、同様の効果が得られるならば手法は問わない。
次に、移動機構制御プログラム215が、推定位置姿勢データ326とステップS102で読み込んだ経路データ323を用いて、ロボット2の経路追従のための移動機構制御を行う(S106)。
そして、移動機構制御プログラム215は、経路データ323に予め記録されているロボット2がとるべき位置姿勢データと推定位置姿勢データ326との差をなくすよう、移動機構装置206におけるロボット2の車輪の回転制御などを行い経路への追従が実現される。
ステップS107の結果、目的地に到着していない場合(S107→No)、ロボット2は、ステップS103へ処理を戻す。
ステップS107の結果、目的地に到着している場合(S107→Yes)、ロボット2は処理を終了する。
全体制御プログラム312が起動すると、まず、地図作り直し判定用地図作成プログラム313が、記憶装置301の地図データ321を読み込む(S201)。
さらに、センサデータシミュレーションプログラム314が、記憶装置301の経路データ323を読み込む(S202)。
続いて、通信プログラム317は、無線LANカード307を介して、図6のステップS105でロボット2から送信されたセンサデータ324と推定位置姿勢データ326を受信する(S203)。受信されたセンサデータ324および推定位置姿勢データ326はそれぞれ記憶装置301に一旦格納される。
この地図作り直し判定用地図データ322へのセンサデータ324の統合の際、センサと障害物との位置姿勢の関係から、各グリッドに新たに状態が割り当てられる。割り当てられる状態は、図4(b)で前記した占有・非占有・未知である。
地図作り直し判定用地図作成プログラム313は、図5の地点521で得られたセンサデータ324と地図データ321の統合により、図8に示す地図作り直し判定用地図データ322を作成する。図8の地図作り直し判定用地図データ322において、障害物の存在が新たに確定した占有状態のグリッドに相当する領域830と障害物の有無が不明なグリッドに相当する領域831が追加されている。ここでは、地図データ321にもとからある障害物は不動であるとしている。
領域830,831が、地図データ321(図5)との不一致部分となるが、これがロボット2の位置推定誤りを招くか否かは、ロボット2の経路とその経路を移動する際の予測されるセンサデータ(シミュレーションセンサデータ325)による。符号801,810,820については後記する。
ステップS209の結果、シミュレーション位置が経路の最後である場合(S209→Yes)、全体制御プログラム312は、ステップS203へ処理を戻し、次のロボット2の環境内位置におけるセンサデータ324と、推定位置姿勢データ326を受信する。
ステップS210の結果、終了命令が入力されていない場合(S210→No)、全体制御プログラム312は、ステップS209へ処理を進める。
ステップS210の結果、終了命令が入力された場合(S210→Yes)、処理を終了する。
このようにすることで、他のロボット2が通る経路や、将来ロボット2が通り得る経路などについても地図データ321の作り直しが必要であるか否かを判定することができる。
また、本実施形態においては、ステップS105において、ロボット2が、センサデータ324と、推定位置姿勢データ326をロボット管理端末3へ送信しているが、これに限らず、ロボット2がセンサデータ324のみをロボット管理端末3へ送信してもよい。この場合、ロボット管理端末3側でセンサデータ324と、地図データ321とのマッチングを行って、推定位置姿勢データ326を算出することとなる。
また、本実施形態では、地図データ321との不一致の検出に関わらずステップS203~S209の処理を行っているが、これに限らず、ロボット管理端末3が地図データ321との不一致を検出したときのみ、ステップS203~S209の処理を行ってもよい。
第1実施形態において、閾値の求め方として、予めロボット2を移動させ、このとき得られるセンサデータ324と地図データ321とのマッチング結果を基に閾値を決めていく方法について記述した。第2実施形態では、ロボット管理端末3上のGUI(Graphical User Interface)を用いて、手動で閾値を設定する方法について記述する。
GUI画面1000には、地図データ321(図1~図3)と経路データ323(図1~図3)が表示されており、ロボット2の管理者は、マウス308(図3)を用いて、矩形領域1001,1002などを指定し、指定した矩形領域1001,1002毎に閾値の設定を行う。例えば、ロボット2が荷降ろし時に領域1002で停止するため、この領域では高い精度で障害物の検出が求められるとすると、矩形領域1002における閾値は、矩形領域1001のそれにくらべて高くなるように設定される。また、人通りが多い場所や、台車などの置き場所になっている場合、その領域の閾値を上げてもよい。また、指定する領域の形状は、矩形以外に円など、任意形状であってもよい。
例えば、図6のステップS104にて、ICPによるマッチングに基づく位置姿勢の推定を行うが、このときのセンサデータ324と地図データ321間の点間距離、すなわちレーザが物体に当たった点と、地図データ321との距離の総和の平均値を閾値としてもよい。そして、ロボット管理端末3は、図10に示すような領域毎に、この閾値、すなわち、センサデータ324と地図データ321間の点間距離の総和の平均値を設定してもよい。この場合、シミュレーションセンサデータ325と地図データ321間の点間距離の総和の平均値が、設定してある閾値より大きくなった場合、ロボット管理端末3は位置姿勢の推定誤りが大きいと判定し、地図データ321の作り直しが必要であることをロボット2の管理者に通知するようにしてもよい。
なお、ここでは、ポインティングデバイスとしてマウス308を用いているが、ジョイスティック、キーボード306、タッチパネル等、同等の役割を担うものであれば何を用いてもよい。また、閾値の指定をする領域としては、例として矩形領域を想定しているが、自由曲線等、領域が定義できるものであれば手法を問わない。また、以上は2次元の例で説明しているが3次元であってもよいことは言うまでもない。
第1実施形態において、検出した不一致部分をロボット管理端末3の表示部に警告表示を行うことよって、ロボット2の管理者に通知していた。ここでは、ロボット2に備えられている表示装置を用いて現場にいる人に通知する例について述べる。
図11は、第3実施形態に係るロボットのハードウェア構成例を示す図である。
図11に示すロボット2aの構成は、図2の構成に、雲台207と、現場の作業者などに不一致部分を提示するプロジェクタ208(指示表示部)が追加された構成となっている。雲台207にはプロジェクタ208が取りつけられており、プロジェクタ208の姿勢や高さを変えることが可能となっている。第1実施形態では、ロボット2が図6のステップS104にて位置姿勢の推定を行い、その結果をロボット管理端末3に送ることで、ロボット管理端末3にて図7のステップS204により図8に示すような地図作り直し判定用地図データ322を作成しているが、第3実施形態では、図9に示すような地図作り直し判定用地図データ322と、警告画面900のデータをロボット2aがロボット管理端末3から受信し、受信したデータを基に、実環境における不一致部分にプロジェクタ208が向くように雲台207を制御し、プロジェクタ208が、実環境の不一致部分に赤などの警告色を投影し、周囲の人(現場の作業者など)に不一致部分が生じていることを通知する。なお、この例では、プロジェクタ208の利用を想定しているが、ライトやレーザを用いてもよい。また、不一致が生じた部分でロボット2aが超信地旋回(前後には進まず、その場で旋回すること)するなどにより、ロボット2aの動きから、その周辺で地図データ321と実環境との不一致が生じていることを示してもよい。
地図データ321の再作成は、経路を進行中のロボット2が一時的に経路進行を停止、障害物付近を巡回することによって地図データ321の再作成を行ってもよいし、経路を進行中のロボット2とは、別のロボット2が環境内を巡回することによって地図データ321の再作成を行ってもよい。
また、本実施形態では、ステップS203~S209の処理を、ロボット2が移動する毎に行っていることを推定しているが、例えば、ロボット2が数回移動したときにステップS203~S209の処理を行ってもよいし、数秒毎にステップS203~S209の処理を行ってもよい。
2 ロボット
3 ロボット管理端末
21 距離センサ部
22 位置姿勢推定部
23 経路追従制御部
24 移動機構部
31 地図作り直し判定用地図作成部
32 センサデータシミュレーション部(予測部)
33 地図作り直し判定部(判定部)
201 記憶装置(ロボット)
205 レーザ距離センサ(測距センサ)
206 移動機構装置
208 プロジェクタ(指示表示部)
212 全体制御プログラム(ロボット)
213 センサデータ取得プログラム
214 位置姿勢推定プログラム
215 移動機構制御プログラム
216 通信プログラム(ロボット)
301 記憶装置(ロボット管理端末:記憶部)
312 全体制御プログラム(ロボット管理端末)
313 地図作り直し判定用地図作成プログラム
314 センサデータシミュレーションプログラム
315 地図作り直し判定プログラム
317 通信プログラム
321 地図データ
322 地図作り直し判定用地図データ
323 経路データ
324 センサデータ(計測結果)
325 シミュレーションセンサデータ(予測された計測結果)
326 推定位置姿勢データ
Claims (15)
- 測距センサにより障害物を検知しながら経路を進行するロボットと、
地図データを記憶部に記憶し、前記ロボットに進行経路を指示するロボット管理端末と、
を有するロボット管理システムであって、
経路を進行中の前記ロボットが、
前記測距センサによる計測結果をロボット管理端末へ送信し、
前記ロボット管理端末が、
前記ロボットが移動する将来の位置における計測結果を、前記ロボットから送信された計測結果を基に、前記地図データと対比可能なように予測し、
前記予測の計測結果と、前記地図データとの不一致部分の割合が、予め設定してある閾値より大きい場合、前記地図データの再作成をユーザに通知する
ことを特徴とするロボット管理システム。 - 前記ロボットが移動する将来の位置とは、前記ロボットの進行経路上における位置である
ことを特徴とする請求の範囲第1項に記載のロボット管理システム。 - 前記ロボット管理端末は、
前記ロボットから送信された計測結果を基に、地図作り直し判定用地図データを作成し、
当該地図作り直し判定用地図データにおいて、前記ロボットが移動した将来の位置における計測結果を予測する
ことを特徴とする請求の範囲第1項に記載のロボット管理システム。 - 前記ロボット管理端末は、
予測された計測結果において、前記地図作り直し判定用地図データと、前記地図データとの差分部分に係る部分を無効部分とし、それ以外を有効部分とし、前記予測された計測結果に対する有効部分の割合が、前記閾値より大きいか否かを判定することによって、前記予測の結果と、前記地図データとの不一致部分の割合が予め設定してある閾値より大きいか否かを判定する
ことを特徴とする請求の範囲第3項に記載のロボット管理システム。 - 前記地図データおよび前記地図作り直し判定用地図データは、複数のグリッドに区切られており、
前記ロボット管理端末は、
前記地図データと、前記地図作り直し判定用地図データとの差分に該当するグリッドの割合が、前記閾値より大きいか否かを判定することによって、前記予測の結果と、地図データとの不一致部分の割合が予め設定してある閾値より大きいか否かを判定する
ことを特徴とする請求の範囲第3項に記載のロボット管理システム。 - 前記ロボット管理端末は、
不一致部分を、表示部に表示する
ことを特徴とする請求の範囲第1項に記載のロボット管理システム。 - 前記ロボット管理端末は、
地図データを所定の区画に分割し、区画毎に閾値を設定する
ことを特徴とする請求の範囲第1項に記載のロボット管理システム。 - 前記ロボットは、実環境における不一致部分に対応する部分に対して、指示表示を行う指示表示部を有している
ことを特徴とする請求の範囲第1項に記載のロボット管理システム。 - 地図データを記憶部に記憶し、前記ロボットに進行経路を指示するロボット管理端末であって、
前記ロボットが移動する将来の位置における計測結果を、前記ロボットから送信された測距センサによる計測結果を基に予測する予測部と、
前記予測の結果と、前記地図データとの不一致部分の割合が、予め設定してある閾値より大きい場合、前記地図データの再作成をユーザに通知する判定部と、
を有することを特徴とするロボット管理端末。 - 前記ロボットが移動する将来の位置とは、前記ロボットの進行経路上における位置である
ことを特徴とする請求の範囲第9項に記載のロボット管理端末。 - 前記ロボット管理端末は、
前記ロボットから送信された計測結果を基に、地図作り直し判定用地図データを作成する地図作り直し判定用地図作成部をさらに有し、
前記判定部は、
当該地図作り直し判定用地図データにおいて、前記ロボットが移動した将来の位置の計測結果を予測する
ことを特徴とする請求の範囲第9項に記載のロボット管理端末。 - 測距センサにより障害物を検知しながら経路を進行するロボットと、
地図データを記憶部に記憶し、前記ロボットに進行経路を指示するロボット管理端末と、
を有するロボット管理システムによるロボット管理方法であって、
経路を進行中の前記ロボットが、
前記測距センサによる計測結果をロボット管理端末へ送信し、
前記ロボット管理端末が、
前記ロボットが移動する将来の位置における計測結果を、前記ロボットから送信された計測結果を基に、前記地図データと対比可能なように予測し、
前記予測の計測結果と、前記地図データとの不一致部分の割合が、予め設定してある閾値より大きい場合、前記地図データの再作成をユーザに通知する
ことを特徴とするロボット管理方法。 - 前記ロボットが移動する将来の位置とは、前記ロボットの進行経路上における位置である
ことを特徴とする請求の範囲第12項に記載のロボット管理方法。 - 前記ロボット管理端末は、
前記ロボットから送信された計測結果を基に、地図作り直し判定用地図データを作成し、
当該地図作り直し判定用地図データにおいて、前記ロボットが移動した将来の位置における計測結果を予測する
ことを特徴とする請求の範囲第12項に記載のロボット管理方法。 - 請求の範囲第12項から請求の範囲第14項のいずれか一項に記載のロボット管理方法をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/375,669 US9242378B2 (en) | 2009-06-01 | 2010-05-27 | System and method for determing necessity of map data recreation in robot operation |
CN201080024211.9A CN102449568B (zh) | 2009-06-01 | 2010-05-27 | 机器人管理***、机器人管理终端和机器人管理方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009132444A JP5216690B2 (ja) | 2009-06-01 | 2009-06-01 | ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム |
JP2009-132444 | 2009-06-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2010140533A1 true WO2010140533A1 (ja) | 2010-12-09 |
Family
ID=43297669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2010/059004 WO2010140533A1 (ja) | 2009-06-01 | 2010-05-27 | ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9242378B2 (ja) |
JP (1) | JP5216690B2 (ja) |
CN (1) | CN102449568B (ja) |
WO (1) | WO2010140533A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110621449A (zh) * | 2018-08-14 | 2019-12-27 | 千叶工业大学 | 移动机器人 |
CN110850859A (zh) * | 2018-08-01 | 2020-02-28 | 深圳市优必选科技有限公司 | 一种机器人及其避障方法和避障*** |
TWI716127B (zh) * | 2019-10-01 | 2021-01-11 | 東元電機股份有限公司 | 機器人及其路徑插值規劃命令產生系統 |
CN112621739A (zh) * | 2019-10-08 | 2021-04-09 | 东元电机股份有限公司 | 机器人及其路径插值规划命令产生*** |
WO2021085124A1 (ja) * | 2019-10-29 | 2021-05-06 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9046893B2 (en) * | 2011-05-31 | 2015-06-02 | John Bean Technologies Corporation | Deep lane navigation system for automatic guided vehicles |
JP5763986B2 (ja) * | 2011-06-30 | 2015-08-12 | 株式会社日立産機システム | 移動体および移動体の制御方法 |
JP5800613B2 (ja) * | 2011-07-08 | 2015-10-28 | 株式会社日立産機システム | 移動体の位置・姿勢推定システム |
US9454744B2 (en) * | 2011-09-02 | 2016-09-27 | Fisher-Rosemount Systems, Inc. | Asset tracking in process control environments |
KR20130087881A (ko) * | 2012-01-30 | 2013-08-07 | 한국전자통신연구원 | 원격 관제 시스템을 이용한 무인 감시 장치 및 방법, 무인 감시를 위한 로봇 제어 단말 |
CN102681544A (zh) * | 2012-05-21 | 2012-09-19 | 航天科工深圳(集团)有限公司 | 一种迷宫管道机器人自主巡径算法及具有该算法的机器人 |
JP6177097B2 (ja) * | 2013-11-12 | 2017-08-09 | 株式会社日立産機システム | 位置検出システム |
US9886036B2 (en) * | 2014-02-10 | 2018-02-06 | John Bean Technologies Corporation | Routing of automated guided vehicles |
US9972054B1 (en) | 2014-05-20 | 2018-05-15 | State Farm Mutual Automobile Insurance Company | Accident fault determination for autonomous vehicles |
US10354330B1 (en) | 2014-05-20 | 2019-07-16 | State Farm Mutual Automobile Insurance Company | Autonomous feature use monitoring and insurance pricing |
US11669090B2 (en) | 2014-05-20 | 2023-06-06 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle operation feature monitoring and evaluation of effectiveness |
GB201409883D0 (en) * | 2014-06-03 | 2014-07-16 | Ocado Ltd | Methods, systems, and apparatus for controlling movement of transporting devices |
US9283678B2 (en) * | 2014-07-16 | 2016-03-15 | Google Inc. | Virtual safety cages for robotic devices |
KR101737792B1 (ko) * | 2014-11-10 | 2017-05-19 | 현대모비스 주식회사 | 자율 주행 차량, 자율 주행 관리 장치 및 그 제어 방법 |
US9864371B2 (en) | 2015-03-10 | 2018-01-09 | John Bean Technologies Corporation | Automated guided vehicle system |
US9574883B2 (en) * | 2015-03-24 | 2017-02-21 | X Development Llc | Associating semantic location data with automated environment mapping |
US9845164B2 (en) * | 2015-03-25 | 2017-12-19 | Yokogawa Electric Corporation | System and method of monitoring an industrial plant |
US9740944B2 (en) * | 2015-12-18 | 2017-08-22 | Ford Global Technologies, Llc | Virtual sensor data generation for wheel stop detection |
JP6619240B2 (ja) * | 2016-01-19 | 2019-12-11 | 株式会社ダイヘン | 経路教示装置 |
US11445152B2 (en) | 2018-08-09 | 2022-09-13 | Cobalt Robotics Inc. | Security automation in a mobile robot |
US11325250B2 (en) | 2017-02-06 | 2022-05-10 | Cobalt Robotics Inc. | Robot with rotatable arm |
US10265859B2 (en) | 2016-02-09 | 2019-04-23 | Cobalt Robotics Inc. | Mobile robot with removable fabric panels |
US11772270B2 (en) | 2016-02-09 | 2023-10-03 | Cobalt Robotics Inc. | Inventory management by mobile robot |
JP6790417B2 (ja) * | 2016-03-31 | 2020-11-25 | ソニー株式会社 | 情報処理装置及び情報処理サーバ |
WO2017198306A1 (en) * | 2016-05-20 | 2017-11-23 | Abb Schweiz Ag | Improved industrial object handling robot |
DE102016121320A1 (de) * | 2016-11-08 | 2018-05-09 | Vorwerk & Co. Interholding Gmbh | Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Roboters |
JP6809913B2 (ja) * | 2017-01-26 | 2021-01-06 | パナソニック株式会社 | ロボット、ロボットの制御方法、および地図の生成方法 |
US10906185B2 (en) | 2017-02-06 | 2021-02-02 | Cobalt Robotics Inc. | Mobile robot with arm for access point security checks |
US10913160B2 (en) | 2017-02-06 | 2021-02-09 | Cobalt Robotics Inc. | Mobile robot with arm for door interactions |
US11724399B2 (en) | 2017-02-06 | 2023-08-15 | Cobalt Robotics Inc. | Mobile robot with arm for elevator interactions |
GB201703968D0 (en) * | 2017-03-13 | 2017-04-26 | Computational Eng Sg | System for building situation awareness |
CN106873597B (zh) * | 2017-03-24 | 2020-11-10 | 上海思岚科技有限公司 | 通过电脑客户端对移动机器人设置虚拟轨道的实现方法 |
JPWO2018180175A1 (ja) * | 2017-03-27 | 2020-02-06 | 日本電産株式会社 | 移動体、信号処理装置およびコンピュータプログラム |
JP6886334B2 (ja) * | 2017-04-19 | 2021-06-16 | パナソニック株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
JPWO2019054209A1 (ja) * | 2017-09-13 | 2020-10-29 | 日本電産シンポ株式会社 | 地図作成システムおよび地図作成装置 |
CN107943200B (zh) * | 2017-09-16 | 2019-11-08 | 国家电网公司 | 变电站巡视机器人“走失”装置 |
JP6812325B2 (ja) * | 2017-10-26 | 2021-01-13 | 株式会社日立ビルシステム | ロボット管理システム |
CN107717996B (zh) * | 2017-11-14 | 2018-08-24 | 北京镁伽机器人科技有限公司 | 具有测距停止功能的多关节机器人和测距停止方法 |
CN107942748B (zh) * | 2017-11-28 | 2020-08-07 | 上海师范大学 | 一种机械臂空间动态避障感应手环及控制*** |
CN107738852B (zh) * | 2017-11-30 | 2020-03-31 | 歌尔科技有限公司 | 定位方法、定位地图构建方法及机器人 |
US10676022B2 (en) | 2017-12-27 | 2020-06-09 | X Development Llc | Visually indicating vehicle caution regions |
JP7016276B2 (ja) * | 2018-03-05 | 2022-02-04 | 株式会社日立製作所 | 列車位置推定装置 |
WO2019194079A1 (ja) * | 2018-04-02 | 2019-10-10 | 日本電産株式会社 | 位置推定システム、当該位置推定システムを備える移動体、およびコンピュータプログラム |
US11243540B2 (en) * | 2018-05-17 | 2022-02-08 | University Of Connecticut | System and method for complete coverage of unknown environments |
US11548159B1 (en) * | 2018-05-31 | 2023-01-10 | AI Incorporated | Modular robot |
JP7077800B2 (ja) * | 2018-06-11 | 2022-05-31 | オムロン株式会社 | 経路計画装置、経路計画方法、及び経路計画プログラム |
US11082667B2 (en) | 2018-08-09 | 2021-08-03 | Cobalt Robotics Inc. | Contextual automated surveillance by a mobile robot |
US11460849B2 (en) | 2018-08-09 | 2022-10-04 | Cobalt Robotics Inc. | Automated route selection by a mobile robot |
JP7426582B2 (ja) * | 2019-03-26 | 2024-02-02 | パナソニックIpマネジメント株式会社 | 情報通知システム及び情報通知方法 |
WO2020202510A1 (ja) * | 2019-04-03 | 2020-10-08 | 三菱電機株式会社 | 移動体の地図データ配信装置および移動体システム |
US11215988B2 (en) * | 2019-08-08 | 2022-01-04 | Hanwoo Cho | Accompanying control of locomotion device |
CN112445215A (zh) * | 2019-08-29 | 2021-03-05 | 阿里巴巴集团控股有限公司 | 自动导引车行驶控制方法、装置及计算机*** |
US11829128B2 (en) * | 2019-10-23 | 2023-11-28 | GM Global Technology Operations LLC | Perception system diagnosis using predicted sensor data and perception results |
JP7373448B2 (ja) | 2020-03-31 | 2023-11-02 | 日産自動車株式会社 | 自己位置推定方法および自己位置推定装置 |
CN112162294B (zh) * | 2020-10-10 | 2023-12-15 | 北京布科思科技有限公司 | 一种基于激光传感器的机器人结构检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63213005A (ja) * | 1987-03-02 | 1988-09-05 | Hitachi Ltd | 移動体誘導方法 |
JP2003345438A (ja) * | 2002-05-29 | 2003-12-05 | Mitsubishi Heavy Ind Ltd | 移動ロボット |
JP2005326944A (ja) * | 2004-05-12 | 2005-11-24 | Hitachi Ltd | レーザー計測により地図画像を生成する装置及び方法 |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5721679A (en) * | 1995-12-18 | 1998-02-24 | Ag-Chem Equipment Co., Inc. | Heads-up display apparatus for computer-controlled agricultural product application equipment |
GB0126497D0 (en) * | 2001-11-03 | 2002-01-02 | Dyson Ltd | An autonomous machine |
DE50308812D1 (de) * | 2002-10-23 | 2008-01-24 | Siemens Ag | Verfahren und anordnung sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur bildung einer graphenstruktur zur beschreibung einer fläche mit einer freifläche und einer belegtfläche |
US7145478B2 (en) * | 2002-12-17 | 2006-12-05 | Evolution Robotics, Inc. | Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system |
JP3994950B2 (ja) * | 2003-09-19 | 2007-10-24 | ソニー株式会社 | 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 |
KR100561863B1 (ko) * | 2004-02-19 | 2006-03-16 | 삼성전자주식회사 | 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치 |
KR100571834B1 (ko) * | 2004-02-27 | 2006-04-17 | 삼성전자주식회사 | 청소 로봇의 바닥 먼지 검출 방법 및 장치 |
US7228203B2 (en) * | 2004-03-27 | 2007-06-05 | Vision Robotics Corporation | Autonomous personal service robot |
JP2005324297A (ja) * | 2004-05-17 | 2005-11-24 | Matsushita Electric Ind Co Ltd | ロボット |
JP4479372B2 (ja) * | 2004-06-25 | 2010-06-09 | ソニー株式会社 | 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置 |
US20060058921A1 (en) * | 2004-09-13 | 2006-03-16 | Tamao Okamoto | Mobile robot |
US8195386B2 (en) * | 2004-09-28 | 2012-06-05 | National University Corporation Kumamoto University | Movable-body navigation information display method and movable-body navigation information display unit |
JP4531582B2 (ja) * | 2005-02-10 | 2010-08-25 | アルパイン株式会社 | 地図更新処理用データ作成方法、地図更新方法及び装置 |
JP2006239844A (ja) * | 2005-03-04 | 2006-09-14 | Sony Corp | 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 |
US8160296B2 (en) * | 2005-04-15 | 2012-04-17 | Mississippi State University Research And Technology Corporation | Change analyst |
US20060262188A1 (en) * | 2005-05-20 | 2006-11-23 | Oded Elyada | System and method for detecting changes in an environment |
JP4455417B2 (ja) * | 2005-06-13 | 2010-04-21 | 株式会社東芝 | 移動ロボット、プログラム及びロボット制御方法 |
US7706971B2 (en) * | 2005-07-21 | 2010-04-27 | The Boeing Company | System and method for data mapping and map discrepancy reporting |
EP2806326B1 (en) * | 2005-09-02 | 2016-06-29 | Neato Robotics, Inc. | Multi-function robotic device |
US7912633B1 (en) * | 2005-12-01 | 2011-03-22 | Adept Mobilerobots Llc | Mobile autonomous updating of GIS maps |
US7539557B2 (en) * | 2005-12-30 | 2009-05-26 | Irobot Corporation | Autonomous mobile robot |
US8577538B2 (en) * | 2006-07-14 | 2013-11-05 | Irobot Corporation | Method and system for controlling a remote vehicle |
KR100772912B1 (ko) * | 2006-05-16 | 2007-11-05 | 삼성전자주식회사 | 절대 방위각을 이용한 로봇 및 이를 이용한 맵 작성 방법 |
KR100735565B1 (ko) * | 2006-05-17 | 2007-07-04 | 삼성전자주식회사 | 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇 |
KR100843085B1 (ko) * | 2006-06-20 | 2008-07-02 | 삼성전자주식회사 | 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치 |
KR100791384B1 (ko) * | 2006-07-05 | 2008-01-07 | 삼성전자주식회사 | 특징점을 이용한 영역 구분 방법 및 장치와 이를 이용한이동 청소 로봇 |
US7587260B2 (en) * | 2006-07-05 | 2009-09-08 | Battelle Energy Alliance, Llc | Autonomous navigation system and method |
US8180486B2 (en) * | 2006-10-02 | 2012-05-15 | Honda Motor Co., Ltd. | Mobile robot and controller for same |
CN101033971B (zh) * | 2007-02-09 | 2011-02-16 | 中国科学院合肥物质科学研究院 | 一种移动机器人地图创建***及地图创建方法 |
CN101275854A (zh) * | 2007-03-26 | 2008-10-01 | 日电(中国)有限公司 | 更新地图数据的方法和设备 |
US8260485B1 (en) * | 2007-04-26 | 2012-09-04 | The Boeing Company | Adaptive multi-vehicle area coverage optimization system and method |
KR100877071B1 (ko) * | 2007-07-18 | 2009-01-07 | 삼성전자주식회사 | 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치 |
CN101126808B (zh) * | 2007-08-02 | 2011-07-27 | 中国科学院自动化研究所 | 一种机器人导航***及导航方法 |
JP2009093308A (ja) * | 2007-10-05 | 2009-04-30 | Hitachi Industrial Equipment Systems Co Ltd | ロボットシステム |
JP5371224B2 (ja) * | 2007-10-17 | 2013-12-18 | オリンパスイメージング株式会社 | 地図表示方法、地図表示システム、および地図表示用プログラム |
JP4565229B2 (ja) * | 2007-12-10 | 2010-10-20 | 本田技研工業株式会社 | ロボット |
CN100585332C (zh) * | 2007-12-24 | 2010-01-27 | 河北工业大学 | 室内环境下机器人自主搜寻气味源的方法 |
KR20090077547A (ko) * | 2008-01-11 | 2009-07-15 | 삼성전자주식회사 | 이동 로봇의 경로 계획 방법 및 장치 |
JP5339731B2 (ja) * | 2008-01-22 | 2013-11-13 | 日立オートモティブシステムズ株式会社 | 更新情報提供サーバ、更新情報提供システム、およびナビゲーション装置 |
JP4999734B2 (ja) * | 2008-03-07 | 2012-08-15 | 株式会社日立製作所 | 環境地図生成装置、方法及びプログラム |
JP5215740B2 (ja) * | 2008-06-09 | 2013-06-19 | 株式会社日立製作所 | 移動ロボットシステム |
KR101503903B1 (ko) * | 2008-09-16 | 2015-03-19 | 삼성전자 주식회사 | 이동 로봇의 지도 구성 장치 및 방법 |
US8855819B2 (en) * | 2008-10-09 | 2014-10-07 | Samsung Electronics Co., Ltd. | Method and apparatus for simultaneous localization and mapping of robot |
US8706297B2 (en) * | 2009-06-18 | 2014-04-22 | Michael Todd Letsky | Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same |
-
2009
- 2009-06-01 JP JP2009132444A patent/JP5216690B2/ja active Active
-
2010
- 2010-05-27 US US13/375,669 patent/US9242378B2/en not_active Expired - Fee Related
- 2010-05-27 CN CN201080024211.9A patent/CN102449568B/zh not_active Expired - Fee Related
- 2010-05-27 WO PCT/JP2010/059004 patent/WO2010140533A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63213005A (ja) * | 1987-03-02 | 1988-09-05 | Hitachi Ltd | 移動体誘導方法 |
JP2003345438A (ja) * | 2002-05-29 | 2003-12-05 | Mitsubishi Heavy Ind Ltd | 移動ロボット |
JP2005326944A (ja) * | 2004-05-12 | 2005-11-24 | Hitachi Ltd | レーザー計測により地図画像を生成する装置及び方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110850859A (zh) * | 2018-08-01 | 2020-02-28 | 深圳市优必选科技有限公司 | 一种机器人及其避障方法和避障*** |
CN110850859B (zh) * | 2018-08-01 | 2023-03-07 | 深圳市优必选科技有限公司 | 一种机器人及其避障方法和避障*** |
CN110621449A (zh) * | 2018-08-14 | 2019-12-27 | 千叶工业大学 | 移动机器人 |
CN110621449B (zh) * | 2018-08-14 | 2022-07-08 | 千叶工业大学 | 移动机器人 |
TWI716127B (zh) * | 2019-10-01 | 2021-01-11 | 東元電機股份有限公司 | 機器人及其路徑插值規劃命令產生系統 |
CN112621739A (zh) * | 2019-10-08 | 2021-04-09 | 东元电机股份有限公司 | 机器人及其路径插值规划命令产生*** |
CN112621739B (zh) * | 2019-10-08 | 2022-03-15 | 东元电机股份有限公司 | 机器人及其路径插值规划命令产生*** |
WO2021085124A1 (ja) * | 2019-10-29 | 2021-05-06 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US9242378B2 (en) | 2016-01-26 |
JP5216690B2 (ja) | 2013-06-19 |
CN102449568B (zh) | 2014-06-25 |
CN102449568A (zh) | 2012-05-09 |
JP2010277548A (ja) | 2010-12-09 |
US20120083923A1 (en) | 2012-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5216690B2 (ja) | ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム | |
JP6986188B6 (ja) | 環境地図生成および位置整合のための方法ならびにシステム | |
JP7355500B2 (ja) | ワークピース上で動作するためのロボットシステムおよび方法 | |
US10876307B2 (en) | Construction management system and method | |
JP6811258B2 (ja) | ロボット車両の位置測定 | |
JP6545279B2 (ja) | 衝突は発生しないかについて、車両が辿るべき目標軌跡を監視するための方法及び装置 | |
JP5276931B2 (ja) | 移動体および移動体の位置推定誤り状態からの復帰方法 | |
JP6676814B2 (ja) | ライダー強度に基づく物体検出 | |
WO2008047872A1 (fr) | Manipulateur | |
JP5902275B1 (ja) | 自律移動装置 | |
Cho et al. | Target-focused local workspace modeling for construction automation applications | |
JP2024083371A (ja) | データ処理方法、記録媒体、プログラム、及びシステム | |
JP2014067223A (ja) | 自律移動体 | |
JP2022530246A (ja) | 自己位置推定及び環境地図作成の同時実行 | |
JP2010061483A (ja) | 自走移動体及び自走移動体の目的位置設定方法 | |
CN112162551B (zh) | 障碍物探测方法、装置、设备及计算机可读介质 | |
Muller et al. | A probabilistic sonar sensor model for robust localization of a small-size blimp in indoor environments using a particle filter | |
US10755478B1 (en) | System and method for precision indoors localization and mapping | |
JP5427662B2 (ja) | ロボットシステム | |
JP2014144493A (ja) | 親子機能搭載ロボット | |
JP7138041B2 (ja) | 移動体 | |
Takeda et al. | Initial Localization of Mobile Robot Based on Expansion Resetting Without Manual Pose Adjustment in Robot Challenge Experiment | |
Inoue et al. | Shape Adaptation of the Inspection Guide Frame in Tunnels to Avoid Obstacles Detected by a Laser Range Finder | |
JP2021114222A (ja) | ロボットシステムおよびその位置推定方法 | |
Inoue et al. | Shape Control of Variable Guide Frame for Tunnel Wall Inspection to Avoid Obstacles by Laser Range Finder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 201080024211.9 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10783317 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13375669 Country of ref document: US |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10783317 Country of ref document: EP Kind code of ref document: A1 |