WO2014075598A1 - 移动式机器人分离式视觉定位导航方法及其定位导航*** - Google Patents

移动式机器人分离式视觉定位导航方法及其定位导航*** Download PDF

Info

Publication number
WO2014075598A1
WO2014075598A1 PCT/CN2013/086908 CN2013086908W WO2014075598A1 WO 2014075598 A1 WO2014075598 A1 WO 2014075598A1 CN 2013086908 W CN2013086908 W CN 2013086908W WO 2014075598 A1 WO2014075598 A1 WO 2014075598A1
Authority
WO
WIPO (PCT)
Prior art keywords
working
mobile robot
site
path
working path
Prior art date
Application number
PCT/CN2013/086908
Other languages
English (en)
French (fr)
Inventor
朱绍明
Original Assignee
Zhu Shaoming
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhu Shaoming filed Critical Zhu Shaoming
Publication of WO2014075598A1 publication Critical patent/WO2014075598A1/zh

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Definitions

  • the invention belongs to the technical field of mobile robots, and in particular relates to a mobile robot separated visual positioning and navigation method and a positioning navigation system thereof. Background technique
  • the positioning and navigation method of the traditional mobile robot system has the disadvantages of low flexibility, low efficiency, inaccurate positioning navigation or high cost.
  • Outdoors can be used with low-resolution GPS initial positioning assistance, and the cost is high.
  • the running route is marked with a special color.
  • the camera or sensor located on the robot navigates by recognizing the color. This method is similar to the low-pressure guiding method. When the path is changed, the color code needs to be re-marked, which is inefficient.
  • the sensor automatically detects the boundary method. The sensor automatically detects the boundary and obstacles, runs straight in the middle of the field, and randomly moves at an angle to continue running when the boundary is encountered. There is no overall concept, it may work repeatedly, the accuracy is not high, and the efficiency is low. Summary of the invention
  • the present invention is directed to the above technical problem, and provides a mobile robot separate view.
  • Sense positioning navigation method and its positioning navigation system are provided.
  • a mobile robot separate visual positioning and navigation method comprising:
  • Identifying a target work site in the site image including identifying a target work site boundary and an obstacle
  • the step of identifying the target worksite in the scene image further comprises scaling the target worksite to generate a mapping between the pixel points and the actual points.
  • the preset working mode includes a patrol mode and an traversal mode.
  • the step of generating a corresponding working path on the identified target work site includes:
  • the step of generating a corresponding working path on the identified target work site includes:
  • the zigzag working path is converted into a corresponding set of pixel point coordinates.
  • the instructing the robot working step according to the working path comprises:
  • the deviation value of the mobile robot from the current working path is calculated in real time, and if the deviation value is greater than the preset maximum deviation value, the mobile robot is instructed to return to the current working path.
  • a mobile robot separate visual positioning navigation system includes a camera, a control device for acquiring a corresponding scene image in real time, and a mobile robot that is instructed by the control device to operate, the camera is disposed above the target work site, and the control device is connected to the camera and the mobile robot signal;
  • the control device includes:
  • a target work site identification unit configured to identify a target work site in the site image, including identifying a target work site boundary and an obstacle
  • a path generating unit configured to generate a corresponding working path on the identified target work site according to the preset working mode
  • control unit configured to instruct the mobile robot to work according to the working path.
  • control device further includes a scaling unit for scaling the target work site to generate a mapping between the pixel points and the actual points.
  • the path generating unit includes:
  • the patrol path generation module is configured to determine the working point and the working path according to the preset, and convert the working point and the working path into corresponding pixel point coordinate sets, and then set corresponding work action instructions according to the preset at the working point.
  • the traversing path generating module is configured to traverse the scanned scene image, generate a zigzag working path, and convert the zigzag working path into a corresponding pixel point coordinate set.
  • control unit comprises:
  • the judging module is configured to calculate the deviation value of the mobile robot from the current working path in real time, and if the deviation value is greater than the preset maximum deviation value, instruct the mobile robot to return to the current working path.
  • the invention has high efficiency, accurate positioning and navigation, convenient line changing, and low cost, and can effectively implement both path patrol and traversal scanning.
  • FIG. 1 is a flow chart of a mobile robot separate visual positioning and navigation method according to the present invention Figure.
  • FIG. 2 is a flow chart of a process for generating a working path when the working mode is a patrol mode
  • FIG. 3 is a flow chart of a process for generating a working path when the working mode is a traversal mode
  • FIG. 4 is an embodiment of the present invention. Flow chart of step 140;
  • FIG. 5 is a schematic diagram of a mobile robot separate visual positioning navigation system according to the present invention.
  • FIG. 6 is a schematic diagram of a working path of a patrol mode according to the present invention.
  • FIG. 7 is a schematic diagram of a working path of an ergodic mode according to the present invention.
  • Fig. 8 is a schematic structural view of a control device of the present invention. detailed description
  • a mobile robot separate visual positioning and navigation method includes: S 110, real-time collecting corresponding scene images on a target work site;
  • the target work site must be scaled, and then the mobile robot can be monitored manually in the work site. Of course, it can also be remotely moved by the remote control. Robot.
  • the preset working modes include a patrol mode and an traversal mode.
  • the working path is generated as follows:
  • S 1 33a according to the preset, set the corresponding work action instruction at the working point.
  • different work points a, b, c need to set actions such as workpiece picking and placement.
  • the working path is generated as follows:
  • one of the longest sides of the scene image is selected, or an edge is manually selected, along which a series of parallel lines are generated, the distance between the parallel lines being the working diameter of the mobile robot.
  • These parallel lines intersect the boundary and the obstacle boundary to divide it into shorter segments.
  • a parallel line see Figure 7, which starts from the leftmost flat line segment.
  • the line segment is scanned, it looks for the nearest parallel line and scans it. This cycle, scanning the workplace.
  • a line is scanned, its adjacent sites have been scanned, and there are still areas that have not been scanned elsewhere. In this case, you need to cross the scanned area and continue scanning without scanning.
  • the dotted line in the figure shows this path. After reaching the new area, scan again as described above. This cycle until the scan of all areas of the work site is completed.
  • the above two path generation modes are converted into pixels, and then positioned and navigated according to the image. Of course, it can also be converted into actual geometric space, and positioning navigation in the geometric space.
  • the traversal mode it is also possible to run directly without generating a path in advance.
  • the mobile robot operates in one direction, and its internal mechanism ensures that it runs straight in one direction. When it detects that it has reached the boundary or obstacle, it will give it an instruction, it will automatically turn, move the specified distance and then run in the opposite direction. This repeated operation, also works in a zigzag route, when the area that can be reached by continuous operation has been scanned, and there is still no scan elsewhere. At this time, the mobile robot judges that the command issued according to the computer image is empty to continue scanning without scanning the area. This also allows scanning of the entire workplace. It will be appreciated that if the robot is operating in this traversal mode, it is also possible to calibrate the work site in step S120.
  • the mobile robot When the power of the mobile robot is insufficient, the mobile robot will automatically return to the charging station to charge, and then return to the original position to continue working after charging. When the robot completes the work of the entire site, it will automatically return to the charging station for standby until the next task.
  • the present invention also relates to a mobile robot separate visual positioning navigation system, comprising a camera 110 for real-time acquisition of an image of a corresponding work site 2, a control device 120, and instructions for issuing according to the control device 120.
  • the mobile robot 1 30 is operated, the camera 110 is disposed above the target work site 2, and the control device 120 is signal-connected to the camera 110 and the mobile robot 130.
  • the robot 1 30 will work in the work site 2, which includes different shapes or different types of obstacles 4 .
  • the camera 5 is fixed above the work site 2 and communicates with the control device 120 via wireless or wired.
  • the camera 110 is based on the size of the work site 2 and the work of the mobile robot 1 30 Choose the precision. For example, if a working position of lQmxlQm is required, the position accuracy of the last mobile robot 130 is 1cm. If only one camera is used to complete the task, the required pixels are:
  • Si-safety factor determined by factors such as image quality and environment, greater than or equal to 2).
  • the field of view of 110 covers the field as evenly as possible, i.e., the same field area occupies the same number of pixels. However, since the camera is not located directly above the lawn and generally has an angle with the site, it is not possible to occupy the same number of pixels in the same site area.
  • the user can observe the captured image to adjust and confirm the optimal position of the camera.
  • the image with the slowest pixel change rate that is, the image with the highest resolution in the area, is used to position the navigation.
  • the lens of the camera 110 can also be automatically telescopic, which can be used for overall monitoring, as well as local tracking of the robot with high-precision positioning and navigation.
  • Control device 120 can be independent of mobile robot 130 or located in a mobile robot
  • control device 120 is independent of the mobile robot 130
  • communication with the mobile robot 130 is typically via a wireless network.
  • control device 120 includes:
  • a target worksite identification unit 121 configured to identify a target work site in the site image, including identifying a target worksite boundary 3 and an obstacle 4;
  • the path generating unit 122 is configured to generate a corresponding working path 5 on the identified target working field according to the preset working mode.
  • the path generating unit 122 includes:
  • the patrol path generating module 122a is configured to determine the working point 6 and the working path 5 according to the preset, and convert the working point 6 and the working path 5 into corresponding pixel point coordinate sets, so as to set corresponding work at the working point 6 according to the preset. Action instruction.
  • the traversing path generating module 122b is configured to traverse the scanning site image, generate a working path 5, and convert the zigzag working path into a corresponding pixel point coordinate set, wherein the working path 5 is a word Shape.
  • the control unit 12 3 is configured to instruct the mobile robot 1 30 to operate according to the working path 5, and the control unit 12 3 includes:
  • the instruction module 12 3a is configured to read the working path 5 one by one, and instruct the mobile robot to run according to the pixel point coordinate set of the working path, and the corresponding working action instruction instructs the mobile robot to perform a corresponding working action at the working point;
  • the judging module 12 3b is configured to calculate the deviation value of the mobile robot from the current working path in real time, and if the deviation value is greater than the preset maximum deviation value, instruct the mobile robot to return to the current working path.
  • the control device 120 also includes a scaling unit 124 for scaling the target work site to generate a mapping between the pixel points and the actual points.
  • the mobile robot 1 30 is composed of a communication system, an operating system, a working system, and a sensing system.
  • Mobile robots 1 30 can be equipped with other sensors, such as sensors for collision, sounding, dumping, and removal.
  • the mobile robot 1 30 surface can be used in special color shapes or special color LED lights for easy identification from the working environment. It is usually equipped with an automatic charging station. When the robot is running low, the robot will automatically return to the charging station for charging.
  • the system can also be configured with an external device such as a remote controller 140 for presetting preset operating point and working mode related parameters, and can send work instructions to the control device 120 for manual operation.
  • an external device such as a remote controller 140 for presetting preset operating point and working mode related parameters, and can send work instructions to the control device 120 for manual operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种移动式机器人分离式视觉定位导航方法,包括:在目标工作场地上方实时采集相应的场地图像;在所述场地图像中识别目标工作场地,包括识别目标工作场地边界以及障碍物;根据预设工作模式,在识别到的目标工作场地上生成相应的工作路径;根据所述的工作路径,指令移动式机器人工作。本发明效率高,定位导航精确,并且成本低,同时,能够高效地实现路径巡逻式和遍历扫描式两种应用。

Description

移动式机器人分离式视觉定位导航方法及其定位导航*** 技术领域
本发明属于移动式机器人技术领域, 尤其涉及一种移动式机器人分离 式视觉定位导航方法及其定位导航***。 背景技术
目前, 一些工作场地的工作可以或已经采用移动式机器人***来自动 完成, 如草坪剪草, 农业用途, 门庭积雪清理, 高尔夫训练场拾球, 室内 清洁, 工厂物料搬运等等。
但是, 传统的移动式机器人***的定位导航方法柔性不高, 效率较低, 定位导航不够精确或成本较高等缺点。 传统的几种移动式机器人***均存 在着上述一些问题: (1 )在场地中布设低压导线, 由机器人上的传感器探 测导电导线进行边界识别以及定位和导向, 但是该方法布线麻烦, 而且工 作复杂时需要繁瑣的布线或者只能使用低效率随机扫描法。 (2)通过激光扫 描三角定位, 用该方法对场地进行数字化, 然后手动遥控机器人绕边界和 障碍物运行对其进行识别。 该方法安装麻烦, 降低了整体效率。 (3) 通过 激光测距扫描, 用激光测距扫描法建立场地地图, 一般用于点对点的运行, 需要专业人士安装。 室外可以用分辨率不高的 GPS初定位辅助, 成本较高。 ( 4 )通过颜色跟踪, 运行路线用特别颜色标出, 位于机器人上的摄像头或 传感器通过识别颜色来导航, 该方法类似于低压导向法, 路径改变时需要 重新布色标, 效率低。 (5 )传感器自动探测边界法。 传感器自动探测边界 和障碍物, 在场地中间直线运行, 遇到边界时随机偏转一个角度继续运行。 没有整体概念, 可能重复工作, 精度不高, 效率较低。 发明内容
基于此, 本发明针对上述技术问题, 提供一种移动式机器人分离式视 觉定位导航方法及其定位导航***。
本发明采用如下技术方案:
一种移动式机器人分离式视觉定位导航方法, 包括:
在目标工作场地上方实时采集相应的场地图像;
在所述场地图像中识别目标工作场地, 包括识别目标工作场地边界以 及障碍物;
根据预设工作模式,在识别到的目标工作场地上生成相应的工作路径; 根据所述的工作路径, 指令移动式机器人工作。
在其中一个实施例中, 所述在所述场地图像中识别目标工作场地步骤 还包括对目标工作场地进行定标, 生成像素点与实际点之间的映射。
在其中一个实施例中,所述预设工作模式包括巡逻模式以及遍历模式。 在其中一个实施例中, 所述预设工作模式为巡逻模式时, 所述在识别 到的目标工作场地上生成相应的工作路径步骤包括:
根据预设确定工作点以及工作路径;
将工作点以及工作路径换算成相应的像素点坐标集合;
根据预设在工作点设置相应的工作动作指令。
在其中一个实施例中, 所述预设工作模式为遍历模式时, 所述在识别 到的目标工作场地上生成相应的工作路径步骤包括:
遍历扫描所述场地图像, 生成之字形工作路径;
将所述之字形工作路径换算成相应的像素点坐标集合。
在其中一个实施例中, 所述根据所述的工作路径, 指令机器人工作步 骤包括:
逐条读入所述工作路径, 并指令移动式机器人根据该条工作路径的像 素点坐标集合运行, 在工作点由相应的工作动作指令指令移动式机器人做 相应的工作动作;
实时计算移动式机器人与当前工作路径的偏差值, 若偏差值大于预设 最大偏差值, 指令移动式机器人返回当前工作路径。
在其中一个实施例中, 还涉及一种移动式机器人分离式视觉定位导航 ***, 包括用于实时采集相应场地图像的摄像头、 控制装置以及用于根据 所述控制装置发出的指令进行工作的移动式机器人, 所述摄像头设于所述 目标工作场地上方, 所述控制装置与所述摄像头以及移动式机器人信号连 接;
所述控制装置包括:
目标工作场地识别单元, 用于在所述场地图像中识别目标工作场地, 包括识别目标工作场地边界以及障碍物;
路径生成单元, 用于根据预设工作模式, 在识别到的目标工作场地上 生成相应的工作路径;
控制单元, 用于根据所述的工作路径, 指令移动式机器人工作。
在其中一个实施例中, 所述控制装置还包括定标单元, 用于对目标工 作场地进行定标, 生成像素点与实际点之间的映射。
在其中一个实施例中, 所述路径生成单元包括:
巡逻路径生成模块, 用于根据预设确定工作点以及工作路径, 将工作 点以及工作路径换算成相应的像素点坐标集合, 才艮据预设在工作点设置相 应的工作动作指令。
遍历路径生成模块, 用于遍历扫描所述场地图像, 生成之字形工作路 径, 将所述之字形工作路径换算成相应的像素点坐标集合。
在其中一个实施例中, 所述控制单元包括:
指令模块, 用于逐条读入所述工作路径, 并指令移动式机器人根据该 条工作路径的像素点坐标集合运行, 在工作点由相应的工作动作指令指令 移动式机器人做相应的工作动作;
判断模块, 用于实时计算移动式机器人与当前工作路径的偏差值, 若 偏差值大于预设最大偏差值, 指令移动式机器人返回当前工作路径。
本发明效率高, 定位导航精确, 改变线路方便, 并且成本低, 同时, 能够高效地实现路径巡逻式和遍历扫描式两种应用。 附图说明
下面结合附图和具体实施方式本发明进行详细说明:
图 1 为本发明的一种移动式机器人分离式视觉定位导航方法的流程 图。
图 2为本发明当工作模式为巡逻模式时,工作路径的生成过程流程图; 图 3为本发明当工作模式为遍历模式时,工作路径的生成过程流程图; 图 4为本发明实施例 S 140步骤的流程图;
图 5为本发明的一种移动式机器人分离式视觉定位导航***的示意 图;
图 6为本发明的巡逻模式工作路径示意图;
图 7为本发明的遍历模式工作路径示意图;
图 8为本发明的控制装置的结构示意图。 具体实施方式
如图 1所示, 一种移动式机器人分离式视觉定位导航方法, 包括: S 110、 在目标工作场地上方实时采集相应的场地图像;
S120、 在场地图像中识别目标工作场地, 包括识别目标工作场地边界 以及障碍物;
具体地, 可以通过自动识别、 人机互动识别或者人工识别方式设定移 动式机器人需要运行场地的范围, 即边界, 障碍物等。 作不同的处理。 如在草坪应用时可以设为池塘, 沙坑, 假山, 树, 栅栏等。 是池塘或沙坑时, 可以用探空传感器或冗余视觉定位 (即留有余量)确保 机器人不掉下去。 而假山, 树, 栅栏可以用碰撞传感器确认, 而不需要冗 余视觉定位。
若场地中存在池塘或沙坑等不可进入的障碍时, 那么必须要对目标工 作场地进行定标, 然后由人工来监视移动式机器人在工作场地中的运行, 当然也可以通过遥控器来遥控移动式机器人。
由于移动式机器人有实体尺寸, 在其运行过程中, 可以建立像素点与 实际点之间的映射。 如在某个位置, 移动式机器人横向占了 40个像素, 在 该方向, 机器人的宽度为 20cm, 则每个像素实际对应的尺寸为 0. 5cm。 机 S 1 30、 根据预设工作模式, 在识别到的目标工作场地上生成相应的工 作路径;
其中, 预设工作模式包括巡逻模式以及遍历模式。
具体地, 如图 2所示, 当工作模式为巡逻模式时, 工作路径的生成过 程如下:
S 1 3 la、根据预设确定工作点以及工作路径;其中工作点通常预先设置, 一般有多个工作点, 工作点确定后, 工作点与工作点之间即为工作路径, 可以通过直线来表示路径, 当然也可以用曲线。
S I 32a、 将工作点以及工作路径换算成相应的像素点坐标集合;
S 1 33a、 根据预设在工作点设置相应的工作动作指令。 如图 6所示, 不 同工作点 a, b, c需要设置如工件拾取及放置等动作。
可以理解的是, 若机器人以此模式运行, 也可以不用在 S 120步骤中对 工作场地进行定标, 确定工作路径时, 避开不可进入的障碍即可。
当工作模式为遍历模式时, 工作路径的生成过程如下:
S 1 31b、 遍历扫描场地图像, 生成之字形工作路径;
具体地, 如图 3所示, 选择场地图像的一条最长边, 或者由人工方式 选定一条边, 沿该边产生一系列平行线, 这些平行线间的距离为移动式机 器人的工作直径。 这些平行线与边界和障碍物边界相交将其分割成更短的 线段。 然后从一条平行线开始, 请参考图 7 , 图 7中是从最左边的平线线 段开始的。 当该线段扫描完后, 然后找寻距离其最近的一条平行线, 并对 其进行扫描。 如此循环, 对工作场地进行扫描。 当某一条线扫描完后, 它 相邻的场地都已经扫描, 而其它地方仍然有没有扫描到的区域, 此时需要 跨过已经扫描过的区域, 来到没有扫描过的地方继续扫描。 穿越已经扫描 过的区域时, 图中的虚线显示了这种路径。 到达新区域后又按上面的方法 进行扫描。 如此循环, 直到完成对工作场地所有区域的扫描。
S 1 32b、 将所述之字形工作路径换算成相应的像素点坐标集合。
以上两种路径生成模式都是通过换算成像素, 然后根据图像进行定位 导航, 当然也可以换算成实际几何空间, 在几何空间进行定位导航。
S 140、 根据所述的工作路径, 指令移动式机器人工作, 如图 4所示, 具体过程如下:
5141、 逐条读入工作路径, 并指令移动式机器人根据该条工作路径的 像素点坐标集合运行, 在工作点由相应的工作动作指令指令移动式机器人 丈相应的工作动作;
5142、 在工作过程中, 继续采集场地图像, 实时计算移动式机器人与 当前工作路径的偏差值, 若偏差值大于预设最大偏差值, 指令移动式机器 人返回当前工作路径。 完成一条路径后, 再读入下一路径并按上面方法完 成。 直到完成所有的指令。
对于遍历模式, 也可以不事先产生路径直接运行。 移动式机器人沿着 一个方向运行, 由其内部机构保证它向一个方向直线运行。 当检测到它已 经到达边界或障碍时会向其发出指令, 它将自动转向, 移动规定的距离后 向原来相反的直线方向运行。 如此反复运行, 同样是以之字形的路线工作, 当连续运行能到达的区域都已经扫描完,而其它地方仍然有没有扫描到时。 此时移动式机器人根据计算机图像判断发出的指令空运行到没有扫描过的 区域继续扫描。 如此也可以完成对整个工作场地的扫描。 可以理解的是, 若机器人以此种遍历模式运行时,同样可以不用在 S 120步骤中对工作场地 进行定标。
当移动式机器人电力不足时, 移动式机器人会自动回到充电站充电, 充好电后回到原来的位置继续工作。 当机器人完成整个场地的工作会自动 回到充电站待机, 直到下一次任务。
如图 5所示, 本发明还涉及一种移动式机器人分离式视觉定位导航系 统, 包括用于实时采集相应工作场地 2图像的摄像头 1 10、 控制装置 120 以及用于根据控制装置 120发出的指令进行工作的移动式机器人 1 30 , 摄 像头 110设于目标工作场地 2上方, 控制装置 120与摄像头 110以及移动 式机器人 1 30信号连接。
机器人 1 30将在工作场地 2中进行工作, 工作场地 2中包括不同形状 或不同类型的障碍物 4。 摄像头 5固定于工作场地 2上方, 通过无线或有 线与控制装置 120通信。
其中, 摄像头 11 0根据工作场地 2的大小以及移动式机器人 1 30的工 作精度来选取。 如一个 lQmxlQm的工作场地, 如果要求最后移动式机器人 130运行的位置精度为 1cm, 那么如果只用一个摄像头完成任务, 需要的像 素为:
( 10m/ (0.01m) *Si ) * ( 10m/ (0.01m) *Si )
(Si-安全系数, 由图像质量, 环境等因素决定, 大于等于 2)。
如果安全系数取 2 , 则需要选取 2000 * 2000像素的镜头。
将选取的摄像头 110架设到工作场地 2的合适位置, 以便这些摄像头
110的视场尽可能均匀覆盖场地, 即相同场地面积占据相同数量的像素。 但是由于摄像头不是位于草坪正上方, 而且一般都会和场地有夹角, 因此 不可能相同场地面积占据相同数量的像素。
用户可以观察所摄取的图像以调整和确认摄像头的最佳位置。
可以理解的是, 如果工作场地障碍物多、 面积大或成细长状等情况, 需要多摄像头监视。 当有些地方多摄像头都可以拍摄到图像时, 用像素变 化率最慢的图像, 即对该区域分辨率最高的图像来定位导航。
摄像头 110的镜头也可以采用自动伸缩式, 既可以整体监控, 又可以 局部跟踪机器人高精度定位导航。
控制装置 120可以独立于移动式机器人 130之外或位于移动式机器人
130之中。 当控制装置 120独立于移动式机器人 130之外时, 一般通过无 线网络与移动式机器人 130进行通信。
如图 8所示, 具体地, 控制装置 120包括:
目标工作场地识别单元 121, 用于在场地图像中识别目标工作场地, 包括识别目标工作场地边界 3以及障碍物 4;
路径生成单元 122, 用于根据预设工作模式, 在识别到的目标工作场 地上生成相应的工作路径 5; 路径生成单元 122包括:
巡逻路径生成模块 122a,用于根据预设确定工作点 6以及工作路径 5, 将工作点 6以及工作路径 5换算成相应的像素点坐标集合, 才艮据预设在工 作点 6设置相应的工作动作指令。
遍历路径生成模块 122b, 用于遍历扫描场地图像, 生成工作路径 5, 将之字形工作路径换算成相应的像素点坐标集合, 其中工作路径 5为之字 形。
控制单元 12 3 , 用于根据所述的工作路径 5 , 指令移动式机器人 1 30工 作, 控制单元 12 3包括:
指令模块 12 3a , 用于逐条读入工作路径 5 , 并指令移动式机器人根据 该条工作路径的像素点坐标集合运行, 在工作点由相应的工作动作指令指 令移动式机器人做相应的工作动作;
判断模块 12 3b ,用于实时计算移动式机器人与当前工作路径的偏差值, 若偏差值大于预设最大偏差值, 指令移动式机器人返回当前工作路径。
控制装置 12 0还包括定标单元 124 ,用于对目标工作场地进行定标,生 成像素点与实际点之间的映射。
移动式机器人 1 30由通信***, 运行***, 工作***以及传感***构 成。
移动式机器人 1 30上可加装其他传感器, 如装有碰撞、 探空、 倾倒、 搬离等传感器。
移动式机器人 1 30表面可用特别的颜色形状或者加装特别颜色 LED灯 以便易于从工作环境中识别, 一般还配有自动充电站。 当机器人电力不足 时, 机器人会自动回到充电站充电。
本***还可配置遥控器 140等外部设备, 用于预设工作点、 工作模式 能相关的参数, 并且可以发送工作指令给控制装置 120 , 便于人工操作。
本技术领域中的普通技术人员应当认识到, 以上的实施例仅是用来说 明本发明, 而并非用作为对本发明的限定, 只要在本发明的实质精神范围 内, 对以上所述实施例的变化、 变型都将落在本发明的权利要求书范围内。 本技术领域中的普通技术人员应当认识到, 以上的实施例仅是用来说明本 发明, 而并非用作为对本发明的限定, 只要在本发明的实质精神范围内, 对以上所述实施例的变化、 变型都将落在本发明的权利要求书范围内。

Claims

权 利 要 求 书
1、 一种移动式机器人分离式视觉定位导航方法, 其特征在于, 包括: 在目标工作场地上方实时采集相应的场地图像;
在所述场地图像中识别目标工作场地, 包括识别目标工作场地边界以 及障碍物;
根据预设工作模式,在识别到的目标工作场地上生成相应的工作路径; 根据所述的工作路径, 指令移动式机器人工作。
2、 根据权利要求 1所述的一种移动式机器人分离式视觉定位导航方 法, 其特征在于, 所述在所述场地图像中识别目标工作场地步骤还包括对 目标工作场地进行定标, 生成像素点与实际点之间的映射。
3、 根据权利要求 2所述的一种移动式机器人分离式视觉定位导航方 法, 其特征在于, 所述预设工作模式包括巡逻模式以及遍历模式。
4、 根据权利要求 3所述的一种移动式机器人分离式视觉定位导航方 法, 其特征在于, 所述预设工作模式为巡逻模式时, 所述在识别到的目标 工作场地上生成相应的工作路径步骤包括:
根据预设确定工作点以及工作路径;
将工作点以及工作路径换算成相应的像素点坐标集合;
根据预设在工作点设置相应的工作动作指令。
5、 根据权利要求 3所述的一种移动式机器人分离式视觉定位导航方 法, 其特征在于, 所述预设工作模式为遍历模式时, 所述在识别到的目标 工作场地上生成相应的工作路径步骤包括:
遍历扫描所述场地图像, 生成之字形工作路径;
将所述之字形工作路径换算成相应的像素点坐标集合。
6、根据权利要求 4或 5所述的一种移动式机器人分离式视觉定位导航 方法, 其特征在于, 所述根据所述的工作路径, 指令机器人工作步骤包括: 逐条读入所述工作路径, 并指令移动式机器人根据该条工作路径的像 素点坐标集合运行, 在工作点由相应的工作动作指令指令移动式机器人做 相应的工作动作;
实时计算移动式机器人与当前工作路径的偏差值, 若偏差值大于预设 最大偏差值, 指令移动式机器人返回当前工作路径。
7、 一种移动式机器人分离式视觉定位导航***, 其特征在于, 包括用 于实时采集相应场地图像的摄像头、 控制装置以及用于根据所述控制装置 发出的指令进行工作的移动式机器人, 所述摄像头设于所述目标工作场地 上方, 所述控制装置与所述摄像头以及移动式机器人信号连接;
所述控制装置包括:
目标工作场地识别单元, 用于在所述场地图像中识别目标工作场地, 包括识别目标工作场地边界以及障碍物;
路径生成单元, 用于根据预设工作模式, 在识别到的目标工作场地上 生成相应的工作路径;
控制单元, 用于根据所述的工作路径, 指令移动式机器人工作。
8、 根据权利要求 7所述的一种移动式机器人分离式视觉定位导航系 统, 其特征在于, 所述控制装置还包括定标单元, 用于对目标工作场地进 行定标, 生成像素点与实际点之间的映射。
9、根据权利要求 7或 8所述的一种移动式机器人分离式视觉定位导航 ***, 其特征在于, 所述路径生成单元包括:
巡逻路径生成模块, 用于根据预设确定工作点以及工作路径, 将工作 点以及工作路径换算成相应的像素点坐标集合, 才艮据预设在工作点设置相 应的工作动作指令。
遍历路径生成模块, 用于遍历扫描所述场地图像, 生成之字形工作路 径, 将所述之字形工作路径换算成相应的像素点坐标集合。
10、 根据权利要求 9所述的一种移动式机器人分离式视觉定位导航系 统, 其特征在于, 所述控制单元包括:
指令模块, 用于逐条读入所述工作路径, 并指令移动式机器人根据该 条工作路径的像素点坐标集合运行, 在工作点由相应的工作动作指令指令 移动式机器人做相应的工作动作;
判断模块, 用于实时计算移动式机器人与当前工作路径的偏差值, 若 偏差值大于预设最大偏差值, 指令移动式机器人返回当前工作路径。
PCT/CN2013/086908 2012-11-13 2013-11-12 移动式机器人分离式视觉定位导航方法及其定位导航*** WO2014075598A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210454469.3A CN102929280B (zh) 2012-11-13 2012-11-13 移动式机器人分离式视觉定位导航方法及其定位导航***
CN201210454469.3 2012-11-13

Publications (1)

Publication Number Publication Date
WO2014075598A1 true WO2014075598A1 (zh) 2014-05-22

Family

ID=47644108

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2013/086908 WO2014075598A1 (zh) 2012-11-13 2013-11-12 移动式机器人分离式视觉定位导航方法及其定位导航***

Country Status (2)

Country Link
CN (1) CN102929280B (zh)
WO (1) WO2014075598A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105974917A (zh) * 2016-05-11 2016-09-28 江苏大学 一种基于新型人工势场法的车辆避障路径规划研究方法
CN112257889A (zh) * 2019-07-21 2021-01-22 长沙智能驾驶研究院有限公司 智慧工地中工地移动对象的路径规划方法、装置

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102929280B (zh) * 2012-11-13 2015-07-01 朱绍明 移动式机器人分离式视觉定位导航方法及其定位导航***
DE102013212605A1 (de) * 2013-06-28 2014-12-31 Robert Bosch Gmbh Verfahren zu einer Arbeitsbereichserfassung zumindest eines Arbeitsbereichs eines autonomen Serviceroboters
CN105302132A (zh) * 2015-08-07 2016-02-03 浙江海洋学院 一种基于行走机器人的分布式视觉定位***及方法
PL3167342T3 (pl) * 2015-09-22 2018-11-30 Bluebotics Sa Sposób wirtualnego śledzenia linii i modernizacji dla automatycznych pojazdów
CN105653497B (zh) * 2015-12-30 2019-08-23 深圳智尊保投资控股有限公司 基于图像识别和隐形喷码的自学习方法
CN105867379B (zh) * 2016-04-13 2018-09-04 上海物景智能科技有限公司 一种机器人的运动控制方法及控制***
CN109270936A (zh) * 2016-04-15 2019-01-25 苏州宝时得电动工具有限公司 自动工作***及其控制方法
CN106155053A (zh) * 2016-06-24 2016-11-23 桑斌修 一种割草方法、装置以及***
EP4029372A1 (en) * 2016-12-15 2022-07-20 Positec Power Tools (Suzhou) Co., Ltd. Self-moving device return method, self-moving device, storage medium, and server
CN107063257B (zh) * 2017-02-05 2020-08-04 安凯 一种分离式扫地机器人及其路径规划方法
CN107272690B (zh) * 2017-07-07 2023-08-22 中国计量大学 基于双目立体视觉的惯性导引车导航方法及惯性导引车
CN107390686A (zh) * 2017-07-17 2017-11-24 深圳拓邦股份有限公司 一种割草机器人控制方法及自动控制割草***
CN107368074A (zh) * 2017-07-27 2017-11-21 南京理工大学 一种基于视频监控的机器人自主导航方法
CN107918641B (zh) * 2017-10-20 2020-11-17 深圳市艾特智能科技有限公司 机器人控制方法、装置及存储介质
CN109960247B (zh) * 2017-12-14 2023-08-29 深圳富联富桂精密工业有限公司 中央控制器、移动导航***及方法
CN108115727A (zh) * 2017-12-19 2018-06-05 北斗七星(重庆)物联网技术有限公司 一种安防机器人巡防的方法、装置及***
CN108490932B (zh) * 2018-03-09 2021-01-26 东南大学 一种割草机器人的控制方法及自动控制割草***
CN110801180B (zh) * 2018-08-03 2022-02-22 速感科技(北京)有限公司 清洁机器人的运行方法及装置
CN112567101B (zh) * 2018-08-06 2023-08-01 克拉克设备公司 增广式装载机控制
CN110032195A (zh) * 2019-05-06 2019-07-19 广东工业大学 一种车辆自动驾驶***
CN110450157A (zh) * 2019-08-07 2019-11-15 安徽延达智能科技有限公司 一种机器人自动避障***
CN112558596A (zh) * 2019-09-06 2021-03-26 苏州科瓴精密机械科技有限公司 自动工作***、自动行走设备及其控制方法及计算机可读存储介质
CN112540600A (zh) * 2019-09-19 2021-03-23 苏州宝时得电动工具有限公司 自移动设备工作区域的边界修正方法及自移动设备
WO2021139414A1 (zh) * 2020-01-06 2021-07-15 苏州宝时得电动工具有限公司 自移动设备
CN114569004B (zh) * 2022-02-22 2023-12-01 杭州萤石软件有限公司 行进方向调整方法、移动机器人***及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4840925A (en) * 1985-06-04 1989-06-20 Universite Paul Sabatier (Toulouse Iii) Compositions of transition metal manganites in the form of particles or ceramics, their preparation and their use in the production of thermistors
CN101278820A (zh) * 2007-04-06 2008-10-08 三星电子株式会社 沿墙机器人吸尘器和控制该沿墙机器人吸尘器的方法
CN101458083A (zh) * 2007-12-14 2009-06-17 财团法人工业技术研究院 结构光视觉导航***与方法
CN102566251A (zh) * 2012-01-06 2012-07-11 浙江大学 基于模块化拼接的空间三维显示装置及校正方法
CN102929280A (zh) * 2012-11-13 2013-02-13 朱绍明 移动式机器人分离式视觉定位导航方法及其定位导航***

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0221643B1 (en) * 1985-08-30 1992-01-22 Texas Instruments Incorporated Vision navigation system for free-roaming mobile robots
IT1271241B (it) * 1994-10-04 1997-05-27 Consorzio Telerobot Sistema di navigazione per robot mobile autonomo
WO2008111692A1 (en) * 2007-03-13 2008-09-18 Research Institute Of Industrial Science & Technology Landmark for position determination of mobile robot and apparatus and method using it
CN101976079B (zh) * 2010-08-27 2013-06-19 中国农业大学 智能导航控制***及方法
CN102591332B (zh) * 2011-01-13 2014-08-13 同济大学 用于无人驾驶汽车局部路径规划的装置及方法
CN102662400A (zh) * 2012-05-10 2012-09-12 慈溪思达电子科技有限公司 割草机器人的路径规划算法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4840925A (en) * 1985-06-04 1989-06-20 Universite Paul Sabatier (Toulouse Iii) Compositions of transition metal manganites in the form of particles or ceramics, their preparation and their use in the production of thermistors
CN101278820A (zh) * 2007-04-06 2008-10-08 三星电子株式会社 沿墙机器人吸尘器和控制该沿墙机器人吸尘器的方法
CN101458083A (zh) * 2007-12-14 2009-06-17 财团法人工业技术研究院 结构光视觉导航***与方法
CN102566251A (zh) * 2012-01-06 2012-07-11 浙江大学 基于模块化拼接的空间三维显示装置及校正方法
CN102929280A (zh) * 2012-11-13 2013-02-13 朱绍明 移动式机器人分离式视觉定位导航方法及其定位导航***

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105974917A (zh) * 2016-05-11 2016-09-28 江苏大学 一种基于新型人工势场法的车辆避障路径规划研究方法
CN105974917B (zh) * 2016-05-11 2018-12-14 江苏大学 一种基于新型人工势场法的车辆避障路径规划研究方法
CN112257889A (zh) * 2019-07-21 2021-01-22 长沙智能驾驶研究院有限公司 智慧工地中工地移动对象的路径规划方法、装置

Also Published As

Publication number Publication date
CN102929280B (zh) 2015-07-01
CN102929280A (zh) 2013-02-13

Similar Documents

Publication Publication Date Title
WO2014075598A1 (zh) 移动式机器人分离式视觉定位导航方法及其定位导航***
WO2021026831A1 (zh) 移动机器人及其控制方法和控制***
CN111427360B (zh) 基于地标定位的地图构建方法、机器人及机器人导航***
CN109725233B (zh) 一种变电站智能巡检***及其巡检方法
KR100483548B1 (ko) 로봇 청소기와 그 시스템 및 제어 방법
US7184586B2 (en) Location mark detecting method for robot cleaner and robot cleaner using the method
CN102339019B (zh) 一种基于模糊神经网络的智能轮椅避障方法
CN109571403B (zh) 一种磁轨迹线导航智能巡检机器人及其导航方法
CN104384762B (zh) 一种焊机移动控制***以及控制方法
CN207164586U (zh) 一种扫地机器人导航***
CN109571404B (zh) 一种越障机构、越障智能巡检机器人及其变电站越障方法
CN103324194A (zh) 基于二维码导航带的移动机器人定位***
CN109571402B (zh) 一种爬坡机构、爬坡智能巡检机器人及其变电站爬坡方法
CN106227212A (zh) 基于栅格地图和动态校准的精度可控室内导航***及方法
CN101860732A (zh) 一种控制云台摄像机自动跟踪目标的方法
GB2376537A (en) A robot cleaner and a method for controlling a robot cleaner system
CN112455563B (zh) 一种具有爬杆机构的智能巡检机器人
CN111199677B (zh) 一种室外区域的工作地图自动建立方法,装置,存储介质及工作设备
WO2019232804A1 (zh) 软件更新方法、***、移动机器人及服务器
CN104898707B (zh) 一种曲线轨道移动监控云台***
WO2014173290A1 (zh) 自动行走设备及其工作区域判断方法
WO2018228254A1 (zh) 一种移动电子设备以及该移动电子设备中的方法
JP2022165563A (ja) 自律走行型巡視ロボット
WO2021208015A1 (zh) 构建地图及定位方法、客户端、移动机器人及存储介质
JP2006350601A (ja) 移動監視ロボット

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13854861

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13854861

Country of ref document: EP

Kind code of ref document: A1