CN111813103B - 移动机器人的控制方法、控制***及存储介质 - Google Patents
移动机器人的控制方法、控制***及存储介质 Download PDFInfo
- Publication number
- CN111813103B CN111813103B CN202010514690.8A CN202010514690A CN111813103B CN 111813103 B CN111813103 B CN 111813103B CN 202010514690 A CN202010514690 A CN 202010514690A CN 111813103 B CN111813103 B CN 111813103B
- Authority
- CN
- China
- Prior art keywords
- edge
- mobile robot
- drag
- image
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 238000003860 storage Methods 0.000 title claims abstract description 68
- 238000012545 processing Methods 0.000 claims description 113
- 238000004140 cleaning Methods 0.000 claims description 34
- 238000010408 sweeping Methods 0.000 claims description 32
- 230000008859 change Effects 0.000 claims description 24
- 230000003287 optical effect Effects 0.000 claims description 16
- 238000001514 detection method Methods 0.000 abstract description 13
- 238000005096 rolling process Methods 0.000 description 23
- 238000003708 edge detection Methods 0.000 description 21
- 230000007246 mechanism Effects 0.000 description 18
- 230000006399 behavior Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 11
- 238000011217 control strategy Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 239000000463 material Substances 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 230000001788 irregular Effects 0.000 description 6
- 239000000428 dust Substances 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000009193 crawling Effects 0.000 description 4
- 230000036961 partial effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000003796 beauty Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 238000005507 spraying Methods 0.000 description 2
- 239000002023 wood Substances 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000004568 cement Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
- 238000009736 wetting Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0259—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本申请公开一种移动机器人的控制方法、控制***及存储介质,所述控制方法包括:获取来自所述图像摄取装置的图像;从所述图像中识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘,以及至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置;当根据所述相对空间位置确定所述移动机器人移动至所述疑似禁拖区域的边缘附近时,通过检测所述移动机器人中的一驱动信号,确定所述疑似禁拖区域是禁拖区域;根据所确定的禁拖区域,调整所述移动机器人在拖地模式中的至少一种行为操作。本申请可通过图像对禁止拖地的区域进行有效地检测,并可根据检测结果对移动机器人的行为和/或移动进行相应的控制。
Description
技术领域
本申请涉及移动机器人技术领域,具体的涉及一种移动机器人的控制方法、控制***及存储介质。
背景技术
移动机器人是自动执行特定工作的机器装置,它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动。这类移动机器人可用在室内或室外,可用于工业、商业、或者家庭,可具有巡视、迎宾、点餐、清洁地面,家庭陪伴、辅助办公等功能。
对于具有拖地功能的移动机器人(例如清洁机器人)通常会遵循特定的拖地路线进行拖地操作以清洁地面,而目前,人们通常会在室内环境的地面上铺设地毯等用于保暖或美观的物体,对于地毯而言,由于其材质的特殊性,地毯不适合采用拖地的方式进行清洁。
发明内容
鉴于以上所述相关技术的缺点,本申请的目的在于提供一种移动机器人的控制方法、控制***及存储介质,用以克服上述相关技术中存在移动机器人不能针对地毯进行准确、有效地检测的技术问题。
为实现上述目的及其他相关目的,本申请公开的第一方面提供一种移动机器人的控制方法,所述移动机器人包含图像摄取装置,所述控制方法包括:获取来自所述图像摄取装置的图像;从所述图像中识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘,以及至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置;当根据所述相对空间位置确定所述移动机器人移动至所述疑似禁拖区域的边缘附近时,通过检测所述移动机器人中的一驱动信号,确定所述疑似禁拖区域是禁拖区域;根据所确定的禁拖区域,调整所述移动机器人在拖地模式中的至少一种行为操作。
在本申请的第一方面的某些实施方式中,所述图像为颜色图像和/或深度图像。
在本申请的第一方面的某些实施方式中,所述图像为颜色图像,所述至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置的步骤包括:根据所述疑似禁拖区域的边缘在所述颜色图像中的像素位置和预设的物理参考信息,确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
在本申请的第一方面的某些实施方式中,所述物理参考信息包括:所述图像摄取装置相距行进平面的物理高度、所述图像摄取装置的物理参数、和所述图像摄取装置的主光轴相对于水平或垂直面的夹角。
在本申请的第一方面的某些实施方式中,所述图像为深度图像,所述至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置的步骤包括:根据所述疑似禁拖区域的边缘在深度图像中的深度数据,确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
在本申请的第一方面的某些实施方式中,所述通过检测移动机器人中的一驱动信号,确定所述疑似禁拖区域是禁拖区域的步骤包括:当一参考值和检测的所述驱动信号的检测值之间满足预设条件时,确定所述疑似禁拖区域是禁拖区域。
在本申请的第一方面的某些实施方式中,所述驱动信号采集自所述移动机器人执行扫地操作的工作组件和/或执行移动操作的工作组件。
在本申请的第一方面的某些实施方式中,所述参考值为预设值或在所述移动机器人移动至所述疑似禁拖区域的边缘之前确定的。
在本申请的第一方面的某些实施方式中,所述根据所确定的禁拖区域,调整所述移动机器人在拖地模式中的至少一种行为操作的步骤包括以下至少一种:控制所述移动机器人改变移动方向以继续执行拖地操作和/或扫地操作;控制所述移动机器人关闭拖地模式中的拖地操作以进入所述禁拖区域。
在本申请的第一方面的某些实施方式中,所述从图像中识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘的步骤包括:利用预设的基于移动机器人所在行进平面而设置的高度条件,从所述图像中识别出疑似禁拖区域的边缘。
在本申请的第一方面的某些实施方式中,将描述所述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行匹配处理,以确定所述疑似禁拖区域的边缘是禁拖区域的边缘;其中,描述所述疑似禁拖区域的边缘的信息是根据所获取的图像和/或所述相对空间位置确定的;根据所确定的禁拖区域的边缘和所述相对空间位置,调整所述移动机器人在拖地模式中的至少一种行为操作或移动操作。
在本申请的第一方面的某些实施方式中,所获取的图像是通过控制所述图像摄取装置转动而获取的。
本申请公开的第二方面提供一种移动机器人的控制方法,所述移动机器人包含图像摄取装置,所述控制方法包括:获取来自所述图像摄取装置的图像;从所获取的图像中识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘;以及至少利用所获取的图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置;将描述所述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行匹配处理,以确定所述疑似禁拖区域的边缘是禁拖区域的边缘;其中,描述所述疑似禁拖区域的边缘的信息是根据所获取的图像和/或所述相对空间位置确定的;根据所确定的禁拖区域的边缘和所述相对空间位置,调整所述移动机器人在拖地模式中的至少一种行为操作或移动操作。
在本申请的第二方面的某些实施方式中,所述图像为颜色图像和/或深度图像。
在本申请的第二方面的某些实施方式中,所述描述疑似禁拖区域的边缘的信息包括根据所获取的图像而确定的图像特征,所述将描述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行匹配处理的步骤包括:将描述所述疑似禁拖区域的边缘的图像特征与预先存储的描述禁拖区域的边缘的图像特征进行匹配处理。
在本申请的第二方面的某些实施方式中,所述描述疑似禁拖区域的边缘的信息包括根据所述图像和相对空间位置而确定的地图数据,所述将描述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行拼接处理的步骤包括:将描述所述疑似禁拖区域的边缘的地图数据与预先存储的描述禁拖区域的边缘的地图数据进行匹配处理。
在本申请的第二方面的某些实施方式中,所述图像为颜色图像,所述至少利用所获取的图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置的步骤包括:根据所述疑似禁拖区域的边缘在所述颜色图像中的像素位置和预设的物理参考信息,确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
在本申请的第二方面的某些实施方式中,所述图像为深度图像,所述至少利用所获取的图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置的步骤包括:根据所述疑似禁拖区域的边缘在深度图像中的像素值,确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
在本申请的第二方面的某些实施方式中,所述根据所确定的禁拖区域的边缘和相对空间位置,调整所述移动机器人在拖地模式中的至少一种行为操作或移动操作的步骤包括以下至少一种:当根据所述相对空间位置确定所述移动机器人移动至所述禁拖区域的边缘附近时,控制所述移动机器人改变移动方向以继续执行拖地操作和/或扫地操作;当根据所述相对空间位置确定所述移动机器人移动至所述禁拖区域的边缘附近时,控制所述移动机器人关闭拖地模式中的拖地操作以进入所述禁拖区域。
在本申请的第二方面的某些实施方式中,所获取的图像是通过控制所述图像摄取装置转动而获取的。
本申请公开的第三方面提供一种移动机器人,包括:图像摄取装置,用于摄取图像;移动装置,用于受控执行移动操作;清洁装置,包括拖地组件;其中,所述拖地组件用于受控执行拖地操作;存储装置,用于存储至少一种程序;处理装置,与所述移动装置、清洁装置、存储装置、和图像摄取装置相连,用于调用并执行所述至少一个程序,以协调所述移动装置、清洁装置、存储装置、和图像摄取装置执行并实现如本申请第一方面中任一所述的控制方法。
本申请的第三方面的某些实施方式中,所述清洁装置还包括清扫组件,所述清扫组件用于受控执行扫地操作。
本申请公开的第四方面提供一种移动机器人,包括:图像摄取装置,用于摄取图像;移动装置,用于受控执行移动操作;清洁装置,包括拖地组件;其中,所述拖地组件用于受控执行拖地工作;存储装置,用于存储至少一种程序以及存储描述禁拖区域的边缘的信息;处理装置,与所述移动装置、清洁装置、存储装置、和图像摄取装置相连,用于调用并执行所述至少一个程序,以协调所述移动装置、清洁装置、存储装置、和图像摄取装置执行并实现如本申请第二方面中任一所述的控制方法。
在本申请第二方面的某些实施方式中,所述清洁装置还包括清扫组件,所述清扫组件用于受控执行扫地操作。
本申请公开的第五方面提供一种移动机器人的控制***,所述移动机器人装配有图像摄取装置,所述控制***包括:接口装置,用于接收自所述图像摄取装置所摄取的图像以及输出控制移动机器人的控制指令;存储装置,用于存储至少一种程序;处理装置,与所述接口装置和存储装置相连,用于调用并执行所述至少一个程序,以协调所述接口装置、存储装置和图像摄取装置执行并实现如本申请第一方面中任一所述的控制方法。
本申请公开的第六方面提供一种移动机器人的控制***,所述移动机器人装配有图像摄取装置,所述控制***包括:接口装置,用于接收自所述图像摄取装置所摄取的图像以及输出控制移动机器人的控制指令;存储装置,用于存储至少一种程序以及存储描述禁拖区域的边缘的信息;处理装置,与所述接口装置和存储装置相连,用于调用并执行所述至少一个程序,以协调所述接口装置、存储装置和图像摄取装置执行并实现如本申请第二方面中任一所述的控制方法。
本申请公开的第七方面提供一种计算机可读存储介质,存储至少一种程序,所述至少一种程序在被调用时执行并实现如本申请第一方面中任一所述的控制方法或如本申请第二方面中任一所述的控制方法。
综上所述,本申请公开的移动机器人的控制方法、控制***及存储介质,通过获取来自所述图像摄取装置的图像,至少根据图像对禁拖区域的准确识别能有效地解决现有技术中移动机器人不能对放置在地面上的地毯进行有效识别的问题;以及基于所述禁拖区域所在的位置和对禁拖区域的准确识别,能有效地调整所述移动机器人在拖地模式中的至少一种行为操作,以避免移动机器人在所述禁拖区域中执行拖地操作。
本领域技术人员能够从下文的详细描述中容易地洞察到本申请的其它方面和优势。下文的详细描述中仅显示和描述了本申请的示例性实施方式。如本领域技术人员将认识到的,本申请的内容使得本领域技术人员能够对所公开的具体实施方式进行改动而不脱离本申请所涉及发明的精神和范围。相应地,本申请的附图和说明书中的描述仅仅是示例性的,而非为限制性的。
附图说明
本申请所涉及的发明的具体特征如所附权利要求书所显示。通过参考下文中详细描述的示例性实施方式和附图能够更好地理解本申请所涉及发明的特点和优势。对附图简要说明书如下:
图1显示为本申请移动机器人的控制***在一实施方式中的硬件结构框图。
图2显示为本申请移动机器人的控制方法在一实施方式中的流程示意图。
图3显示为本申请中实现ToF采集部件转动的结构示意图。
图4显示为本申请实施例中驱动器和可活动件为一体的电机的结构示意图。
图5显示为本申请实施例中ToF采集部件设置在载件中的俯视结构示意图。
图6显示为本申请中根据位于行进平面上的物体的边缘确定物体的上表面上任意一条线的示意图。
图7显示为本申请基于成像原理确定疑似禁拖区域的边缘与移动机器人之间的相对空间位置的原理示意图。
图8显示为本申请移动机器人的控制方法在另一实施方式中的流程示意图。
图9显示为本申请的移动机器人在一实施方式中的结构示意图。
具体实施方式
以下由特定的具体实施例说明本申请的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本申请的其他优点及功效。
在下述描述中,参考附图,附图描述了本申请的若干实施例。应当理解,还可使用其他实施例,并且可以在不背离本公开的精神和范围的情况下进行模块或单元组成、电气以及操作上的改变。下面的详细描述不应该被认为是限制性的,并且本申请的实施例的范围仅由公布的专利的权利要求所限定。这里使用的术语仅是为了描述特定实施例,而并非旨在限制本申请。
如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在所述的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
具有清洁功能的移动机器人(例如清洁机器人)可在用户的人为控制下(例如操作人员手持遥控器)、或按照一定的设定规则自行在房间内完成地面清洁。目前,人们通常会在地面上铺设用于美观或者保暖的地毯、爬行垫等高度较低的物体,再者人们通常也会将锻炼身体的瑜伽垫等高度较低的物体铺设在地面上,为了不打湿地毯等铺设在地面上的物体,人们通常希望移动机器人在拖地模式下不要在地毯等铺设在地面上的物体上执行拖地操作,所以,在物理空间内的地面上铺设的地毯、爬行垫、或瑜伽垫等具有禁拖属性的三维物体构成了禁拖区域。
换言之,所述禁拖区域为地面上铺设的地毯、爬行垫、或瑜伽垫等具有禁拖属性的三维物体的体积而形成的空间区域。根据放置在地面上三维物体的不同,所述禁拖区域的立体形状也不同,所述禁拖区域的立体形状包括:长方体、圆柱体、不规则形状等。放置在地面上具有禁拖属性的三维物体的侧面与地面的交线、或放置在地面上具有禁拖属性的三维物体的侧面与上表面的交线为所述禁拖区域的边缘,其中,根据所述禁拖区域的形状不同,所述禁拖区域的边缘的曲线形状可包括:直线、弧线、不规则曲线等,其中,所述三维物体的侧面是与地面成垂直或与地面成一定角度的表面;根据所述禁拖区域形状的不同,所述上表面的平面形状包括:圆形、长方形、不规则图形等。
在一些示例中,移动机器人通过检测移动机器人滚刷中的电流来识别禁拖区域,或者利用红外传感器检测地面的反射率来识别禁拖区域,但是,移动机器人的滚刷通常位于其底部中心位置,导致通过检测移动机器人滚刷中的电流的方式来识别禁拖区域时,在拖地模式下当移动机器人的滚刷接触到禁拖区域时,移动机器人的拖地组件往往也已经接触到了禁拖区域从而打湿了禁拖区域。
所以,为了解决上述禁拖区域检测方法中存在的缺陷,实现对禁拖区域进行准确有效的检测,并可根据识别出的禁拖区域的边缘与移动机器人之间的相对空间位置来控制移动机器人在拖地模式中的导航移动、行为等,本申请提供一种移动机器人的控制方法,所述控制方法可以用于移动机器人在拖地模式中至少根据图像摄取装置所拍摄的图像准确地确定所述移动机器人所在物理空间内的禁拖区域的边缘,使得所述移动机器人在拖地模式下不会在禁拖区域上执行拖地操作,也不会打湿禁拖区域。
在此,所述移动机器人配置至少一个图像摄取装置。其中,所述图像摄取装置为用于按照预设像素分辨率提供颜色图像和/或深度图像的装置。其中,每一深度图像利用各像素的深度数据表示所拍摄视场范围内的物体图像,其中,每一深度图像中各像素的深度数据包含:各像素在深度图像中的像素位置以及各像素的像素值。所述深度图像可直接反映所拍摄的物理场景中各物体可见表面的几何形状。所述深度图像经过坐标转换可以转换为三维点云数据。每一颜色图像利用各像素的颜色数据表示所拍摄视场范围内的物体图像,所述颜色数据包含各像素在颜色图像中的像素位置以及各像素的像素值,其中,每一颜色图像中各像素的像素值包含:单一颜色像素值或彩色像素值;例如灰度像素值、R像素值、G像素值、B像素值或RGB像素值等。颜色图像举例为Bayer图像、RGB图像、或灰度图像等。
在此,所述图像摄取装置包括但不限于:包括CCD的图像摄取装置、包括CMOS的图像摄取装置、包括深度测量单元的图像摄取装置、集成有深度测量单元和红外传感器的图像摄取装置(如ToF采集部件)等。
其中,所述深度测量单元可以捕捉用于构成二维面的各像素点的深度信息,所述深度测量单元包括基于面阵列的深度测量单元、基于点阵的深度测量单元,其包括但不限于:激光雷达深度测量单元、基于双目立体视觉的深度测量单元、基于飞行时间的深度测量单元、基于结构光技术的深度测量单元等。例如,所述深度测量单元包含发光器和光接收阵列,其中,发光器投射特定的光信号到物体表面再反射至光接收阵列。光接收阵列根据物体造成的光信号的变化来计算物体的深度信息。
所述移动机器人藉由配置在其中的控制***来执行所述控制方法。其中,请参阅图1,图1显示为本申请移动机器人的控制***在一实施方式中的硬件结构框图。所述控制***10包括存储装置11、接口装置12、和处理装置13。
所述接口装置12用于接收自所述图像摄取装置20所摄取的图像。根据实际移动机器人所配置的图像摄取装置,所述接口装置12与至少一个图像摄取装置20相连,用于从相应图像摄取装置20读取其摄取的包含其视野范围内的物体的图像。所述接口装置12还用于输出控制移动机器人的控制指令,例如,所述接口装置与驱动边刷、滚刷、拖地组件、或者行走机构的驱动电机相连,来输出所述控制指令,以控制边刷、滚刷、或者行走机构的转动。所述控制指令是处理装置13基于识别结果并结合存储装置11中的控制策略生成的。其中,所述控制策略为利用程序描述的控制逻辑以供处理装置执行。例如,当至少根据所获取的图像确定所述疑似的禁拖区域的边缘是禁拖区域的边缘时,所述处理装置结合行为控制策略生成了停止拖地操作的控制指令,通过接口装置12向驱动拖地组件的驱动电机输出该控制指令。所述接口装置12包括但不限于:如HDMI接口或USB接口的串行接口,或并行接口等。
所述存储装置11用于存储至少一种程序,所述至少一种程序可供所述处理装置13执行所述移动机器人的控制方法。所述存储装置11还存储有与禁拖区域相对应的控制策略,其中所述控制策略用于基于移动机器人对禁拖区域的识别情况生成控制移动机器人的控制指令以通过所述接口装置12输出。在实际应用中,所述控制策略可包括移动控制策略、行为控制策略等。所述移动控制策用于依据实时定位的移动机器人相对于确认的禁拖区域边缘之间的相对空间位置控制移动机器人的移动方式。所述行为控制策略用于依据禁拖区域控制移动机器人的拖地行为方式。
在此,存储装置11包括但不限于:只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、非易失性存储器(Nonvolatile RAM,简称NVRAM)。例如,存储装置11包括闪存设备或其他非易失性固态存储设备。在某些实施例中,存储装置11还可以包括远离一个或多个处理装置13的存储器,例如经由RF电路或外部端口以及通信网络访问的网络附加存储器,其中所述通信网络可以是因特网、一个或多个内部网、局域网、广域网、存储局域网等,或其适当组合。存储器控制器可控制设备的诸如CPU和外设接口之类的其他组件对存储器的访问。
处理装置13与所述接口装置12和存储装置11相连。所述处理装置13包括一个或多个处理器。处理装置13可操作地与存储装置11执行数据读写操作。处理装置13执行诸如获取图像、暂存图像特征、进行图像特征匹配等。所述处理装置13包括一个或多个通用微处理器、一个或多个专用处理器(ASIC)、一个或多个数字信号处理器(Digital SignalProcessor,简称DSP)、一个或多个现场可编程逻辑阵列(Field Programmable GateArray,简称FPGA)、或它们的任何组合。处理装置13还与I/O端口和输入结构可操作地耦接,该I/O端口可使得移动机器人能够与各种其他电子设备进行交互,该输入结构可使得用户能够与移动机器人进行交互。例如,输入预设高度值等配置操作。因此,输入结构可包括按钮、键盘、鼠标、触控板等。所述其他电子设备包括但不限于:所述移动机器人中移动装置中的电机,或移动机器人中专用于控制移动装置和清洁装置的从处理器,如微控制单元(Microcontroller Unit,简称MCU)。
请参阅图2,图2显示为本申请移动机器人的控制方法在一实施方式中的流程示意图。其中,所述控制方法可以由图2所示的移动机器人的控制***来执行。其中,处理装置协调存储装置、接口装置等硬件执行以下步骤。
在步骤S110中,获取来自所述图像摄取装置的图像。在此,所述处理装置实时或者根据预设时间间隔来获取所述移动机器人的图像摄取装置在拖地模式下所摄取的图像。
为了使所述处理装置能够根据图像摄取装置20所拍摄的图像识别移动机器人所在物理空间内的禁拖区域的边缘,所述图像中应包含有移动机器人所在物理空间内的行进平面。
基于此,所述图像摄取装置的装配倾斜角可以为0°到90°的任一角度,其中所述角度是指所述移动机器人行进方向的水平线与所述图像摄取装置的光轴或光学轴的夹角。但并不以此为限,所述角度也可以是指所述图像摄取装置的光轴或光学轴与所述移动机器人行进方向的水平线的夹角。
在一实施例中,所述图像摄取装置装配在所述移动机器人行进方向的前端面的位置,所述图像摄取装置光轴与行进平面平行,则所述夹角为0°。
在另一实施例中,所述图像摄取装置装配在所述移动机器人上表面(即垂直于其行进方向的表面)位置,所述图像摄取装置光轴与行进平面垂直,则所述夹角为90°,所述图像摄取装置例如为顶视摄像装置。
在再一实施例中,所述图像摄取装置装配在所述移动机器人上表面(即垂直于其行进方向的表面)位置,但图像摄取装置被倾斜放置在一个凹陷结构内,所述图像摄取装置光轴与行进平面所呈夹角为10°到80°的范围,更优的实施例中,所述图像摄取装置光轴与行进平面所呈夹角为30°到60°的范围。
在又一实施例中,所获取的图像是所述图像摄取装置(例如ToF采集部件)在转动过程中摄取的,通过转动所述图像摄取装置,图像摄取装置可以摄取更宽视场范围的图像。例如,所获取的图像是所述图像摄取装置在转动过程中所拍摄的某一幅图像。又如,所获取的图像是所述图像摄取装置在转动过程中所拍摄的至少两幅图像拼接而成的,通过拼接所获取的图像中包含移动机器人所在物理空间的更多的障碍物,能使所述处理装置更容易识别出疑似禁拖区域的边缘。其中,所述障碍物可以是任何能够被移动机器人的图像摄取装置所拍摄到的物体,如桌子、沙发、床等,或者利用边缘检测方法从图像中检测出的至少部分边缘的物体;确定所述障碍物与所述移动机器人之间的相对空间位置的方式与所述步骤S120中确定相对空间位置的方式相同或相似,将在步骤S120中详述。
在一具体实施例中,当所述处理装置确定所述移动机器人所在物理空间内存在障碍物时,还根据所述障碍物与所述移动机器人之间的相对空间位置,控制所述移动机器人转动以获取包含障碍物的全面图像,以供执行步骤S120。确定移动机器人所在物理空间内存在障碍物的方式包括但不限于:传感器探测的方式、或者图像识别的方式。
例如,当所述移动机器人在以预设路线(弓字形路线)执行拖地操作时,所述图像摄取装置保持不动,但当从图像摄取装置中识别出图像中包含不完整的障碍物的图像区域时,所述处理装置根据所述图像中不完整的障碍物图像区域在图像中的位置将所述图像摄取装置转向所述障碍物所在的方向以获取包含障碍物的全面图像;或者,处理装置根据所确定的该不完整的障碍物与移动机器人之间的相对空间位置将所述图像摄取装置转向所述障碍物所在的方向以获取包含障碍物的全面图像。
又如,当配置在移动机器人上的激光雷达等探测传感器在图像摄取装置当前视角之外探测到一障碍物时,所述处理装置根据所探测的方位角度,控制所述图像摄取装置转向所述障碍物以获取包含障碍物的全面图像。所述处理装置通过包含物体的边缘的全面图像可以更准确地识别步骤S120中所述的疑似禁拖区域的边缘。需要说明的是,所述全面图像并不限制于将识别出的障碍物全部包含在内,而是在预设的转动极限下尽量获取所识别出的障碍物的全面信息。
需要说明的是,所述图像摄取装置在转动前可以是保持不动的状态也可以是持续转动的状态,由此获取更宽视场范围的至少一幅图像,以便提前确定疑似禁拖区域、或禁拖区域的边界位置。
请参阅图3,图3显示为本申请中实现ToF采集部件转动的结构示意图,所述处理装置13与驱动部件连接并控制所述驱动部件202来驱动所述ToF采集部件201转动以获取所述图像。请一并参考图4,所述驱动部件202包括:可活动件2021及驱动器2022。
具体的,所述可活动件2021连接并能活动至带动所述ToF采集部件201。所述ToF采集部件201与可活动件2021之间可以是定位连接或通过传动结构连接。其中,所述定位连接包括:卡合连接、铆接、粘接、及焊接中的任意一种或多种。在定位连接的示例中,例如图4所示,可活动件2021例如为可以横向转动的驱动杆,而所述ToF采集部件201具有与该驱动杆形状配合地套合的凹孔(未图示),只要驱动杆和凹孔的截面非圆形,则ToF采集部件201就可以随驱动杆进行横向转动;在一些传动结构的示例中,所述可活动件例如为丝杆,丝杆上的连接座该随丝杆转动而平移,所述连接座供与所述ToF采集部件201固定,以使得所述ToF采集部件201能随之运动。在一些传动结构的示例中,所述ToF采集部件201与可活动件之间也可以通过齿部、齿轮、齿条、齿链等中的一种或多种连接,以实现可活动件对于ToF采集部件201的带动。
示例性地,所述驱动器2022同可活动件2021可以是一体的。举例来说,如图4所示,所述驱动部件202本身可以是电机,则所述可活动件2021可以是该电机对外部的输出轴,该输出轴横向转动,以带动与其套合的ToF采集部件201横向转动。
请参阅图5,图5显示为本申请实施例中ToF采集部件设置在载件中的俯视结构示意图。将ToF采集部件201通过载件102安装在所述移动机器人的主体上时,所述处理装置控制与其连接的所述驱动部件202来驱动所述ToF采集部件201转动,以获取步骤S110中所需要的图像。
所述移动机器人的处理装置在获得包含有行进平面的图像后可执行步骤S120。
在步骤S120中,从所述图像中识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘,以及至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
在实际生活中,用户在物理空间内的行进平面上铺设的地毯、爬行垫、或瑜伽垫等具有禁拖属性的三维物体构成了禁拖区域。例如,由于地毯的材质用户不希望放置在行进平面上的地毯被打湿,所以行进平面上铺设的地毯就构成了禁拖区域。又如,用户锻炼身体的瑜伽垫,用户也不希望其被打湿从而可以正常在瑜伽垫上进行锻炼,所以,行进平面上铺设的瑜伽垫也构成了禁拖区域。基于上述理解,放置在行进平面上具有禁拖属性的三维物体构成了禁拖区域。换言之,所述禁拖区域为一种由具有禁拖属性的三维物体的体积而形成的空间区域。根据放置在行进平面上三维物体的不同,所述禁拖区域的立体形状也不同,所述禁拖区域的立体形状包括:长方体、圆柱体、不规则形状等。放置在行进平面上具有禁拖属性的三维物体的侧面与行进平面的交线、或放置在行进平面上具有禁拖属性的三维物体的侧面与上表面的交线为所述禁拖区域的边缘,其中,根据所述禁拖区域的形状不同,所述禁拖区域的边缘的曲线形状可包括:直线、弧线、不规则曲线等,其中,所述三维物体的侧面是与行进平面成垂直或与行进平面成一定角度的表面;根据所述禁拖区域形状的不同,所述上表面的平面形状包括:圆形、长方形、不规则图形等。
其中,所述行进平面包括但不限于以下几类:水泥地面、涂漆的地面、铺设复合地板的地面、铺设实木地板的地面等。
所述疑似禁拖区域的边缘是所述处理装置通过识别图像中符合禁拖区域属性的图像特征而确定的处于物理空间内的一空间区域的边缘。该疑似禁拖区域的边缘举例包括:真实的禁拖区域的边缘(例如地毯与室内地面所形成的边缘)、假的禁拖区域的边缘(例如地板缝隙、台阶边缘、门槛边缘等)。根据所获取的图像可识别出所述移动机器人所在物理空间内的疑似禁拖区域的边缘,所述疑似禁拖区域的边缘与真实的禁拖区域的边缘在图像中具有相似的性质。例如,二者在图像中像素值的变化是相似的。
具体地,所述处理装置在对所获取的图像进行边缘检测的过程中,其根据图像中深度的突变、颜色的突变、灰度的突变、或纹理的突变等可识别出物体的边缘,进一步,所述处理装置根据连续且规则的图像特征所对应的物体边缘来确定疑似禁拖区域的边缘;其中,所述连续且规则的图像特征是由深度数据或颜色数据表征的,其包括但不限于:连续长直的图像特征、连续圆弧的图像特征、或者连续规则曲线的图像特征,需要说明的是,通过图像对所获取的图像进行边缘检测的方式与图像的种类相关。
以所述图像为灰度图像为例,处理装置对灰度图像进行边缘检测以确定灰度图像中灰度值发生突变的区域,进而确定物理空间内的物体的边缘。所述图像为RGB图像,可以将RGB图像转换为灰度图像后再进行边缘检测,也可以将RGB图像分解为R颜色图像、G颜色图像、B颜色图像,分别对每个颜色分量的颜色图像进行边缘检测,然后再将每个颜色图像的检测结果进行综合处理来确定物理空间内的物体的边缘;其中,所述颜色图像的边缘检测的方法包括但不限于:基于微分算子的边缘检测方法、基于自适应平滑滤波的边缘检测方法、松弛迭代边缘检测方法、基于神经网络的边缘检测方法、基于小波的边缘检测方法、基于灰色关联度的边缘检测方法等。
以所述图像为深度图像为例,可以直接对深度图像进行边缘检测以确定深度图像中像素值发生突变的区域,进而确定所述物理空间内的物体的边缘;所述深度图像的边缘检测的方法包括但不限于:扫描线迭代边缘检测方法、双方向曲率边缘检测方法、基于微分算子的边缘检测方法。
基于以上理解,通过对所获取的图像进行边缘检测,可以识别出物理空间内的物体的边缘。在一实施例中,可以将经边缘检测出的图像特征为连续且规则的物体的边缘直接作为所述疑似禁拖区域的边缘并控制所述移动机器人移动至疑似禁拖区域的边缘。
在另一实施例中,也可以利用预设的基于移动机器人所在行进平面而设置的高度条件,从所述图像中识别出疑似禁拖区域的边缘。具体地,根据上述实施例中所确定的图像特征为连续且规则的物体的边缘来确定与所述边缘距离预设相对位置的曲线,进而确定该曲线距离行进平面的高度,当所述高度满足预设的高度条件时,确定所述物体的边缘是疑似禁拖区域的边缘并控制所述移动机器人移动至疑似禁拖区域的边缘。所述预设的高度条件用于找到具有一定高度的物体,进而可以过滤掉地板缝隙等边缘。所述预设的高度条件与所述禁拖区域的高度有关,由于所述禁拖区域可由放置在地面上的地毯、瑜伽垫等三维物体构成,所以,所述预设的高度条件的取值范围可为0.5cm~2.5cm,但并不以此为限。所述预设的高度条件也可以在实际应用中进行设置,例如,用户根据其地面上铺设的地毯的高度来设置所述预设的高度条件。所述预设相对位置用于找到与所述图像特征为连续且规则的物体的边缘相对应的物体上表面中的任意一条曲线,例如,地板上表面中的任意一条曲线、地毯上表面中的任意一条曲线、或者台阶上表面中的任意一条曲线。所述预设相对位置包括:预设距离、预设方位角度。所述预设方位角度表示的是,在实际物理空间内所述边缘和所述曲线上一一对应的两点之间的方位角度,所述预设距离表示的是,在实际物理空间内所述边缘和所述曲线上一一对应的两点之间的距离。
在一具体实施例中,所述处理装置利用深度图像确定所述疑似禁拖区域的边缘。所述处理装置将所述深度图像的深度数据转换成三维点云数据并根据所述三维点云数据拟合出一拟合行进平面,根据拟合行进平面可确定位于行进平面上的物体的边缘,根据位于行进平面上的物体的边缘可确定与所述边缘距离预设相对位置的曲线,所述处理装置根据该曲线的三维点云数据可确定该曲线距离行进平面的高度,进而将满足预设的高度条件的曲线所对应的物体的边缘作为所述疑似禁拖区域的边缘,其中,可以根据该曲线上的至少一点距离行进平面的高度得到该曲线距离行进平面的高度。
例如,请参阅图6,所述处理装置根据所确定的位于行进平面上的边缘a在图像中的像素位置,确定与该边缘a距离预设深度值(预设距离)的曲线b在所述图像中的像素位置,根据所述曲线b上至少一点所对应的三维点云数据可确定该曲线距离行进平面的距离。
在一示例中,所述处理装置可以基于所述图像摄取装置的主光轴相对于水平或垂直面的夹角来确定表示行进平面的图像区域,根据表示行进平面的图像区域的部分三维点云数据可拟合出拟合行进平面。例如,移动机器人的图像摄取装置的主光轴相对于垂直面(与行进平面相垂直的平面)的夹角为θ,所述移动机器人以该角度俯视地面拍摄图像,所述存储装置中预先存储有该角度所对应的预计图像区域(例如一幅图像中下半部分图像区域、或下半部分图像区域的十分之一等)。所述处理装置可根据所述预计图像区域所对应的三维点云数据直接拟合出拟合行进平面。其中,对三维点云数据进行拟合的方法包括:最小二乘法、特征值法以及随机一致性算法(Random Sample Consensus,RANSAC)等。基于该拟合行进平面,可计算三维点云数据中剩余点云数据至拟合行进平面的距离,以确定所述曲线距离行进平面的高度。所述处理装置可以按照上述方式确定所述曲线上任意一点距离行进平面的高度,并将该点距离行进平面的高度作为该曲线距离行进平面的高度;所述处理装置还可按照上述方式遍历曲线上的多个三维点云数据,以确定多个位置点分别距离行进平面的高度,进而处理装置可以按照上述方式确定该曲线距离行进平面的最大高度、均值高度等,并以最大高度或均值高度作为该曲线距离行进平面的高度。
在另一示例中,所述处理装置可以通过对所述深度图像的所有点云数据进行聚类得到具有表示行进平面的部分三维点云数据,对表示行进平面的部分三维点云数据进行拟合可得到拟合行进平面,对三维点云数据进行拟合的方法与前文所述的相同或相似,在此不再详述。例如,假设本申请确定的拟合行进平面的方程为Ax+By+Cz+D=0,其中,A、B、C、和D为常数,并且A、B、和C不同时为零,(x,y,z)为三维空间坐标。基于该拟合行进平面,可计算三维点云数据中剩余点云数据至拟合行进平面的距离,以确定所述曲线距离行进平面的高度。所述处理装置可以按照上述方式确定所述曲线上任意一点距离行进平面的高度,并将该点距离行进平面的高度作为该曲线距离行进平面的高度;所述处理装置还可按照上述方式遍历曲线上的多个三维点云数据,以确定该曲线的多个位置点分别距离行进平面的高度,进而处理装置可以按照上述方式确定该曲线距离行进平面的最大高度、均值高度等,并以最大高度或均值高度作为所述物体上表面距离行进平面的高度。
在另一具体实施例中,所述处理装置利用颜色图像和深度图像确定所述疑似禁拖区域的边缘,其中,所述颜色图像的像素位置和深度图像的像素位置具有一一对应的关系。所述处理装置根据步骤S120中确定相对空间位置的实施方式,可得到所述图像特征连续且规则的物体的边缘距离所述移动机器人的相对空间位置,根据预设相对位置确定与所述边缘距离预设相对位置的曲线与所述移动机器人之间的相对空间位置,所述处理装置可根据所述曲线距离所述移动机器人的相对空间位置确定该曲线在颜色图像中的像素位置,进而所述处理装置可以基于所述一一对应关系,确定该曲线在深度图像中的像素位置,进而根据该曲线所对应的三维点云数据确定该曲线距离行进平面的高度。
当根据前述实施方式所确定的高度在所述预设高度条件的范围内时,所述处理装置将与所述曲线相对应的所述移动机器人所在物理空间内的物体的边缘作为疑似禁拖区域的边缘。
根据上述任一实施方式所确定的疑似禁拖区域的边缘,所述处理装置可至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
在一实施例中,所述图像为颜色图像,根据前述实施例中所确定的所述疑似禁拖区域的边缘在所述颜色图像中的像素位置和预设的物理参考信息,确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
其中,所述物理参考信息包括:所述图像摄取装置相距行进平面的物理高度、所述图像摄取装置的物理参数、和所述图像摄取装置的主光轴相对于水平或垂直面的夹角。在此,技术人员预先测量图像摄取装置的成像中心与行进平面的距离,并将该距离作为所述物理高度或物理高度的初始值保存在存储装置中。所述物理高度也可以预先通过对移动机器人设计参数进行计算而得到的。依据移动机器人的设计参数还可以得到图像摄取装置的主光轴相对于水平或垂直面的夹角,或夹角的初始值。对于图像摄取装置可调节的移动机器人来说,所保存的夹角可在夹角初始值的基础上增/减被调节的偏转角后而确定的,所保存的物理高度是在物理高度初始值的基础上增/减被调节的高度后而确定的。所述图像摄取装置的物理参数包含镜头组的视角和/或焦距等。
在此,处理装置从所获取的图像中确定了图像中拍摄到的移动机器人所在物理空间内的疑似禁拖区域的边缘后,基于所述物理参考信息和成像原理计算,确定所述物理空间内疑似禁拖区域的边缘与移动机器人的相对空间位置,所述相对空间位置包括:疑似禁拖区域的边缘与移动机器人之间的距离和方位角度。需要说明的是,所述疑似禁拖区域的边缘可能高于行进平面(例如放置在行进平面上的地毯侧面与上表面的交线),但在通过单一颜色图像确定所述相对空间位置时,均将所述疑似禁拖区域的边缘视为在行进平面内。
请参阅图7,图7显示为本申请基于成像原理确定疑似禁拖区域边缘与移动机器人之间的相对空间位置的原理示意图,如图所示,图中包括三个坐标系:图像坐标系UO1V、世界坐标系XO3Y、以O2为圆点的相机坐标系,假设物理空间内所述疑似禁拖区域的边缘包含点P,已知图像摄取装置相距行进平面的物体高度为H、图像坐标中心对应的世界坐标点M与世界坐标系原点O3的距离O3M、镜头中心点的图像坐标O1、测量像素点的图像坐标P1、实际像素的长度和宽度、图像摄取装置的焦距,则通过推导计算可以得到O3P的长度,由此,根据所述O3P的长度可得到所述移动机器人所在位置与边缘的P点之间的物理距离。
为了确定该边缘的P点与所述移动机器人所在位置之间的方位角度,处理装置根据预先存储在所述存储装置中的图像各像素点与实际物理方位角度之间的对应关系,计算得到移动机器人与边缘的P点之间的方位角度。其中,每个像素点对应一个方位角,所述方位角可以是基于像素数量、图像摄取装置的焦距以及视角等参数计算得到的。
基于上述方式,处理装置基于预设的物理参考信息和疑似禁拖区域的边缘在图像中的像素位置,确定所述疑似禁拖区域的边缘上至少一点与移动机器人之间的相对空间位置,其中,所述处理装置可以按照上述方式确定所述疑似禁拖区域的边缘上任意一点与移动机器人之间的相对空间位置;所述处理装置还可按照上述方式遍历疑似禁拖区域的边缘在图像中的每个像素点或特征点,以确定疑似禁拖区域的边缘上的多个位置点分别与移动机器人之间的相对空间位置,进而处理装置可以按照上述方式确定疑似禁拖区域的边缘与移动机器人的最近空间位置、平均空间位置等。例如,处理装置通过所述疑似禁拖区域的边缘的多个点在图像中的图像位置,确定疑似禁拖区域的边缘与移动机器人距离最近的空间位置,由此便于及时调整移动机器人的操作和/或移动行为。
在另一实施例中,所述图像为深度图像,所述处理装置可根据所述疑似禁拖区域的边缘在深度图像中的像素值,确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
例如,基于所述疑似禁拖区域的边缘在深度图像中的像素值以及对应各像素在深度图像中的像素位置可得到所述疑似禁拖区域的边缘与移动机器人之间的物理距离和方位角度,进而可确定所述相对空间位置。
又如,可以将基于深度图像得到的移动机器人与所述疑似禁拖区域的边缘之间的方位角度和物理距离与移动机器人中其他测量传感器所获得的测量数据相结合,并按照各自权重得到所述相对空间位置。其中,所述其他测量传感器包括角度传感器和距离传感器,如集成有角度和测距的激光传感器等。
由于根据图像确定的疑似禁拖区域的边缘可能是假的禁拖区域的边缘,例如,地板缝隙同地面上的地毯的边缘在图像中均具有边缘属性,所以,在获得所述移动机器人与所述疑似禁拖区域的边缘之间的相对空间位置后,所述处理装置执行步骤S130,以确定所述疑似禁拖区域是禁拖区域。
在步骤S130中,当根据所述相对空间位置确定所述移动机器人移动至所述疑似禁拖区域的边缘附近时,通过检测所述移动机器人中的一驱动信号,确定所述疑似禁拖区域是禁拖区域。
当所述移动机器人确定所述相对空间位置后,所述处理装置根据所述相对空间位置控制所述移动机器人移动至所述疑似禁拖区域的边缘附近,在所述疑似禁拖区域的边缘附近来检测移动机器人中的一驱动信号。所述驱动信号为用于反映移动机器人中的电机运行的情况,其可由电压信号或电流信号表示。
由于禁拖区域的表面材质比行进平面的表面材质粗糙,会对执行扫地操作的工作组件和/或执行移动操作的工作组件产生影响。以所述移动机器人为清洁机器人为例,当所述移动机器人在地毯上执行拖地操作时,地毯的上表面会阻碍行走机构的移动、阻碍边刷或滚刷的转动,为了驱动所述边刷、滚刷、行走机构正常工作,相应电机为维持输出功率将提高驱动信号的幅值。基于上述理解,所述驱动信号采集自所述移动机器人执行扫地操作的工作组件和/或执行移动操作的工作组件,所述处理装置基于所采集的驱动信号的变化确定所述疑似禁拖区域是禁拖区域。
所述执行扫地操作的工作组件包括位于移动机器人壳体底部的边刷、滚刷以及与用于控制所述边刷的边刷电机和用于控制所述滚刷的滚刷电机,所述清扫组件并不以此为限。在一实施例中,所述处理装置根据所述相对空间位置移动至疑似禁拖区域的边缘时,所述移动机器人在所述疑似禁拖区域的边缘检测所述边刷电机或滚刷电机中的驱动信号,根据检测的驱动信号值来确定所述疑似禁拖区域是否是禁拖区域。在另一实施例中,所述处理装置根据其边刷长度和所述相对空间位置,确定所述边刷可以触碰到所述疑似禁拖区域的边缘的位置,当移动机器人到达该位置时开始检测边刷电机中的驱动信号。在其他实施方式中,为了避免由于相对空间位置的计算误差导致移动机器人进入所述疑似禁拖区域执行拖地操作,可以在所述移动机器人的运动过程中一直检测执行扫地操作的驱动信号。需要说明的是,在行进平面上执行拖地操作时可以只执行拖地操作在移动至禁拖区域的边缘附近时再执行扫地操作,也可以在行进平面上同时执行拖地操作和扫地操作。
所述执行移动操作的工作组件包括行走机构和驱动电机,所述处理装置在所述疑似禁拖区域的边缘检测驱动行走机构的驱动电机中的驱动信号。
所述处理装置获取所述驱动信号的检测值后,当一参考值和检测的所述驱动信号的检测值之间满足预设条件时,确定所述疑似禁拖区域是禁拖区域。
其中,所述参考值可以是电压信号的参考值也可以是电流信号的参考值。所述参考值为预设值或在所述移动机器人移动至所述疑似禁拖区域的边缘之前确定的。例如,技术人员根据行进平面的种类预设了不同的预设值(例如木质地板平面和玻璃材质平面对应了不同的预设值),在用户进行初始配置时根据移动机器人行进平面的材质确定不同的参考值。又如,所述参考值包括:经处理后的移动机器人在行进平面上移动时所检测的检测值,所述处理可以包括统计处理,所述统计处理包括:将多个检测值的均值作为参考值、将多个检测值的中值作为参考值、将多个检测值中数量最多的检测值作为参考值等。再如,在所述移动机器人移动至所述疑似禁拖区域的边缘之前的驱动信号检测值作为所述参考值。进一步,为了避免移动机器人在到达所述禁拖区域的边缘附件时才开始检测所述参考值,也为了避免移动机器人对疑似禁拖区域的误判,所述移动机器人可在移动至所述疑似禁拖区域的边缘的前半段路程中的任一位置检测所述参考值。
所述预设条件是根据所述禁拖区域的材质和所述行进平面的材质所预设的。例如,所述预设条件为所述差异值不小于预设阈值。
基于上述理解,当所述参考值和检测的所述驱动信号的检测值之间的差异值满足所述预设条件时,确定所述疑似禁拖区域的边缘是禁拖区域的边缘,即所述疑似禁拖区域是禁拖区域。例如,所述差异值的绝对值在所述预设阈值以上,可以确定所述疑似禁拖区域的边缘是禁拖区域的边缘。
为了避免拖地组件在所述处理装置检测所述驱动信号时接触到所述疑似禁拖区域,当所述处理装置确定所述移动机器人在接近所述疑似禁拖区域的边缘时,降低所述移动机器人的移动速度,以避免冲撞到疑似禁拖区域上。
在某些实施例中,在确定禁拖区域的边缘后,还将描述所述禁拖区域的边缘的信息存储至存储装置中。所述描述禁拖区域的边缘的信息包括但不限于:根据所获取的图像而确定的禁拖区域边缘的图像特征、根据所获取的图像和相对空间位置而确定的地图数据。所述地图数据包括但不限于:所述图像中所拍摄到的禁拖区域的至少部分边缘在地图中的位置、该至少部分边缘的端点等地标点在地图中的位置、该至少部分边缘的地标点所形成的边缘线在地图中的曲率等。
在确定所述疑似的禁拖区域是禁拖区域后,所述处理装置执行步骤S140。
在步骤S140中,根据所确定的禁拖区域,调整所述移动机器人在拖地模式中的至少一种行为操作。
在确定所述疑似禁拖区域是禁拖区域后,调整所述移动机器人在拖地模式中的至少一种行为操作,以避免所述移动机器人在所述禁拖区域中执行拖地操作。
在一实施例中,所述处理装置控制所述移动机器人改变移动方向以继续执行拖地操作和/或扫地操作。例如,所述处理装置基于识别出的禁拖区域的边缘重新规划移动路线,以执行拖地操作、扫地操作、或其组合,从而保证所述移动机器人不会进入禁拖区域。
在另一实施例中,当所述移动机器人在所述禁拖区域边缘附近时,控制所述移动机器人关闭拖地模式中的拖地操作以进入所述禁拖区域。例如,控制移动机器人不改变已规划的导航路线,并在经过所述禁拖区域期间,改变所述移动机器人的拖地组件的位置以避免对所述禁拖区域执行拖地操作。其中,改变所述移动机器人的拖地组件的位置包括:将所述拖地组件抬起预设高度。
在某些实施方式中,所述移动机器人还包括报警装置,所述报警装置与所述处理装置相连,用于在处理装置确定所述疑似禁拖区域是禁拖区域时发出报警信息。利用所述报警装置,可即时发出发现禁拖区域的信息,以供用户知晓未执行拖地操作的区域。
基于上述理解,所述移动机器人在执行拖地操作的过程中,获取来自所述图像摄取装置的图像,至少根据所述图像对禁拖区域的准确识别能有效地解决现有技术中移动机器人不能对地毯等进行有效识别的问题,以及基于所述图像确定的禁拖区域所在的位置和对禁拖区域的准确识别,能有效地调整所述移动机器人在拖地模式中的至少一种行为操作,以避免移动机器人在所述禁拖区域执行拖地操作。
在实际应用中,所述存储装置还用于存储描述禁拖区域的边缘的信息。其中。所述描述禁拖区域的边缘的信息包括:禁拖区域的边缘所对应的图像、禁拖区域的边缘的图像特征、禁拖区域的边缘所对应的地图数据。所述地图数据包括但不限于:所述禁拖区域的边缘在地图中的位置、所述禁拖区域的边缘的端点在地图中的位置、所述禁拖区域的边缘上的各点在地图中的曲率等。
例如,当所述移动机器人采取工字型路线执行拖地操作时,所述处理装置在拖地模式下根据所获取的图像识别出疑似禁拖区域的边缘,所述处理装置根据在所述疑似禁拖区域的边缘附件检测的驱动信号确定所述疑似禁拖区域的边缘是禁拖区域的边缘后,还将描述所述禁拖区域的边缘的图像特征、或者述所述禁拖区域的边缘的地图数据等信息存储到所述存储装置中。在后续的移动过程中,如果在所获取的图像中识别出了疑似禁拖区域的边缘后,只需要将描述所述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行匹配处理,就可以不用通过控制移动机器人移动到所述疑似禁拖区域的边缘检测所述驱动信号来确定所述疑似禁拖区域是禁拖区域。
又如,用户在配置所述移动机器人时,控制所述移动机器人的图像摄取装置摄取包含有所述禁拖区域的边缘的图像,比如,在禁拖区域识别模式的初始配置时,用户控制移动机器人在行进到地毯的正前方时拍摄图像,所述移动机器人将所述图像摄取装置所摄取的图像作为禁拖区域边缘所对应的图像。
再如,所述移动机器人在受控摄取包含有所述禁拖区域的边缘的图像时,还根据所述图像和所述物理参考信息确定所述移动机器人与所述禁拖区域边缘的相对空间位置,进而确定描述所述禁拖区域的边缘的地图数据。
请参阅图8,图8显示为本申请移动机器人的控制方法在另一实施方式中的流程示意图,如图所示,所述控制方法包括步骤S210、步骤S220、步骤S230、步骤S240。所述控制方法应用在存储有描述禁拖区域的边缘的信息的控制***10中。
在步骤S210中,获取来自所述图像摄取装置的图像。所述步骤S210与步骤S110相同或相似,在此不再详述。
在步骤S220中,从所述图像中识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘,以及至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。所述步骤S220与步骤S120相同或相似,在此不再详述。
在步骤S230中,将描述所述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行匹配处理,以确定所述疑似禁拖区域的边缘是禁拖区域的边缘;其中,描述所述疑似禁拖区域的边缘的信息是根据所获取的图像和/或所述相对空间位置确定的。
具体地,所述处理装置识别出所述疑似禁拖区域的边缘以及计算出所述边缘与移动机器人之间的相对空间位置后,基于描述所述疑似禁拖区域的边缘的信息来确定所述疑似禁拖区域的边缘是禁拖区域的边缘,进而基于所述相对空间位置和所确定的禁拖区域的边缘来控制所述移动机器人,由此减少了移动机器人利用驱动信号对每一疑似禁拖区域的边缘进行确认的次数。
在一实施例中,所述描述疑似禁拖区域的边缘的信息包括根据所获取的图像而确定的图像特征,所述处理装置将描述所述疑似禁拖区域的边缘的图像特征与预先存储的描述禁拖区域的边缘的图像特征进行匹配处理,当两部分图像特征相匹配时,确定所述疑似禁拖区域的边缘是禁拖区域的边缘。其中,所述图像特征是由深度数据或颜色数据表征的,与物体形状或轮廓相匹配的特征线、特征点及其组合;所述疑似禁拖区域的边缘以及禁拖区域的边缘在图像中的图像特征为连续且规则的,例如连续长直的图像特征、连续圆弧的图像特征、或者连续规则曲线的图像特征等。
例如,将根据前述实施方式所确定的禁拖区域的边缘的图像特征存储至所述存储装置后,将当前获取的疑似禁拖区域的边缘的图像特征与预先存储的图像特征进行特征匹配,当确定两部分图像特征有相互匹配的图像特征时,可以确定所述疑似禁拖区域的边缘是禁拖区域的边缘。其中,两部分图像特征有相互匹配的图像特征时表示实际物理空间中所述疑似禁拖区域的边缘与预先确定的禁拖区域的边缘具有重叠部分。
在另一实施例中,所述描述疑似禁拖区域的边缘的信息包括根据所述图像和相对空间位置而确定的地图数据,所述处理装置将描述所述疑似禁拖区域的边缘的地图数据与预先存储的描述禁拖区域的边缘的地图数据进行匹配处理,以确定所述疑似禁拖区域的边缘是禁拖区域的边缘。其中,所述地图数据包括:所述禁拖区域的边缘在地图中的位置、所述禁拖区域的边缘在地图中的曲率等。所述禁拖区域的边缘上的多个点在地图中的分布位置构成一曲线,所述曲率包括该曲线上每个点的曲率。
例如,当所述疑似禁拖区域的边缘的端点在地图中的位置与存储的禁拖区域的边缘的端点在地图中的位置相距预设距离时,移动机器人按照所述禁拖区域的曲率延伸所述禁拖区域的边缘在所述地图中的地图数据,以将其延伸的地图数据与所述疑似禁拖区域的边缘在所述地图中的地图数据相交,则所述疑似禁拖区域的边缘与存储的禁拖区域的边缘在地图中共同描述了同一禁拖区域。其中,所述预设距离可为0cm~5cm,但并不以此为限,所述预设距离也可以在实际应用中进行不同的设置。比如用户根据其室内环境的物体摆放情况来设置所述预设距离。
又如,当所述疑似禁拖区域的边缘的端点在地图中的位置与存储的禁拖区域的边缘的端点在地图中的位置相距预设距离时,并且,所述疑似禁拖区域的边缘的端点与所述禁拖区域的边缘的端点具有相同或相似的曲率时,可以认定所述疑似禁拖区域的边缘是所述禁拖区域的边缘的延续。
再如,当所述疑似禁拖区域的边缘的端点在地图中的位置与存储的禁拖区域的边缘在地图中的位置至少部分重叠时,可认定所述疑似禁拖区域的边缘与所述禁拖区域的边缘存在重叠部分。
还如,所述处理装置还可以统计所述疑似禁拖区域的边缘上多个点的曲率,当统计的曲率中与预先存储的禁拖区域的边缘上多个点的曲率相同或相似的个数满足阈值时,可认定所述疑似禁拖区域的边缘与所述禁拖区域的边缘存在重叠部分。
所述处理装置根据前述步骤确定了物理空间内的禁拖区域的边缘后,可执行步骤S240。
在步骤S240中,根据所确定的禁拖区域的边缘和所述相对空间位置,调整所述移动机器人在拖地模式中的至少一种行为操作或移动操作。
在一实施例中,当根据所述相对空间位置确定所述移动机器人移动至所述禁拖区域的边缘附近时,控制所述移动机器人改变移动方向以继续执行拖地操作和/或扫地操作。
例如,所述移动机器人基于当前的拖地路线会在所确定的禁拖区域拖地时,当所述移动机器人基于所述拖地路线和相对空间位置移动至所述禁拖区域的边缘附近时,所述处理装置控制所述移动机器人改变移动方向以继续执行拖地操作、扫地操作、或其组合,从而保证所述移动机器人不会在禁拖区域执行拖地操作。
又如,所述移动机器人根据其在地图中的位置和所述相对空间位置可确定所述禁拖区域的边缘在地图中的位置,从而使所述移动机器人在后续拖地的过程中识别到疑似禁拖区域的边缘与所述禁拖区域的边缘在地图中的位置相关时,不用再次移动至所述疑似禁拖区域的边缘去确认,从而可以直接对所述移动机器人进行上述的控制。
再如,所述处理装置基于所述相对空间位置来重新规划路线,所述移动机器人根据所述重新规划的路线移动,所述重新规划的路线指示所述移动机器人在移动至所述禁拖区域的边缘附近时改变移动方向从而保证所述移动机器人不会在禁拖区域执行拖地操作。
在另一实施例中,当所述移动机器人的拖地组件具有抬起的功能时,当根据所述相对空间位置确定所述移动机器人移动至所述禁拖区域的边缘附近时,控制所述移动机器人关闭拖地模式中的拖地操作以进入所述禁拖区域。例如,控制移动机器人不改变已规划的拖地路线,并在经过所述禁拖区域期间,改变所述移动机器人的拖地组件的位置以避免对所述禁拖区域执行拖地操作。其中,改变所述移动机器人的拖地组件的位置包括:将所述拖地组件抬起预设高度以及关闭喷雾装置或洒水装置。
在某些实施方式中,所述移动机器人还包括报警装置,所述报警装置与处理装置相连,用于在处理装置确定所述疑似禁拖区域是禁拖区域时发出报警信息。利用所述报警装置,可即时发出发现禁拖区域的信息,以供用户强制改变移动机器人的移动路线。
基于上述理解,所述移动机器人在存储装置存储有预先确定的描述禁拖区域的边缘的信息后,所述移动机器人在物理空间内执行拖地操作时,可以不通过移动至所述疑似禁拖区域的边缘附近检测所述移动机器人的驱动信号来确定所述疑似的禁拖区域的边缘是禁拖区域的边缘,而仅通过将描述所述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行匹配来确定,以避免所述移动机器人每一次都需要移动至所述疑似禁拖区域的边缘来确定所述疑似的禁拖区域的边缘是否是禁拖区域的边缘。
基于本申请中图2所示的移动机器人的控制方法,本申请还提供一种移动机器人,请参阅图9,其显示为本申请的移动机器人在一实施方式中的结构示意图,如图所示,所述移动机器人包含存储装置11、图像摄像装置20、处理装置13、清洁装置40以及移动装置50。
所述存储装置11和处理装置13可对应于前述图1中提及的控制***10中的存储装置和处理装置,在此不再详述。所述处理装置13利用控制***10中的接口装置12与所述图像摄像装置20、移动装置50、清洁装置40相连。
所述图像摄取装置20用于摄取图像,其中,所述图像为颜色图像和/或深度图像。获取所述深度图像和颜色图像的图像摄取装置20以及其装配方式与前文所述的相同或相似,在此不再详述。
所述移动装置50与处理装置13相连用于受控执行移动操作。于实际的实施方式中,移动装置50可包括行走机构和驱动机构,其中,所述行走机构可设置于移动机器人的底部,所述驱动机构内置于所述移动机器人的壳体内。进一步地,所述行走机构可采用行走轮方式,在一种实现方式中,所述行走机构可例如包括至少两个万向行走轮,由所述至少两个万向行走轮实现前进、后退、转向、以及旋转等移动。在其他实现方式中,所述行走机构可例如包括两个直行行走轮和至少一个辅助转向轮的组合,其中,在所述至少一个辅助转向轮未参与的情形下,所述两个直行行走轮主要用于前进和后退,而在所述至少一个辅助转向轮参与并与所述两个直行行走轮配合的情形下,就可实现转向和旋转等移动。所述驱动机构可例如为驱动电机,利用所述驱动电机可驱动所述行走机构中的行走轮实现移动。在具体实现上,所述驱动电机可例如为可逆驱动电机,且所述驱动电机与所述行走轮的轮轴之间还可设置有变速机构。
所述移动机器人的工作过程举例如下:处理装置13对所获取的图像进行边缘检测,以识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘,至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置,处理装置13根据识别得到的疑似禁拖区域的边缘及其相对于移动机器人的相对空间位置向移动装置50发出包含方向和移动距离,或包含方向和移动速度的移动控制指令,使得移动装置50根据该移动控制指令带动移动机器人整体移动,以在所述疑似禁拖区域的边缘上执行移动操作,以检测所述驱动机构中的驱动信号值。
所述清洁装置40包括拖地组件(未予图示),其中,所述拖地组件用于受控执行拖地操作。所述拖地组件包括:拖垫、拖垫承载体、喷雾装置、洒水装置等。所述拖地组件用于在拖地模式下受控执行拖地操作。
例如,当所述移动机器人未到达禁拖区域的边缘时,在行进平面上执行拖地操作。
又如,所述移动机器人的工作过程举例如下:处理装置13对所获取的图像进行边缘检测以识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘,至少根据所获取的图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置,处理装置13根据识别得到的疑似禁拖区域的边缘及其相对于移动机器人的相对空间位置向移动装置50发出包含方向和移动距离,或包含方向和移动速度的移动控制指令,使得移动装置50根据该移动控制指令带动移动机器人整体移动,在移动至所述疑似禁拖区域的边缘的过程中控制所述拖地组件继续执行拖地操作,控制所述移动机器人在所述疑似禁拖区域的边缘执行移动操作并检测所述驱动机构中的驱动信号值,当根据驱动信号值确定疑似禁拖区域的边缘是禁拖区域时,所述处理装置13控制移动机器人关闭拖地模式中的拖地操作(例如关闭洒水装置并抬起拖垫及拖垫承载体)以进入所述禁拖区域,或者控制所述移动机器人改变移动方向以继续执行拖地操作。
在一实施例中,清洁装置40还包括清扫组件(未予图示),所述清扫组件用于受控执行扫地操作。所述清扫组件可包括位于壳体底部的边刷、滚刷以及与用于控制所述边刷的边刷电机和用于控制所述滚刷的滚刷电机,其中,所述边刷的数量可为至少两个,分别对称设置于移动机器人壳体前端的相对两侧,所述边刷可采用旋转式边刷,可在所述边刷电机的控制下作旋转。所述滚刷位于移动机器人的底部中间处,可在所述滚刷电机的控制下作旋转转动进行清扫工作,将垃圾由清洁地面扫入并通过收集入口输送到吸尘组件内。所述吸尘组件可包括集尘室、风机,其中,所述集尘室内置于壳体,所述风机用于提供吸力以将垃圾吸入集尘室中。所述清洁装置40并不以此为限。
当所述清洁装置40包括清扫组件的情况下,所述移动装置50根据移动控制指令带动移动机器人整体移动至所述疑似禁拖区域的边缘附近时,还可以控制清洁装置40中的清扫组件来执行扫地操作,以检测所述边刷电机或滚刷电机中的驱动信号值;当所述处理装置13根据驱动信号值确定疑似禁拖区域的边缘是禁拖区域的边缘时,所述处理装置13控制移动机器人的移动装置50改变移动方向以继续执行拖地操作和扫地操作。
当所述存储装置11中预先存储有描述禁拖区域的边缘的信息时,所述移动机器人的工作过程举例如下:处理装置13对所获取的图像进行边缘检测,以识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘,至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置,处理装置13将描述所述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行匹配处理,以确定所述疑似禁拖区域的边缘是禁拖区域的边缘,所述处理装置13控制所述移动机器人的行走机构,使移动机器人基于预设的拖地路线移动至所述禁拖区域的边缘附近时,所述处理装置13控制所述移动机器人的移动装置50改变移动方向以继续控制拖地组件执行拖地操作、扫地组件扫地操作、或其组合,从而保证所述移动机器人不会在禁拖区域执行拖地操作。
本申请还提供一种计算机可读写存储介质,存储至少一种程序,所述至少一种程序在被调用时执行并实现上述针对图2所示的控制方法所描述的至少一种实施例或者针对图8所示的控制方法所描述的至少一种实施例。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得安装有所述存储介质的移动机器人可以执行本申请各个实施例所述方法的全部或部分步骤。
于本申请提供的实施例中,所述计算机可读写存储介质可以包括只读存储器、随机存取存储器、EEPROM、CD-ROM或其它光盘存储装置、磁盘存储装置或其它磁存储设备、闪存、U盘、移动硬盘、或者能够用于存储具有指令或数据结构形式的期望的程序代码并能够由计算机进行存取的任何其它介质。另外,任何连接都可以适当地称为计算机可读介质。例如,如果指令是使用同轴电缆、光纤光缆、双绞线、数字订户线(DSL)或者诸如红外线、无线电和微波之类的无线技术,从网站、服务器或其它远程源发送的,则所述同轴电缆、光纤光缆、双绞线、DSL或者诸如红外线、无线电和微波之类的无线技术包括在所述介质的定义中。然而,应当理解的是,计算机可读写存储介质和数据存储介质不包括连接、载波、信号或者其它暂时性介质,而是旨在针对于非暂时性、有形的存储介质。如申请中所使用的磁盘和光盘包括压缩光盘(CD)、激光光盘、光盘、数字多功能光盘(DVD)、软盘和蓝光光盘,其中,磁盘通常磁性地复制数据,而光盘则用激光来光学地复制数据。
在一个或多个示例性方面,本申请所述方法的计算机程序所描述的功能可以用硬件、软件、固件或其任意组合的方式来实现。当用软件实现时,可以将这些功能作为一个或多个指令或代码存储或传送到计算机可读介质上。本申请所公开的方法或算法的步骤可以用处理器可执行软件模块来体现,其中处理器可执行软件模块可以位于有形、非临时性计算机可读写存储介质上。有形、非临时性计算机可读写存储介质可以是计算机能够存取的任何可用介质。
本申请上述的附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。基于此,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这根据所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以通过执行规定的功能或操作的专用的基于硬件的***来实现,或者可以通过专用硬件与计算机指令的组合来实现。
上述实施例仅例示性说明本申请的原理及其功效,而非用于限制本申请。任何熟悉此技术的人士皆可在不违背本申请的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本申请所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本申请的权利要求所涵盖。
Claims (26)
1.一种移动机器人的控制方法,其特征在于,所述移动机器人包含图像摄取装置,所述控制方法包括:
获取来自所述图像摄取装置的图像;
从所述图像中识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘,以及至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置;
当根据所述相对空间位置确定所述移动机器人移动至所述疑似禁拖区域的边缘附近时,通过检测所述移动机器人中的一驱动信号,确定所述疑似禁拖区域是禁拖区域;
根据所确定的禁拖区域,调整所述移动机器人在拖地模式中的至少一种行为操作;
所述控制方法还包括:在所述移动机器人确定禁拖区域的后续移动期间获取新的图像;以及从新的图像中识别新的疑似禁拖区域的边缘;
将所识别的新的疑似禁拖区域的边缘与所确定的禁拖区域的边缘进行匹配处理,当所识别的新的疑似禁拖区域的边缘与所确定的禁拖区域的边缘相匹配时,确定所述新的疑似禁拖区域的边缘是禁拖区域,调整所述移动机器人在拖地模式中的至少一种行为操作。
2.根据权利要求1所述的移动机器人的控制方法,其特征在于,所述图像为颜色图像和/或深度图像。
3.根据权利要求1所述的移动机器人的控制方法,其特征在于,所述图像为颜色图像,所述至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置的步骤包括:
根据所述疑似禁拖区域的边缘在所述颜色图像中的像素位置和预设的物理参考信息,确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
4.根据权利要求3所述的移动机器人的控制方法,其特征在于,所述物理参考信息包括:所述图像摄取装置相距行进平面的物理高度、所述图像摄取装置的物理参数、和所述图像摄取装置的主光轴相对于水平或垂直面的夹角。
5.根据权利要求1所述的移动机器人的控制方法,其特征在于,所述图像为深度图像,所述至少利用所述图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置的步骤包括:
根据所述疑似禁拖区域的边缘在深度图像中的像素值,确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
6.根据权利要求1所述的移动机器人的控制方法,其特征在于,所述通过检测移动机器人中的一驱动信号,确定所述疑似禁拖区域是禁拖区域的步骤包括:当一参考值和检测的所述驱动信号的检测值之间满足预设条件时,确定所述疑似禁拖区域是禁拖区域。
7.根据权利要求1或6所述的移动机器人的控制方法,其特征在于,所述驱动信号采集自所述移动机器人执行扫地操作的工作组件和/或执行移动操作的工作组件。
8.根据权利要求6所述的移动机器人的控制方法,其特征在于,所述参考值为预设值或在所述移动机器人移动至所述疑似禁拖区域的边缘之前确定的。
9.根据权利要求1所述的移动机器人的控制方法,其特征在于,所述根据所确定的禁拖区域,调整所述移动机器人在拖地模式中的至少一种行为操作的步骤包括以下至少一种:
控制所述移动机器人改变移动方向以继续执行拖地操作和/或扫地操作;
控制所述移动机器人关闭拖地模式中的拖地操作以进入所述禁拖区域。
10.根据权利要求1所述的移动机器人的控制方法,其特征在于,从图像中识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘的步骤包括:
利用预设的基于移动机器人所在行进平面而设置的高度条件,从所述图像中识别出疑似禁拖区域的边缘。
11.根据权利要求1所述的移动机器人的控制方法,其特征在于,所述控制方法还包括:
将描述所述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行匹配处理,以确定所述疑似禁拖区域的边缘是禁拖区域的边缘;其中,描述所述疑似禁拖区域的边缘的信息是根据所获取的图像和/或所述相对空间位置确定的;
根据所确定的禁拖区域的边缘和所述相对空间位置,调整所述移动机器人在拖地模式中的至少一种行为操作或移动操作。
12.根据权利要求1所述的移动机器人的控制方法,其特征在于,所获取的图像是通过控制所述图像摄取装置转动而获取的。
13.一种移动机器人的控制方法,其特征在于,所述移动机器人包含图像摄取装置,所述控制方法包括:
获取来自所述图像摄取装置的图像;
从所获取的图像中识别所述移动机器人所在物理空间内的疑似禁拖区域的边缘;以及
至少利用所获取的图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置;
将描述所述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行匹配处理,以确定所述疑似禁拖区域的边缘是禁拖区域的边缘;其中,描述所述疑似禁拖区域的边缘的信息是根据所获取的图像和/或所述相对空间位置确定的;所述预先存储的描述禁拖区域的边缘的信息是在根据在所述疑似禁拖区域的边缘附件检测的驱动信号确定所述疑似禁拖区域的边缘是禁拖区域的边缘后存储的;
根据所确定的禁拖区域的边缘和所述相对空间位置,调整所述移动机器人在拖地模式中的至少一种行为操作或移动操作。
14.根据权利要求13所述的移动机器人的控制方法,其特征在于,所述图像为颜色图像和/或深度图像。
15.根据权利要求13所述的移动机器人的控制方法,其特征在于,所述描述疑似禁拖区域的边缘的信息包括根据所获取的图像而确定的图像特征,所述将描述疑似禁拖区域的边缘的信息和预先存储的描述禁拖区域的边缘的信息进行匹配处理的步骤包括:
将描述所述疑似禁拖区域的边缘的图像特征与预先存储的描述禁拖区域的边缘的图像特征进行匹配处理。
16.根据权利要求13所述的移动机器人的控制方法,其特征在于,所述图像为颜色图像,所述至少利用所获取的图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置的步骤包括:
根据所述疑似禁拖区域的边缘在所述颜色图像中的像素位置和预设的物理参考信息,确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
17.根据权利要求13所述的移动机器人的控制方法,其特征在于,所述图像为深度图像,所述至少利用所获取的图像确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置的步骤包括:
根据所述疑似禁拖区域的边缘在深度图像中的像素值,确定所述疑似禁拖区域的边缘与所述移动机器人之间的相对空间位置。
18.根据权利要求13所述的移动机器人的控制方法,其特征在于,所述根据所确定的禁拖区域的边缘和相对空间位置,调整所述移动机器人在拖地模式中的至少一种行为操作或移动操作的步骤包括以下至少一种:
当根据所述相对空间位置确定所述移动机器人移动至所述禁拖区域的边缘附近时,控制所述移动机器人改变移动方向以继续执行拖地操作和/或扫地操作;
当根据所述相对空间位置确定所述移动机器人移动至所述禁拖区域的边缘附近时,控制所述移动机器人关闭拖地模式中的拖地操作以进入所述禁拖区域。
19.根据权利要求13所述的移动机器人的控制方法,其特征在于,所获取的图像是通过控制所述图像摄取装置转动而获取的。
20.一种移动机器人,其特征在于,包括:
图像摄取装置,用于摄取图像;
移动装置,用于受控执行移动操作;
清洁装置,包括拖地组件;其中,所述拖地组件用于受控执行拖地操作;
存储装置,用于存储至少一种程序;
处理装置,与所述移动装置、清洁装置、存储装置、和图像摄取装置相连,用于调用并执行所述至少一个程序,以协调所述移动装置、清洁装置、存储装置、和图像摄取装置执行并实现如权利要求1-12中任一所述的控制方法。
21.根据权利要求20所述的移动机器人,其特征在于,所述清洁装置还包括清扫组件,所述清扫组件用于受控执行扫地操作。
22.一种移动机器人,其特征在于,包括:
图像摄取装置,用于摄取图像;
移动装置,用于受控执行移动操作;
清洁装置,包括拖地组件;其中,所述拖地组件用于受控执行拖地工作;
存储装置,用于存储至少一种程序以及存储描述禁拖区域的边缘的信息;
处理装置,与所述移动装置、清洁装置、存储装置、和图像摄取装置相连,用于调用并执行所述至少一个程序,以协调所述移动装置、清洁装置、存储装置、和图像摄取装置执行并实现如权利要求13-19中任一所述的控制方法。
23.根据权利要求22所述的移动机器人,其特征在于,所述清洁装置还包括清扫组件,所述清扫组件用于受控执行扫地操作。
24.一种移动机器人的控制***,其特征在于,所述移动机器人装配有图像摄取装置,所述控制***包括:
接口装置,用于接收自所述图像摄取装置所摄取的图像以及输出控制移动机器人的控制指令;
存储装置,用于存储至少一种程序;
处理装置,与所述接口装置和存储装置相连,用于调用并执行所述至少一个程序,以协调所述接口装置、存储装置和图像摄取装置执行并实现如权利要求1-12中任一所述的控制方法。
25.一种移动机器人的控制***,其特征在于,所述移动机器人装配有图像摄取装置,所述控制***包括:
接口装置,用于接收自所述图像摄取装置所摄取的图像以及输出控制移动机器人的控制指令;
存储装置,用于存储至少一种程序以及存储描述禁拖区域的边缘的信息;
处理装置,与所述接口装置和存储装置相连,用于调用并执行所述至少一个程序,以协调所述接口装置、存储装置和图像摄取装置执行并实现如权利要求13-19中任一所述的控制方法。
26.一种计算机可读存储介质,其特征在于,存储至少一种程序,所述至少一种程序在被调用时执行并实现如权利要求1-12中任一所述的控制方法或如权利要求13-19中任一所述的控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010514690.8A CN111813103B (zh) | 2020-06-08 | 2020-06-08 | 移动机器人的控制方法、控制***及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010514690.8A CN111813103B (zh) | 2020-06-08 | 2020-06-08 | 移动机器人的控制方法、控制***及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111813103A CN111813103A (zh) | 2020-10-23 |
CN111813103B true CN111813103B (zh) | 2021-07-16 |
Family
ID=72844707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010514690.8A Expired - Fee Related CN111813103B (zh) | 2020-06-08 | 2020-06-08 | 移动机器人的控制方法、控制***及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111813103B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115429161B (zh) * | 2022-07-29 | 2023-09-29 | 云鲸智能(深圳)有限公司 | 清洁机器人的控制方法、装置、***及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004252631A (ja) * | 2003-02-19 | 2004-09-09 | Mitsubishi Heavy Ind Ltd | Agv運行制御方法、agv運行制御装置、及びagvを利用した物流システム |
CN108125622A (zh) * | 2017-12-15 | 2018-06-08 | 珊口(上海)智能科技有限公司 | 控制方法、***及所适用的清洁机器人 |
CN109846427A (zh) * | 2019-01-16 | 2019-06-07 | 深圳乐动机器人有限公司 | 一种清洁机器人的控制方法及清洁机器人 |
CN110622085A (zh) * | 2019-08-14 | 2019-12-27 | 珊口(深圳)智能科技有限公司 | 移动机器人及其控制方法和控制*** |
CN110852312A (zh) * | 2020-01-14 | 2020-02-28 | 深圳飞科机器人有限公司 | 悬崖检测方法、移动机器人的控制方法及移动机器人 |
CN110989631A (zh) * | 2019-12-30 | 2020-04-10 | 科沃斯机器人股份有限公司 | 自移动机器人控制方法、装置、自移动机器人和存储介质 |
CN111166238A (zh) * | 2018-11-09 | 2020-05-19 | 北京奇虎科技有限公司 | 清洁禁区的处理方法、装置、设备及存储介质 |
CN111220148A (zh) * | 2020-01-21 | 2020-06-02 | 珊口(深圳)智能科技有限公司 | 移动机器人的定位方法、***、装置及移动机器人 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100847136B1 (ko) * | 2006-08-14 | 2008-07-18 | 한국전자통신연구원 | 어깨 윤곽선 추출 방법, 이를 이용한 로봇 깨움 방법 및이를 위한 장치 |
JP2009042147A (ja) * | 2007-08-10 | 2009-02-26 | Nsk Ltd | 物体認識装置および物体認識方法 |
KR101949277B1 (ko) * | 2012-06-18 | 2019-04-25 | 엘지전자 주식회사 | 이동 로봇 |
KR102412747B1 (ko) * | 2014-02-28 | 2022-06-27 | 삼성전자주식회사 | 청소 로봇 및 그에 포함되는 원격 제어기 |
CN105467985B (zh) * | 2014-09-05 | 2018-07-06 | 科沃斯机器人股份有限公司 | 自移动表面行走机器人及其图像处理方法 |
CN104407346A (zh) * | 2014-12-01 | 2015-03-11 | 中国航空工业集团公司上海航空测控技术研究所 | 一种基于信息融合的移动式跑道异物监测方法 |
US10496262B1 (en) * | 2015-09-30 | 2019-12-03 | AI Incorporated | Robotic floor-cleaning system manager |
CN107752927B (zh) * | 2017-11-17 | 2020-07-14 | 北京奇虎科技有限公司 | 清洁机器人的区块调整方法、装置、设备及存储介质 |
WO2019232806A1 (zh) * | 2018-06-08 | 2019-12-12 | 珊口(深圳)智能科技有限公司 | 导航方法、导航***、移动控制***及移动机器人 |
WO2019232803A1 (zh) * | 2018-06-08 | 2019-12-12 | 珊口(深圳)智能科技有限公司 | 移动控制方法、移动机器人及计算机存储介质 |
CN111766877B (zh) * | 2018-06-27 | 2021-08-31 | 北京航空航天大学 | 一种机器人 |
-
2020
- 2020-06-08 CN CN202010514690.8A patent/CN111813103B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004252631A (ja) * | 2003-02-19 | 2004-09-09 | Mitsubishi Heavy Ind Ltd | Agv運行制御方法、agv運行制御装置、及びagvを利用した物流システム |
CN108125622A (zh) * | 2017-12-15 | 2018-06-08 | 珊口(上海)智能科技有限公司 | 控制方法、***及所适用的清洁机器人 |
CN111166238A (zh) * | 2018-11-09 | 2020-05-19 | 北京奇虎科技有限公司 | 清洁禁区的处理方法、装置、设备及存储介质 |
CN109846427A (zh) * | 2019-01-16 | 2019-06-07 | 深圳乐动机器人有限公司 | 一种清洁机器人的控制方法及清洁机器人 |
CN110622085A (zh) * | 2019-08-14 | 2019-12-27 | 珊口(深圳)智能科技有限公司 | 移动机器人及其控制方法和控制*** |
CN110989631A (zh) * | 2019-12-30 | 2020-04-10 | 科沃斯机器人股份有限公司 | 自移动机器人控制方法、装置、自移动机器人和存储介质 |
CN110852312A (zh) * | 2020-01-14 | 2020-02-28 | 深圳飞科机器人有限公司 | 悬崖检测方法、移动机器人的控制方法及移动机器人 |
CN111220148A (zh) * | 2020-01-21 | 2020-06-02 | 珊口(深圳)智能科技有限公司 | 移动机器人的定位方法、***、装置及移动机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN111813103A (zh) | 2020-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11042760B2 (en) | Mobile robot, control method and control system thereof | |
JP6633568B2 (ja) | 自律式カバレッジロボット | |
CN106489104B (zh) | 用于移动机器人中的光学量程传感器的使用的***和方法 | |
US11547255B2 (en) | Cleaning robot | |
EP3104194B1 (en) | Robot positioning system | |
WO2019114219A1 (zh) | 移动机器人及其控制方法和控制*** | |
CN111035327A (zh) | 清洁机器人、地毯检测方法及计算机可读存储介质 | |
US20100298977A1 (en) | Mobile robot and path planning method thereof for manipulating target objects | |
JP2005211364A (ja) | 自走式掃除機 | |
CN112034837A (zh) | 确定移动机器人工作环境的方法、控制***及存储介质 | |
CN112000093B (zh) | 移动机器人的控制方法、控制***及存储介质 | |
CN111813103B (zh) | 移动机器人的控制方法、控制***及存储介质 | |
CN211933898U (zh) | 清洁机器人 | |
AU2015224421B2 (en) | Autonomous coverage robot | |
JP7325058B2 (ja) | 自走式掃除機 | |
CN219609490U (zh) | 自移动设备 | |
EP2325713B1 (en) | Methods and systems for movement of robotic device using video signal | |
AU2013338354B9 (en) | Autonomous coverage robot | |
JP2022161975A (ja) | 自走式掃除機 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210716 |