CN105308414B - 具有激光测距仪***的水池清洁器和方法 - Google Patents
具有激光测距仪***的水池清洁器和方法 Download PDFInfo
- Publication number
- CN105308414B CN105308414B CN201380041089.XA CN201380041089A CN105308414B CN 105308414 B CN105308414 B CN 105308414B CN 201380041089 A CN201380041089 A CN 201380041089A CN 105308414 B CN105308414 B CN 105308414B
- Authority
- CN
- China
- Prior art keywords
- line
- laser
- image
- camera
- pool cleaner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 39
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 30
- 238000004140 cleaning Methods 0.000 claims description 13
- 230000033001 locomotion Effects 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 33
- 238000005259 measurement Methods 0.000 description 24
- 230000000712 assembly Effects 0.000 description 21
- 238000000429 assembly Methods 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000009182 swimming Effects 0.000 description 12
- BVPWJMCABCPUQY-UHFFFAOYSA-N 4-amino-5-chloro-2-methoxy-N-[1-(phenylmethyl)-4-piperidinyl]benzamide Chemical compound COC1=CC(N)=C(Cl)C=C1C(=O)NC1CCN(CC=2C=CC=CC=2)CC1 BVPWJMCABCPUQY-UHFFFAOYSA-N 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 9
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 6
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 239000012530 fluid Substances 0.000 description 4
- 239000000654 additive Substances 0.000 description 3
- 230000000996 additive effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011221 initial treatment Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005201 scrubbing Methods 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- E—FIXED CONSTRUCTIONS
- E04—BUILDING
- E04H—BUILDINGS OR LIKE STRUCTURES FOR PARTICULAR PURPOSES; SWIMMING OR SPLASH BATHS OR POOLS; MASTS; FENCING; TENTS OR CANOPIES, IN GENERAL
- E04H4/00—Swimming or splash baths or pools
- E04H4/14—Parts, details or accessories not otherwise provided for
- E04H4/16—Parts, details or accessories not otherwise provided for specially adapted for cleaning
- E04H4/1654—Self-propelled cleaners
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
- G01C15/002—Active optical surveying means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Architecture (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Structural Engineering (AREA)
- Civil Engineering (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明的实施例提供了一种水池清洁器控制***,包括激光测距仪,激光测距仪具有第一激光线发生器、第二激光线发生器和相机。第一激光线发生器和第二激光线发生器被定位为发射平行的激光线,并且相机被定位为拍摄对象上投射的激光线的图像。控制***还包括与激光测距仪通信的控制器,其被配置成控制激光线发生器的操作以发射激光线并控制相机以拍摄图像。控制器还被配置成从相机接收图像,计算图像中激光线之间的像素距离,并基于像素距离计算相机和对象之间的物理距离。
Description
相关申请
本申请依据35U.S.C.§119要求于2012年6月27日提交的美国临时专利申请No.61/664,945的优先权,在此通过引用将其全部内容并入本文。
背景技术
为了让无人驾驶运载工具真正自主,它们必须拥有在被置入未知环境中时定位自己并了解它们周围的物理对象的能力。例如,这样的运载工具为高级应用(例如绘图和运载工具定位)以及低级应用(例如障碍物躲避)获知信息。一旦运载工具获知其工作所处的环境的信息,就能够自由地且以优化的模式在环境附近运动,以实现其需要的任务,同时保持不受损伤。尽管已经为在水外操作的运载工具开发了各种传感器,但可用于水下运载工具的传感器数量是有限的。
例如,对于工作在户外环境的运载工具,可以利用能够提供厘米范围的精确度的基于卫星的定位传感器(例如GPS传感器)完成定位。而且,基于激光的测距仪,包括光探测和测距(LiDAR)传感器,能够向运载工具提供毫米精确度的关于周围环境的信息。不过,LiDAR传感器成本高昂,阻止了低预算应用,且LiDAR和基于卫星的传感器都不能在室内(即,封闭)或水下环境中正常工作。
在水下环境中,大部分通用的传感器技术基于声学。例如,声波导航和测距(SONAR)能够为在大尺度开放水环境中操作的运载工具提供准确的传感器数据。不过,在封闭的水下空间中,例如游泳池中,基于声学的解决方案(例如SONAR)由于封闭环境中的反射所导致的大量多次回波而难以使用。结果,已经提出了一些基于激光的方法。例如,一种方法包括具有激光指示器和相机的运载工具,激光指示器投射(project)单个点,且相机可视化从封闭空间的壁反射的点。由于该设计,这种运载工具仅能够确定与相机正前方的单个位置相关的距离信息。而且,这样的设计严重依赖于校准例程(calibration routine),该校准例程利用距离绘制激光指示器在图像系中的位置。另一种方式包括使用单条激光线和相机来产生水下对象的完整3D地图。不过,在并非极暗的环境中找到完整的激光线可能是有难度的。因此,这种方式不能够用于可能存在大量天然和人造光的操作环境中,例如游泳池和温泉环境中。
发明内容
本发明的一些实施例提供了一种水池清洁器控制***,以检测距水池清洁器前方对象的物理距离。控制***包括激光测距仪,其具有第一激光线发生器、第二激光线发生器和相机。第一激光线发生器和第二激光线发生器被定位以发射平行的激光线,并且相机被相对于第一激光线发生器和第二激光线发生器定位以拍摄对象上投射的激光线的图像。控制***还包括与激光测距仪通信的控制器,该控制器被配置成控制第一激光线发生器和第二激光线发生器的操作以发射激光线并控制相机以拍摄投射到对象上的激光线的图像。控制器还被配置成从相机接收图像,计算图像中激光线之间的像素距离,并基于像素距离计算相机和对象之间的物理距离。
本发明的一些实施例提供了一种用于水下环境的自主机器人水池清洁器。该水池清洁器包括测距仪,所述测距仪被配置成发射第一和第二线,并检测所述第一和第二线在环境特征上的投影;相机,配置成拍摄所述水池清洁器下方环境的地板表面的图像;以及与所述测距仪和所述相机通信的控制器。控制器被配置成基于所述检测到的所述第一和第二线的在所述特征上投影来计算所述测距仪和所述特征之间的物理距离,基于拍摄的图像确定视觉测距数据,基于所述物理距离和所述视觉测距数据绘制所述环境,并跟踪所述水池清洁器在所述环境之内的位置。
本发明的一些实施例提供了一种在水下环境中利用双平面激光测距仪确定距对象的距离的方法。该方法包括向所述对象上投射第一线;向所述对象上投射与所述第一线平行的第二线;以及拍摄所述对象上投射的第一线和投射的第二线的图像。该方法还包括将所述图像分割成独立的图像片段;以及对于每个图像片段,提取所述图像片段中的颜色平面以获得灰度级图像片段;检测所述灰度级图像片段中的潜在的线边缘;利用所述潜在的线边缘提取线段;以及对所述线段分组以获得所述灰度级图像片段中的第一投影线和第二投影线。该方法还包括对于每个图像片段,计算所述灰度级图像片段中所述第一投影线和所述第二投影线之间的像素距离;以及基于所述像素距离计算到所述对象的距离。
附图说明
图1是根据本发明一个实施例的控制***的方框图。
图2是根据本发明一个实施例的水池清洁器的正面透视图。
图3是图2的水池清洁器的后侧透视图。
图4是图2的水池清洁器的下侧透视图。
图5是根据本发明一个实施例的双平面激光测距仪的示意图。
图6A和6B分别是传统针孔相机模型和改进的针孔相机模型的示意图。
图7是图5的激光测距仪的侧面示意图。
图8是根据本发明的一个实施例的利用图1的控制***来确定距离测量结果的过程。
图9是根据图8的过程的,将拍摄的图像分成图像片段的例示。
图10A和10B是用于图8的过程的x-y坐标系和m-b坐标系的图形视图。
图11A-11D是根据图8的过程所处理的图像片段的例示。
图12A和12B是利用图8的过程所确定的距离测量结果的图形视图。
图13是在多个图像系中确定水池清洁器位置的图形视图。
图14是根据本发明的方法的、用于测距数据的参考系的图形视图。
图15是根据本发明的方法的、用于距离数据的参考系的图形视图。
图16是根据本发明的方法的、角特征确定的图形视图。
具体实施方式
在详细解释本发明的任何实施例之前,要理解本发明在其应用方面不限于以下描述中阐述或在以下附图中例示的部件构造和部件布置的细节。本发明能够有其他实施例并能够通过各种方式实践或执行。而且,要理解这里使用的措辞和术语是为了描述的目的,不应被视为限制。这里使用“包括”,“包含”或“具有”及其变化意在涵盖其后列出的项和其等价物以及附加项。除非另行指定或限制,词语“安装”、“连接”、“支持”和“耦接”及其变化被宽泛地使用,且涵盖直接和间接的安装、连接、支持和耦接。此外,“连接”和“耦接”不限于物理或机械连接或耦接。
示出如下讨论以使本领域的技术人员能够制造和使用本发明的实施例。对于本领域的技术人员而言,所示实施例的各种修改将是明显的,且可以将本文的一般原理应用于其他实施例和应用而不脱离本发明的实施例。于是,本发明的实施例并非旨在限于图示的实施例,而是要符合与本文公开的原理和特征一致的最宽范围。以下详细描述要结合附图阅读,其中不同图中相似的元件具有相似的附图标记。附图未必成比例,其绘示了选择的实施例,且并非意在限制本发明实施例的范围。技术人员将认识到,本文提供的范例有很多有用的替代且落在本发明的实施例范围之内。
本发明的实施例提供了用于在封闭水下空间中操作的小型低成本水下运载工具。更具体而言,本发明的实施例提供了一种用于在游泳池和/或温泉环境中操作的自主机器人水池清洁器的低成本距离测量和绘制(mapping)***。***的距离测量部分基于相机和平行激光线装置,且该***的绘制部分能够无需事先校准地利用同步定位和绘制(simultaneous localization and mapping,SLAM)技术来绘制游泳池环境,以绘制通过游泳池环境的清洁路线。这样允许水池清洁器来优化清洁路线,例如,以便遍历和清洁整个游泳池环境。
图1示出了根据本发明的一个实施例的控制***10,其用于自主机器人水池清洁器(例如图2-4中所示的水池清洁器12)。控制***10能够包括控制器14,包括第一激光器18、第二激光器20和相机22的第一传感器组件或激光测距仪16,第二传感器组件24和定向控制机构26。控制***10可以位于水池清洁器12上和/或之内,且能够通过绘制游泳池或温泉环境并在整个环境中准确定位水池清洁器12来优化水池清洁器12的操作。此外,控制***10能够优化清洁路线并识别环境之内碎屑的具***置。通常,控制器14能够操作并接收来自激光测距仪16和/或第二传感器组件24的输入,并能够基于这些输入操作定向控制机构26以沿水下环境之内的期望路线来移动水池清洁器12,如下文进一步所述。
图2-4示出了根据本发明的一个实施例的、能够被控制***10操作的自主机器人水池清洁器12。水池清洁器12能够包括底座(chassis)28、撇渣器(skimmer)组件30、过滤器组件32、前刷组件34、后刷组件36(如图3所示)、电子设备盒38、传感器盒40和出口喷嘴组件42。电子设备盒38可以耦接到底座28并被支撑于其上。前刷板44能够均经由紧固件46耦接到底座28,且前刷组件34的每个都可以经由紧固件48耦接到相应的前刷板44。此外,后刷板50可以经由紧固件46耦接到底座28,且后刷组件36可以经由紧固件48耦接到后刷板50。提升器52可以耦接到前刷板44和后刷板50的每个,且I形轨道54能够连接刷板44、50上的相对的提升器对52,如图2和3所示。I形轨道54可以耦接到撇渣器组件30和过滤器组件32以及出口喷嘴组件42并支撑它们。参考图1的控制***10,在一些实施例中,传感器盒40能够容纳激光测距仪16,电子设备盒38能够容纳控制器14和/或第二传感器组件24,且前后刷组件34、36和出口喷嘴组件42能够充当定向控制机构26。
在一些实施例中,水池清洁器12可以由刷组件34、36支撑于表面(例如游泳池地板)上。水池清洁器12能够通过刷组件34、36和/或出口喷嘴组件42的操作而跨水池地板移动自己。更具体而言,每个刷组件34、36能够包括附接到刷板58的刷子56。振动电动机60可以安装于每个刷板58上,以振动相应的刷组件34、36,且刷组件34,36的振动能够促成水池清洁器12的向前和/或转弯运动以及刷子56相对于水池地板的刷洗动作。例如,可以以基本相等的强度振动每个刷组件34,36,以促进水池清洁器12的向前运动,且可以单独调节每个振动电动机60的振动强度,以促进水池清洁器12的转弯运动(例如,可以减小或停止左前方振动电动机的强度,以及可以增大或维持右前方振动电动机的强度,以促成左转弯,反之亦然)。此外,出口喷嘴组件42能够迫使水从水池清洁器12的后部向外喷出,以便辅助水池清洁器12的向前和/或转弯运动。如下文进一步所述,可以单独调节离开出口喷嘴组件的水的力和/或量,以辅助水池清洁器12的向前或转弯运动。
可以相对于底座28耦接刷组件34,36,以提供水池地板和底座28之间的空隙(clearance)。这个空隙可以足够高的,以允许水池清洁器12在水池地板上的碎屑上方行进,且是足够低的以实现通过如图4中所示的底座28的进水口63充分抽吸这种碎屑并经由流体地连接进水口63和过滤器组件32的入口腔室(intake plenum)62(且在一些实施例中,还有连接的入口提升器(intake riser),未示出)进入到过滤器组件32。可以通过出口喷嘴组件42的操作实现这种抽吸,这样生成了从进水口63,通过入口腔室62、入口提升器、过滤器组件32、中心管(center duct)66和出口喷嘴组件42的流体运动路径。更具体而言,出口喷嘴组件42能够提供吸力,以通过进水口63且向过滤器组件32中抽空(vacuum)水和碎屑,并进一步通过过滤器组件32汲取水并通过出口喷嘴组件42出水,以辅助水池清洁器12的推进,如上所述。
出口喷嘴组件42均能够包括出口喷嘴68、喷嘴导管70和与喷嘴导管70相通的电动机容器72。喷嘴导管70可以耦接到中心管66,如图2和3所示。每个电动机容器72都能够包括由管道76、前盖78和后盖80容纳的电动机74。电动机74的轴(未示出)能够延伸穿过前盖78,且进入喷嘴导管70中,且推进器(未示出)可以在喷嘴导管70内部耦接到该轴的末端。每个电动机74的操作能够导致推进器旋转且由此提供原动力,以通过上述流体运动路径来汲取水。此外,可以单独调节电动机74的速度,以促进水池清洁器12的转弯运动(例如,通过提供从出口喷嘴组件42之一的水的更有力的排出)。
在一些实施例中,过滤器组件32能够包括外壳82、过滤器管道84、转向器86、第一端盖(未示出)和第二端盖90。外壳82能够包括与入口提升器和入口腔室62流体相通的第一抽吸口(未示出),以从水池清洁器12下侧接收水和碎屑,以及第二抽吸口94,以接收撇渣器组件30附近的水和碎屑,如下文进一步所述。第一端盖可以耦接到外壳82的第一端,以封闭外壳82的内部空间96。此外,第一端盖可以耦接到前过滤器托架(未示出),其可以进一步耦接到一个或多个的I形轨道54以支持过滤器组件32。过滤管道84可以是位于外壳82的内部空间96之内的圆柱形管道,且能够包括过滤器介质,该过滤器介质将外壳82的内部空间96与过滤管道84的内部空间分开。过滤器介质能够允许从外壳82的内部空间96到过滤管道84的内部空间的水的通过。此外,第二端盖90可以耦接到外壳82和中心管66。第二端盖90能够封闭外壳82的内部空间96,且能够包括中心孔,以允许过滤管道84的内部空间和中心管66之间的流体相通。结果,碎屑可以保留在外壳82之内,而水能够通过过滤管道84,进入中心管66,经由喷嘴导管70和出口喷嘴68离开水池清洁器12。
过滤器组件32的转向器86能够有选择地关闭第一吸入口,如图2和3所示,或者第二吸入口94。更具体而言,可以旋转或定位转向器86以有选择地关闭第二吸入口94,同时允许第一吸入口保持打开(例如,在旋转到第一或“地板操作”位置时);或关闭第一吸入口,同时允许第二吸入口94保持打开(例如,在旋转到第二或“撇渣操作”位置时)。可以手动地或自动地完成转向器86的旋转。例如,在一个实施例中,旋转件(未示出)可以位于过滤器组件32外部,例如在前盖78上,并能够延伸穿过前盖78以与转向器86连接。在这种配置中,用户能够手动地旋转旋转件以将转向器86调节到第一位置或第二位置。在另一实施例中,可以将伺服电动机(未示出)耦接到转向器86。控制器14,或水池清洁器12的独立控制器,可以连接到伺服电动机并能够控制伺服电动机,以自动地将转向器86旋转到第一位置或第二位置。
当转向器86被旋转到第一位置时,水池清洁器12能够在其沿水池地板行进的时候抽空水池清洁器12下方(即沿着水池地板)的水和碎屑,从而提供地板清洁操作。在第二位置,水池清洁器12能够在例如水池清洁器12跨游泳池表面行进的时候抽空撇渣器组件30附近的水和碎屑,从而提供撇渣操作。更具体而言,撇渣器组件30能够包括可膨胀的气囊95(如图5中所示),且气囊95可以膨胀以允许水池清洁器12漂浮到游泳池表面。在气囊膨胀以使得能够进行撇渣操作时,可以将旋转器86旋转到第二位置,以允许第二吸入口94打开。此外,如图2-3所示,可以将撇渣器组件30的形状设计为具有基本圆形的前鼻部102和左右翼104,左右翼140延伸过第二吸入口94并然后朝第二吸入口94向回弯曲。撇渣器组件30的这种结构配置能够方便水和碎屑沿着翼104的外缘移动,由此在水池清洁器12向前运动期间,导致碎屑和水向回弯曲进入第二吸入口94中。
向回参考水池清洁器12的电子设备盒38,在一些实施例中,电子设备盒38能够包括为水池清洁器12供电并操作该水池清洁器12所必要的电子部件。这样的电子设备能够包括,但不限于,被配置成控制振动电动机60、每个出口喷嘴组件42的电动机74以及传感器组件16、24的操作的一个或多个控制器(例如图1的控制器14)以及一个或多个电源(例如电池)。电子部件可以通过电连接器(未示出)连接到电动机60、74和传感器组件16、24的每个。此外,电子设备盒38可以基本被密封以对电子部件进行防水。此外,在一些实施例中,电源可以是能够通过例如独立的充电站充电。
在一些实施例中,第二传感器组件24可以被容纳于电子设备盒38之内。例如,在一个实施例中,第二传感器组件24能够包括相机。电子设备盒38的下侧能够包括相对于底座28中的通孔107定位的透明窗口105,如图4中所示。第二传感器组件24的相机可以被布置为面向下,以通过窗口和底座通孔拍摄水池地板(即地表面)的图像,以便向控制器14提供视觉测距数据,如下文进一步所述。此外,在一些实施例中,激光测距仪16可以被容纳于传感器盒40之内。透明盖106可以耦接到传感器盒40以将激光测距仪16封闭在传感器盒40之内。在一些实施例中,透明盖106和传感器盒40可以基本被密封,以使激光测距仪16防水。在其他实施例中,激光测距仪16的部件可以是基本防水的。如图2-3所示,传感器盒40可以耦接到撇渣器组件30并由其支持。更具体而言,传感器盒40可以被定位于与撇渣器组件30的鼻部102相邻,且相机22可以定位为面向前,从而提供水池清洁器12前方特征或表面的视觉数据。
在一些实施例中,控制器14能够基于从传感器组件16、24接收的信息单独地操作振动电动机60和/或出口喷嘴组件42的电动机74。例如,如图1所示,控制器14能够包括处理器98和存储了程序代码的存储介质100。该程序代码可以由处理器98执行以进行各种操作,包括,但不限于,操作传感器组件16、24,从传感器组件16、24取回数据,如下文进一步所述地利用取回的数据执行一个或多个算法或过程,基于执行的算法操作电动机60、74中的一个或多个和/或存储环境地图和操作路线。例如,如下文结合图5-12进一步所述,控制器14能够基于由激光测距仪16取回的数据执行一个或多个距离测量算法,以确定水池清洁器12和水池清洁器12前方的特征或对象(例如池壁)之间的距离。此外,如下文相对于图13-16进一步所述,控制器14能够基于由激光测距仪16和第二传感器组件24取回的数据执行一个或多个定位和地图构建算法,以对水池清洁器12的周围环境(即,游泳池)构建地图并跟踪水池清洁器在环境之内的位置。
参考本发明一些实施例的距离测量方法,如上所述且在图1中所示,激光测距仪16能够包括第一激光器18、第二激光器20和相机22。在一些实施例中,可以如图5中所示布置部件18-22。更具体而言,第一激光器18和第二激光器20可以是垂直安装于彼此上并平行于相机22(例如,彩色电荷耦合器件(CCD)相机)的视轴的激光线发生器。换言之,可以安装激光器18、20,使得它们产生的激光线平行于相机焦平面的水平轴。图5中所示布局的结果是由激光器18、20产生的一对水平线110、114,其被配置成跨相机22所拍摄的帧来行进(running)。在一个实施例中,激光器18、20可以是均以60°的扇形角产生532纳米波长的激光的绿色激光束发生器。尽管在一些实施例中可以使用红色激光,但绿色光可能更适合水下应用,因为水吸收红色光比吸收绿色光多大约五十倍。
如上所述,通常,控制器14能够操作激光器18、20和相机22,并能够基于相机22的输出确定相机22(从而,水池清洁器12前方)和水池清洁器12前方的对象(例如游泳池或温泉环境的壁)之间的距离。例如,在一些实施例中,控制器14能够基于改进的针孔相机模型进行距离计算。更具体而言,根据传统的针孔模型,如图6A中所示,将由其光圈O位于O=0,0,0的相机看到的世界中的任一点P=xw,yw,zw投射到相机在Q=-Xf,-Yf,f处的焦平面上。由下式描述P和Q之间的关系
其中xw,yw和zw是P的分量,其中P对应于世界坐标中的点;xf,yf和f是对应于P在相机焦平面上的投影的Q的对应分量。投影点Q中的负号是相机的焦平面108位于光圈O后方的结果,如图6A所示。
为了消除由负号导致的混淆,在一些实施例中可以使用针孔模型的改进版本。更具体而言,通过将焦平面108移动到相机光圈O前方,如图6B中所示,投射到焦平面上的对象(在Q处)的X和Y分量的符号匹配对象的现实世界坐标(在P处)的那些符号。根据改进的针孔模型,可以由下式描述对象在世界坐标系和相机坐标系之间的关系
其中上述P和Q的对应分量定义该关系。
基于如图5中所示的传感器组件16的物理布局以及改进的针孔相机模型,图7中示出了激光测距仪16的侧视图。更具体而言,图7示出了在对象112上(在点C或yw,1处)投射激光线110的第一激光器18,在对象112上(在点D或yw,2处)投射激光线112的第二激光器20,以及相机22的光圈O。如图7中所示,可以在相机光圈O和对象112之间(三角形OCD)以及相机光圈O和对象在焦平面108上的投影之间(三角形OAB)生成两个相似三角形。通过使两个三角形相等,可以如下给出对象112的世界坐标和所拍摄图像上激光线位置(分别在点A和B或yf,1和yf,2)之间的关系
其中是激光线发生器18,20之间的物理距离,是图像中激光线之间的距离,zw是相机光圈O和对象112之间的距离,f是相机22的焦距。由于可以从激光测距仪16的物理设置获知或预定,f可以已知或确定为所使用的相机22的特征,且可以如下所述通过图像处理算法找到所以可以将距对象112的距离计算为
因此,为了确定对象112距激光测距仪16(具体而言,相机22)有多远,即,距离zw,可以确定图像系108中两条激光线A、B之间的距离并连同已知的焦距f和激光器之间的物理距离应用于以上方程4。根据本发明的一些实施例,如图8所示,提供过程116以从图像提取激光线,然后基于该激光线在图像中的间距计算到对象的距离(zw)。
在一些实施例中,可以由控制器14执行图8的过程116。例如,在处理框118,控制器14能够接收图像。在处理框120,控制器14然后能够初始处理图像以消除畸变,然后在处理框122,图像可以被分割成若干图像片段。控制器14然后为每个图像片段执行循环。这种循环开始于处理框124,其中控制器能够判断已处理的片段的数量(“计数”)是否小于图像片段的总数(即,控制器14能够判断是否已经处理了所有图像片段)。如果未处理所有的图像片段,控制器14能够取回特定的(未处理的)图像片段,并从图像提取颜色平面(在处理框126),检测图像之内的边缘(在处理框128),并提取激光线(在处理框130)。然后在处理框132,控制器14能够将提取的线分组,并在处理框134计算线之间的像素差异。在这种计算之后,在处理框136,控制器14能够计算物理对象距离。控制器14能够继续循环经过处理框126-136,直到已处理的图像片段的计数不再小于图像片段的总数(即,已经处理了所有图像片段),如在处理框124所确定的。一旦做出这种确定,就完成了过程116。
更具体而言,进一步参考处理框120,可以从接收的图像消除镜头畸变。通常,大部分相机都会受到镜头畸变和其他制造缺陷的困扰。例如,相机畸变的模型可以包括相机中存在的两种不同类型的畸变:径向畸变和切向畸变。径向畸变可以描述成
其中x和y是图像中的点距相机光圈的中心的对应水平和垂直距离,是该点距相机光圈的中心的距离,且常数ki>0(i=1,2,3)是描述给定相机的径向畸变的唯一常数。
切向畸变可以描述成
其中常数pi>0(i=1,2)是描述切向畸变的相机特征常数。
可以通过确定两组畸变常数ki(i=1,2,3)和pi(i=1,2)来实现从图像移除畸变。在一些实施例中,这可以是对相机22进行的一次性操作。例如,可以使用相机校准方法(例如用于的Camera Calibration Toolbox(相机校准工具箱)或类似实施方式)来确定这些常数。该校准方法能够检查位于相机22的工作空间(例如,在水下环境中)附近的具有标准棋盘训练图案的一组图像。由于测试图案的尺寸和布局是已知的,所以可以在方程5-8中使用该信息来求解相机的畸变常数。在一些实施例中,连同发现畸变参数一起,相机校准方法还可以确定相机22的焦距f和光圈的中心点O在图像中的位置。在处理框120去除畸变的情况下,可以假设图像基本匹配理想针孔相机模型的图像,且该过程能够继续进行到处理框122。
进一步参考处理框122,通常,通过在图像上(即经由激光线发生器18,20)投射线,可以在沿着投影线的多个点处确定到对象的距离,而不是在仅仅使用由激光指示器产生单个点时在单个点处确定到对象的距离。确定到多个对象或单个对象上多个位置的距离的这种能力能够辅助控制***更好绘制周围环境的能力,如下文进一步所述。为了确定在多个位置处的距离,可以将图像分解成多个片段,例如,如图9所示。除了提供绘制多个距离的能力之外,分割图像的优点是可以在更小图像上执行图像处理(例如处理框126-136),而不是在整个大图像上执行图像处理。这样能够提供计算优势:与处理整个图像所需的时间相比,缩短了处理时间。在一个实施例中,如图9所示,可以将包括激光线110、114的图像138分割成7个图像片段140,其中每个图像片段140均为50个像素宽,角度偏移为4度。
继处理框122之后,图像被分解为更小片段,然后可以处理每个片段以提取图像中激光线(110,114)的位置。第一,可以将图像从全彩色图像转换成黑白或灰度级图像(例如,通过在处理框126提取颜色平面)。第二,在处理框128,可以应用阈值以提取图像的最明亮部分,且可以使用边缘检测算法以提取可能为线条的边缘。第三,在处理框130,可以例如利用霍夫变换(Hough transform)从图像提取所有线段。更具体而言,霍夫变换可以将已经被边缘检测算法处理过的图像作为输入。图像中的作为所提取边缘的成员的每个点(位于(x,y)处)可以通过斜率-截距形式来表达,
y=mx+b, Eq.9
其中m是给定线的斜率,b是该线与垂直轴相交的点。可以将x-y坐标系中的任何点表达为m-b坐标系中的线,如图10A和10B所示。通过检查m-b坐标系中的任何两个点,如果它们相应的线相交,它们则位于x-y坐标系中的同一线段上。例如,图10A示出了x-y坐标系142,其中沿着线148的第一个点144在坐标(2,6)处,而第二个点146在坐标(3,5)处。图10B示出了m-b坐标系150,其中第一条线152表示点144(定义为6=m(2)+b),且第二条线154表示点146(定义为5=m(3)+b)。通过确定第一条线152和第二条线154在m-b坐标系150中相交,可以认为它们位于x-y坐标系142中的同一线段(即线148)上。
图11A-11D中示出了每个处理框126、128、130之后的范例结果。具体而言,图11A示出了原始图像片段138,图11B示出了被从全彩色空间变换到灰度级彩色空间之后的图像片段138(在处理框126)。图11C示出了已经应用阈值来提取最亮图像分量之后的图像片段138(在处理框128),而图11D示出了线段通过霍夫变换线识别(Hough Transform LineIdentification)(在处理框130)被提取的图像片段138。
一旦在处理框130中从图像片段提取了所有线段,就有机会用多个线段表达每条激光线。结果,在处理框132,可以基于预定义的像素分离参数(例如,用户定义的或预编程的参数)将线段中的每个分组到一起。这个分组步骤能够分析所提取的线段中的每个,且如果特定线段落入彼此某一p像素距离之内,可以假设这些线段代表同一激光线。一旦在处理框132将对应于每条激光线的线段分组到一起,就可以在图像片段的中点评估每条线段,并可以求每条线段的平均值以估计帧中激光线的精确中点。在处理框134,可以基于这些平均值计算两条激光线之间的像素差异,从而可以在处理框136例如利用以上方程4计算距图像片段中心处对象的物理距离。
基于试验结果,以上控制***10和过程116能够提供最大绝对误差约为实际距离10%的水下距离测量结果,对于自主水池清洁器应用中的有益使用而言这被认为是足够准确了。此外,与传统激光点不同,使用激光线允许控制***10获得除距传感器组件正前方的对象的单一距离测量结果之外的额外数据。例如,在遇到不平坦且垂直于相机观察轴的角或障碍物时,控制***10可能能够从单个图像获得形状数据。图12A和12B示出了在每个组件都面对角时,与传统LiDAR传感器组件相比,从本发明的激光测距仪16试验性地获得的距离测量结果(其中LiDAR数据由实线156代表,且激光测距仪16的数据由点158代表)。如图12A和12B所示,由于相机视角160的原因,激光测距仪16能够在单个图像中拍摄整个角。下文进一步描述用于确定角(作为环境特征)的算法。作为上述片段处理的结果,可以获得关于角的多个准确的距离测量结果158。此外,使用本发明的双平面激光测距仪16与传统LiDAR***相比能够提供低成本的距离测量***10,并提供与其他单激光器应用、SONAR应用和GPS应用相比的,能够在光亮或黑暗、封闭、水下空间中准确测量距离的***10。
如上所述,控制***10能够使用来自激光测距仪16的输出以控制水池清洁器12的运动。在一些实施例中,控制***10可以被配置成使用激光测距仪16作为障碍或特征发现装置,由此在检测到的障碍或特征在水池清洁器12正前方一定距离时控制水池清洁器12的转弯运动。在一些实施例中,控制***10可以被配置成绘制放置水池清洁器12的环境(即,游泳池,温泉等),并利用同步定位和绘制(SLAM)技术,基于来自激光测距仪16和第二传感器组件24的输出了解水池清洁器的周围(即,无需先前的与环境相关的校准或教导)。通过这种方式,控制***10能够确定和优化清洁路线并能够操作水池清洁器12以遵循(follow)这些优化的清洁路线(例如,在特定时间段内遍历整个游泳池地板)。此外,控制***10能够跟踪清洁器的运动,以便跟踪被清洁碎屑的路线,并确保已经在特定时间段之内遍历了整个游泳池地板。在一些实施例中,如下所述,可以由控制***10使用基于特征的扩展卡尔曼滤波器(EKF)(Extended Kalman Filter)SLAM技术。在其他实施例中,可以使用其他SLAM技术。
通常,为了使机器人运载工具能够自主在任何环境中执行任务,它们必须能够确定其位置以及定位并且记住该环境中的障碍以及目标对象的位置,或者换言之,它们必须能够SLAM。可以使用扩展的卡尔曼滤波器(EKF)来估计SLAM之后的情况。以下段落提供了根据本发明一些实施例的EKF SLAM方法的概要。
从概率的意义上,SLAM的目标是连同周围环境的地图估计水池清洁器12当前姿态的后续发展,其被表示为
p(xt,m|z1:t,u1:t), Eq.10
其中xt是水池清洁器12在时间t的姿态,m是地图,z1:t是测量结果,u1:t为控制输入。EKF能够假设状态转换和测量模型定义为
xt=g(ut,xt-1)+ηx,t,t=1,2..., Eq.11
zt=h(xt)+ηz,t, Eq.12
其中g(.)和h(.)是非线性噪声和加性噪声,ηx,t和ηz,t是协方差分别为Rt和Qt的零平均值高斯过程。SLAM的EKF解落在称为基于特征的方法的一类解中。在基于特征的SLAM中,假设围绕水池清洁器12的环境可以由称为特征的一组不同的点表达。结果,完整的SLAM状态由清洁器12的状态和地图的状态构成。
其中x和y是清洁器12在二维(2D)平面中的位置,θ是行进方向。地图由N个特征来代表,并且每个特征在2D平面中的位置保持在状态和中。
SLAM的EKF解能够使用经典的预测校正模型。更具体而言,EKF的预测步骤基于由以上方程11给出的***的状态转换模型,且可以定义为
xt-1=g(ut|,xt-1), Eq.14
其中xt-1是根据前一时间步骤的状态估计,xt-1是当前时间步骤的完整SLAM状态的预测,Σt-1是前一时间步骤的协方差估计,是当前时间步骤的协方差预测,且Gt是g(.)相对于在ut和xt-1评估的xt-1的雅可比行列式。校正步骤来自由以上方程12给出的测量模型,且可以定义为
其中Ht是h(.)相对于在xt-1和zt评估的xt-1的雅可比行列式,zt是当前时间的测量结果。
一些实施例的当前EKF SLAM技术能够包括标准EKF中没有出现的附加步骤,其与向SLAM状态增加新特征相关。例如,在遇到新特征时,必须将其集成到完整SLAM状态(xt)以及SLAM协方差(Σt)两者中。可以由下式定义SLAM状态的增强(augmentation):
其中是增加新特征之后的SLAM状态,且f(.)基于当前清洁器状态和对特征的观测估计在全局系中新特征的位置。
相对于SLAM协方差的增强,对SLAM协方差的检查表明其采取如下形式
其中Σt,V是清洁器估计的协方差,Σt,Vm是清洁器估计和地图估计之间的协方差,且Σt,m是地图估计的协方差。根据Bailey等人(“Simultaneous localization andmapping(slam):Part ii”。Robotics&Automation Magazine,IEEE,13(3),pp.108-117),可以将SLAM协方差的增强形式计算为
其中是增强的SLAM协方差,Ft,X是f(.)相对于在xt和zt评估的xt的雅可比行列式,Ft,Z是f(.)相对于在xt和zt计算的zt的雅可比行列式。
参考本发明实施例的控制***10,传感器组件16、24能够提供表示上述状态转换模型输入ut和特征测量结果zt的数据。传统上,对于地面运载工具应用,状态转换模型的输入由来自车轮编码器的测距读数构成,而特征的位置是利用光探测和测距(LiDAR)来计算的。不过,这些类型的传感器不能在水下环境中工作。在典型的水下环境中,很多现有的传感器技术基于声学,其中从多普勒速度记录仪(DVL)向运载工具提供测距数据,且利用SONAR传感器定位特征。不过,如上所述,由于在相对小的封闭环境(例如游泳池和温泉)中可能产生大量多次回波,所以基于声学的传感器是存在问题的。此外,当前可用的传感器存在传感器特有的问题。例如,如上所述,水池清洁器12能够直接在水池地板上操作或非常接近水池地板工作。在这样的操作环境中,DVL传感器的性能差,而且它们还尺寸大且价格高,使得它们无法用于小型廉价水下载体中。此外,SONAR传感器的问题是它们难以在实施基于特征的SLAM方法时用于特征提取。更具体而言,SONAR只能报告位于SONAR传感器扫描锥前方一定距离处的对象的存在,使其难以识别可用于在基于特征的SLAM中生成地图的独特特征。结果,在可以发生适当数据关联之前必须从多个位置观测特征。基于计算机视觉算法和上述传感器组件16、24,本发明的控制***10能够克服以上问题并能够确定状态转换模型的控制输入,以及封闭水下环境中的有效界标测量结果(valid landmark measurement),如下文进一步所述。
对于第二传感器组件24而言,可以通过跟踪相机获取的连续图像之间的一组点,从面向下的相机计算视觉测距数据。根据帧之间点的平移和旋转,可以确定清洁器取向的变化(因此提供状态转换模型输入)。例如,参考图13,比较两幅图像以确定清洁器12的取向变化(即,相对于全局参照系167所示的当前图像Ic和之前图像IP)。选择要在帧间跟踪的点的一种方法是从图像随机选择点(例如图13中的点162)。不过,选择的所得点可能难以唯一地识别,从而跟踪点变得相当困难。为了缓解这个问题,根据一些实施例,可以使用具有其内置功能GoodFeaturesToTrack的开源图像处理库OpenCV。GoodFeaturesToTrack功能选择图像中的角作为能够容易识别和跟踪的特征。在一个实施例中,可以基于Shi和Tomasi提出的方法计算角(“Good features to track”,Computer Vision and PatternRecognition,1994。Proceedings CVPR'94,1994IEEE Computer Society Conference,pp.593-600),这种方法首先利用Sobel算子计算点周围的Hessian矩阵,以计算二阶导数。然后比较Hessian矩阵的两个本征值的最小值,如果其高于预设的最小阈值,选择该点作为有效角。利用选择的一组可跟踪的点,可以通过从IP到IC跟踪点,计算如图13所示的帧间位置的变化。
为了在帧之间跟踪点,可以使用多步算法。首先,例如,可以使用内核大小(kernelsize)为7的拉普拉斯算符滤波器过滤IP。可以使用过滤的图像而不是原始图像进行跟踪,以便考虑两帧之间光照条件的变化(例如,以防止由于阴影或光亮的变化导致的跟踪性能的劣化)。
在过滤IP之后,可以对图像执行GoodFeaturesToTrack功能,以计算在帧之间进行跟踪的点集。然后可以使用对IP使用的相同方法过滤IC。然后可以利用交叉相关(crosscorrelation)技术,例如由Nourani-vatani等人描述的技术(“Correlation Based VisualOdometry for Ground Vehicles”。Journal of Field Robotics,28(5),pp.742-768),在IC中找到从IP选择的每个点。例如,可以从IP选择包含点的窗口,并可以在点窗口和IC之间进行交叉相关。交叉相关最大值的位置对应于IC中的点的位置。可以利用小角度近似和2D齐次变换方程的线性化版本来确定IP和IC中的点之间的关系:
其中xp,yp,xc和yc分别是该点在IP和IC中的x和y位置,δx,δy和δθ是清洁器在相机参照系中的变化和取向的分量。整理方程22获得
ypδθ+δx=xc-xp, Eq.23
-xpδθ+δy=yc-yp, Eq.24
可以针对所有被跟踪的点将其组合为
其中i=1,2,……,M,M是被跟踪点的数目。可以通过利用SVD算法计算伪逆(pseudoinverse)来发现所得的取向变化。然后可以利用事先从运行校准算法确定的校准常数将取向变化δx,δy和δθ从像素单位变换到世界单位。
在建立状态转换模型中可以考虑两个参照系:运载工具参考系169,在其中测距数据被收集;以及全局参考系167,清洁器12在其中工作,两者都示于图14中(其中全局参考系167由yg和xg表示,而运载工具参考系169由y'和x'表示)。视觉测距数据从相机参考系到全局参考系的转化(rotation),从几何的角度上来说,可以定义为:
Δx=Δy′cos(θ)+Δx′sin(θ), Eq.26
Δy=Δy′sin(θ)-Δx′cos(θ), Eq.27
其中Δx和Δy是清洁器在全局系中的平移,Δx'和Δy'是在运载工具系中的平移。所得的状态转换矩阵被定义为
xt=xt-1+Δy′cos(θ)+Δx′sin(θ), Eq.28
yt-yt-1+Δy′sin(θ)-Δx′cos(θ), Eq.29
θt=θt,m, Eq.30
其中θt,m是来自指南针的测量结果。所得的控制输入矢量 是有噪声的测量结果。为了拟合EKF所需要的形式,可以假设传感器噪声是协方差为Mt的零平均值高斯过程。所得的***状态转换模型可以被定义为
其具有协方差Rt=VtMtVt T,其中Vt为g(.)相对于在xt-1和ut评估的ut的雅可比行列式。于是,利用以上方法,可以使用来自第二传感器组件24的测距数据来确定状态转换模型输入。
对于激光测距仪16,可以确定形状信息,从而能够进行特征检测。可以使用所确定的到特征的距离和相对朝向确定EKF SLAM的测量模型(即,特征测量结果)。如图15A-15B所示,存在激光测距仪16在其中工作的两个参考系:激光测距仪的局部参考系170和清洁器12在其中操作的全局参考系172。在激光测距仪的局部参考系170中,可以将到特征的距离和相对朝向定义为
φ=atan2(Mx,L,My,L), Eq.33
其中φ是到特征的相对朝向,r是距特征的距离,Mx,L和My,L是特征在局部系170中的坐标。在全局系172中,r和φ可以定义为
φ=θ-atan2(My,G-y,Mx,G-x), Eq.35
其中MX,G和My,G是特征在全局系172中的位置。所得的测量模型为
其具有协方差为Qt的零平均值高斯加性噪声,该高斯加性噪声匹配EKF所需要的形式。
如上所述,EKF SLAM是基于特征的技术,结果,特征检测是实施本技术的关键方面。基于一些实施例中使用的传感器组件16,可以将环境中几乎任何东西用作特征。例如,在室内环境中,常见特征可以包括墙壁和角,因为这些是容易识别的静态对象。如上所述,可以从激光测距仪16的距离测量结果提取诸如角的特征。例如,可以首先使用用于线识别的随机样本一致(random sample consensus,RANSAC)算法的稍微改进版本。对RANSAC线识别的改进涉及如何产生随机样本集合。例如,在标准的RANSAC算法中,样本集合由并非已经附着到对象模型的随机可能内部点(inlier)构成。这个可以被改进以减少对于并不是环境中的真实墙壁的线的错误识别。更具体而言,为了克服这种错误识别的问题,可以通过如下方式产生样本集合:首先随机选择单个可能的内部点,然后使用位于所选点周围窗口之内的所有可能内部点作为样本集合。在线识别步骤之后,可以找到线之间的交点,并且如果那些线之间的最小角度大于预定义阈值,可以将该交点表征为角。在图16中示出了这种所得角落识别的范例,包括激光测距仪距离测量结果174、两条提取的线176、178和检测到的角180。
与特征相关的EKF SLAM的另一分量称为数据关联,亦即,如果观测到的特征已经被看到,将该特征与其自身相关联,或者如果观测到的特征从未被看到,增加该特征作为新特征。在一些实施例中,可以使用门控搜索(gated search)算法。更具体而言,对于每次观测,基于清洁器状态的当前估计,可以将预测的位置与当前跟踪的特征的每个进行比较,并且如果预测的位置落在当前跟踪特征的门控距离之内,可以将观测与该特征相关联,且如果观测不与任何被跟踪特征相关联,该观测可以被假定为新特征并可以被增加到当前状态估计。在一些实施例中可以使用其他更复杂的方法。通过连续或周期性地更新清洁器的状态估计,且由于状态估计还包含当前描述地图的所有特征,所以也可以更新那些估计,这些数据关联方法能够提供清洁器的真实位置的更好估计并减小误差。
在一些实施例中,利用以上方法和技术,控制***10能够连续或周期性地测量水池清洁器12前方的对象距离,绘制周围环境,识别环境之内的对象,定位水池清洁器在环境之内的位置,和/或在整个环境内导航水池清洁器12。例如,基于绘图和定位,控制***10能够跟踪和控制水池清洁器12的运动以优化水池清洁器12在整个环境中的清洁路线。这可以包括确定和存储清洁路线,以及控制水池清洁器12以遵循清洁路线或跟踪水池清洁器12的运动路线,并周期性调节水池清洁器12的运动以确保在特定时间段内遍历环境的所有区域。
本领域的技术人员将要认识到,尽管上文已经结合特定实施例和范例描述了本发明,但本发明未必受此限制,众多其他实施例、范例、用途,以及实施例、范例和用途的修改和偏离意在由本文所附权利要求涵盖。所援引的每个专利和出版物的全部公开通过引用并入本文,如同每个这样的专利或出版物是通过引用单独并入本文一样。在如下权利要求中阐述了本发明的各种特征和优点。
Claims (13)
1.一种水池清洁器控制***,用于检测到所述水池清洁器前方对象的物理距离,所述控制***包括:
激光测距仪,包括第一激光线发生器、第二激光线发生器和相机,所述第一激光线发生器和所述第二激光线发生器被定位以发射平行激光线,且所述相机被相对于所述第一激光线发生器和所述第二激光线发生器定位以拍摄投射到所述对象上的激光线的图像;以及
与所述激光测距仪通信的控制器,其被配置成
仅针对从所述图像移除畸变以及确定相机焦距来校准所述激光测距仪,
控制所述第一激光线发生器和所述第二激光线发生器的操作以发射激光线,
控制所述相机以拍摄投射到所述对象上的激光线的图像,
从所述相机接收所述图像,
计算所述图像中所述激光线之间的像素距离,以及
基于所述像素距离计算所述相机和所述对象之间的物理距离。
2.根据权利要求1所述的控制***,其中所述第一激光线发生器和所述第二激光线发生器垂直安装于彼此之上并分开一垂直距离。
3.根据权利要求2所述的控制***,其中所述控制器被进一步配置成基于所述第一激光线发生器和所述第二激光线发生器之间的所述垂直距离计算所述相机和所述对象之间的所述物理距离。
4.根据权利要求1所述的控制***,其中相对于所述相机定位所述第一激光线发生器和所述第二激光线发生器以发射平行于所述相机视轴的激光线。
5.根据权利要求1所述的控制***,其中所述第一激光线发生器和所述第二激光线发生器是绿色激光线发生器。
6.根据权利要求1所述的控制***,其中所述第一激光线发生器和所述第二激光线发生器被相对于所述相机定位以发射平行于地表面的激光线。
7.根据权利要求1所述的控制***,其中所述第一激光线发生器和所述第二激光线发生器均以大约60度扇形角发射所述激光线。
8.一种用于水下环境的自主机器人水池清洁器,所述水池清洁器包括:
测距仪,所述测距仪被配置成发射第一线和第二线,并检测所述第一线和所述第二线在所述环境的特征上的投影;
相机,配置成拍摄所述水池清洁器下方环境的地板表面的图像;
控制器,与所述测距仪和所述相机通信,所述控制器被配置成:
仅针对从图像移除畸变以及确定相机焦距来校准所述测距仪,
基于所检测到的所述第一线和所述第二线在所述特征上的投影来确定所述测距仪和所述特征之间的物理距离,
基于拍摄的图像确定视觉测距数据,
基于所述物理距离和所述视觉测距数据绘制所述环境,以及
跟踪所述水池清洁器在所述环境之内的位置。
9.根据权利要求8所述的水池清洁器,还包括与所述控制器通信的定向控制***,所述定向控制***被配置成在所述地板表面上移动所述水池清洁器,所述控制器被配置成基于所绘制的环境来操作所述定向控制***以移动所述水池清洁器。
10.根据权利要求9所述的水池清洁器,其中所述控制器被配置成基于所绘制的环境生成所述水池清洁器的清洁路线,并操作所述定向控制***以沿所述清洁路线移动所述水池清洁器。
11.根据权利要求8所述的水池清洁器,其中检测所述第一线和所述第二线在特征上的投影包括拍摄投射到所述特征上的所述第一线和所述第二线的图像,所述控制器被配置成通过将所述图像中投射到所述特征上的所述第一线和所述第二线之间的像素距离关联到所述物理距离来确定所述测距仪和所述特征之间的物理距离。
12.根据权利要求8所述的水池清洁器,其中所述控制器被配置成利用基于特征的扩展卡尔曼滤波器同步定位和绘制来绘制环境。
13.一种在水下环境中利用双平面激光测距仪确定到对象的距离的方法,所述方法包括如下步骤:
向所述对象上投射第一线;
向所述对象上投射与所述第一线平行的第二线;
拍摄所述对象上投射的第一线和投射的第二线的图像;
仅为了从所述图像移除畸变以及确定相机焦距来校准所述双平面激光测距仪,
将所述图像分割成独立的图像片段;
对于每个图像片段:
提取所述图像片段中的颜色平面以获得灰度级图像片段;
检测所述灰度级图像片段中的可能的线边缘;
利用所述可能的线边缘提取线段;
对所述线段分组以获得所述灰度级图像片段中的投射的第一线和投射的第二线;
计算所述灰度级图像片段中投射的第一线和投射的第二线之间的像素距离;以及
基于所述像素距离计算到所述对象的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810604132.3A CN108661362A (zh) | 2012-06-27 | 2013-06-27 | 具有激光测距仪***的水池清洁器和方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261664945P | 2012-06-27 | 2012-06-27 | |
US61/664,945 | 2012-06-27 | ||
PCT/US2013/048370 WO2014004929A2 (en) | 2012-06-27 | 2013-06-27 | Pool cleaner with laser range finder system and method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810604132.3A Division CN108661362A (zh) | 2012-06-27 | 2013-06-27 | 具有激光测距仪***的水池清洁器和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105308414A CN105308414A (zh) | 2016-02-03 |
CN105308414B true CN105308414B (zh) | 2018-07-06 |
Family
ID=49784027
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380041089.XA Expired - Fee Related CN105308414B (zh) | 2012-06-27 | 2013-06-27 | 具有激光测距仪***的水池清洁器和方法 |
CN201810604132.3A Pending CN108661362A (zh) | 2012-06-27 | 2013-06-27 | 具有激光测距仪***的水池清洁器和方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810604132.3A Pending CN108661362A (zh) | 2012-06-27 | 2013-06-27 | 具有激光测距仪***的水池清洁器和方法 |
Country Status (8)
Country | Link |
---|---|
US (3) | US9086274B2 (zh) |
EP (1) | EP2867611A4 (zh) |
CN (2) | CN105308414B (zh) |
AU (2) | AU2013284446B2 (zh) |
BR (1) | BR112014032713A2 (zh) |
CA (1) | CA2877919A1 (zh) |
IN (1) | IN2015KN00237A (zh) |
WO (1) | WO2014004929A2 (zh) |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2877919A1 (en) | 2012-06-27 | 2014-01-03 | Pentair Water Pool And Spa, Inc. | Pool cleaner with laser range finder system and method |
US9388595B2 (en) | 2012-07-10 | 2016-07-12 | Aqua Products, Inc. | Pool cleaning system and method to automatically clean surfaces of a pool using images from a camera |
US10248886B2 (en) * | 2013-10-30 | 2019-04-02 | Pgs Geophysical As | System and method for underwater distance measurement |
EP2821564B1 (en) | 2014-01-07 | 2016-04-13 | Aquatron Robotic Technology Ltd. | Swimming pool cleaner |
KR101575597B1 (ko) * | 2014-07-30 | 2015-12-08 | 엘지전자 주식회사 | 로봇 청소 시스템 및 로봇 청소기의 제어방법 |
US10156438B2 (en) * | 2014-08-15 | 2018-12-18 | Fugro N.V. | Underwater laser based modeling device |
WO2016031763A1 (ja) * | 2014-08-29 | 2016-03-03 | 株式会社日立国際電気 | 固体撮像装置及び撮像方法 |
WO2016045593A1 (zh) | 2014-09-23 | 2016-03-31 | 苏州宝时得电动工具有限公司 | 自移动机器人 |
US10933534B1 (en) * | 2015-11-13 | 2021-03-02 | AI Incorporated | Edge detection system |
US10254403B1 (en) * | 2014-11-24 | 2019-04-09 | AI Incorporated | Edge detection system |
US11685053B1 (en) | 2014-11-24 | 2023-06-27 | AI Incorporated | Edge detection system |
US9678210B2 (en) | 2014-12-19 | 2017-06-13 | Caterpillar Inc. | Error estimation in real-time visual odometry system |
CN104656093B (zh) * | 2015-02-01 | 2017-02-01 | 浙江大学 | 一种水下激光测距仪及测距方法 |
US10107000B2 (en) | 2015-02-24 | 2018-10-23 | Hayward Industries, Inc. | Pool cleaner with optical out-of-water and debris detection |
US9954107B2 (en) * | 2015-05-05 | 2018-04-24 | International Business Machines Corporation | Strained FinFET source drain isolation |
EP3118601B1 (en) * | 2015-07-15 | 2018-04-18 | Peng Cheng | Torque sensor |
CN105371818A (zh) * | 2015-11-30 | 2016-03-02 | 湖北易瓦特科技股份有限公司 | 测距避障仪和无人机测距避障的方法 |
US10188169B2 (en) * | 2016-03-15 | 2019-01-29 | Nike, Inc. | Sensor for an article of footwear |
US10167650B2 (en) | 2016-08-10 | 2019-01-01 | Aquatron Robotic Technology Ltd. | Concurrent operation of multiple robotic pool cleaners |
KR102272801B1 (ko) | 2016-11-29 | 2021-07-02 | 블랙모어 센서스 앤드 애널리틱스, 엘엘씨 | 포인트 클라우드 데이터 세트에서 객체의 분류를 위한 방법 및 시스템 |
CN110140064B (zh) | 2016-11-30 | 2023-07-18 | 布莱克莫尔传感器和分析有限责任公司 | 利用光学测距***进行自动实时自适应扫描的方法和*** |
US11802965B2 (en) | 2016-11-30 | 2023-10-31 | Blackmore Sensors & Analytics Llc | Method and system for doppler detection and doppler correction of optical chirped range detection |
US11624828B2 (en) | 2016-11-30 | 2023-04-11 | Blackmore Sensors & Analytics, Llc | Method and system for adaptive scanning with optical ranging systems |
US10422880B2 (en) | 2017-02-03 | 2019-09-24 | Blackmore Sensors and Analytics Inc. | Method and system for doppler detection and doppler correction of optical phase-encoded range detection |
US10550594B2 (en) | 2017-04-20 | 2020-02-04 | International Business Machines Corporation | Automated cleaning device |
US10401495B2 (en) | 2017-07-10 | 2019-09-03 | Blackmore Sensors and Analytics Inc. | Method and system for time separated quadrature detection of doppler effects in optical range measurements |
WO2019014406A1 (en) | 2017-07-12 | 2019-01-17 | Zodiac Pool Systems Llc | SYSTEMS AND METHODS FOR MAPPING OR OTHERWISE DISCERNING POOL AND SPAS CHARACTERISTICS |
EP4235343A3 (en) * | 2017-08-22 | 2023-10-04 | Pentair Water Pool and Spa, Inc. | Pool cleaner control system |
US11994391B2 (en) | 2017-10-04 | 2024-05-28 | Zodiac Pool Systems Llc | Determining characteristics of liquid-containing vessels such as swimming pools and spas and using such characteristics in operation of the vessels |
US11169268B1 (en) * | 2017-12-12 | 2021-11-09 | Philip Raymond Schaefer | System and method for measuring the position of a moving object |
US10293489B1 (en) * | 2017-12-15 | 2019-05-21 | Ankobot (Shanghai) Smart Technologies Co., Ltd. | Control method and system, and cleaning robot using the same |
EP3521532B1 (en) * | 2018-02-04 | 2021-01-06 | Maytronics Ltd. | Pool cleaning robot and a method for imaging a pool |
EP3785043B1 (en) * | 2018-04-23 | 2023-08-16 | Blackmore Sensors & Analytics, LLC | Method and system for controlling autonomous vehicle using coherent range doppler optical sensors |
EP3841263A1 (en) * | 2018-08-20 | 2021-06-30 | Zodiac Pool Systems LLC | Mapping and tracking methods and systems principally for use in connection with swimming pools and spas |
CN109186463B (zh) * | 2018-09-04 | 2021-12-07 | 浙江梧斯源通信科技股份有限公司 | 应用于可移动机器人的防跌落方法 |
CN109269421A (zh) * | 2018-09-14 | 2019-01-25 | 李刚 | 万能拍摄测量尺 |
FR3091525B1 (fr) * | 2019-01-04 | 2021-01-29 | Balyo | Équipement de manutention autoguidé comportant un moyen de détection |
US11822010B2 (en) | 2019-01-04 | 2023-11-21 | Blackmore Sensors & Analytics, Llc | LIDAR system |
CN109917788B (zh) * | 2019-03-13 | 2022-12-06 | 深圳乐动机器人股份有限公司 | 一种机器人沿墙行走的控制方法及装置 |
CN109975759B (zh) * | 2019-03-30 | 2023-03-17 | 广东工业大学 | 一种基于三色激光的水下无人机定位方法及装置 |
CN110209160A (zh) * | 2019-04-29 | 2019-09-06 | 北京云迹科技有限公司 | 基于激光的障碍物提取方法及装置 |
KR102224637B1 (ko) | 2019-07-05 | 2021-03-08 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102275300B1 (ko) | 2019-07-05 | 2021-07-08 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102297496B1 (ko) * | 2019-07-11 | 2021-09-02 | 엘지전자 주식회사 | 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법 |
KR102361130B1 (ko) | 2019-07-11 | 2022-02-09 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
CN110954015B (zh) * | 2019-10-11 | 2021-07-20 | 中交第二航务工程局有限公司 | 基于激光调焦和图像识别的盾尾间隙测量方法 |
CN114734480A (zh) * | 2021-01-07 | 2022-07-12 | 中国科学院沈阳自动化研究所 | 一种工业机器人空间位姿精度测试*** |
CN116076950A (zh) | 2022-06-13 | 2023-05-09 | 北京众清科技有限公司 | 一种水池清洗的方法及装置 |
CN115069710A (zh) * | 2022-06-27 | 2022-09-20 | 广东韶钢松山股份有限公司 | 一种激光测距装置以及桥式起重机 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4760269A (en) * | 1986-05-20 | 1988-07-26 | The Mitre Corporation | Method and apparatus for measuring distance to an object |
CN1888813A (zh) * | 2005-06-28 | 2007-01-03 | 富士通株式会社 | 图像获取设备 |
CN101297267A (zh) * | 2005-09-02 | 2008-10-29 | Neato机器人技术公司 | 多功能机器人设备 |
Family Cites Families (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US811432A (en) | 1905-03-13 | 1906-01-30 | Albert E Peake | Means for displaying pictures and the like. |
US3676884A (en) * | 1970-04-14 | 1972-07-18 | Stanley S Wulc | Random motion suction cleaner |
US3845291A (en) | 1974-02-08 | 1974-10-29 | Titan Tool And Die Co Inc | Water powered swimming pool light |
US3980891A (en) | 1975-05-16 | 1976-09-14 | Intec Corporation | Method and apparatus for a rotary scanner flaw detection system |
US4198164A (en) | 1976-10-07 | 1980-04-15 | Ensco, Inc. | Proximity sensor and method and apparatus for continuously measuring rail gauge |
US4277707A (en) | 1978-04-24 | 1981-07-07 | The Garrett Corporation | High speed magnetic coupling |
US4196648A (en) | 1978-08-07 | 1980-04-08 | Seneca Sawmill Company, Inc. | Automatic sawmill apparatus |
US4775235A (en) | 1984-06-08 | 1988-10-04 | Robotic Vision Systems, Inc. | Optical spot scanning system for use in three-dimensional object inspection |
US4705395A (en) | 1984-10-03 | 1987-11-10 | Diffracto Ltd. | Triangulation data integrity |
NO864109L (no) | 1985-10-17 | 1987-04-21 | Knepper Hans Reinhard | Fremgangsmaate for automatisk foering av selvgaaende gulvrengjoeringsmaskiner samt gulvrengjoeringsmaskin for utfoerelse av fremgangsmaaten. |
US4616298A (en) | 1985-12-26 | 1986-10-07 | Bolson Frank J | Water-powered light |
US4878754A (en) | 1986-10-16 | 1989-11-07 | Tokyo Keiki Co. Ltd. | Method of and apparatus for measuring irregularities of road surface |
US4745290A (en) | 1987-03-19 | 1988-05-17 | David Frankel | Method and apparatus for use in making custom shoes |
US5024529A (en) * | 1988-01-29 | 1991-06-18 | Synthetic Vision Systems, Inc. | Method and system for high-speed, high-resolution, 3-D imaging of an object at a vision station |
US4920465A (en) | 1988-11-15 | 1990-04-24 | Alopex Industries, Inc. | Floating fountain device |
US5113080A (en) | 1990-07-10 | 1992-05-12 | New Jersey Institute Of Technology | Non-linear displacement sensor based on optical triangulation principle |
US5205174A (en) | 1991-05-24 | 1993-04-27 | Silverman Eugene B | Scavenger submersible visual and acoustical tank inspection system and method |
US5313261A (en) * | 1992-07-13 | 1994-05-17 | Applied Remote Technology Inc. | Method and apparatus for faithful gray scale representation of under water laser images |
US5475207A (en) | 1992-07-14 | 1995-12-12 | Spectra-Physics Scanning Systems, Inc. | Multiple plane scanning system for data reading applications |
JPH0642914A (ja) | 1992-07-24 | 1994-02-18 | Canon Inc | 変位測定装置 |
US5337434A (en) | 1993-04-12 | 1994-08-16 | Aqua Products, Inc. | Directional control means for robotic swimming pool cleaners |
US5414268A (en) | 1994-02-01 | 1995-05-09 | The Coe Manufacturing Company | Light scanner with interlaced camera fields and parallel light beams |
JP3293314B2 (ja) | 1994-04-14 | 2002-06-17 | ミノルタ株式会社 | 清掃ロボット |
IL109394A (en) | 1994-04-22 | 1997-03-18 | Maytronics Ltd | Swimming pool cleaning, navigational control system and method |
US5852984A (en) | 1996-01-31 | 1998-12-29 | Ishikawajimi-Harima Heavy Industries Co., Ltd. | Underwater vehicle and method of positioning same |
SE9602216L (sv) | 1996-06-04 | 1997-05-26 | Mark & Marin Ab | Anordning för rengöring av vattencisterner |
US6758755B2 (en) | 1996-11-14 | 2004-07-06 | Arcade Planet, Inc. | Prize redemption system for games executed over a wide area network |
US5929984A (en) | 1996-12-10 | 1999-07-27 | Hamar Laser Instruments, Inc. | System and method for generating multiple parallel beams and planes |
EP0913707B1 (de) * | 1997-10-31 | 2003-06-11 | LAP GmbH Laser Applikationen | Verfahren zur berührungsfreien Messung des Abstands eines Objekts nach dem Prinzip der Laser-Triangulation |
US6152704A (en) | 1998-09-30 | 2000-11-28 | A-Med Systems, Inc. | Blood pump with turbine drive |
US6876392B1 (en) * | 1998-12-22 | 2005-04-05 | Matsushita Electric Industrial Co., Ltd. | Rangefinder for obtaining information from a three-dimensional object |
JP2000230807A (ja) * | 1999-02-10 | 2000-08-22 | Micro Research:Kk | 平行光を利用した距離測定方法とその装置 |
US6758226B2 (en) * | 1999-04-01 | 2004-07-06 | Aqua Products Inc. | Motion detection and control for automated pool cleaner |
US6956348B2 (en) | 2004-01-28 | 2005-10-18 | Irobot Corporation | Debris sensor for cleaning apparatus |
WO2001084260A2 (en) | 2000-05-01 | 2001-11-08 | Irobot Corporation | Method and system for remote control of mobile robot |
US7024278B2 (en) | 2002-09-13 | 2006-04-04 | Irobot Corporation | Navigational control system for a robotic device |
EP1370737A1 (en) | 2001-02-28 | 2003-12-17 | Azoteq (PTY) Limited | Method of and apparatus for controlling the operation of a suction-type pool cleaner |
US20030057365A1 (en) | 2001-09-24 | 2003-03-27 | Bennett Ralph W. | Folded reflecting path optical spot scanning system |
GB2382708B (en) * | 2001-11-21 | 2006-03-15 | Roke Manor Research | Detection of foreign objects on surfaces |
KR100556612B1 (ko) | 2002-06-29 | 2006-03-06 | 삼성전자주식회사 | 레이저를 이용한 위치 측정 장치 및 방법 |
US6805458B2 (en) | 2002-08-15 | 2004-10-19 | Gelcore Llc | Night light for plumbing fixtures |
WO2004016400A2 (en) | 2002-08-16 | 2004-02-26 | Evolution Robotics, Inc. | Systems and methods for the automated sensing of motion in a mobile robot using visual data |
US7054716B2 (en) | 2002-09-06 | 2006-05-30 | Royal Appliance Mfg. Co. | Sentry robot system |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US7145478B2 (en) | 2002-12-17 | 2006-12-05 | Evolution Robotics, Inc. | Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system |
CN100434641C (zh) * | 2003-11-04 | 2008-11-19 | 水溶液产品公司 | 用于控制自动推动机器人池清洁器的移动方向的设备和方法 |
US7689321B2 (en) | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
US7706917B1 (en) | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
JP4378261B2 (ja) | 2004-10-27 | 2009-12-02 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
US7573402B2 (en) | 2005-08-25 | 2009-08-11 | Herbert William J | Dual laser beam guidance and parking device |
WO2008013568A2 (en) | 2005-12-30 | 2008-01-31 | Irobot Corporation | Autonomous mobile robot |
US8095238B2 (en) | 2006-11-29 | 2012-01-10 | Irobot Corporation | Robot development platform |
US7791235B2 (en) | 2006-12-22 | 2010-09-07 | General Electric Company | Variable magnetic coupling of rotating machinery |
CN101139007B (zh) | 2007-07-31 | 2011-06-15 | 北京理工大学 | 水下清洁机器人 |
US8092675B2 (en) | 2007-10-08 | 2012-01-10 | Zodiac Group Australia Pty. Ltd. | Energy generation methods and systems for swimming pools and other vessels with recirculating fluid |
AU2008350457B2 (en) | 2008-02-14 | 2012-05-03 | Yanmar Co., Ltd. | Underwater cleaning robot and auxiliary cleaning work machine |
IL199274A (en) | 2008-06-12 | 2015-09-24 | Maytronics Ltd | Pool cleaning robot |
US7864342B2 (en) | 2008-10-08 | 2011-01-04 | The Richard M. Weiss Revocable Trust | Apparatus and method for measuring displacement of a curved surface using dual laser beams |
US8340852B2 (en) | 2009-04-29 | 2012-12-25 | Honeywell International Inc. | System and method for simultaneous localization and map building |
CA2859112C (en) | 2009-08-31 | 2017-08-15 | Neato Robotics, Inc. | Method and apparatus for simultaneous localization and mapping of mobile robot environment |
US8506719B2 (en) | 2009-11-23 | 2013-08-13 | Searobotics Corporation | Robotic submersible cleaning system |
US9400503B2 (en) | 2010-05-20 | 2016-07-26 | Irobot Corporation | Mobile human interface robot |
KR101677634B1 (ko) | 2010-07-12 | 2016-11-18 | 엘지전자 주식회사 | 로봇 청소기 및 이의 제어 방법 |
US20120023676A1 (en) | 2010-07-31 | 2012-02-02 | Hansen Christian K | Orthopedic pillow having oblong central aperture |
KR101133091B1 (ko) | 2010-08-20 | 2012-04-04 | 재단법인 포항지능로봇연구소 | 청소로봇, 수중 청소장치 및 수중 청소방법 |
US9043129B2 (en) * | 2010-10-05 | 2015-05-26 | Deere & Company | Method for governing a speed of an autonomous vehicle |
IL217093A (en) * | 2011-12-19 | 2015-06-30 | P S I Pool Services Israel Ltd | Automatic Pool Cleaner and Energy Saving Pool Cleaner Method |
KR101984214B1 (ko) | 2012-02-09 | 2019-05-30 | 삼성전자주식회사 | 로봇 청소기의 청소 작업을 제어하기 위한 장치 및 방법 |
CA2877919A1 (en) * | 2012-06-27 | 2014-01-03 | Pentair Water Pool And Spa, Inc. | Pool cleaner with laser range finder system and method |
US9388595B2 (en) | 2012-07-10 | 2016-07-12 | Aqua Products, Inc. | Pool cleaning system and method to automatically clean surfaces of a pool using images from a camera |
WO2014018836A1 (en) | 2012-07-26 | 2014-01-30 | Leap Motion, Inc. | Object detection and tracking |
CN105404298B (zh) | 2012-09-21 | 2018-10-16 | 艾罗伯特公司 | 移动机器人上的接近度感测 |
US8972061B2 (en) | 2012-11-02 | 2015-03-03 | Irobot Corporation | Autonomous coverage robot |
US9020637B2 (en) | 2012-11-02 | 2015-04-28 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
EP2971408A4 (en) | 2013-03-15 | 2016-12-21 | Hayward Ind Inc | SWIMMING POOL CLEANER WITH HOME SYSTEM AND / OR OTHER ASSOCIATED SYSTEMS AND METHODS |
US9037396B2 (en) | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
CN105899112B (zh) | 2014-01-10 | 2018-07-06 | 艾罗伯特公司 | 自主移动机器人 |
US20160137886A1 (en) | 2014-11-13 | 2016-05-19 | GM Global Technology Operations LLC | Systems and methods for joining conductive surfaces using a releasable adhesive |
US10107000B2 (en) | 2015-02-24 | 2018-10-23 | Hayward Industries, Inc. | Pool cleaner with optical out-of-water and debris detection |
US9840003B2 (en) | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
FR3041980B1 (fr) | 2015-10-01 | 2017-11-17 | Zodiac Pool Care Europe | Systeme de nettoyage de piscine a dispositif de prise d’images |
-
2013
- 2013-06-27 CA CA2877919A patent/CA2877919A1/en not_active Abandoned
- 2013-06-27 IN IN237KON2015 patent/IN2015KN00237A/en unknown
- 2013-06-27 CN CN201380041089.XA patent/CN105308414B/zh not_active Expired - Fee Related
- 2013-06-27 EP EP13809058.4A patent/EP2867611A4/en not_active Ceased
- 2013-06-27 AU AU2013284446A patent/AU2013284446B2/en not_active Ceased
- 2013-06-27 WO PCT/US2013/048370 patent/WO2014004929A2/en active Application Filing
- 2013-06-27 BR BR112014032713A patent/BR112014032713A2/pt not_active IP Right Cessation
- 2013-06-27 CN CN201810604132.3A patent/CN108661362A/zh active Pending
- 2013-06-27 US US13/929,715 patent/US9086274B2/en active Active
-
2015
- 2015-06-03 US US14/730,068 patent/US10024073B2/en active Active
-
2017
- 2017-10-11 AU AU2017245357A patent/AU2017245357A1/en not_active Abandoned
-
2018
- 2018-07-17 US US16/038,032 patent/US11047146B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4760269A (en) * | 1986-05-20 | 1988-07-26 | The Mitre Corporation | Method and apparatus for measuring distance to an object |
CN1888813A (zh) * | 2005-06-28 | 2007-01-03 | 富士通株式会社 | 图像获取设备 |
CN101297267A (zh) * | 2005-09-02 | 2008-10-29 | Neato机器人技术公司 | 多功能机器人设备 |
Also Published As
Publication number | Publication date |
---|---|
US20150267433A1 (en) | 2015-09-24 |
WO2014004929A2 (en) | 2014-01-03 |
US9086274B2 (en) | 2015-07-21 |
US11047146B2 (en) | 2021-06-29 |
AU2013284446A1 (en) | 2015-02-12 |
US20140009748A1 (en) | 2014-01-09 |
AU2013284446B2 (en) | 2017-07-13 |
US20180320398A1 (en) | 2018-11-08 |
IN2015KN00237A (zh) | 2015-06-12 |
CN108661362A (zh) | 2018-10-16 |
EP2867611A2 (en) | 2015-05-06 |
EP2867611A4 (en) | 2016-12-07 |
CN105308414A (zh) | 2016-02-03 |
AU2017245357A1 (en) | 2017-11-02 |
US10024073B2 (en) | 2018-07-17 |
BR112014032713A2 (pt) | 2017-06-27 |
CA2877919A1 (en) | 2014-01-03 |
WO2014004929A3 (en) | 2015-06-25 |
WO2014004929A9 (en) | 2015-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105308414B (zh) | 具有激光测距仪***的水池清洁器和方法 | |
Kümmerle et al. | Large scale graph-based SLAM using aerial images as prior information | |
Song et al. | A Kalman filter-integrated optical flow method for velocity sensing of mobile robots | |
CN108481327A (zh) | 一种增强视觉的定位装置、定位方法及机器人 | |
Suresh et al. | Through-water stereo SLAM with refraction correction for AUV localization | |
CN108544494A (zh) | 一种基于惯性和视觉特征的定位装置、方法及机器人 | |
Thielemann et al. | Pipeline landmark detection for autonomous robot navigation using time-of-flight imagery | |
Carrera et al. | Lightweight SLAM and Navigation with a Multi-Camera Rig. | |
Gouda et al. | Vision based slam for humanoid robots: A survey | |
Chen et al. | Perception system design for low-cost commercial ground robots: Sensor configurations, calibration, localization and mapping | |
Gracias | Mosaic-based visual navigation for autonomous underwater vehicles | |
Li et al. | 2d lidar and camera fusion using motion cues for indoor layout estimation | |
Palmer et al. | Vision based localization system for AUV docking on subsea intervention panels | |
Fu et al. | Embedded omni-vision navigator based on multi-object tracking | |
Elnashef et al. | Drift reduction in underwater egomotion computation by axial camera modeling | |
Garcia | A proposal to estimate the motion of an underwater vehicle through visual mosaicking | |
Akai et al. | Teaching-Playback Navigation Without a Consistent Map | |
Song et al. | A survey: Stereo based navigation for mobile binocular robots | |
Khattak | Multi-Modal Landmark Detection and Tracking for Odometry Estimation in Degraded Visual Environments | |
Singh et al. | An Online Self-calibrating Refractive Camera Model with Application to Underwater Odometry | |
Yun et al. | Multi-hypothesis localization with a rough map using multiple visual features for outdoor navigation | |
Bosch Alay | Underwater navigation and mapping with an omnidirecional optical sensor | |
Garcia Campos | A proposal to estimate the motion of an underwater vehicle through visual mosaicking | |
Karthik | Vision system for autonomous navigation | |
Contreras Ojeda | Robot pose calculation based on Visual Odometry using Optical flow and Depth map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180706 Termination date: 20190627 |