CN110916562A - 自主移动设备、控制方法及存储介质 - Google Patents
自主移动设备、控制方法及存储介质 Download PDFInfo
- Publication number
- CN110916562A CN110916562A CN201811089507.3A CN201811089507A CN110916562A CN 110916562 A CN110916562 A CN 110916562A CN 201811089507 A CN201811089507 A CN 201811089507A CN 110916562 A CN110916562 A CN 110916562A
- Authority
- CN
- China
- Prior art keywords
- array laser
- autonomous mobile
- area array
- laser sensor
- mobile device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 230000007613 environmental effect Effects 0.000 claims abstract description 59
- 238000002310 reflectometry Methods 0.000 claims abstract description 10
- 230000000007 visual effect Effects 0.000 claims description 36
- 238000007781 pre-processing Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 11
- 238000004140 cleaning Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 6
- 238000010408 sweeping Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 3
- 239000011521 glass Substances 0.000 claims description 2
- 230000035484 reaction time Effects 0.000 claims 1
- 230000006870 function Effects 0.000 abstract description 26
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000009286 beneficial effect Effects 0.000 description 7
- 230000008447 perception Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000001788 irregular Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003930 cognitive ability Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012634 optical imaging Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/24—Floor-sweeping machines, motor-driven
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L1/00—Cleaning windows
- A47L1/02—Power-driven machines or devices
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/022—Optical sensing devices using lasers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Robotics (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Acoustics & Sound (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本申请实施例提供一种自主移动设备、控制方法及存储介质。在本申请实施例中,自主移动设备基于面阵激光传感器采集的环境信息进行环境感知进而完成各种功能,其中,面阵激光传感器采集到的环境信息包含高精度、高分辨率的方向和距离信息以及反射率信息,可以从中获取具有匹配和识别价值的环境特征,具有较强的环境辨识能力,有利于提高自主移动设备对环境的空间理解力,而相对于基于图像传感器的感知方案,能够提供更为准确的距离和方向信息,可降低感知运算的复杂度,提高实时性。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种自主移动设备、控制方法及存储介质。
背景技术
随着人工智能技术的发展,对机器人等自主移动设备的研究逐步深入。其中,自主移动设备能够感知外部环境并可与外部环境进行交互,是自主移动设备能够自主移动并执行任务的基础。目前,自主移动设备大多是通过单线激光雷达、多线激光雷达、图像传感器等传感器来感知外部环境,来满足障碍物识别和定位等自主性需求。
但是,目前基于单线激光雷达、多线激光雷达、图像传感器等传感器对外部环境进行感知的方案,均存在一定缺陷。例如,基于图像传感器的感知方案,运算复杂度较高,实时性低。基于单线或多线激光雷达的感知方案,在空间理解能力有一定限度。因此,有必要针对自主移动设备提供一种新的感知方案。
发明内容
本申请的多个方面提供一种自主移动设备、控制方法及存储介质,用以提高自主移动设备对环境的空间理解力,降低运算复杂度,提高实时性。
本申请实施例提供一种自主移动设备,包括:设备本体,所述设备本体上设置有控制单元和面阵激光传感器,所述控制单元与所述面阵激光传感器电连接;所述面阵激光传感器,用于采集所述自主移动设备作业环境中的环境信息并传输给所述控制单元;所述控制单元,用于根据所述环境信息对所述自主移动设备进行功能控制。
本申请实施例还提供一种自主移动设备的控制方法,包括:控制所述自主移动设备包括上的面阵激光传感器采集所述自主移动设备作业环境中的环境信息;获取所述面阵激光传感器输出的所述环境信息;根据所述环境信息对所述自主移动设备进行功能控制。
本申请实施例还提供一种存储有计算机程序的计算机可读存储介质,当所述计算机程序被一个或多个处理器执行时,致使所述一个或多个处理器执行以下动作:控制自主移动设备上的面阵激光传感器采集所述自主移动设备作业环境中的环境信息;获取所述面阵激光传感器输出的所述环境信息;根据所述环境信息对所述自主移动设备进行功能控制。
在本申请实施例中,自主移动设备基于面阵激光传感器采集的环境信息进行环境感知进而完成各种功能,其中,面阵激光传感器采集到的环境信息包含高精度、高分辨率的方向和距离信息以及反射率信息,可以从中获取具有匹配和识别价值的环境特征,具有较强的环境辨识能力,有利于提高自主移动设备对环境的空间理解力,而相对于基于图像传感器的感知方案,能够提供更为准确的距离和方向信息,可降低感知运算的复杂度,提高实时性。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1a为本申请示例性实施例提供的一种自主移动设备的硬件结构示意图;
图1b为本申请示例性实施例提供的另一种自主移动设备的硬件结构示意图;
图2a-图2d为本申请示例性实施例提供的几种扫地机器人的外轮廓示意图;
图3为本申请示例性实施例提供的无人车的高度示意图;
图4a为本申请示例性实施例提供的一种外轮廓为圆形的自主移动设备上设置一个面阵激光传感器的状态示意图;
图4b-图4d分别为本申请示例性实施例提供的一种圆柱形自主移动设备上设置一个面阵激光传感器的主视图、俯视图和侧视图;
图4e-图4g分别为本申请示例性实施例提供的一种外轮廓是方形的自主移动设备的中部位置、顶部位置或底部位置设置面阵激光传感器的示意图;
图5a和图5b分别为外轮廓为圆形的自主移动设备上相邻面阵激光传感器的水平视角的最远视距端相交的状态的主视图和俯视图;
图5c和图5d分别为外轮廓为圆形的自主移动设备上相邻面阵激光传感器的水平视角部分重叠的状态的主视图和俯视图;
图5e和图5f分别为外轮廓为圆形的自主移动设备上相邻面阵激光传感器的水平视角的边界平行的状态的主视图和俯视图;
图6a和图6b分别为外轮廓为三角形的自主移动设备上相邻面阵激光传感器的水平视角的最远视距端相交的状态的主视图和俯视图;
图6c和图6d分别为外轮廓为三角形的自主移动设备上相邻面阵激光传感器的水平视角部分重叠的状态的主视图和俯视图;
图6e和图6f分别为外轮廓为三角形的自主移动设备上相邻面阵激光传感器的水平视角的边界平行的状态的主视图和俯视图;
图7为本申请示例性实施例提供的一种自主移动设备的控制方法的流程示意图;
图8为本申请示例性实施例基于面阵激光传感器采集的环境信息构建出的一种3D栅格地图的样式图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
针对现有自主移动设备在对外部环境进行感知方面均存的缺陷,本申请实施例提供一种解决方案,在自主移动设备上应用面阵激光传感器,自主移动设备基于面阵激光传感器采集到的环境信息进行环境感知进而完成各种功能。其中,面阵激光传感器采集到的环境信息包含高精度、高分辨率的方向和距离信息以及反射率信息,可以从中获取具有匹配和识别价值的环境特征,具有较强的环境辨识能力,有利于提高自主移动设备对环境的空间理解力,而相对于基于图像传感器的感知方案,能够提供更为准确的距离和方向信息,可降低感知运算的复杂度,提高实时性。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1a为本申请示例性实施例提供的一种自主移动设备的硬件结构示意图。如图1a所示,该自主移动设备包括:设备本体101,设备本体101上设置有控制单元102和面阵激光传感器103,控制单元102和面阵激光传感器103电连接。
本实施例的自主移动设备可以是任何能够在其作业环境中高度自主地进行空间移动的机械设备,例如,可以是无人车、无人机、机器人等。其中,自主移动设备可以是清扫型机器人、其它服务型机器人等各类机器人。清扫型机器人是指能够在其作业环境中自主执行清扫任务的机器人,包括扫地机器人、擦玻璃机器人等。其它服务型机器人是指能够在其作业环境中自主移动并提供非清扫服务的机器人,包括空气净化机器人、家庭陪护机器人、迎宾机器人等。
当然,根据自主移动设备实现形态的不同,自主移动设备的形状也会有所不同。本实施例并不限定自主移动设备的形态,以自主移动设备的外轮廓形状为例,自主移动设备的外轮廓形状可以是不规则形状,也可以是一些规则形状。例如,自主移动设备的外轮廓形状可以是圆形、椭圆形、方形、三角形、水滴形或D形等规则形状。相应地,规则形状之外的称为不规则形状,例如人形机器人的外轮廓、无人车的外轮廓以及无人机的外轮廓等属于不规则形状。
可选地,以自主移动设备是扫地机器人为例,如图2a-2d所示,扫地机器人的外轮廓可以是圆形、椭圆形、方形或三角形等。
对自主移动设备而言,为了能够在其作业环境中自主移动,需要感知其作业环境。在本实施例中,自主移动设备上设置面阵激光传感器103,面阵激光传感器103采集自主移动设备作业环境中的环境信息,并将采集到的环境信息传输给控制单元102;控制单元102接收面阵激光传感器103传输的环境信息,根据环境信息感知自主移动设备的作业环境进而对自主移动设备进行功能控制。
其中,面阵激光传感器103主要包括激光发射阵列和信息采集模块,信息采集模块可以采集环境图像,也可以接收激光打到物体上返回来的反射光。信息采集模块可以包含摄像头等组件。面阵激光传感器103的工作原理是:激光发射阵列经其前方的光学成像***向外发射光源,发射出的光源在到达物体表面后,一部分反射回来并经信息采集模块前方的光学成像***形成图像上的像素点。而由于物体表面到返回点的距离不同,其反射光飞行时间(TOF)不同,通过对反射光飞行时间的测量,每个像素点就可获得独立的距离信息,其探测范围可以达到百米以上。另外,面阵激光传感器103的信息采集模块还可以采集周围环境的图像,实现百万像素级别的分辨率的快速3D成像,及成像频率在每秒30帧以上。
其中,面阵激光传感器103采集到的环境信息不仅包含方向和距离信息,还加入了物体表面的反射率信息,辅以三维场景下的深度学***;另外,相对于基于图像传感器的感知方案,面阵激光传感器103能够提供更为准确的距离和方向信息,可降低感知运算的复杂度,提高实时性。
当然,对面阵激光传感器103而言,除了具有上述优势之外,在以下几个方面也具有较明显的优势:1)面阵激光传感器具有固态化、低成本化、小型化优势;2)面阵激光传感器在安装使用时不需要旋转部件,可以大大压缩传感器的结构和尺寸,提高使用寿命,并降低成本;3)面阵激光传感器的视角可以调节,可适配不同自主移动设备,有利于加快扫描速度与精度;4)面阵激光传感器可以同时采集水平和竖直方向上的环境信息,可以建成3D地图,有利于提高基于地图的定位、导航规划等功能的准确性。
值得说明的是,基于面阵激光传感器103采集到的包含方向、距离和反射率三个维度的环境信息,可以控制自主移动设备实现各种基于环境感知的功能。例如,可以实现视觉算法上的物体识别、跟踪与分类等功能;另外,基于激光测距的高精度,还可以实现实时性强、鲁棒性强、精度高的定位和构建地图等功能,进而还可以基于构建出的高精度的环境地图对运动规划、路径导航等提供全方位的支持。关于这些功能的详细描述可参见后续方法实施例,在此不做详述。
在一些可选实施例中,如图1b所示,设备本体101上设置有预处理芯片104,预处理芯片104分别与控制单元102和面阵激光传感器103电连接。预处理芯片104主要用于在控制单元102使用面阵激光传感器103采集的环境信息之前,对面阵激光传感器103采集到的环境信息进行预处理并向控制单元102输出预处理后的环境信息。相应地,控制单元102具体可根据预处理芯片104提供的预处理后的环境信息对自主移动设备进行功能控制。
可选地,预处理芯片104对环境信息进行的预处理包括解析、同步、融合和滤波中的一种或任意组合。其中,解析的主要作用是对面阵激光传感器103 采集到的环境信息进行格式转换,将其从面阵激光传感器103所支持的数据格式解析成控制单元102所支持的数据格式。同步的主要作用是在多个面阵激光传感器103异步触发的情况下,对多个面阵激光传感器103采集到的环境信息在时间上对齐。融合的主要作用是在存在多个面阵激光传感器103的情况下,对多个面阵激光传感器103采集到的环境信息进行整合。滤波的主要作用是对面阵激光传感器103采集到的环境信息做平滑、去噪、边缘增强、提取和删除特定频率等处理,主要包括异常值的检测和过滤。
在这些可选实施方式中,由预处理芯片104对环境信息进行预处理,可以向控制单元102提供高质量的环境信息,有利于减轻控制单元102的处理负担,提高信息处理效率,进而可提高对自主移动设备进行功能控制的效率。
进一步,如图1b所示,预处理芯片104和面阵激光传感器103集成在一个模块中实现,为便于描述和区分,将该模块称为环境感知模块105。即预处理芯片104和面阵激光传感器103集成在环境感知模块105中。该环境感知模块105 主要用来采集自主移动设备作业环境中的环境信息,并对采集到的环境信息进行预处理后输出给控制单元102。
可选地,环境感知模块105可以以面阵激光传感器103为主要传感器,负责采集自主移动设备作业环境中的环境信息,除此之外,环境感知模块105中还可以集成有非面阵激光传感器106,非面阵激光传感器106作为辅助传感器,辅助采集更为丰富的环境信息。可选地,非面阵激光传感器106可以包括超声波传感器、红外传感器、视觉传感器、单线激光传感器和多线激光传感器中的一种或任意组合。综合各种传感器采集到的环境信息,可以进一步提高环境感知的准确度和精度,有利于进一步提高功能控制的精准度。
可选地,预处理芯片104还与非面阵激光传感器106电连接,对非面阵激光传感器106采集到的环境信息进行解析、同步、融合和滤波等中至少一种预处理。这里的“融合”包括对来自面阵激光传感器103以及非面阵激光传感器 106的环境信息进行融合;相应地,这里的“同步”包括对来自面阵激光传感器 103以及非面阵激光传感器106的环境信息进行同步。
在上述实施例中,对面阵激光传感器103、非面阵激光传感器106以及预处理芯片104进行模块化设计,方便在各类自主移动设备中使用,还有利于减小自主移动设备的体积,而且在重用、升级和维修等方面也更加方便。
值得说明的是,根据自主移动设备实现形态的不同,面阵激光传感器的形态、结构、数量、视角范围以及设置位置均会有所不同。本申请实施例并不限定面阵激光传感器的形态、结构、数量、视角范围以及设置位置,可结合自主移动设备的实现形态以及应用需求适应性选择和设置。下面从几个方面围绕面阵激光传感器进行示例性说明:
面阵激光传感器的覆盖范围:
面阵激光传感器在水平方向和垂直方向上均有一定视角,简称为水平视角和垂直视角,如图4a所示。在图4a中,自主移动设备的外轮廓为圆形,但不限于此。水平视角是指面阵激光传感器在水平面上能够采集信息的有效范围,垂直视角是指面阵激光传感器在垂直面上能够采集信息的有效范围。面阵激光传感器的水平视角和垂直视角结合起来可形成面阵激光传感器能够采集信息的有效空间范围。其中,不同面阵激光传感器的水平视角、垂直视角有所不同。例如,有些面阵激光传感器的水平视角是120度,垂直视角是10度;另一些面阵激光传感器的水平视角为90度,垂直视角是9度。对一个面阵激光传感器而言,其水平视角决定了该面阵激光传感器在水平面上的覆盖范围;相应地,其垂直视角决定了该面阵激光传感器在垂直面上的覆盖范围。
为了满足自主移动设备的自主移动需求,自主移动设备上设置的面阵激光传感器在水平面上的覆盖范围叠加起来应满足自主移动设备正常作业在水平面上的视角需求。
可选地,自主移动设备正常作业在水平面上的视角需求可以是60度-270 度,这就要求自主移动设备上设置的面阵激光传感器在水平面上的覆盖范围为 60度-270度。
例如,以工作在仓库中的搬运机器人为例,当其在仓库中移动时需要根据 60-150度左右的水平视角判断是否可以通行,这就要求其上设置的面阵激光传感器水平面上的覆盖范围达到60-150度。
又例如,以工作在家庭环境中的扫地机器人为例,为了在家庭环境中执行清扫任务,需要根据150-270度左右的水平视角实现定位和建图以辅助清扫地面,这就要求其上设置的面阵激光传感器水平面上的覆盖范围达到150-270度。
又例如,以工作在商场等环境中的迎宾机器人为例,当其执行迎宾任务时需要根据270-360度左右的水平视角进行商铺引导和目标跟踪,这就要求其上设置的面阵激光传感器水平面上的覆盖范围达到270-360度。
当然,若自主移动设备对垂直面上的覆盖范围也有要求,则与自主移动设备上设置的面阵激光传感器在水平面上的覆盖范围类似,其上设置的面阵激光传感器在垂直面上的覆盖范围也需要满足自主移动设备正常作业在垂直面上的视角需求,具体不再详述。
值得说明的是,自主移动设备正常作业在水平面和垂直面上的视角需求可采用一个面阵激光传感器覆盖实现,也可以采用至少两个面阵激光传感器来实现。若采用一个面阵激光传感器实现,则该面阵激光传感器的水平视角需要大于或等于自主移动设备正常作业所需的水平视角;相应地,该面阵激光传感器的垂直视角需要大于或等于自主移动设备正常作业所需的垂直视角。若采用至少两个面阵激光传感器实现,则至少两个面阵激光传感器的水平视角叠加得到的水平视角需要大于或等于自主移动设备正常作业所需的水平视角;相应地,至少两个面阵激光传感器的垂直视角叠加得到的垂直视角需要大于或等于自主移动设备正常作业所需的垂直视角。
以上述搬运机器人为例,若搬运机器人上设置一个面阵激光传感器,则可以选择水平视角为150度的面阵激光传感器。
在实际应用中,存在一些简单的应用需求,只需要单个面阵激光传感器就可以解决环境感知问题,则对于工作在这些环境中的自主移动设备来说,可以设置一个面阵激光传感器。另外,也存在一些复杂的应用需求,需要至少两个面阵激光传感器来解决环境感知问题,则对于工作在这些环境中的自主移动设备来说,需要设置至少两个面阵激光传感器。下面分别对设置一个面阵激光传感器和至少两个面阵激光传感器的情况进行说明:
对于自主移动设备设置一个面阵激光传感器的情况:该面阵激光传感器可以设置在自主移动设备的设备本体101的前侧,这里的前侧是指自主移动设备向前移动过程中设备本体101朝向的一侧。自主移动设备在移动过程中可能向前移动,也有可能向后移动(简称为后退)。这里的“向前”可以理解为:自主移动设备在作业过程中经常性或绝大多数情况下的移动方向。以外轮廓为圆形的自主移动设备为例,自主移动设备上设置一个面阵激光传感器的状态如图4a。另外,以圆柱状的自主移动设备为例,自主移动设备上设置一个面阵激光传感器的状态如图4b-图4d所示。其中,面阵激光传感器设置在自主移动设备的设备本体101的前侧,可以更加方便、准确地在自主移动设备移动过程中采集前方的环境信息,以便自主移动设备再行进过程中更加准确的避障,顺利行进。
对自主移动设备来说,一般会具有一定高度,如图2a-图2d所示机器人以及图3所示的无人车均具有一定高度。这就涉及面阵激光传感器在设备本体101 高度方向上设置在哪个位置的问题。本实施例并不对此做限定,可以根据应用需求和自主移动设备的高度灵活选择面阵激光传感器在设备本体101高度方向上的设置位置。以外轮廓是方形的自主移动设备为例,如图4e-图4g所示,面阵激光传感器可以设置在设备本体101高度方向上的中部位置、顶部位置或底部位置。其中,在设备本体101高度方向上的中部位置、顶部位置和底部位置可以是具体的位置,也可以是一定范围。结合图3,自主移动设备的最高平面距离地面的高度为H2,则设备本体101高度方向上H2/2位置处为中部位置,最高平面,即H2位置处为顶部位置,最低平面位置处即为底部位置。或者,结合图3,自主移动设备的最高平面距离地面的高度为H2,则设备本体101高度方向上(H2/2-d)至(H2/2-d)之间的区域为中部位置,相应的,(H2-d)至H2 之间的区域为顶部位置,0至d之间的区域为底部位置;其中,d是大于0的自然数。
在一些应用场景中,可能需要使用面阵激光传感器实现防撞功能。在需要防撞的场景中,可以根据防撞需求来设定面阵激光传感器的垂直向上和垂直向下的视角开口。结合图3,假设自主移动设备的最大行进速度为S_max,运算反应时间为T,则可以计算出自主移动设备通过面阵激光传感器实现防撞的水平最小距离(即如果小于该距离自主移动设备有可能会发生碰撞)D_min=S_max* T。同时,假设面阵激光传感器的发射接收端口距离地面的高度为H1,自主移动设备的最高平面距离地面的高度为H2,则可以计算出面阵激光传感器的垂直向下的视角开口θ_down=arctan(H1/D_min),垂直向上的视角开口θ_up=arctan((H2-H1)/D_min)。由此,对满足上述行进速度、运算反应时间以及高度要求的自主移动设备来说,可以选择具有上述垂直向下的视角开口和垂直向上的视角开口的面阵激光传感器即可实现自主移动设备的防撞功能。
值得说明的是,根据应用需求的不同,可以灵活调整面阵激光传感器的垂直向上和垂直向下的视角开口的大小。下面举例说明:
例如,当使用面阵激光传感器进行物体识别、跟踪和分类时,垂直向上的视角开口可以适当增大,垂直向下的视角开口可以适当减小,只要面阵激光传感器能够覆盖到合适距离(比如选择人和人面对面沟通一般保持的一步距离,即0.6米左右距离)范围内的物体即可。
又例如,在自主移动设备行进过程中,可能需要使用面阵激光传感器去检测地面上的高度落差,例如包括杂物凸起,上下阶梯落差等,以便预判该高度落差是否会卡住自主移动设备的底盘,若不会则通过,否则放弃该路线。对于这种情况,面阵激光传感器的垂直向下的开口视角可以选择前面公式计算出的θ_down,垂直向上的视角开口只需在水平线或以上即可。
又例如,当使用面阵激光传感器去实现定位和建图时,理论上,面阵激光传感器的垂直视角只要有开口即可,不限定开口大小。当然,若垂直视角的开口大到一定程度,则可借此构建室内的3D地图,3D地图在长度和宽度方向上可以覆盖自主移动设备的整个作业环境,而在高度方向上可以覆盖自主移动设备机身高度或以上区域,此机身高度是指自主移动设备的最高平面和自主移动设备所处平面之间的距离。
除了垂直方向的视角需要满足应用需求,该面阵激光传感器的水平视角应该满足大于或等于自主移动设备正常工作所需的水平视角,例如需要大于90度, 120度,150度,180度等。
对于自主移动设备设置至少两个面阵激光传感器的情况:至少两个面阵激光传感器设置在设备本体101的不同位置。例如,至少两个面阵激光传感器可以设置在设备本体101的四周,即可以环绕设备本体101设置,这样可以从360 度采集自主移动设备作业环境中的环境信息。又例如,至少两个面阵激光传感器可以设置在设备本体101前侧的不同位置,这里“前侧”也是指自主移动设备向前移动过程中设备本体101朝向的一侧,这样可以从多个角度采集自主移动设备前方的环境信息。这里的“向前”可以理解为:自主移动设备在作业过程中经常性或绝大多数情况下的移动方向。
值得说明的是,至少两个面阵激光传感器在设备本体101上的设置位置不同,除此之外还需要考虑至少两个面阵激光传感器在设备本体101高度方向上设置高度的问题。本实施例并不对此做限定,可以根据应用需求和自主移动设备的高度灵活选择至少两个面阵激光传感器在设备本体101高度方向上的设置高度。
在可选实施方式a1中,至少两个面阵激光传感器中部分面阵激光传感器在设备本体101上的设置高度相同。例如,可以在某个重要高度位置设置多个面阵激光传感器,以保证在该高度位置采集到更为丰富的环境信息。
在可选实施方式a2中,至少两个面阵激光传感器中各面阵激光传感器在设备本体101上的设置高度均不同,这样可以保证采集到不同高度位置处的环境信息,提高环境信息的丰富程度。
进一步,若至少两个面阵激光传感器中各面阵激光传感器在设备本体101 上的设置高度均不同,可选地,至少两个面阵激光传感器在设备本体101高度方向上位于同一直线上。
进一步,若至少两个面阵激光传感器中各面阵激光传感器在设备本体101 上的设置高度均不同,可选地,在设备本体101高度方向上相邻的两个面阵激光传感器的垂直视角的最远视距端可以相交;或者,在设备本体101高度方向上相邻的两个面阵激光传感器的垂直视角的部分重合。这样,可以保证至少两个面阵激光传感器可以在垂直面上做到无缝覆盖,有利于采集更加丰富的环境信息。
在可选实施方式a3中,至少两个面阵激光传感器中各面阵激光传感器在设备本体101上的设置高度均相同,简单来说,各面阵激光传感器设置在同一高度上。
另外,从设备本体101的水平方向来看,相邻面阵激光传感器的水平视角的最远视距端相交,或者,相邻面阵激光传感器的水平视角部分重叠,或者,相邻面阵激光传感器的水平视角的边界平行。以自主移动设备的外轮廓为圆形为例,相邻面阵激光传感器的水平视角的最远视距端相交的状态如图5a和图5b 所示;相邻面阵激光传感器的水平视角部分重叠的状态如图5c和图5d所示;相邻面阵激光传感器的水平视角的边界平行的状态如图5e和图5f所示。另外,以自主移动设备的外轮廓为三角形为例,相邻面阵激光传感器的水平视角的最远视距端相交的状态如图6a和图6b所示;相邻面阵激光传感器的水平视角部分重叠的状态如图6c和图6d所示;相邻面阵激光传感器的水平视角的边界平行的状态如图6e和图6f所示。
另外,在至少两个面阵激光传感器的情况下,各面阵激光传感器分别具有水平视角和垂直视角。可选地,至少两个面阵激光传感器中各面阵激光传感器的水平视角可以相同,当然也可以部分面阵激光传感器的水平视角相同,或者各面阵激光传感器的水平视角均不相同。同理,至少两个面阵激光传感器中各面阵激光传感器的垂直视角可以相同,当然也可以部分面阵激光传感器的垂直视角相同,或者各面阵激光传感器的垂直视角均不相同。
下面以两个面阵激光传感器为例,对面阵激光传感器的设置位置和高度进行示例性说明。为便于描述和区分,将两个面阵激光传感器记为第一面阵激光传感器和第二面阵激光传感器。
其中,第一面阵激光传感器和第二面阵激光传感器分别设置于设备本体101 的不同位置。可选地,第一面阵激光传感器和第二面阵激光传感器分别设置于设备本体101的左前侧45°和右前侧45°位置处。
进一步可选地,第一面阵激光传感器和第二面阵激光传感器分别设置于设备本体101上位于同一高度位置上的左前侧45°和右前侧45°位置处。例如,第一面阵激光传感器和第二面阵激光传感器均设置在设备本体101中部位置上的左前侧45°和右前侧45°位置处,或者,均设置在设备本体101顶部位置上的左前侧45°和右前侧45°位置处,或者均设置在设备本体101底部位置上的左前侧45°和右前侧45°位置处。
进一步可选地,第一面阵激光传感器和第二面阵激光传感器分别设置于设备本体101上位于不同高度位置上的左前侧45°和右前侧45°位置处。例如,第一面阵激光传感器设置在设备本体101中部位置上的左前侧45°位置处或右前侧45°位置处,相应地,第二面阵激光传感器设置在设备本体101顶部位置上的右前侧45°位置处或左前侧45°位置处。又例如,第一面阵激光传感器设置在设备本体101中部位置上的左前侧45°位置处或右前侧45°位置处,相应地,第二面阵激光传感器设置在设备本体101底部位置上的右前侧45°位置处或左前侧45°位置处。又例如,第一面阵激光传感器设置在设备本体101顶部位置上的左前侧45°位置处或右前侧45°位置处,相应地,第二面阵激光传感器设置在设备本体101底部位置上的右前侧45°位置处或左前侧45°位置处。
除上述自主移动设备之外,本申请实施例还提供一些适用于自主移动设备的控制方法。下面分别对这些控制方法进行说明:
图7为本申请示例性实施例提供的自主移动设备的控制方法的流程示意图。
如图7所示,该方法包括:
701、控制自主移动设备上的面阵激光传感器采集自主移动设备作业环境中的环境信息;
702、获取面阵激光传感器采集的环境信息;
703、根据环境信息对自主移动设备进行功能控制。
在本实施例中,自主移动设备上设置面阵激光传感器,通过面阵激光传感器采集自主移动设备作业环境中的环境信息,该环境信息包括自主移动设备周围障碍物的方向信息、位置信息以及反射率信息,辅以三维场景下的深度学习技术,能实现环境要素的认知能力,然后可以根据该环境信息对自主移动设备进行功能控制。
其中,当激光线数较多且较密时,由反射率信息构成的数据可以视为一种纹理信息,可以从中获取具有匹配和识别价值的环境特征,具有较强的环境辨识能力,在一定程度上可以享受视觉算法和纹理信息带来的优势。由此可见,面阵激光传感器很好地结合了线激光传感器和视觉传感器的优点,不仅有利于提高自主移动设备对环境的空间理解力,还有利于自主移动设备在障碍物识别性能上得到质的提升,甚至使其对环境的空间理解能力达到人眼水平;另外,相对于基于图像传感器的感知方案,面阵激光传感器能够提供更为准确的距离和方向信息,可降低感知运算的复杂度,提高实时性。
可选地,对环境信息进行预处理,所述预处理包括解析、同步、融合和滤波中的一种或任意组合。关于解析、同步、融合和滤波的说明可参见前述实施例中的描述,在此不再赘述。
可选地,根据面阵激光传感器采集到的环境信息可以对自主移动设备进行以下至少一种功能控制:控制自主移动设备基于环境信息构建环境地图;控制自主移动设备基于环境信息进行导航定位;控制自主移动设备基于环境信息进行物体识别。
可选地,可以基于面阵激光传感器采集到的环境信息构建3D环境地图。当然,如果在满足定位需求的情况下,也可以构建2D环境地图。
可选地,可以将面阵激光传感器与SLAM算法相结合,实现一种基于面阵激光传感器的SLAM过程。在本实施例中,基于面阵激光传感器的SLAM过程如下:
自主移动设备上的里程计或其他传感器提供位姿预测数据P,面阵激光传感器提供观测数据Z,以此为SLAM算法的输入数据,可以一帧一帧输入数据,也可以选择多帧数据一起输入,在此统称为一组数据。这里的观测数据Z即为面阵激光传感器采集到的自主移动设备作业环境中的环境信息。
对每组数据进行预处理,包括解析、同步、融合和滤波中的一种或任意组合;接着进入数据关联过程,该关联过程包括数据配对,特征跟踪,闭环检测等等;然后进入最大后验估计(Maximum a Posteriori estimation)对位姿做出估计,并以此更新地图信息。其中,特征跟踪是指从一组数据中选取容易识别标记的部分数据作为特征集,如边界线条、质心、角点等,并在后续的环境信息出现时以所述特征集来匹配实现跟踪。对自主移动设备而言,在移动过程中可能会回到之前来过的位置,若自主移动设备回到之前来过的位置时,自主移动设备的运动轨迹形成一个闭环。而闭环检测主要是指有效识别自动移动设备的运动轨迹中是否出现闭环的过程。
其中,组间数据可以借助里程计提供的位姿预测数据P或者重定位算法实现数据配对,例如可以利用滤波算法,比如粒子滤波和匹配算法,比如ICP算法实现数据组间的匹配,以此估计准确的机器位姿P’,并根据估计的机器位姿 P’和观测数据建立环境地图。
可选地,在构建环境地图的过程中,可以选择空间分割的密度地图,即将三维空间进行切割成一个个的小栅格体元,从而形成图8所示的三维(3D)栅格地图,每个小体元都带有概率信息来表示其置信度,分别表示其空白、未知、占有的状态。2D地图是二维空间的切割,3D地图则是三维空间的切割。
在获得3D栅格地图之后,将面阵激光传感器采集到的环境信息与3D栅格地图进行匹配,可以得到自主移动设备的实际位姿P’。进一步,在自主移动设备的实际位姿P’已知时,结合面阵激光传感器的观测数据Z,根据光线传播和击中原理可以继续构建更加准确的3D栅格地图。
其中,基于已构建的环境地图进行定位的大概过程包括:首先,利用里程计等传感器提供自主移动设备的位姿预测数据P,并获取面阵激光传感器采集到的环境信息作为观测数据Z,然后可以根据匹配算法在已构建出的环境地图M 中进行匹配以得到自主移动设备的实际位姿P’。在该过程中,如果定位失败,通过执行重定位即可得到实际位姿P’,实现了基于面阵激光传感器在已知环境地图下的定位问题。
除上述设备实施例和方法实施例之外,本申请实施例还提供一种存储有计算机程序的计算机可读存储介质,计算机程序被一个或多个处理器执行时,致使所述一个或多个处理器执行以下动作:控制自主移动设备上的面阵激光传感器采集所述自主移动设备作业环境中的环境信息;获取所述面阵激光传感器输出的所述环境信息;根据所述环境信息对所述自主移动设备进行功能控制。当然,该计算机程序被一个或多个处理器执行时,还可以致使所述一个或多个处理器执行其它相关动作,相关描述可参见前述实施例,在此不再赘述。
需要说明的是,上述实施例所提供方法的各步骤的执行主体均可以是同一设备,或者,该方法也由不同设备作为执行主体。比如,步骤701至步骤703 的执行主体可以为设备A;又比如,步骤701和702的执行主体可以为设备A,步骤703的执行主体可以为设备B;等等。
另外,在上述实施例及附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如701、702等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、 CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/ 或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (34)
1.一种自主移动设备,其特征在于,包括:设备本体,所述设备本体上设置有控制单元和面阵激光传感器,所述控制单元与所述面阵激光传感器电连接;
所述面阵激光传感器,用于采集所述自主移动设备作业环境中的环境信息并传输给所述控制单元;所述控制单元,用于根据所述环境信息对所述自主移动设备进行功能控制。
2.根据权利要求1所述的自主移动设备,其特征在于,所述面阵激光传感器为一个,且设置于所述设备本体的前侧;所述前侧是所述自主移动设备向前移动过程中所述设备本体朝向的一侧。
3.根据权利要求2所述的自主移动设备,其特征在于,所述面阵激光传感器设置在所述设备本体高度方向上的中部位置、顶部位置或底部位置。
4.根据权利要求2所述的自主移动设备,其特征在于,所述面阵激光传感器的垂直向下的视角开口θ_down=arctan(H1/D_min),垂直向上的视角开口θ_up=arctan((H2-H1)/D_min),D_min=S_max*T;
其中,H1表示所述面阵激光传感器的发射接收端口距离地面的高度,H2表示所述自主移动设备的最高平面距离地面的高度,S_max表示所述自主移动设备的最大行进速度,T表示所述自主移动设备的运算反应时间。
5.根据权利要求2所述的自主移动设备,其特征在于,所述面阵激光传感器的水平视角大于或等于所述自主移动设备正常作业所需的水平视角。
6.根据权利要求1所述的自主移动设备,其特征在于,所述面阵激光传感器为至少两个,且所述至少两个面阵激光传感器设置在所述设备本体的不同位置。
7.根据权利要求6所述的自主移动设备,其特征在于,所述至少两个面阵激光传感器中部分面阵激光传感器在所述设备本体上的设置高度相同。
8.根据权利要求7所述的自主移动设备,其特征在于,所述至少两个面阵激光传感器中各面阵激光传感器在所述设备本体上的设置高度均不同。
9.根据权利要求8所述的自主移动设备,其特征在于,在所述设备本体高度方向上相邻面阵激光传感器的垂直视角的最远视距端相交;或者
在所述设备本体高度方向上相邻面阵激光传感器的垂直视角部分重合。
10.根据权利要求8所述的自主移动设备,其特征在于,所述至少两个面阵激光传感器在所述设备本体高度方向上位于同一直线上。
11.根据权利要求6所述的自主移动设备,其特征在于,所述至少两个面阵激光传感器中各面阵激光传感器在所述设备本体上的设置高度均相同。
12.根据权利要求6所述的自主移动设备,其特征在于,在所述设备本体水平方向上相邻面阵激光传感器的水平视角的最远视距端相交;或者
在所述设备本体水平方向上相邻面阵激光传感器的水平视角部分重叠;或者
在所述设备本体水平方向上相邻面阵激光传感器的水平视角的边界平行。
13.根据权利要求6所述的自主移动设备,其特征在于,所述至少两个面阵激光传感器的水平视角相同。
14.根据权利要求6所述的自主移动设备,其特征在于,所述至少两个面阵激光传感器的垂直视角相同。
15.根据权利要求6所述的自主移动设备,其特征在于,所述至少两个面阵激光传感器设置在所述设备本体的四周。
16.根据权利要求6所述的自主移动设备,其特征在于,所述至少两个面阵激光传感器设置在所述设备本体的前侧;所述前侧是所述自主移动设备向前移动过程中所述设备本体朝向的一侧。
17.根据权利要求16所述的自主移动设备,其特征在于,所述至少两个面阵激光传感器包括第一面阵激光传感器和第二面阵激光传感器;所述第一面阵激光传感器和所述第二面阵激光传感器分别设置于所述设备本体的左前侧45°和右前侧45°位置处。
18.根据权利要求17所述的自主移动设备,其特征在于,所述第一面阵激光传感器和所述第二面阵激光传感器均设置在所述设备本体高度方向上的中部位置;或者
所述第一面阵激光传感器和所述第二面阵激光传感器均设置在所述设备本体高度方向上的顶部位置;或者
所述第一面阵激光传感器和所述第二面阵激光传感器均设置在所述设备本体高度方向上的底部位置;或者
所述第一面阵激光传感器设置在所述设备本体高度方向上的中部位置,所述第二面阵激光传感器设置在所述设备本体高度方向上的顶部位置;或者
所述第一面阵激光传感器设置在所述设备本体高度方向上的中部位置,所述第二面阵激光传感器设置在所述设备本体高度方向上的底部位置;或者
所述第一面阵激光传感器设置在所述设备本体高度方向上的顶部位置,所述第二面阵激光传感器设置在所述设备本体高度方向上的底部位置。
19.根据权利要求1-18任一项所述的自主移动设备,其特征在于,所述设备本体上还设置有预处理芯片,所述预处理芯片分别与所述控制单元和所述面阵激光传感器电连接;
所述预处理芯片,用于对所述面阵激光传感器采集到的环境信息进行预处理并向所述控制单元输出预处理后的环境信息;所述控制单元具体用于:根据所述预处理后的环境信息对所述自主移动设备进行功能控制。
20.根据权利要求19所述的自主移动设备,其特征在于,所述预处理包括解析、同步、融合和滤波中的一种或任意组合。
21.根据权利要求19所述的自主移动设备,其特征在于,所述设备本体上设置有环境感知模块,所述预处理芯片和所述面阵激光传感器集成在所述环境感知模块中。
22.根据权利要求21所述的自主移动设备,其特征在于,所述环境感知模块中还集成有非面阵激光传感器,所述非面阵激光传感器包括:超声波传感器、红外传感器、视觉传感器、单线激光传感器和多线激光传感器中的一种或任意组合。
23.根据权利要求1-18任一项所述的自主移动设备,其特征在于,所述控制单元具体用于执行以下至少一种功能控制:
基于所述环境信息构建环境地图;
基于所述环境信息进行导航定位;
基于所述环境信息进行物体识别。
24.根据权利要求23所述的自主移动设备,其特征在于,所述面阵激光传感器采集到的环境信息包括:所述自主移动设备周围障碍物的距离信息、方向信息和反射率信息。
25.根据权利要求24所述的自主移动设备,其特征在于,所述控制单元具体用于:根据所述自主移动设备的初始位姿和所述自主移动设备周围障碍物的距离信息、方向信息和反射率信息,构建3D栅格地图。
26.根据权利要求25所述的自主移动设备,其特征在于,所述3D栅格地图在长度和宽度方向上覆盖所述自主移动设备的整个作业环境,在高度方向上覆盖所述自主移动设备机身高度或以上区域,所述机身高度是指所述自主移动设备的最高平面和所述自主移动设备所处平面之间的距离。
27.根据权利要求1-18任一项所述的自主移动设备,其特征在于,所述面阵激光传感器在水平面上的覆盖范围为60度-270度。
28.根据权利要求27所述的自主移动设备,其特征在于,所述面阵激光传感器在水平面上的覆盖范围为150度-270度,或者为60度-150度。
29.根据权利要求1-18任一项所述的自主移动设备,其特征在于,所述自主移动设备的外轮廓形状为圆形、椭圆形、方形、三角形、水滴形、D形或人形。
30.根据权利要求1-18任一项所述的自主移动设备,其特征在于,所述自主移动设备为机器人。
31.根据权利要求30所述的自主移动设备,其特征在于,所述机器人包括:扫地机器人、擦玻璃机器人、家庭陪护机器人、空气净化机器人或迎宾机器人。
32.一种自主移动设备的控制方法,其特征在于,包括:
控制所述自主移动设备上的面阵激光传感器采集所述自主移动设备作业环境中的环境信息;
获取所述面阵激光传感器采集的所述环境信息;
根据所述环境信息对所述自主移动设备进行功能控制。
33.根据权利要求32所述的控制方法,其特征在于,在根据所述环境信息对所述自主移动设备进行功能控制之前,还包括:
对所述环境信息进行预处理,所述预处理包括解析、同步、融合和滤波中的一种或任意组合。
34.一种存储有计算机程序的计算机可读存储介质,其特征在于,当所述计算机程序被一个或多个处理器执行时,致使所述一个或多个处理器执行以下动作:
控制自主移动设备上的面阵激光传感器采集所述自主移动设备作业环境中的环境信息;
获取所述面阵激光传感器输出的所述环境信息;
根据所述环境信息对所述自主移动设备进行功能控制。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811089507.3A CN110916562A (zh) | 2018-09-18 | 2018-09-18 | 自主移动设备、控制方法及存储介质 |
EP19852597.4A EP3842885A4 (en) | 2018-08-22 | 2019-07-15 | AUTONOMOUS MOVEMENT DEVICE, CONTROL PROCESS AND STORAGE SUPPORT |
PCT/CN2019/095962 WO2020038155A1 (zh) | 2018-08-22 | 2019-07-15 | 自主移动设备、控制方法及存储介质 |
US16/542,218 US20200064481A1 (en) | 2018-08-22 | 2019-08-15 | Autonomous mobile device, control method and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811089507.3A CN110916562A (zh) | 2018-09-18 | 2018-09-18 | 自主移动设备、控制方法及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110916562A true CN110916562A (zh) | 2020-03-27 |
Family
ID=69855791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811089507.3A Pending CN110916562A (zh) | 2018-08-22 | 2018-09-18 | 自主移动设备、控制方法及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110916562A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112515560A (zh) * | 2020-11-06 | 2021-03-19 | 珠海市一微半导体有限公司 | 通过激光数据获取清扫方向的方法、芯片和机器人 |
WO2023045639A1 (zh) * | 2021-09-23 | 2023-03-30 | 追觅创新科技(苏州)有限公司 | 目标物体的确定方法、移动机器人、存储介质及电子装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101309430A (zh) * | 2008-06-26 | 2008-11-19 | 天津市亚安科技电子有限公司 | 基于fpga的视频图像预处理器 |
CN103140097A (zh) * | 2011-12-05 | 2013-06-05 | 西安灵境科技有限公司 | 一种预处理信息单元的电子装置 |
CN106601247A (zh) * | 2016-12-30 | 2017-04-26 | 歌尔股份有限公司 | 一种用于智能家居的语音识别***及智能家居 |
CN106681330A (zh) * | 2017-01-25 | 2017-05-17 | 北京航空航天大学 | 基于多传感器数据融合的机器人导航方法及装置 |
US20170307736A1 (en) * | 2016-04-22 | 2017-10-26 | OPSYS Tech Ltd. | Multi-Wavelength LIDAR System |
KR20180011510A (ko) * | 2016-07-25 | 2018-02-02 | 인하대학교 산학협력단 | 근거리 감지형 라이더 센서 시스템 |
CN108107417A (zh) * | 2017-11-07 | 2018-06-01 | 北醒(北京)光子科技有限公司 | 一种固态面阵激光雷达装置 |
CN108274463A (zh) * | 2017-01-06 | 2018-07-13 | 苏州华兴致远电子科技有限公司 | 列车库检机器人和列车零部件检测方法 |
CN108318874A (zh) * | 2018-04-12 | 2018-07-24 | 北醒(北京)光子科技有限公司 | 一种面阵激光雷达及移动平台 |
CN108445501A (zh) * | 2018-04-02 | 2018-08-24 | 北醒(北京)光子科技有限公司 | 一种基于slam技术的多雷达防串扰***及方法 |
-
2018
- 2018-09-18 CN CN201811089507.3A patent/CN110916562A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101309430A (zh) * | 2008-06-26 | 2008-11-19 | 天津市亚安科技电子有限公司 | 基于fpga的视频图像预处理器 |
CN103140097A (zh) * | 2011-12-05 | 2013-06-05 | 西安灵境科技有限公司 | 一种预处理信息单元的电子装置 |
US20170307736A1 (en) * | 2016-04-22 | 2017-10-26 | OPSYS Tech Ltd. | Multi-Wavelength LIDAR System |
KR20180011510A (ko) * | 2016-07-25 | 2018-02-02 | 인하대학교 산학협력단 | 근거리 감지형 라이더 센서 시스템 |
CN106601247A (zh) * | 2016-12-30 | 2017-04-26 | 歌尔股份有限公司 | 一种用于智能家居的语音识别***及智能家居 |
CN108274463A (zh) * | 2017-01-06 | 2018-07-13 | 苏州华兴致远电子科技有限公司 | 列车库检机器人和列车零部件检测方法 |
CN106681330A (zh) * | 2017-01-25 | 2017-05-17 | 北京航空航天大学 | 基于多传感器数据融合的机器人导航方法及装置 |
CN108107417A (zh) * | 2017-11-07 | 2018-06-01 | 北醒(北京)光子科技有限公司 | 一种固态面阵激光雷达装置 |
CN108445501A (zh) * | 2018-04-02 | 2018-08-24 | 北醒(北京)光子科技有限公司 | 一种基于slam技术的多雷达防串扰***及方法 |
CN108318874A (zh) * | 2018-04-12 | 2018-07-24 | 北醒(北京)光子科技有限公司 | 一种面阵激光雷达及移动平台 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112515560A (zh) * | 2020-11-06 | 2021-03-19 | 珠海市一微半导体有限公司 | 通过激光数据获取清扫方向的方法、芯片和机器人 |
WO2023045639A1 (zh) * | 2021-09-23 | 2023-03-30 | 追觅创新科技(苏州)有限公司 | 目标物体的确定方法、移动机器人、存储介质及电子装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7341652B2 (ja) | 情報処理装置、情報処理方法、プログラム、およびシステム | |
CN110023867B (zh) | 用于机器人绘图的***和方法 | |
CN108290294B (zh) | 移动机器人及其控制方法 | |
KR102670610B1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
US10665115B2 (en) | Controlling unmanned aerial vehicles to avoid obstacle collision | |
Sabattini et al. | The pan-robots project: Advanced automated guided vehicle systems for industrial logistics | |
CN104536445B (zh) | 移动导航方法和*** | |
AU2011352997B2 (en) | Mobile human interface robot | |
EP3842885A1 (en) | Autonomous movement device, control method and storage medium | |
Saha et al. | A real-time monocular vision-based frontal obstacle detection and avoidance for low cost UAVs in GPS denied environment | |
EP3347171B1 (en) | Using sensor-based observations of agents in an environment to estimate the pose of an object in the environment and to estimate an uncertainty measure for the pose | |
EP3656138A1 (en) | Aligning measured signal data with slam localization data and uses thereof | |
KR101642828B1 (ko) | 다중 영상 기반 장애물 회피 시스템 및 방법 | |
Chatterjee et al. | Mobile robot navigation | |
EP3850581A1 (en) | Systems and methods for vslam scale estimation using optical flow sensor on a robotic device | |
Ji et al. | Obstacle detection and recognition in farmland based on fusion point cloud data | |
CN110751336B (zh) | 无人载具的避障方法、避障装置及无人载具 | |
KR20220129218A (ko) | 장애물에 관한 비행 상황을 인지하여 무인 이동체의 속도 제어 방법 및 무인 이동체 | |
US11460855B1 (en) | Systems and methods for sensor calibration | |
US11400593B2 (en) | Method of avoiding collision, robot and server implementing thereof | |
CN110916562A (zh) | 自主移动设备、控制方法及存储介质 | |
Yuan et al. | Laser-based navigation enhanced with 3D time-of-flight data | |
KR102249485B1 (ko) | 로봇 자율주행 시스템 및 방법 | |
Noaman et al. | Landmarks exploration algorithm for mobile robot indoor localization using VISION sensor | |
CN116079717A (zh) | 机器人控制方法、机器人及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |