CN112605999B - 基于红外线深度摄像头技术的机器人障碍检测方法及*** - Google Patents
基于红外线深度摄像头技术的机器人障碍检测方法及*** Download PDFInfo
- Publication number
- CN112605999B CN112605999B CN202011526620.0A CN202011526620A CN112605999B CN 112605999 B CN112605999 B CN 112605999B CN 202011526620 A CN202011526620 A CN 202011526620A CN 112605999 B CN112605999 B CN 112605999B
- Authority
- CN
- China
- Prior art keywords
- obstacle
- infrared
- set area
- robot
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了基于红外线深度摄像头技术的机器人障碍检测方法及***,方法包括:S1,获取红外深度传感器的数据;S2,滤除设定区域以外的红外传感器传回的数据,设定区域先将红外深度传感器获得的画面划分出设定点,由设定点构成设定区域;S3,设定区域检测到障碍物时返回障碍物信息;***包括依次连接的障碍物探测模块、传感器信息上传模块、信息处理模块和指令执行模块,障碍物探测模块用于根据设定区域探测是否存在障碍物,通过红外深度传感器获得的画面划分出设定点,由设定点构成设定区域,滤除设定区域以外的红外传感器传回的数据,当设定区域检测到障碍物时返回障碍物信息。
Description
技术领域
本发明涉及计算机应用技术领域,尤其是涉及一种通过电子设备对障碍物的识别方法及***。
背景技术
障碍物识别技术,是一种实时地计算摄像头前方是否存在障碍物并且通过将障碍物信息传递给处理机构,处理机构通过障碍物信息作出躲避、报警或进行其他处理的技术。
红外线深度摄像头或者激光亦或者超声波探测前方是否存在障碍物,一般通过红外线、激光、超声波到达障碍物表面并返回的时间差来获取障碍物的距离,其实现原理主要如下:
(1)事先将摄像头和计算机或其他处理机构相连;
(2)通过红外摄像头、激光、超声波传感器获取物体的距离;
(3)将物体的距离与设定值进行比对,如果小于等于设定值则表示物体过近。
目前的障碍物检测技术有两大缺点:
1.设备成本过高,目前市面上的激光检测设备普遍价格较高,用于产品时会造成产品昂贵的现象。
2.红外摄像头、超声波检测设备容易出现误测,在正常检测流程中会受到各种干扰,导致突然检测到障碍物,会中断正常流程。
发明内容
为解决现有技术的不足,实现降低成本的同时降低探测干扰的目的,本发明采用如下的技术方案:
基于红外线深度摄像头技术的机器人障碍检测方法,包括如下步骤:
S1,获取红外深度传感器的数据;
S2,滤除设定区域以外的红外传感器传回的数据,所述设定区域先将红外深度传感器获得的画面划分出设定点,由设定点构成设定区域;
S3,设定区域检测到障碍物时返回障碍物信息。
通过以上方法,在画面边缘出现但未在检测区域内的障碍物,不会干扰到正常流程的障碍物识别,即不会被识别为障碍物导致流程中断,增加容错性,达到出现一定程度的障碍检测干扰时能够正常进行流程不被中断的目的。
通过设定区域的构建,使得设定区域符合特定条件,忽略其他区域检测数据,达到减少无用数据量、降低运算要求以及在特殊条件下使用的效果。
通过低成本的红外深度摄像头就可以实现高成本的激光传感器的相似功能,降低了成本,降低了产品的推广难度,以及提升了产品的竞争力。
进一步的,所述步骤S2中,将设定区域的形状和红外深度传感器获取的深度,与设有所述红外深度传感器的机器人的形状匹配。避免了传统的探测方式中,使用一个矩形区域将整个机器人范围包裹,探测整个矩形区域的障碍物,当经过一些狭窄区域时,使得矩形区域的探测范围可能因探测范围过大,导致机器人本可以通过的区域,被判定为无法通过。
进一步的,根据检测到障碍物的设定点的位置、数量,进行规避。由于设定点与机器人之间存在对应关系,机器人可以根据设定点所在的整个设定区域的位置、数量,以及多个设定点形成的局部区域,进行适应性规避。避免了传统矩形框探测区域,因为存在障碍物,整个矩形区域都变成无法通行,导致该区域机器人无法进入的问题。
进一步的,所述步骤S3中,当设定区域的一个以上设定点检测到障碍物时,判定存在障碍物。
进一步的,所述步骤S1,通过红外深度传感器对指定的画面区域进行距离采样来探测障碍物,当指定的画面区域返回的红外线探测距离小于距离阈值,表示探测到障碍物。
进一步的,所述步骤S2,当探测到的障碍物被设定区域中的设定点检测到时才被认定为是障碍物。
基于红外线深度摄像头技术的机器人障碍检测***,包括依次连接的障碍物探测模块、传感器信息上传模块、信息处理模块和指令执行模块,障碍物探测模块用于根据设定区域探测是否存在障碍物,通过红外深度传感器获得的画面划分出设定点,由设定点构成设定区域,滤除设定区域以外的红外传感器传回的数据,当设定区域检测到障碍物时返回障碍物信息,传感器信息上传模块将障碍物探测模块探测到的信息整合上传至信息处理模块,信息处理模块判断是否存在障碍物,指令执行模块在信息处理模块判断存在障碍物时,执行应对障碍物的操作。
通过以上***,在画面边缘出现但未在检测区域内的障碍物,不会干扰到正常流程的障碍物识别,即不会被识别为障碍物导致流程中断,增加容错性,达到出现一定程度的障碍检测干扰时能够正常进行流程不被中断的目的。
通过设定区域的构建,使得设定区域符合特定条件,忽略其他区域检测数据,达到减少无用数据量、降低运算要求以及在特殊条件下使用的效果。
通过低成本的红外深度摄像头就可以实现高成本的激光传感器的相似功能,降低了成本,降低了产品的推广难度,以及提升了产品的竞争力。
进一步的,所述障碍物探测模块包括设定模块,用于构建设定点及其构成的设定区域,并将设定区域的形状和红外深度传感器获取的深度,与设有所述红外深度传感器的机器人的形状匹配。避免了传统的探测***,使用一个矩形区域将整个机器人范围包裹,探测整个矩形区域的障碍物,当经过一些狭窄区域时,使得矩形区域的探测范围可能因探测范围过大,导致机器人本可以通过的区域,被判定为无法通过。
进一步的,所述信息处理模块根据检测到障碍物的设定点的位置、数量,计算规避策略,并通过指令执行规避操作。由于设定点与机器人之间存在对应关系,机器人可以根据设定点所在的整个设定区域的位置、数量,以及多个设定点形成的局部区域,进行适应性规避。避免了传统矩形框探测区域,因为存在障碍物,整个矩形区域都变成无法通行,导致该区域机器人无法进入的问题。
本发明的优势和有益效果在于:
通过将红外深度摄像头作为障碍物探测装置,并且可以设定探测范围降低干扰,强化了障碍物检测环境的能力,降低了产品生产成本,并且在特殊场景、探测器形态上都可以使用,拓宽了使用场景,提高了竞争力。
附图说明
图1是本发明的方法流程图。
图2是本发明的***结构示意图。
图3是本发明中机器人形态示意图。
图4是本发明中模拟的机器人探测视角示意图。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
通过将整个红外深度摄像头的画面划分为多个检测点,并且检测点只将关键障碍物区域设定为检测区域,检测点通过红外摄像头对指定的画面区域进行距离采样来探测障碍物,当指定的摄像头画面区域返回的红外线探测距离小于指定的距离即表示探测到障碍物,当障碍物被检测区域中的检测点检测到时才被认定为是障碍物。这样在屏幕边缘出现但未在检测区域内的障碍物,不会干扰到正常流程的障碍物识别,即不会被识别为障碍物导致流程中断。检测点的数量、位置等可以通过实际需求进行设定。
通过设定检测区域,使得检测区域符合特定条件,忽略其他区域检测数据,达到减少无用数据量、降低运算要求以及在特殊条件下使用的效果。例如一个T字型图案的检测区域,适用于顶部比较宽阔的机器人在行进时进行避障,只需要通行条件满足T字型即可,不需要传统的检测中满足整个画面的检测条件。
改进了障碍物识别方法,增加容错性,达到出现一定程度的障碍检测干扰时能够正常进行流程不被中断的目的。通过低成本的红外深度摄像头就可以实现高成本的激光传感器类似的功能,降低了产品的推广难度,以及提升了产品的竞争力。
如图1所示,基于红外线深度摄像头技术的机器人障碍检测方法,包括如下步骤:
S1,接收红外深度传感器的数据;
S2,滤除设定点以外的红外传感器传回的数据;
S3,设定点检测到障碍物时返回障碍物信息;
S4,当多个设定点都检测到障碍物时,判定存在障碍物,并做出规避或警告等其他操作;
如图2所示,基于红外线深度摄像头技术的机器人障碍检测***,包括依次连接的障碍物探测模块、传感器信息上传模块、信息处理模块和指令执行模块,障碍物探测模块用于探测前方是否存在障碍物,传感器信息上传模块将障碍物探测模块探测到的信息整合上传至信息处理模块,信息处理模块判断是否存在障碍物,指令执行模块在信息处理模块判断存在障碍物时,执行信息处理模块的躲避或警告等操作。
如图3所示的机器人,整个形态呈上下大、腰细的沙漏状,则机器人对应的检测点就可以在线条标识区域设定,将探测范围设定为机器人自身的形状。而传统的探测方式使用一个矩形区域将整个机器人范围包裹探测整个矩形区域的障碍物。这样在经过一些狭窄区域时,使用矩形区域的探测范围可能就会因为探测范围过大导致将机器人本可以通过的区域判定为无法通过。
如图4所示,是模拟的机器人探测视角,图中只有左下角可能是障碍,机器人只需要右转就可以避开障碍物进入该区域,即部分检测点检测到障碍物时,由于检测点与机器人之间存在对应关系,机器人可以根据检测点所在的整个检测区域的位置、数量,以及多个设定点形成的局部区域,进行适应性规避。如果是矩形探测区域,因为存在障碍物,整个矩形区域都变成无法通行,导致该区域将无法进入。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的范围。
Claims (8)
1.基于红外线深度摄像头技术的机器人障碍检测方法,其特征在于包括如下步骤:
S1,获取红外深度传感器的数据;
S2,滤除设定区域以外的红外传感器传回的数据,所述设定区域先将红外深度传感器获得的画面划分出设定点,由设定点构成设定区域;将设定区域的形状和红外深度传感器获取的深度,与设有所述红外深度传感器的机器人的形状匹配;
S3,设定区域检测到障碍物时返回障碍物信息。
2.如权利要求1所述的基于红外线深度摄像头技术的机器人障碍检测方法,其特征在于根据检测到障碍物的设定点的位置、数量,进行规避。
3.如权利要求1所述的基于红外线深度摄像头技术的机器人障碍检测方法,其特征在于所述步骤S3中,当设定区域的一个以上设定点检测到障碍物时,判定存在障碍物。
4.如权利要求1所述的基于红外线深度摄像头技术的机器人障碍检测方法,其特征在于所述步骤S1,通过红外深度传感器对指定的画面区域进行距离采样,当指定的画面区域返回的红外线探测距离小于距离阈值,表示探测到障碍物。
5.如权利要求4所述的基于红外线深度摄像头技术的机器人障碍检测方法,其特征在于所述步骤S2,当探测到的障碍物被设定区域中的设定点检测到时才被认定为是障碍物。
6.基于红外线深度摄像头技术的机器人障碍检测***,包括依次连接的障碍物探测模块、传感器信息上传模块、信息处理模块和指令执行模块,其特征在于障碍物探测模块用于根据设定区域探测是否存在障碍物,通过红外深度传感器获得的画面划分出设定点,由设定点构成设定区域,滤除设定区域以外的红外传感器传回的数据,将设定区域的形状和红外深度传感器获取的深度,与设有所述红外深度传感器的机器人的形状匹配,当设定区域检测到障碍物时返回障碍物信息,传感器信息上传模块将障碍物探测模块探测到的信息整合上传至信息处理模块,信息处理模块判断是否存在障碍物,指令执行模块在信息处理模块判断存在障碍物时,执行应对障碍物的操作。
7.如权利要求6所述的基于红外线深度摄像头技术的机器人障碍检测***,其特征在于所述障碍物探测模块包括设定模块,用于构建设定点及其构成的设定区域,并将设定区域的形状和红外深度传感器获取的深度,与设有所述红外深度传感器的机器人的形状匹配。
8.如权利要求7所述的基于红外线深度摄像头技术的机器人障碍检测***,其特征在于所述信息处理模块根据检测到障碍物的设定点的位置、数量,计算规避策略,并通过指令执行规避操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011526620.0A CN112605999B (zh) | 2020-12-22 | 2020-12-22 | 基于红外线深度摄像头技术的机器人障碍检测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011526620.0A CN112605999B (zh) | 2020-12-22 | 2020-12-22 | 基于红外线深度摄像头技术的机器人障碍检测方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112605999A CN112605999A (zh) | 2021-04-06 |
CN112605999B true CN112605999B (zh) | 2022-01-18 |
Family
ID=75244021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011526620.0A Active CN112605999B (zh) | 2020-12-22 | 2020-12-22 | 基于红外线深度摄像头技术的机器人障碍检测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112605999B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113370212A (zh) * | 2021-06-25 | 2021-09-10 | 三一建筑机器人(西安)研究院有限公司 | 桁架机械手安全操作方法、装置及控制*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105934774A (zh) * | 2014-03-24 | 2016-09-07 | 株式会社日立制作所 | 物体检测装置、物体检测方法以及移动机器人 |
WO2018129648A1 (zh) * | 2017-01-10 | 2018-07-19 | 深圳市极思维智能科技有限公司 | 一种机器人及其以深度摄像头和避障***构建地图的方法 |
CN109940620A (zh) * | 2019-04-15 | 2019-06-28 | 于傲泽 | 一种智能探索机器人及其控制方法 |
CN110135278A (zh) * | 2019-04-23 | 2019-08-16 | 腾讯科技(上海)有限公司 | 一种障碍物检测方法、装置及电子设备 |
CN110207702A (zh) * | 2019-04-22 | 2019-09-06 | 北京云迹科技有限公司 | 目标定位的方法及装置 |
KR20200023707A (ko) * | 2018-08-23 | 2020-03-06 | 엘지전자 주식회사 | 이동 로봇 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5980873B2 (ja) * | 2014-10-17 | 2016-08-31 | ファナック株式会社 | ロボットの干渉領域設定装置 |
CN106502267B (zh) * | 2016-12-06 | 2019-03-29 | 上海师范大学 | 一种无人机避让*** |
JP6457469B2 (ja) * | 2016-12-08 | 2019-01-23 | ファナック株式会社 | 移動ロボットの干渉領域設定装置 |
JP2019058993A (ja) * | 2017-09-27 | 2019-04-18 | セイコーエプソン株式会社 | ロボットシステム |
CN109591008A (zh) * | 2017-11-18 | 2019-04-09 | 广州科语机器人有限公司 | 移动机器人的安全工作区域确定方法 |
KR20210012677A (ko) * | 2019-07-26 | 2021-02-03 | 엘지전자 주식회사 | 사람의 머리를 회피하여 이동하는 로봇 및 이의 동작 제어 방법 |
-
2020
- 2020-12-22 CN CN202011526620.0A patent/CN112605999B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105934774A (zh) * | 2014-03-24 | 2016-09-07 | 株式会社日立制作所 | 物体检测装置、物体检测方法以及移动机器人 |
WO2018129648A1 (zh) * | 2017-01-10 | 2018-07-19 | 深圳市极思维智能科技有限公司 | 一种机器人及其以深度摄像头和避障***构建地图的方法 |
KR20200023707A (ko) * | 2018-08-23 | 2020-03-06 | 엘지전자 주식회사 | 이동 로봇 |
CN109940620A (zh) * | 2019-04-15 | 2019-06-28 | 于傲泽 | 一种智能探索机器人及其控制方法 |
CN110207702A (zh) * | 2019-04-22 | 2019-09-06 | 北京云迹科技有限公司 | 目标定位的方法及装置 |
CN110135278A (zh) * | 2019-04-23 | 2019-08-16 | 腾讯科技(上海)有限公司 | 一种障碍物检测方法、装置及电子设备 |
Non-Patent Citations (1)
Title |
---|
基于Kinect深度技术的障碍物在线快速检测算法;朱涛等;《电子设计工程》;20140805;第176-179页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112605999A (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ge et al. | Fruit localization and environment perception for strawberry harvesting robots | |
Kluge | Extracting road curvature and orientation from image edge points without perceptual grouping into features | |
US20160104047A1 (en) | Image recognition system for a vehicle and corresponding method | |
US20200209880A1 (en) | Obstacle detection method and apparatus and robot using the same | |
CN112070838A (zh) | 基于二维-三维融合特征的对象识别与定位方法及装置 | |
JPH03260782A (ja) | パターン認識装置 | |
CN112605999B (zh) | 基于红外线深度摄像头技术的机器人障碍检测方法及*** | |
Talele et al. | Detection of real time objects using TensorFlow and OpenCV | |
CN112102409A (zh) | 目标检测方法、装置、设备及存储介质 | |
CN104933392A (zh) | 使用多视图融合的概率性人追踪 | |
CN110147748B (zh) | 一种基于道路边缘检测的移动机器人障碍物识别方法 | |
CN104933436A (zh) | 具有动态完整性评分的基于视觉的多摄像头工厂监测 | |
CN110378937B (zh) | 基于Kinect摄像头的工业机械臂人机安全距离检测方法 | |
CN116310679A (zh) | 多传感器融合目标检测方法、***、介质、设备及终端 | |
CN110491060A (zh) | 一种机器人及其安全监控方法、装置及存储介质 | |
CN115993597A (zh) | 一种视觉雷达感知融合方法及终端设备 | |
CN110703760A (zh) | 一种用于安防巡检机器人的新增可疑物体检测方法 | |
JP2014067276A (ja) | 車両の衝突判定装置 | |
CN113435278A (zh) | 一种基于yolo的行吊安全检测方法及*** | |
Fu et al. | Camera-based semantic enhanced vehicle segmentation for planar lidar | |
US20150063630A1 (en) | Apparatus and method for detecting obstacle | |
CN114332732A (zh) | 一种基于雷视融合的铁路危情监测方法 | |
JP7499140B2 (ja) | 物体認識装置 | |
CN117787690A (zh) | 吊装作业安全风险识别方法及识别装置 | |
EP3745300A1 (en) | Obstacle recognition method for library robot based on depth image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |