CN106127788A - 一种视觉避障方法和装置 - Google Patents

一种视觉避障方法和装置 Download PDF

Info

Publication number
CN106127788A
CN106127788A CN201610517159.XA CN201610517159A CN106127788A CN 106127788 A CN106127788 A CN 106127788A CN 201610517159 A CN201610517159 A CN 201610517159A CN 106127788 A CN106127788 A CN 106127788A
Authority
CN
China
Prior art keywords
image
depth map
optimized
information
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610517159.XA
Other languages
English (en)
Other versions
CN106127788B (zh
Inventor
肖洪波
严彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Touch Vision Technology (beijing) Co Ltd
Original Assignee
Touch Vision Technology (beijing) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Touch Vision Technology (beijing) Co Ltd filed Critical Touch Vision Technology (beijing) Co Ltd
Priority to CN201610517159.XA priority Critical patent/CN106127788B/zh
Publication of CN106127788A publication Critical patent/CN106127788A/zh
Application granted granted Critical
Publication of CN106127788B publication Critical patent/CN106127788B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及计算机视觉技术领域,尤其是涉及一种觉避障方法和装置,其中,该方法包括:实时采集障碍目标在预设区域内的第一图像和第二图像;对第一图像和对应的第二图像进行视觉分析处理,得到处理后的深度图;对深度图进行自动对焦的优化处理,得到优化后的深度图;判断优化后的深度图中障碍目标对应的障碍信息,以便根据障碍信息进行避障,其利用自动对焦对双目视觉计算得到的深度图进行优化处理,生成的深度图精确度较高,进一步使得根据该深度图对应的障碍信息进行避障的性能较佳。

Description

一种视觉避障方法和装置
技术领域
本发明涉及计算机视觉技术领域,具体而言,涉及一种视觉避障方法与装置。
背景技术
双目视觉是计算机视觉的一个重要分支,双目视觉可以模仿人的眼睛和人类立体视觉感知的过程,是计算机视觉研究的核心主题之一。近年来,双目视觉技术在障碍物检测、工业自动化生产、智能安防***等领域得到了广泛的应用。
随着无人机技术、自动驾驶技术、机器人技术等信息技术的快速发展,无人机的飞行环境、汽车的行驶环境、以及机器人的周围环境等均具有不确定性和复杂性,需要不断的对环境进行探测,避免与障碍物发生碰撞,这无疑又加快了双目视觉技术在障碍物检测领域的进一步发展。
现有技术中的双目视觉避障方法是通过左右两幅图像之间的差异来计算图像中每个像素点的深度信息,然后根据该深度信息进行避障。其采用的深度信息计算方法如图1所示,物体上的点P12分别对应左右图像上的点P1和P2,求解P1、P2和P12构成的三角形,就可以得到点P12的坐标(即P12的深度信息)。P1和P2称为一个点对,寻找点对的过程称为立体匹配。
发明人在研究中发现,现有技术中的双目视觉在具体的应用环境中,特别是在复杂的背景和光照条件下,由于存在相关噪声干扰而导致点对的匹配成功率较低,生成的深度信息精确度较低,从而导致避障性能较差。
发明内容
有鉴于此,本发明的目的在于提供一种视觉避障方法和装置,利用自动对焦对双目视觉计算得到的深度图进行优化处理,生成的深度图精确度较高,从而具有较佳的避障性能。
第一方面,本发明实施例提供了一种视觉避障方法,所述方法包括:
实时采集所述障碍目标在所述预设区域内的第一图像和第二图像;
对所述第一图像和对应的所述第二图像进行视觉分析处理,得到处理后的深度图;
对所述深度图进行自动对焦的优化处理,得到优化后的深度图;
判断所述优化后的深度图中所述障碍目标对应的障碍信息,以便根据所述障碍信息进行避障。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,所述对所述第一图像和对应的所述第二图像进行视觉分析处理,得到处理后的深度图,包括:
分别从所述第一图像和所述第二图像中提取第一特征信息和第二特征信息;
以所述第一特征信息作为参考信息,将所有的所述第二特征信息分别与任意一个所述参考信息进行立体匹配处理,得到匹配点对应关系;
按照所述匹配点对应关系,计算所述第一图像和所述第二图像之间的视差信息;
根据所述视差信息恢复得到对应的深度图。
结合第一方面的第一种可能的实施方式,本发明实施例提供了第一方面的第二种可能的实施方式,其中,所述分别从所述第一图像和所述第二图像中提取第一特征信息和第二特征信息,包括:
分别对所述第一图像和所述第二图像进行检测,以得到所述第一图像的第一障碍目标区域和所述第二图像的第二障碍目标区域;
提取所述第一障碍目标区域的第一特征信息;以及,提取所述第二障碍目标区域的第二特征信息。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,所述对所述深度图进行自动对焦的优化处理,得到优化后的深度图,包括:
从所述深度图中查找低于预设匹配阈值的待优化区域;
对所述待优化区域进行自动对焦的优化处理,得到优化后的深度图。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第四种可能的实施方式,其中,所述对所述待优化区域进行自动对焦的优化处理,得到优化后的深度图,包括:
在检测跟踪到所述待优化区域时,利用自动对焦算法获取所述待优化区域的深度信息;
根据所述深度信息对所述深度图进行优化处理,得到优化后的深度图。
结合第一方面的第四种可能的实施方式,本发明实施例提供了第一方面的第五种可能的实施方式,其中,所述待优化区域为多个,对多个所述待优化区域进行自动对焦的优化处理,包括:
根据权重分配的相关数据信息,计算每一个所述待优化区域的区域重要度;其中,所述数据信息至少包括:区域位置信息和区域面积信息;
选择得分最高的区域重要度对应的待优化区域进行自动对焦的优化处理。
结合第一方面,本发明实施例提供了第一方面的第六种可能的实施方式,其中,还包括:
根据优化后的深度图所对应的优化后的匹配点对应关系结合运动预测模型,进行下一帧所述第一图像和下一帧所述第二图像对应的深度图的获取。
第二方面,本发明实施例还提供了一种视觉避障装置,所述装置包括:
采集模块,用于实时采集所述障碍目标在所述预设区域内的第一图像和第二图像;
视觉分析处理模块,用于对所述第一图像和对应的所述第二图像进行视觉分析处理,得到处理后的深度图;
对焦优化模块,用于对所述深度图进行自动对焦的优化处理,得到优化后的深度图;
判断模块,用于判断所述优化后的深度图中所述障碍目标对应的障碍信息,以便根据所述障碍信息进行避障。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,所述视觉分析处理模块,包括:
提取单元,用于分别从所述第一图像和所述第二图像中提取第一特征信息和第二特征信息;
立体匹配单元,用于以所述第一特征信息作为参考信息,将所有的所述第二特征信息分别与任意一个所述参考信息进行立体匹配处理,得到匹配点对应关系;
计算单元,用于按照所述匹配点对应关系,计算所述第一图像和所述第二图像之间的视差信息;
恢复单元,用于根据所述视差信息恢复得到对应的深度图。
结合第二方面,本发明实施例提供了第二方面的第三种可能的实施方式,其中,所述对焦优化模块,包括:
查找单元,用于从所述深度图中查找低于预设匹配阈值的待优化区域;
优化单元,用于对所述待优化区域进行自动对焦的优化处理,得到优化后的深度图。
本发明实施例提供的视觉避障方法和装置,利用双目视觉和自动对焦的融合处理方法,与现有技术中基于双目视觉的避障方法,由于存在相关噪声干扰而导致点对的匹配成功率较低,生成的深度信息精确度较低,从而导致避障性能较差相比,其首先实时采集障碍目标在预设区域内的第一图像和第二图像,并对第一图像和对应的第二图像进行视觉分析处理,得到处理后的深度图,然后根据自动对焦对上述深度图进行优化处理,得到优化后的深度图,最后利用该深度图对障碍目标对应的障碍信息进行判断,以实现避障功能,其利用自动对焦对双目视觉计算得到的深度图进行优化处理,生成的深度图精确度较高,进一步使得根据该深度图对应的障碍信息进行避障的性能较佳。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例所提供的双目视觉方法的原理图;
图2示出了本发明实施例所提供的一种视觉避障方法的流程图;
图3示出了本发明实施例所提供的另一种视觉避障方法的流程图;
图4示出了本发明实施例所提供的另一种视觉避障方法的流程图;
图5示出了本发明实施例所提供的另一种视觉避障方法的流程图;
图6示出了本发明实施例所提供的另一种视觉避障方法的流程图;
图7示出了本发明实施例所提供的一种视觉避障方法中自动对焦模块的实现原理图;
图8示出了本发明实施例所提供的另一种视觉避障方法的流程图;
图9示出了本发明实施例所提供的一种视觉避障装置的结构示意图;
图10示出了本发明实施例所提供的一种视觉避障装置中视觉分析处理模块的结构示意图;
图11示出了本发明实施例所提供的一种视觉避障装置中对焦优化模块的结构示意图。
主要元件符号说明:
11、采集模块;22、视觉分析处理模块;33、对焦优化模块;44、判断模块;221、提取单元;222、立体匹配单元;223、计算单元;224、恢复单元;331、查找单元;332、优化单元。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到现有技术中的双目视觉在具体的应用环境中,特别是在复杂的背景和光照条件下,由于存在相关噪声干扰而导致点对的匹配成功率较低,生成的深度信息精确度较低,从而导致避障性能较差。基于此,本发明实施例提供了一种视觉避障方法和装置,利用自动对焦对双目视觉计算得到的深度图进行优化处理,生成的深度图精确度较高,从而具有较佳的避障性能。
参见图2所示的本发明实施例提供的视觉避障方法的流程图,方法具体包括如下步骤:
S101、实时采集障碍目标在预设区域内的第一图像和第二图像;
具体的,考虑到本发明实施例所提供的视觉避障方法的具体应用场景,本发明实施例需要对第一图像和第二图像分别进行获取,其中,第一图像和第二图像均可以通过双目摄像头进行获取,且对于同一个障碍目标而言,第一图像和第二图像是同步采集的,但摄取时候的角度并不不同。
S102、对第一图像和对应的第二图像进行视觉分析处理,得到处理后的深度图;
具体的,本发明实施例所提供的视觉避障方法通过双目视觉算法进行深度图的初步生成。即是,首先由双摄像头采集到的第一图像和第二图像采用高精度的立体匹配算法计算空间目标点在上述第一图像和第二图像中的视差信息,根据该视差信息得到深度图,根据该深度图重建出空间景物的三维信息,并可以结合三维重建技术重构出3D立体景象,其中,上述深度图可以是第一图像对应的深度图,也可以是第二图像对应的深度图,本发明实施例不做具体的限制。
S103、对深度图进行自动对焦的优化处理,得到优化后的深度图;
具体的,考虑到双目视觉算法中的立体匹配,在实际环境中运行时,特别是在有复杂背景和复杂光照条件下的场景下,匹配的成功率很低,从而导致生成的深度图通常会有很多无法匹配成功的区域。这样,势必会影响后期对障碍目标进行避障的效果。因此,本发明实施例创新性的采用自动对焦的技术来优化双目视觉算法中的立体匹配失败区域的深度图的生成,且优化后的深度图适应能力较强,具有较高的鲁棒性。
S104、判断优化后的深度图中障碍目标对应的障碍信息,以便根据障碍信息进行避障。
具体的,通过对优化后的深度图所对应的空间景物的三维信息进行障碍目标对应的障碍信息的判断,以实现避障功能,其中,上述障碍信息至少包括障碍目标的位置信息、高度信息和距离信息。
本发明实施例提供的视觉避障方法,与现有技术中基于双目视觉的避障方法,由于存在相关噪声干扰而导致点对的匹配成功率较低,生成的深度信息精确度较低,从而导致避障性能较差相比,其首先实时采集障碍目标在预设区域内的第一图像和第二图像,并对第一图像和对应的第二图像进行视觉分析处理,得到处理后的深度图,然后根据自动对焦对上述深度图进行优化处理,得到优化后的深度图,最后利用该深度图对障碍目标对应的障碍信息进行判断,以实现避障功能,其利用自动对焦对双目视觉计算得到的深度图进行优化处理,生成的深度图精确度较高,进一步使得根据该深度图对应的障碍信息进行避障的性能较佳。
为了更好的生成障碍目标的原始深度图,上述S102的生成过程,具体通过如下步骤实现,参见图3所示的流程图,方法还包括:
S201、分别从第一图像和第二图像中提取第一特征信息和第二特征信息;
S202、以第一特征信息作为参考信息,将所有的第二特征信息分别与任意一个参考信息进行立体匹配处理,得到匹配点对应关系;
具体的,考虑到上述第一图像和第二图像均由多个像素点构成,每个像素点均对应有相应的特征信息。本发明实施例所提供的视觉避障方法,对于双目摄像头摄取的第一图像和第二图像而言,将第一图像作为参考图像,则其对应的第一特征信息作为参考信息。其中,从第一图像中选取任意一个像素点,且该像素点对应其第一特征信息,从第二图像中的所有像素点中选取第二特征信息与该第一特征信息相匹配的像素点,即从第二图像中找到了与第一图像中的任意一个像素点相匹配的像素点,从而得到匹配点对应关系。
其中,由于光学透镜的物理特性,摄像头成像时存在径向畸变;由于装配精度问题,摄像头感光芯片与光学镜头并不能保证完全平行,成像存在切向畸变,所以在上述立体匹配处理之前均需要对采用的摄像头进行标定。不仅要双目标定,单个摄像头也要分别标定,具体的,双目标定就是利用已知世界坐标系(标定板)和图像坐标系(对标定板图像处理后结果)的对应关系,计算出双摄像头在当前位置关系下的参数信息。标定完成后,用该双摄像头去观测未知世界坐标系时就可以得到其三维信息了。事实上,在双目标定前,还需要对每个摄像头做单机标定,以确定其畸变系数、相机内参矩阵等。这样做的目的是为了使左右摄像头获取到的图像都能校正为标准图像后再进行处理。
S203、按照匹配点对应关系,计算第一图像和第二图像之间的视差信息;
S204、根据视差信息恢复得到对应的深度图。
具体的,在本发明实施例中的双目视觉算法中,左摄像头投影中心为坐标原点,从原点到右摄像头投影中心为X轴,垂直为摄像机成像平面的前方为Z轴,垂直于X-Z平面向下为Y轴。通过上述立体匹配后,可以得出每个匹配点的视差,结合摄像头参数矩阵,从而恢复得到对应的深度图,即可把二维点重投影到三维中,根据该深度图重建出空间景物的三维信息,并可以结合三维重建技术重构出3D立体景象。
考虑到在对第一图像和第二图像进行特征提取时,可以对第一图像和第二图像进行分割,然后通过分割的结果对第一图像和第二图像中的障碍目标区域进行识别和特征提取,参见图4,上述S201还包括如下步骤:
S2011、分别对第一图像和第二图像进行检测,以得到第一图像的第一障碍目标区域和第二图像的第二障碍目标区域;
S2012、提取第一障碍目标区域的第一特征信息;以及,提取第二障碍目标区域的第二特征信息。
具体的,在获取到包含有障碍目标对应区域的第一图像和第二图像时,首先通过图像处理的方法将检测和识别上述第一图像和第二图像所包含的障碍目标,得到第一图像的第一障碍目标区域和第二图像的第二障碍目标区域,然后对于得到的第一障碍目标区域和第二障碍目标区域所包含的图片像素进行切割和提取,以得到对应于第一障碍目标区域的第一特征信息和对应于第二障碍目标区域的第二特征信息。在得到障碍目标的特征信息后,根据立体匹配原理对障碍目标中各个特征点对应的特征区域分别进行匹配,得到对应的匹配点对应关系。
为了实现自动对焦对上述生成的深度图进行优化处理,上述优化过程,具体通过如下步骤实现,参见图5所示的流程图,方法还包括:
S301、从深度图中查找低于预设匹配阈值的待优化区域;
具体的,考虑到从双目视觉算法生成深度图中,可以判断出深度图中的哪些像素点是匹配失败的。其中,上述立体匹配失败的判定在于匹配点对应关系中,哪些像素点是低于预设匹配阈值的,又考虑到本发明实施例所提供的视觉避障方法在具体的应用中,一个匹配点的失败将引起周边其他匹配点的连续失败,因此,本发明实施例可以直接从深度图中查到得到低于预设匹配阈值的待优化区域,其中,上述待优化区域包含了一串连续匹配失败的匹配点。
S302、对待优化区域进行自动对焦的优化处理,得到优化后的深度图。
为了更好的得到优化后的深度图,参见图6所示的流程图,所述方法还包括:
S3021、在检测跟踪到待优化区域时,利用自动对焦算法获取待优化区域的深度信息;
S3022、根据深度信息对深度图进行优化处理,得到优化后的深度图。
具体的,本发明实施例中的双目视觉算法实时检测自动对焦模块是否已经成功的跟踪到上述待优化区域,并在跟踪成功后,通过自动对焦模块对待优化区域进行对焦处理,以得到对应与该待优化区域的深度信息,参见图7,本发明实施例中的自动对焦模块的实现原理如下:
图中竖直的虚线代表对焦点所在的实物平面,竖直的实线代表实物平面在透镜后面清晰的成像平面。S1表示实物平面到透镜中心的距离(相当于成像点的深度),f1代表成像平面到透镜中心的距离。可以证明,对于同一个透镜,S1是f1的单值函数。而f1是镜头在自动对焦的时候调节的参数。因此,当自动对焦的镜头对某个物体对焦完成的时候,就可以通过镜头当前的f1的值来算出物体到镜头中心的距离,即可利用上述实现原理得到待优化区域的深度信息。
另外,本发明实施例所提供的视觉避障方法换能够对多个待优化区域进行区域重要度计算,并根据计算的区域重要度进行自动对焦的优化处理,参见图8所示的流程图,所述方法还包括:
S401、根据权重分配的相关数据信息,计算每一个待优化区域的区域重要度;其中,数据信息至少包括:区域位置信息和区域面积信息;
S402、选择得分最高的区域重要度对应的待优化区域进行自动对焦的优化处理。
具体的,对于多个待优化区域而言,上述自动对焦模块首先需要对该多个待优化区域进行打分,打分的依据是区域位置信息和区域面积信息,通过上述区域位置信息和区域面积信息的加权融合,计算得到计算每一个待优化区域的区域重要度,然后将得分最高的区域重要度对应的待优化区域优先进行自动对焦的优化处理,其中,上述加权融合对应的区域位置信息和区域面积信息的权重,可以根据用户的不同需要进行设置,本发明实施例不做具体的限制。
为了降低生成深度图中匹配复杂度的计算,本发明实施例所提供的视觉避障方法可以根据优化后的深度图所对应的优化后的匹配点对应关系结合运动预测模型,进行下一帧第一图像和下一帧第二图像对应的深度图的获取。
其中,根据上述优化后的匹配点对应关系和运动预测模型的结合,可以直接进行下一帧第一图像和下一帧第二图像的立体匹配,匹配的效率和成功率均较高,也减少了对同一个图像区域进行反复自动对焦的概率,为后期深度图的获取提供了有利条件。
本发明实施例提供的视觉避障方法,与现有技术中基于双目视觉的避障方法,由于存在相关噪声干扰而导致点对的匹配成功率较低,生成的深度信息精确度较低,从而导致避障性能较差相比,其首先实时采集障碍目标在预设区域内的第一图像和第二图像,并对第一图像和对应的第二图像进行视觉分析处理,得到处理后的深度图,然后根据自动对焦对上述深度图进行优化处理,得到优化后的深度图,最后利用该深度图对障碍目标对应的障碍信息进行判断,以实现避障功能,其利用自动对焦对双目视觉计算得到的深度图进行优化处理,生成的深度图精确度较高,进一步使得根据该深度图对应的障碍信息进行避障的性能较佳。
本发明实施例还提供了一种视觉避障装置,该装置用于执行上述视觉避障方法,参见图9,所述装置包括:
采集模块11,用于实时采集障碍目标在预设区域内的第一图像和第二图像;
视觉分析处理模块22,用于对第一图像和对应的第二图像进行视觉分析处理,得到处理后的深度图;
对焦优化模块33,用于对深度图进行自动对焦的优化处理,得到优化后的深度图;
判断模块44,用于判断优化后的深度图中障碍目标对应的障碍信息,以便根据障碍信息进行避障。
为了更好的生成障碍目标的原始深度图,上述视觉分析处理模块22,参见图10,包括:提取单元221、立体匹配单元222、计算单元223和恢复单元224,其中,
提取单元221,用于分别从第一图像和第二图像中提取第一特征信息和第二特征信息;
立体匹配单元222,用于以第一特征信息作为参考信息,将所有的第二特征信息分别与任意一个参考信息进行立体匹配处理,得到匹配点对应关系;
计算单元223,用于按照匹配点对应关系,计算第一图像和第二图像之间的视差信息;
恢复单元224,用于根据视差信息恢复得到对应的深度图。
考虑到在对第一图像和第二图像进行特征提取时,首先需要对第一图像和第二图像进行分割,然后通过分割的结果对第一图像和第二图像中的障碍目标区域进行识别和特征提取,上述提取单元221包括:
检测子单元,用于分别对第一图像和第二图像进行检测,以得到第一图像的第一障碍目标区域和第二图像的第二障碍目标区域;
提取子单元,用于提取第一障碍目标区域的第一特征信息;以及,提取第二障碍目标区域的第二特征信息。
为了实现自动对焦对上述生成的深度图进行优化处理,参见图11,上述对焦优化模块33包括:查找单元331和优化单元332,其中,
查找单元331,用于从深度图中查找低于预设匹配阈值的待优化区域;
优化单元332,用于对待优化区域进行自动对焦的优化处理,得到优化后的深度图。
为了更好的得到优化后的深度图,优化单元332包括:
获取子单元,用于在检测跟踪到待优化区域时,利用自动对焦算法获取待优化区域的深度信息;
优化子单元,用于根据深度信息对深度图进行优化处理,得到优化后的深度图。
另外,本发明实施例所提供的视觉避障装置能够对多个待优化区域进行区域重要度计算,并根据计算的区域重要度进行自动对焦的优化处理,优化单元332还包括:
计算子单元,用于根据权重分配的相关数据信息,计算每一个待优化区域的区域重要度;其中,数据信息至少包括:区域位置信息和区域面积信息;
选择子单元,用于选择得分最高的区域重要度对应的待优化区域进行自动对焦的优化处理。
本发明实施例提供的视觉避障装置,与现有技术中基于双目视觉的避障,由于存在相关噪声干扰而导致点对的匹配成功率较低,生成的深度信息精确度较低,从而导致避障性能较差相比,其首先实时采集障碍目标在预设区域内的第一图像和第二图像,并对第一图像和对应的第二图像进行视觉分析处理,得到处理后的深度图,然后根据自动对焦对上述深度图进行优化处理,得到优化后的深度图,最后利用该深度图对障碍目标对应的障碍信息进行判断,以实现避障功能,其利用自动对焦对双目视觉计算得到的深度图进行优化处理,生成的深度图精确度较高,进一步使得根据该深度图对应的障碍信息进行避障的性能较佳。
另外,本发明实施例提供的视觉避障方法和装置还能够带来如下技术效果:
1、通过摄像头自动对焦的技术来获取双目视觉算法无法匹配失败的区域的深度信息。
2、给需要进行自动对焦模块获取深度信息的待优化区域进行打分。打分的依据有到图像中心的距离和区域面积的大小。按区域得分的大小来确定自动对焦获取深度信息的顺序。
3、双目视觉算法能够利用自动对焦获取的深度信息并且结合物体运动预测模型来指导下一帧图像的深度信息的计算,减少计算量和降低立体匹配失败的概率。
4、自动对焦模块对算法运行模块指定的区域进行跟踪对焦,以便于算法运行模块准确获取该区域的当前的深度信息。
本发明实施例所提供的进行视觉避障的方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
本发明实施例所提供的视觉避障的装置可以为设备上的特定硬件或者安装于设备上的软件或固件等。本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的***、装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种视觉避障方法,其特征在于,所述方法包括:
实时采集所述障碍目标在所述预设区域内的第一图像和第二图像;
对所述第一图像和对应的所述第二图像进行视觉分析处理,得到处理后的深度图;
对所述深度图进行自动对焦的优化处理,得到优化后的深度图;
判断所述优化后的深度图中所述障碍目标对应的障碍信息,以便根据所述障碍信息进行避障。
2.根据权利要求1所述的视觉避障方法,其特征在于,所述对所述第一图像和对应的所述第二图像进行视觉分析处理,得到处理后的深度图,包括:
分别从所述第一图像和所述第二图像中提取第一特征信息和第二特征信息;
以所述第一特征信息作为参考信息,将所有的所述第二特征信息分别与任意一个所述参考信息进行立体匹配处理,得到匹配点对应关系;
按照所述匹配点对应关系,计算所述第一图像和所述第二图像之间的视差信息;
根据所述视差信息恢复得到对应的深度图。
3.根据权利要求2所述的视觉避障方法,其特征在于,所述分别从所述第一图像和所述第二图像中提取第一特征信息和第二特征信息,包括:
分别对所述第一图像和所述第二图像进行检测,以得到所述第一图像的第一障碍目标区域和所述第二图像的第二障碍目标区域;
提取所述第一障碍目标区域的第一特征信息;以及,提取所述第二障碍目标区域的第二特征信息。
4.根据权利要求1所述的视觉避障方法,其特征在于,所述对所述深度图进行自动对焦的优化处理,得到优化后的深度图,包括:
从所述深度图中查找低于预设匹配阈值的待优化区域;
对所述待优化区域进行自动对焦的优化处理,得到优化后的深度图。
5.根据权利要求4所述的视觉避障方法,其特征在于,所述对所述待优化区域进行自动对焦的优化处理,得到优化后的深度图,包括:
在检测跟踪到所述待优化区域时,利用自动对焦算法获取所述待优化区域的深度信息;
根据所述深度信息对所述深度图进行优化处理,得到优化后的深度图。
6.根据权利要求5所述的视觉避障方法,其特征在于,所述待优化区域为多个,对多个所述待优化区域进行自动对焦的优化处理,包括:
根据权重分配的相关数据信息,计算每一个所述待优化区域的区域重要度;其中,所述数据信息至少包括:区域位置信息和区域面积信息;
选择得分最高的区域重要度对应的待优化区域进行自动对焦的优化处理。
7.根据权利要求1所述的视觉避障方法,其特征在于,还包括:
根据优化后的深度图所对应的优化后的匹配点对应关系结合运动预测模型,进行下一帧所述第一图像和下一帧所述第二图像对应的深度图的获取。
8.一种视觉避障装置,其特征在于,包括:
采集模块,用于实时采集所述障碍目标在所述预设区域内的第一图像和第二图像;
视觉分析处理模块,用于对所述第一图像和对应的所述第二图像进行视觉分析处理,得到处理后的深度图;
对焦优化模块,用于对所述深度图进行自动对焦的优化处理,得到优化后的深度图;
判断模块,用于判断所述优化后的深度图中所述障碍目标对应的障碍信息,以便根据所述障碍信息进行避障。
9.根据权利要求8所述的视觉避障装置,其特征在于,所述视觉分析处理模块,包括:
提取单元,用于分别从所述第一图像和所述第二图像中提取第一特征信息和第二特征信息;
立体匹配单元,用于以所述第一特征信息作为参考信息,将所有的所述第二特征信息分别与任意一个所述参考信息进行立体匹配处理,得到匹配点对应关系;
计算单元,用于按照所述匹配点对应关系,计算所述第一图像和所述第二图像之间的视差信息;
恢复单元,用于根据所述视差信息恢复得到对应的深度图。
10.根据权利要求8所述的视觉避障装置,其特征在于,所述对焦优化模块,包括:
查找单元,用于从所述深度图中查找低于预设匹配阈值的待优化区域;
优化单元,用于对所述待优化区域进行自动对焦的优化处理,得到优化后的深度图。
CN201610517159.XA 2016-07-04 2016-07-04 一种视觉避障方法和装置 Active CN106127788B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610517159.XA CN106127788B (zh) 2016-07-04 2016-07-04 一种视觉避障方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610517159.XA CN106127788B (zh) 2016-07-04 2016-07-04 一种视觉避障方法和装置

Publications (2)

Publication Number Publication Date
CN106127788A true CN106127788A (zh) 2016-11-16
CN106127788B CN106127788B (zh) 2019-10-25

Family

ID=57469129

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610517159.XA Active CN106127788B (zh) 2016-07-04 2016-07-04 一种视觉避障方法和装置

Country Status (1)

Country Link
CN (1) CN106127788B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106454124A (zh) * 2016-11-28 2017-02-22 努比亚技术有限公司 双摄像头实现对焦的装置及方法
CN106682584A (zh) * 2016-12-01 2017-05-17 广州亿航智能技术有限公司 无人机障碍物检测方法及装置
CN106960454A (zh) * 2017-03-02 2017-07-18 武汉星巡智能科技有限公司 景深避障方法、设备及无人飞行器
CN107564033A (zh) * 2017-07-26 2018-01-09 北京臻迪科技股份有限公司 一种水下目标的跟踪方法、水下设备和可穿戴设备
WO2018095278A1 (zh) * 2016-11-24 2018-05-31 腾讯科技(深圳)有限公司 飞行器的信息获取方法、装置及设备
CN108496129A (zh) * 2017-04-28 2018-09-04 深圳市大疆创新科技有限公司 一种基于飞行器的设施检测方法及控制设备
CN108496201A (zh) * 2017-09-27 2018-09-04 深圳市大疆创新科技有限公司 图像处理方法和设备
CN109048926A (zh) * 2018-10-24 2018-12-21 河北工业大学 一种基于立体视觉的机器人智能避障***及方法
CN109708636A (zh) * 2017-10-26 2019-05-03 广州极飞科技有限公司 导航图配置方法、避障方法以及装置、终端、无人飞行器
WO2019127518A1 (zh) * 2017-12-29 2019-07-04 深圳市大疆创新科技有限公司 避障方法、装置及可移动平台
CN112057858A (zh) * 2020-09-11 2020-12-11 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及存储介质
CN112927281A (zh) * 2021-04-06 2021-06-08 Oppo广东移动通信有限公司 深度检测方法、深度检测装置、存储介质与电子设备
WO2021217444A1 (zh) * 2020-04-28 2021-11-04 深圳市大疆创新科技有限公司 深度图生成方法、电子设备、计算处理设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103112007A (zh) * 2013-02-06 2013-05-22 华南理工大学 基于混合传感器的人机交互方法
JP2013190873A (ja) * 2012-03-12 2013-09-26 Nec Software Chubu Ltd 画像処理装置、画像処理方法、プログラムおよび記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013190873A (ja) * 2012-03-12 2013-09-26 Nec Software Chubu Ltd 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN103112007A (zh) * 2013-02-06 2013-05-22 华南理工大学 基于混合传感器的人机交互方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
袁利: "双目视觉在室内助盲中的应用", 《中国优秀硕士学位论文全文数据库医药卫生科技辑》 *
陈本乾: "机器视觉中自动对焦与重建关键技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10942529B2 (en) 2016-11-24 2021-03-09 Tencent Technology (Shenzhen) Company Limited Aircraft information acquisition method, apparatus and device
WO2018095278A1 (zh) * 2016-11-24 2018-05-31 腾讯科技(深圳)有限公司 飞行器的信息获取方法、装置及设备
CN106454124A (zh) * 2016-11-28 2017-02-22 努比亚技术有限公司 双摄像头实现对焦的装置及方法
WO2018099259A1 (zh) * 2016-12-01 2018-06-07 亿航智能设备(广州)有限公司 无人机障碍物检测方法及装置
CN106682584A (zh) * 2016-12-01 2017-05-17 广州亿航智能技术有限公司 无人机障碍物检测方法及装置
CN106960454B (zh) * 2017-03-02 2021-02-12 武汉星巡智能科技有限公司 景深避障方法、设备及无人飞行器
CN106960454A (zh) * 2017-03-02 2017-07-18 武汉星巡智能科技有限公司 景深避障方法、设备及无人飞行器
CN108496129A (zh) * 2017-04-28 2018-09-04 深圳市大疆创新科技有限公司 一种基于飞行器的设施检测方法及控制设备
CN107564033A (zh) * 2017-07-26 2018-01-09 北京臻迪科技股份有限公司 一种水下目标的跟踪方法、水下设备和可穿戴设备
CN108496201A (zh) * 2017-09-27 2018-09-04 深圳市大疆创新科技有限公司 图像处理方法和设备
CN109708636A (zh) * 2017-10-26 2019-05-03 广州极飞科技有限公司 导航图配置方法、避障方法以及装置、终端、无人飞行器
WO2019127518A1 (zh) * 2017-12-29 2019-07-04 深圳市大疆创新科技有限公司 避障方法、装置及可移动平台
CN109048926A (zh) * 2018-10-24 2018-12-21 河北工业大学 一种基于立体视觉的机器人智能避障***及方法
WO2021217444A1 (zh) * 2020-04-28 2021-11-04 深圳市大疆创新科技有限公司 深度图生成方法、电子设备、计算处理设备及存储介质
CN112057858A (zh) * 2020-09-11 2020-12-11 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及存储介质
CN112057858B (zh) * 2020-09-11 2022-04-08 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及存储介质
CN112927281A (zh) * 2021-04-06 2021-06-08 Oppo广东移动通信有限公司 深度检测方法、深度检测装置、存储介质与电子设备

Also Published As

Publication number Publication date
CN106127788B (zh) 2019-10-25

Similar Documents

Publication Publication Date Title
CN106127788A (zh) 一种视觉避障方法和装置
CN110389348B (zh) 基于激光雷达与双目相机的定位与导航方法及装置
US11138432B2 (en) Visual feature tagging in multi-view interactive digital media representations
CN107990899A (zh) 一种基于slam的定位方法和***
US11783443B2 (en) Extraction of standardized images from a single view or multi-view capture
CN112418288B (zh) 一种基于gms和运动检测的动态视觉slam方法
CN111274847B (zh) 一种定位方法
CN106092104A (zh) 一种室内机器人的重定位方法及装置
US20070070069A1 (en) System and method for enhanced situation awareness and visualization of environments
CN108235774B (zh) 信息处理方法、装置、云处理设备以及计算机程序产品
CN111724439A (zh) 一种动态场景下的视觉定位方法及装置
CN107329962B (zh) 图像检索数据库生成方法、增强现实的方法及装置
CN110570453A (zh) 一种基于双目视觉的闭环式跟踪特征的视觉里程计方法
CN104864849B (zh) 视觉导航方法和装置以及机器人
CN113689503B (zh) 目标对象的姿态检测方法、装置、设备及存储介质
CA3083430C (en) Urban environment labelling
CN116255992A (zh) 一种同时定位与建图的方法和装置
CN111982127A (zh) LightWeight-3D避障方法
CN110827353A (zh) 一种基于单目摄像头辅助的机器人定位方法
CN115311512A (zh) 数据标注方法、装置、设备及存储介质
Abobeah et al. Wearable RGB Camera-based Navigation System for the Visually Impaired.
Gautam et al. An experimental comparison of visual SLAM systems
CN115097935A (zh) 一种手部定位方法和vr设备
WO2022141114A1 (zh) 视线估计方法、装置、车辆及计算机可读存储介质
CN115031719A (zh) 一种基于视觉的低成本滑板车建图定位方法及***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant