CN106570903A - 一种基于rgb‑d摄像头的视觉识别与定位方法 - Google Patents

一种基于rgb‑d摄像头的视觉识别与定位方法 Download PDF

Info

Publication number
CN106570903A
CN106570903A CN201610894251.8A CN201610894251A CN106570903A CN 106570903 A CN106570903 A CN 106570903A CN 201610894251 A CN201610894251 A CN 201610894251A CN 106570903 A CN106570903 A CN 106570903A
Authority
CN
China
Prior art keywords
point
plane
potential
rgb
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610894251.8A
Other languages
English (en)
Other versions
CN106570903B (zh
Inventor
张智军
张文康
黄永前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201610894251.8A priority Critical patent/CN106570903B/zh
Publication of CN106570903A publication Critical patent/CN106570903A/zh
Application granted granted Critical
Publication of CN106570903B publication Critical patent/CN106570903B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于RGB‑D摄像头的视觉识别与定位方法,包括以下步骤:1)、通过使用微软Kinect摄像头传感器进行彩色图像和深度图像的采集后转化为三维点云,并且对场景中的平面进行提取;2)、将步骤1)中的平面进行提取后,对剩下的点云进行物体的提取和分割;3)、将步骤2)中获得的物体的点云集合分别进行识别和匹配;4)、将步骤2)获取到的物体点云通过计算,实现物体的定位。该方法基于微软的RGB‑D传感器Kinect II采集的三维点云图像进行物体的识别和定位,没有涉及到物体定位时多幅图像间匹配等复杂运算,大大地提高了计算效率,同时具备实时性强、适用于日常生活复杂环境的优点。

Description

一种基于RGB-D摄像头的视觉识别与定位方法
技术领域
本发明涉及机器视觉的识别与定位领域,尤其是一种基于RGB-D摄像头的视觉识别与定位方法。
背景技术
目前,现有的基于多目彩色图像相机的物体识别与定位***,大多是通过立体匹配不同传感器采集的图像,获取每一个像素点在空间中的位置,存着在成本较大、运行速度缓慢、***复杂等问题。
物体边缘分割大多是基于彩色摄像机的图像进行凸包提取的方法实现,该处理方法需要考虑物体外表色彩,在碰到背景颜色与物体相似的情况时容易产生误判,而凸包提取的方法也存在物体凸包轮廓错误及包含背景部分的问题。
相对于现有的基于多目彩色图像相机进行物体识别与定位的方法,使用RGB-D传感器进行物体识别和定位的方法具有很多优势:
首先,计算量小、运算速度快、实时性强、物体定位成本低,微软公司推出的RGB-D传感器Kinect II降低了三维扫描的成本,直接向用户提供分辨率较高的彩色图像、深度图像及点云图像,仅通过一个RGB-D传感器,便可以直接获得每一个像素点在相机坐标系中的位置,无须通过立体匹配多目***中不同传感器采集的图像来获取每一个像素点在空间中的位置;
其次,精确度与鲁棒性有所提高,基于RGB-D摄像头提供的深度图像及点云图像,可直接进行平面提取和物体的分割及定位,有效避免了物体本身外表和背景颜色的影响,可以减少误判情况的发生,提高***的准确性和稳定性。
发明内容
本发明的目的是针对上述现有技术的不足,提供了一种基于RGB-D摄像头的视觉识别与定位方法,该方法计算量小、实时性强,并且能够适应日常生活场景。
本发明的目的可以通过如下技术方案实现:
一种基于RGB-D摄像头的视觉识别与定位方法,所述方法包括以下步骤:
1)通过微软Kinect摄像头传感器对物体进行彩色图像和深度图像的采集后转化为三维点云图像;
2)对步骤1)获得的三维点云图像的每一个点进行相应的法向量计算;
3)对步骤2)获得的法向量集合,运用区域生长算法对物体所放置的背景平面进行提取;
4)将步骤3)中提取出的背景平面的点去除,并对剩下的点云进行物体点云集合提取和凸包提取处理;
5)将步骤4)中提取的各物体点云集合与对应的凸包相结合,进行二次区域生长,实现各物体完整轮廓的分割及完整点集的提取;
6)根据步骤5)中获得的各物体的完整轮廓,提取相应的彩色图像并分别进行特征提取和匹配识别;
7)将步骤5)获得的各物体的完整轮廓内的点云集合进行求均值运算,获得各物体在相机坐标系中的位置信息;
8)将步骤7)得到的各物体在相机坐标系中的位置信息,进行坐标系变换,转换到世界坐标系当中,实现各物体的定位。
优选地,步骤2)中,计算法向量的方法为:
设Pk为想要求得表面法向量的点,首先找到点Pk在图像中上下左右附近四个点P1、P2、P3和P4,P1和P3组成向量P2和P4组成向量则点Pk的表面法向量可以通过叉乘得到,具体如下:
三维点云图像的每一个点的法向量均通过如上公式计算得到。
优选的,步骤3)中,先顺序扫描三维点云图像的每一个点的法向量,遇到近似竖直的法向量则继续寻找该点附近且法向量为近似竖直的点,加入到潜在平面点集中,若潜在平面点集中点的数目大于设定的阈值,则认为该潜在平面点集为一个平面点集合并且把潜在平面点集加入到平面集合中,否则继续扫描剩下的法向量,直到扫描结束后,即可获得平面集合,实现平面的提取。
优选的,步骤5)中,物体完整轮廓的分割及完整点集的提取方法包括以下步骤:
a)输入三维点云、平面点集合和平面凸包范围内的点;
b)顺序扫描平面凸包范围内的点,寻找属于凸包范围内但不属于平面的点;
c)步骤b)中找到的凸包范围内的非平面点后,继续寻找该点附近所有在凸包内的非平面点,并且加入到潜在物体点集中;
d)若步骤c)中的潜在物体点集中点的数目小于设定的阈值,则回到步骤b)继续扫描剩下的平面凸包点;
e)若步骤c)中的潜在物体点集中点的数目大于等于设定的阈值,则认为该潜在物体点集为一个物体点集合;
f)继续在步骤e)中的潜在物体点集附近寻找凸包边界上的点加入到潜在物体点集中,即把在凸包外的物体点也寻找出来并且加入潜在物体点集中;
g)把步骤f)中得到的潜在物体点集加入到物体集合中;
h)若仍存在点云中的点未被扫描,则回到步骤b)继续寻找新的物体点集;
i)若点云中的全部点已经扫描完毕,则算法结束获得物体集合。
优选地,步骤6)具体为:
首先,通过物体的三维点云集合获得物体在彩色图像中对应的区域,把物体所在的图像区域截取下来后使用Open CV的Feature Detector::detect()函数获得surf特征点;
其次,进一步使用Open CV的Feature2D::compute()函数获得surf特征向量,物体的surf特征向量作为该物体的识别特征加入到识别库中,或者直接作为该物体识别匹配的特征向量,在实现物体的surf特征向量和库中相应的surf特征向量进行匹配时,使用最近邻开源库FLANN进行特征向量的匹配;
最后,使用最近邻开源库FLANN进行特征向量的匹配,具体就是使用Open CV的Descriptor Matcher::match()函数实现。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明采用RGB-D传感器,相比于现有的基于多目彩色图像相机的物体识别与定位***,没有涉及到物体定位时多幅图像间匹配等复杂运算,拥有计算量小、计算效率高、运算速度快、实时性强、物体定位成本低、精确度高、鲁棒性强等优势,可实现准确快速稳定的物体识别与定位;
2、本发明运用区域生长算法,在三维点云中进行背景平面提取,拥有计算量小,准确分割等特点,能够实现背景平面的快速分离与提取,提高了物体的精准提取、定位与识别的可能性;
3、本发明将各物体的点云集合与对应的凸包相结合,运用二次区域生长算法,剔除物体凸包内属于背景部分的点,增加凸包外属于物体部分的点,实现了物体轮廓的完整提取,提高了物体定位的精确度。
附图说明
图1为本发明方法的流程图。
图2为本发明表面的法向量叉乘示意图。
图3为本发明平面区域生长算法流程图。
图4为本发明物体完整轮廓的分割及完整点集的提取流程图。
图5(a)为Kinect相机坐标系示意图,图5(b)为实际的世界坐标系示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例:
本实施例提供了一种基于RGB-D摄像头的视觉识别与定位方法,如图1所示,主要由三维点云的采集、平面提取、物体的分割、物体的特征提取和匹配、物体的定位组成,所述方法具体包括以下步骤:
步骤一、通过微软Kinect摄像头传感器对物体进行彩色图像和深度图像的采集后转化为三维点云图像;
本步骤中,微软的Kinect传感器可以采集RGB-d图像,通过自带的API函数或者开放自然交互(Open Natural Interaction,Open NI)、点云库(Point Cloud Library,PCL)等第三方函数库,即可获得三维点云图像。
步骤二、对步骤一获得的三维点云图像的每一个点进行相应的法向量计算;
如图2所示,为本发明表面的法向量叉乘示意图,Pk为想要求得表面法向量的点,首先找到点Pk在图像中上下左右附近四个点P1、P2、P3和P4,P1和P3组成向量P2和P4组成向量则点Pk的表面法向量可以通过叉乘得到,具体如下:
三维点云图像的每一个点的法向量可通过如上公式计算得到。
步骤三、对步骤二获得的法向量集合,运用区域生长算法对物体所放置的背景平面进行提取;
本步骤中,如图3所示,先顺序扫描三维点云图像的每一个点的法向量,遇到近似竖直的法向量则继续寻找该点附近且法向量为近似竖直的点,加入到潜在平面点集S中,若潜在平面点集S中点的数目Ns大于设定的阈值N,则认为该潜在平面点集S为一个平面点集合并且把潜在平面点集S加入到平面集合C中,否则继续扫描剩下的法向量,直到扫描结束后,即可获得平面集合C,实现平面的提取。
步骤四、将步骤三中提取出的背景平面的点去除,并对剩下的点云进行物体点云集合提取和凸包提取处理;
步骤五、将步骤四中中提取的各物体点云集合与对应的凸包相结合,进行二次区域生长,实现各物体完整轮廓的分割及完整点集的提取;
图4所示,为物体完整轮廓的分割及完整点集的提取流程图,从步骤三获取到的平面集合进行凸包运算后,所得到的平面凸包中既包含了平面点集合,同时还包含了物体点集合。为了实现物体轮廓的完整提取,提高物体定位的精确度,本发明将各物体的点云集合与对应的凸包相结合,运用二次区域生长算法,剔除物体凸包内属于背景部分的点,增加凸包外属于物体部分的点,该物体完整轮廓的分割及完整点集的提取方法包括以下步骤:
a)输入三维点云、平面点集合和平面凸包范围内的点;
b)顺序扫描平面凸包范围内的点,寻找属于凸包范围内但不属于平面的点;
c)步骤b)中找到的凸包范围内的非平面点后,继续寻找该点附近所有在凸包内的非平面点,并且加入到潜在物体点集S'中;
d)若步骤c)中的潜在物体点集S'中点的数目Ns小于设定的阈值N,则回到步骤b)继续扫描剩下的平面凸包点;
e)若步骤c)中的潜在物体点集S'中点的数目Ns大于等于设定的阈值N,则认为该潜在物体点集S'为一个物体点集合;
f)继续在步骤e)中的潜在物体点集S'附近寻找凸包边界上的点加入到潜在物体点集S'中,即把在凸包外的物体点也寻找出来并且加入潜在物体点集S'中;
g)把步骤f)中得到的潜在物体点集S'加入到物体集合C'中;
h)若仍存在点云中的点未被扫描,则回到步骤b)继续寻找新的物体点集;
i)若点云中的全部点已经扫描完毕,则算法结束获得物体集合C'。
步骤六、根据步骤五中获得的各物体的完整轮廓,提取相应的彩色图像并分别进行特征提取和匹配识别;
本步骤中,首先,通过物体的三维点云集合可以获得物体在彩色图像中对应的区域,把物体所在的图像区域截取下来后使用Open CV的Feature Detector::detect()函数获得surf特征点,进一步使用Open CV的Feature2D::compute()函数获得surf特征向量,物体的surf特征向量可以作为该物体的识别特征加入到识别库中,或者直接作为该物体识别匹配的特征向量,在实现物体的surf特征向量和库中相应的surf特征向量进行匹配时,使用最近邻开源库FLANN进行特征向量的匹配,最后,使用最近邻开源库FLANN进行特征向量的匹配,具体就是使用Open CV的Descriptor Matcher::match()函数实现。
步骤七、将步骤五获得的各物体的完整轮廓内的点云集合进行求均值运算,获得各物体在相机坐标系中的位置信息;
步骤八、将步骤七得到的各物体在相机坐标系中的位置信息,进行坐标系变换,转换到世界坐标系当中,实现各物体的定位。
如图5(a)和图5(b)分别为Kinect相机坐标系示意图和实际的世界坐标系示意图,两个坐标系均为右手坐标系,要实现物体在世界坐标系中的定位,需要对相机进行标定,相机坐标系与世界坐标系之间存在以下关系:
其中,XC、YC、Zc表示物体在摄像头坐标系中的位置分量,XW、YW、ZW表示物体在世界坐标系中的位置分量,分别是相机的旋转矩阵和偏移矩阵,均为相机的外参数。
在坐标系转换过程中需要通过旋转矩阵和偏移矩阵来计算物体的世界坐标系,而这两个矩阵是通过相机的标定获得,在进行相机标定的时候使用到了matlab相机标定工具箱(Camera Calibration Toolbox for Matlab),通过棋盘法对Kinect进行标定。由于Kinect默认的相机坐标系设置在红外摄像头处,如图5所示,并且Kinect采集的图片是镜像图片,因此在进行相机标定时要使用Kinect的红外摄像头采集红外图像,并且要把采集到的图片逐一进行左右镜像翻转处理后才输入到工具箱中进行标定。在标定时,先让相机围绕棋盘在不同角度和不同距离采集二十张以上图片进行相机的内参数计算,最后将棋盘固定在目标位置采集一幅图像进行相机外参数的计算。
将标定后获得的外参数矩阵和计算得到的物体在相机坐标系中的坐标进行以下运算:
即可获得物体在世界坐标系中的空间坐标信息。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明专利构思加以等同替换或改变,都属于本发明专利的保护范围。

Claims (5)

1.一种基于RGB-D摄像头的视觉识别与定位方法,其特征在于:所述方法包括以下步骤:
1)通过微软Kinect摄像头传感器对物体进行彩色图像和深度图像的采集后转化为三维点云图像;
2)对步骤1)获得的三维点云图像的每一个点进行相应的法向量计算;
3)对步骤2)获得的法向量集合,运用区域生长算法对物体所放置的背景平面进行提取;
4)将步骤3)中提取出的背景平面的点去除,并对剩下的点云进行物体点云集合提取和凸包提取处理;
5)将步骤4)中提取的各物体点云集合与对应的凸包相结合,进行二次区域生长,实现各物体完整轮廓的分割及完整点集的提取;
6)根据步骤5)中获得的各物体的完整轮廓,提取相应的彩色图像并分别进行特征提取和匹配识别;
7)将步骤5)获得的各物体的完整轮廓内的点云集合进行求均值运算,获得各物体在相机坐标系中的位置信息;
8)将步骤7)得到的各物体在相机坐标系中的位置信息,进行坐标系变换,转换到世界坐标系当中,实现各物体的定位。
2.根据权利要求1所述的一种基于RGB-D摄像头的视觉识别与定位方法,其特征在于:步骤2)中,计算法向量的方法为:
设Pk为想要求得表面法向量的点,首先找到点Pk在图像中上下左右附近四个点P1、P2、P3和P4,P1和P3组成向量P2和P4组成向量则点Pk的表面法向量可以通过叉乘得到,具体如下:
ν p → = ν 2 → × ν 1 →
三维点云图像的每一个点的法向量均通过如上公式计算得到。
3.根据权利要求1所述的一种基于RGB-D摄像头的视觉识别与定位方法,其特征在于:步骤3)中,先顺序扫描三维点云图像的每一个点的法向量,遇到近似竖直的法向量则继续寻找该点附近且法向量为近似竖直的点,加入到潜在平面点集中,若潜在平面点集中点的数目大于设定的阈值,则认为该潜在平面点集为一个平面点集合并且把潜在平面点集加入到平面集合中,否则继续扫描剩下的法向量,直到扫描结束后,即可获得平面集合,实现平面的提取。
4.根据权利要求1所述的一种基于RGB-D摄像头的视觉识别与定位方法,其特征在于:步骤5)中,所述物体完整轮廓的分割及完整点集的提取包括以下步骤:
a)输入三维点云、平面点集合和平面凸包范围内的点;
b)顺序扫描平面凸包范围内的点,寻找属于凸包范围内但不属于平面的点;
c)步骤b)中找到的凸包范围内的非平面点后,继续寻找该点附近所有在凸包内的非平面点,并且加入到潜在物体点集中;
d)若步骤c)中的潜在物体点集中点的数目小于设定的阈值,则回到步骤b)继续扫描剩下的平面凸包点;
e)若步骤c)中的潜在物体点集中点的数目大于等于设定的阈值,则认为该潜在物体点集为一个物体点集合;
f)继续在步骤e)中的潜在物体点集附近寻找凸包边界上的点加入到潜在物体点集中,即把在凸包外的物体点也寻找出来并且加入潜在物体点集中;
g)把步骤f)中得到的潜在物体点集加入到物体集合中;
h)若仍存在点云中的点未被扫描,则回到步骤b)继续寻找新的物体点集;
i)若点云中的全部点已经扫描完毕,则算法结束获得物体集合。
5.根据权利要求1所述的一种基于RGB-D摄像头的视觉识别与定位方法,其特征在于:步骤6)具体为:
首先,通过物体的三维点云集合获得物体在彩色图像中对应的区域,把物体所在的图像区域截取下来后使用Open CV的Feature Detector::detect()函数获得surf特征点;
其次,进一步使用Open CV的Feature2D::compute()函数获得surf特征向量,物体的surf特征向量作为该物体的识别特征加入到识别库中,或者直接作为该物体识别匹配的特征向量,在实现物体的surf特征向量和库中相应的surf特征向量进行匹配时,使用最近邻开源库FLANN进行特征向量的匹配;
最后,使用最近邻开源库FLANN进行特征向量的匹配,具体就是使用Open CV的Descriptor Matcher::match()函数实现。
CN201610894251.8A 2016-10-13 2016-10-13 一种基于rgb-d摄像头的视觉识别与定位方法 Active CN106570903B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610894251.8A CN106570903B (zh) 2016-10-13 2016-10-13 一种基于rgb-d摄像头的视觉识别与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610894251.8A CN106570903B (zh) 2016-10-13 2016-10-13 一种基于rgb-d摄像头的视觉识别与定位方法

Publications (2)

Publication Number Publication Date
CN106570903A true CN106570903A (zh) 2017-04-19
CN106570903B CN106570903B (zh) 2019-06-18

Family

ID=58532076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610894251.8A Active CN106570903B (zh) 2016-10-13 2016-10-13 一种基于rgb-d摄像头的视觉识别与定位方法

Country Status (1)

Country Link
CN (1) CN106570903B (zh)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107480603A (zh) * 2017-07-27 2017-12-15 大连和创懒人科技有限公司 基于slam和深度摄像头的同步建图与物体分割方法
CN107564059A (zh) * 2017-07-11 2018-01-09 北京联合大学 基于rgb‑d信息的物体定位方法、装置以及机器视觉***
CN107610176A (zh) * 2017-09-15 2018-01-19 斯坦德机器人(深圳)有限公司 一种基于Kinect的栈板动态识别与定位方法、***及介质
CN107609520A (zh) * 2017-09-15 2018-01-19 四川大学 障碍物识别方法、装置及电子设备
CN108247635A (zh) * 2018-01-15 2018-07-06 北京化工大学 一种深度视觉的机器人抓取物体的方法
CN108716324A (zh) * 2018-03-26 2018-10-30 江苏大学 一种适用于自动驾驶汽车的开门防撞***及方法
CN108830150A (zh) * 2018-05-07 2018-11-16 山东师范大学 一种基于三维人体姿态估计方法及装置
CN109101967A (zh) * 2018-08-02 2018-12-28 苏州中德睿博智能科技有限公司 基于视觉的目标对象识别与定位方法、终端以及存储介质
CN109146961A (zh) * 2018-09-05 2019-01-04 天目爱视(北京)科技有限公司 一种基于虚拟矩阵的3d测量及获取装置
CN109211210A (zh) * 2018-09-25 2019-01-15 深圳市超准视觉科技有限公司 一种目标物体的识别定位测量方法及装置
CN109801309A (zh) * 2019-01-07 2019-05-24 华南理工大学 一种基于rgb-d相机的障碍物感知方法
CN109870983A (zh) * 2017-12-04 2019-06-11 北京京东尚科信息技术有限公司 处理托盘堆垛图像的方法、装置及用于仓储拣货的***
CN109974707A (zh) * 2019-03-19 2019-07-05 重庆邮电大学 一种基于改进点云匹配算法的室内移动机器人视觉导航方法
CN110136211A (zh) * 2019-04-18 2019-08-16 中国地质大学(武汉) 一种基于主动双目视觉技术的工件定位方法及***
CN110223297A (zh) * 2019-04-16 2019-09-10 广东康云科技有限公司 基于扫描点云数据的分割与识别方法、***及存储介质
CN110349225A (zh) * 2019-07-12 2019-10-18 四川易利数字城市科技有限公司 一种bim模型外部轮廓快速提取方法
CN110342252A (zh) * 2019-07-01 2019-10-18 芜湖启迪睿视信息技术有限公司 一种物品自动抓取方法及自动抓取装置
US10452947B1 (en) 2018-06-08 2019-10-22 Microsoft Technology Licensing, Llc Object recognition using depth and multi-spectral camera
CN110553628A (zh) * 2019-08-28 2019-12-10 华南理工大学 一种基于深度相机的捕捉飞行物体的方法
CN111476841A (zh) * 2020-03-04 2020-07-31 哈尔滨工业大学 一种基于点云和图像的识别定位方法及***
WO2021223124A1 (zh) * 2020-05-06 2021-11-11 深圳市大疆创新科技有限公司 位置信息获取方法、设备及存储介质
US11245875B2 (en) 2019-01-15 2022-02-08 Microsoft Technology Licensing, Llc Monitoring activity with depth and multi-spectral camera
CN114274139A (zh) * 2020-09-27 2022-04-05 西门子股份公司 自动喷涂方法、装置、***和存储介质
CN116843631A (zh) * 2023-06-20 2023-10-03 安徽工布智造工业科技有限公司 一种轻钢行业非标零件叠料的3d视觉分料方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564536B (zh) * 2017-12-22 2020-11-24 洛阳中科众创空间科技有限公司 一种深度图的全局优化方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140141174A (ko) * 2013-05-31 2014-12-10 한국과학기술원 3차원 객체 인식을 위한 rgb-d 영상 기반 객체 구역화 및 인식 방법 및 장치
CN104240297A (zh) * 2014-09-02 2014-12-24 东南大学 一种救援机器人三维环境地图实时构建方法
CN105046710A (zh) * 2015-07-23 2015-11-11 北京林业大学 基于深度图分割与代理几何体的虚实碰撞交互方法及装置
CN105913489A (zh) * 2016-04-19 2016-08-31 东北大学 一种利用平面特征的室内三维场景重构方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140141174A (ko) * 2013-05-31 2014-12-10 한국과학기술원 3차원 객체 인식을 위한 rgb-d 영상 기반 객체 구역화 및 인식 방법 및 장치
CN104240297A (zh) * 2014-09-02 2014-12-24 东南大学 一种救援机器人三维环境地图实时构建方法
CN105046710A (zh) * 2015-07-23 2015-11-11 北京林业大学 基于深度图分割与代理几何体的虚实碰撞交互方法及装置
CN105913489A (zh) * 2016-04-19 2016-08-31 东北大学 一种利用平面特征的室内三维场景重构方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JUNGONG HAN 等: "Enhanced Computer Vision With Microsoft Kinect Sensor: A Review", 《IEEE TRANSACTIONS ON CYBERNETICS》 *
YANG XIAO 等: "Human–Robot Interaction by Understanding Upper Body Gestures", 《PRESENCE》 *
董国胜: "基于Kinect的三维彩色人体表面重建技术的研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107564059A (zh) * 2017-07-11 2018-01-09 北京联合大学 基于rgb‑d信息的物体定位方法、装置以及机器视觉***
CN107480603A (zh) * 2017-07-27 2017-12-15 大连和创懒人科技有限公司 基于slam和深度摄像头的同步建图与物体分割方法
CN107480603B (zh) * 2017-07-27 2020-09-18 和创懒人(大连)科技有限公司 基于slam和深度摄像头的同步建图与物体分割方法
CN107610176A (zh) * 2017-09-15 2018-01-19 斯坦德机器人(深圳)有限公司 一种基于Kinect的栈板动态识别与定位方法、***及介质
CN107609520A (zh) * 2017-09-15 2018-01-19 四川大学 障碍物识别方法、装置及电子设备
CN107610176B (zh) * 2017-09-15 2020-06-26 斯坦德机器人(深圳)有限公司 一种基于Kinect的栈板动态识别与定位方法、***及介质
CN107609520B (zh) * 2017-09-15 2020-07-03 四川大学 障碍物识别方法、装置及电子设备
CN109870983A (zh) * 2017-12-04 2019-06-11 北京京东尚科信息技术有限公司 处理托盘堆垛图像的方法、装置及用于仓储拣货的***
CN109870983B (zh) * 2017-12-04 2022-01-04 北京京东尚科信息技术有限公司 处理托盘堆垛图像的方法、装置及用于仓储拣货的***
CN108247635B (zh) * 2018-01-15 2021-03-26 北京化工大学 一种深度视觉的机器人抓取物体的方法
CN108247635A (zh) * 2018-01-15 2018-07-06 北京化工大学 一种深度视觉的机器人抓取物体的方法
CN108716324A (zh) * 2018-03-26 2018-10-30 江苏大学 一种适用于自动驾驶汽车的开门防撞***及方法
CN108830150B (zh) * 2018-05-07 2019-05-28 山东师范大学 一种基于三维人体姿态估计方法及装置
CN108830150A (zh) * 2018-05-07 2018-11-16 山东师范大学 一种基于三维人体姿态估计方法及装置
US10452947B1 (en) 2018-06-08 2019-10-22 Microsoft Technology Licensing, Llc Object recognition using depth and multi-spectral camera
CN109101967A (zh) * 2018-08-02 2018-12-28 苏州中德睿博智能科技有限公司 基于视觉的目标对象识别与定位方法、终端以及存储介质
CN109146961A (zh) * 2018-09-05 2019-01-04 天目爱视(北京)科技有限公司 一种基于虚拟矩阵的3d测量及获取装置
CN109211210A (zh) * 2018-09-25 2019-01-15 深圳市超准视觉科技有限公司 一种目标物体的识别定位测量方法及装置
CN109801309A (zh) * 2019-01-07 2019-05-24 华南理工大学 一种基于rgb-d相机的障碍物感知方法
US11245875B2 (en) 2019-01-15 2022-02-08 Microsoft Technology Licensing, Llc Monitoring activity with depth and multi-spectral camera
CN109974707A (zh) * 2019-03-19 2019-07-05 重庆邮电大学 一种基于改进点云匹配算法的室内移动机器人视觉导航方法
CN110223297A (zh) * 2019-04-16 2019-09-10 广东康云科技有限公司 基于扫描点云数据的分割与识别方法、***及存储介质
CN110136211A (zh) * 2019-04-18 2019-08-16 中国地质大学(武汉) 一种基于主动双目视觉技术的工件定位方法及***
CN110342252B (zh) * 2019-07-01 2024-06-04 河南启迪睿视智能科技有限公司 一种物品自动抓取方法及自动抓取装置
CN110342252A (zh) * 2019-07-01 2019-10-18 芜湖启迪睿视信息技术有限公司 一种物品自动抓取方法及自动抓取装置
CN110349225B (zh) * 2019-07-12 2023-02-28 四川易利数字城市科技有限公司 一种bim模型外部轮廓快速提取方法
CN110349225A (zh) * 2019-07-12 2019-10-18 四川易利数字城市科技有限公司 一种bim模型外部轮廓快速提取方法
CN110553628A (zh) * 2019-08-28 2019-12-10 华南理工大学 一种基于深度相机的捕捉飞行物体的方法
CN111476841A (zh) * 2020-03-04 2020-07-31 哈尔滨工业大学 一种基于点云和图像的识别定位方法及***
WO2021223124A1 (zh) * 2020-05-06 2021-11-11 深圳市大疆创新科技有限公司 位置信息获取方法、设备及存储介质
CN114274139A (zh) * 2020-09-27 2022-04-05 西门子股份公司 自动喷涂方法、装置、***和存储介质
CN114274139B (zh) * 2020-09-27 2024-04-19 西门子股份公司 自动喷涂方法、装置、***和存储介质
CN116843631A (zh) * 2023-06-20 2023-10-03 安徽工布智造工业科技有限公司 一种轻钢行业非标零件叠料的3d视觉分料方法
CN116843631B (zh) * 2023-06-20 2024-04-02 安徽工布智造工业科技有限公司 一种轻钢行业非标零件叠料的3d视觉分料方法

Also Published As

Publication number Publication date
CN106570903B (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
CN106570903A (zh) 一种基于rgb‑d摄像头的视觉识别与定位方法
CN110221603B (zh) 一种基于激光雷达多帧点云融合的远距离障碍物检测方法
CN108406731B (zh) 一种基于深度视觉的定位装置、方法及机器人
CN107463918B (zh) 基于激光点云与影像数据融合的车道线提取方法
CN105894499B (zh) 一种基于双目视觉的空间物体三维信息快速检测方法
CN102509348B (zh) 一种共享增强现实场景的真实物体多方位表示方法
CN108932475A (zh) 一种基于激光雷达和单目视觉的三维目标识别***及方法
CN109308718B (zh) 一种基于多深度相机的空间人员定位装置及方法
CN106803286A (zh) 基于多视点图像的虚实遮挡实时处理方法
CN104463108A (zh) 一种单目实时目标识别及位姿测量方法
CN107067431A (zh) 一种基于Kinect的物体体积计算方法
CN110334678A (zh) 一种基于视觉融合的行人检测方法
CN101527046A (zh) 一种运动检测方法、装置和***
CN106646474A (zh) 一种非结构化道路凹凸障碍物检测装置
CN109377513A (zh) 一种针对两视图的全局三维人体姿态可信估计方法
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及***
CN107560592A (zh) 一种用于光电跟踪仪联动目标的精确测距方法
CN111107337A (zh) 深度信息补全方法及其装置、监控***和存储介质
CN112464812A (zh) 一种基于车辆的凹陷类障碍物检测方法
CN115376109B (zh) 障碍物检测方法、障碍物检测装置以及存储介质
Yuan et al. Combining maps and street level images for building height and facade estimation
CN107403451A (zh) 自适应二值特征单目视觉里程计方法及计算机、机器人
CN109523528A (zh) 一种基于无人机双目视觉sgc算法的输电线路提取方法
CN106295657A (zh) 一种视频数据结构化过程中提取人体高度特征的方法
CN105277144A (zh) 基于双目视觉的土地面积快速检测方法及其检测装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant