CN106384115A - 一种机械臂关节角度检测方法 - Google Patents
一种机械臂关节角度检测方法 Download PDFInfo
- Publication number
- CN106384115A CN106384115A CN201610948647.6A CN201610948647A CN106384115A CN 106384115 A CN106384115 A CN 106384115A CN 201610948647 A CN201610948647 A CN 201610948647A CN 106384115 A CN106384115 A CN 106384115A
- Authority
- CN
- China
- Prior art keywords
- mechanical arm
- joint
- image
- angle
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20116—Active contour; Active surface; Snakes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种机械臂关节角度检测方法,包括步骤:1)采集RGB‑D原始图像;2)提取机械臂轮廓;3)对提取的机械臂轮廓进行平滑处理;4)提取机械臂轮廓骨架;5)定位机械臂关节点;6)计算机械臂关节角度。机械臂轮廓的提取采用的是彩色图像与深度图像结合的阈值分割技术;机械臂关节点的定位是通过细化算法提取出机械臂轮廓骨架,然后结合机械臂各刚体部件的位置关系和骨架线的长度对其关节点定位;机械臂关节角度是根据关节点的三维信息,由向量的可平移性质及方向性将机械臂关节角度计算简化为对空间向量夹角的计算得到。本发明阈值分割效果好,关节点的定位更加准确,能够良好的计算出机械臂各关节角度,鲁棒性较强,简单有效。
Description
技术领域
本发明涉及图像处理与机器视觉领域,具体涉及一种机械臂关节角度检测方法。
背景技术
随着机器人技术的高速发展和社会工业化进程的加速,机器人逐渐参与到人类的活动中来,并日益成为人类的好帮手。机械臂也是机器人的重要的一种,由于它能完成多种多样的任务,如装配,搬运,焊接等等,还可以代替人类在一些危险的恶劣的工作环境中完成既定的任务等优势。它被广泛应用于工业制造、空间探索、国防科技等领域。
由于工业机器人***是多输入、多输出、强非线性、强耦合的高度复杂***,在长时间高速运动的情况下,机器人的非线性动力学特性十分显著,并且在实际工作中存在的各种复杂不确性因素,严重影响着机器人的控制性能,甚至有可能出现故障,破坏物体和伤及工人,变为机器杀手。为此,机械臂角度的检测对机械臂的故障检测、精准度提高和安全保障有着潜在的价值。
传统的机械臂各个关节的角度值的计算是利用已知机械臂的末端执行器的坐标位置(或位姿)通过机械臂的逆向运动学计算求得,但是由于机械臂各关节变量相互耦合,根据逆运动方程求得的解也不是唯一的解,需根据机械臂的组合形态和各关节的运动范围经过多次反复计算再选择一组合理解,通过逆运动学求解机械臂各关节角度十分复杂。
发明内容
本发明要解决的技术问题是,针对现有通过逆运动学求解机械臂各关节角度存在算法非常复杂的不足,提供一种机械臂关节角度检测方法,利用RBG-D图像检测机械臂角度,阈值分割效果好,关节点的定位更加准确,简化了机械臂关节角度求解。
本发明为解决上述技术问题所采用的技术方案是:
一种机械臂关节角度检测方法,包括如下步骤:
步骤一:采集RGB-D原始图像;
步骤二:结合彩色图像与深度图像,用阈值分割的方法提取机械臂目标轮廓图像;
步骤三:对提取的机械臂轮廓进行平滑处理(预处理);
步骤四:通过Zhang并行快速细化算法提取机械臂轮廓骨架;
步骤五:结合机械臂各刚体部件的位置关系(刚体比例关系)和骨架线长度对机械臂关节点定位,确定机械臂关节点;
步骤六:通过定位出的机械臂关节点的三维信息(深度信息)和空间向量的可平移性质及方向性计算机械臂各关节角度,将机械臂关节角度计算简化为对空间向量夹角的计算。
按上述方案,步骤二中,阈值分割提取机械臂目标轮廓图像具体包括两大块:
a、设定阈值对深度图像进行阈值分割提取机械臂轮廓,对于深度图像,通过深度值的判定把机械臂目标区域与背景区域进行初步区分,深度图像目标提取的公式:
其中,f(x,y)是阈值分割中(x,y)处的逻辑值,d(x,y)为深度图像中(x,y)坐标处的深度值,θ为深度图像的阈值分割的阈值门限,θ根据机械臂的工作空间设置;
b、结合彩色图像进行分割,移除机械臂目标以外物体,对于彩色图像,阈值的选取根据机械臂主体颜色来设定,设定过程如下:首先取彩色图像第一帧作为先验图片,将其由RGB图像转换为YCbCr图像,然后手动选取机械臂主体颜色部分,若选择的矩形宽为w,高为h,p(y,cb,cr)为矩形区域的像素点,(i,j)为图像二维坐标,则矩形区域的颜色平均值为:
取矩形区域的颜色平均值为彩色图像的阈值分割的阈值门限;
彩色图像目标提取的公式:
其中,g(x,y)是阈值分割中(x,y)处的逻辑值,c(x,y)为深度图像中(x,y)坐标处的YcbCr值,为彩色图像的阈值分割的阈值门限,根据手动选取机械臂主体颜色部分的平均值来设置;
最终的阈值分割的逻辑值取深度图像与彩色图像阈值分割的交集。
按上述方案,步骤五机械臂关节点定位具体为:
通过遍历幅机械臂骨架图,细化后的机械臂骨架线机械臂骨架部分像素值为1,背景部分为0,机械臂骨架为单位像素宽,找出像素值为1的八邻域只有一个像素值为1的所有像素点,根据机械臂关节位置关系,像素坐标点纵坐标y最大的像素点为机械臂底座关节点位置,像素点横坐标x最小的为机械臂末端执行器的关节点位置;再从机械臂末端执行器关节点的像素位置开始延骨架线遍历,直到遍历到机械臂底座关节点位置截止,遍历路径的像素点总个数为机械臂骨架线长度,再通过机械臂产品规格图,得到机械臂各个关节的比例,其他关节点按照计算的骨架线长度和各个关节的比例关系就可以定位出来。
按上述方案,步骤六机械臂关节角度的计算具体为:
通过相机建立空间坐标系,将定位出的关节点由图像二维坐标转换为三维坐标,再将机械臂关节角度计算简化为对空间向量夹角的计算;深度图像到空间三维坐标的转换由如下表达式求得:
其中,(i,j)为图像二维坐标,(x,y,z)为空间坐标,(δx,δy)为相机的镜头畸变,(cx,cy)为图像中心点,(fx,fy)为比例参数,d是深度图像二维坐标(x,y)处的深度值;根据定位出的关节点像素的图像二维坐标和深度值,按上式算出每个关节点的空间坐标;
对于任意两个不重合的三维坐标点A(x1,y1,z1)、B(x2,y2,z2),转化到传统空间坐标系中组成向量AB,转化公式为:
根据以上性质,机械臂关节角度的计算简化为空间向量夹角的计算,如定位出的关节坐标点A(x1,y1,z1)、B(x2,y2,z2)、C(x3,y3,z3)之间关节角度,直接通过计算空间向量BA和BC的夹角得出,公式如下:
关节点B、C、D、E之间关节角度依次按上述公式计算,对于机械臂基座转动的关节角度计算按以下方式计算:将关节点A初始位置投影到xOz平面A′,以向量EA′为基准,在机械臂转动的过程中将关节点A继续投影到xOz平面A″,通过计算向量EA′和EA″的夹角获得。
本发明的工作原理:基于RGB-D图像检测机械臂关节角度,首先通过RGB-D图像定位出机械臂关节点,然后通过定位出的关节点的三维信息计算机械臂关节角度。
本发明与现有技术相比具有如下有益效果:
1、通过结合彩色图像和深度图像的阈值分割方法所提取的机械臂目标图像要比单纯的用深度图像或者彩色图像进行阈值分割效果要好;
2、通过结合机械臂各刚体部件的位置关系和骨架线的长度对机械臂关节点进行定位的方式,可以使关节点的定位更加准确;
3、通过向量的性质求解机械臂关节角度的方式简化了计算的复杂性,并且简单有效。
附图说明
图1是本发明机械臂关节角度检测方法流程图;
图2是本发明实施例机械臂关节点空间向量表示图。
具体实施方式
下面根据具体实施例并结合附图,对本发明作进一步详细的说明。
参照图1所示,本发明实施例所述的机械臂关节角度检测方法,包括如下步骤:
步骤一:首先用Kinect采集RGB-D原始图像;
步骤二:设定阈值对深度图像进行阈值分割提取机械臂轮廓,对于深度图像,通过深度值的判定把机械臂目标区域与背景区域进行初步区分,深度图像机械臂目标提取中阈值的限定发挥着关键性的作用,本文采集的场景固定,阈值范围选择机械臂工作空间范围内的深度值,通过多次试验可以得到。
深度图像目标提取的公式:
其中,f(x,y)是阈值分割中(x,y)处的逻辑值,d(x,y)为深度图像中(x,y)坐标处的深度值,θ为深度图像的阈值分割的阈值门限,阈值门限θ根据机械臂的工作空间设置。
单纯的用深度图像阈值分割后的机械臂轮廓图像可能含有机械臂以外物体,于是结合彩色图像进行分割,移除机械臂目标以外物体,对于彩色图像,其阈值的选取根据机械臂主体颜色来设定,其设定过程如下:首先取彩色图像第一帧作为先验图片,将其由RGB图像转换为YCbCr图像,然后手动选取机械臂主体颜色部分,若选择的矩形宽为w,高为h,p(y,cb,cr)为矩形区域的像素点,(i,j)为图像二维坐标,则矩形区域的颜色平均值为:
取矩形区域的颜色平均值为彩色图像的阈值分割的阈值门限,整个过程为了忽略光照强度的影响以cb,cr通道进行分割。
彩色图像目标提取的公式:
其中,g(x,y)是阈值分割中(x,y)处的逻辑值,c(x,y)为深度图像中(x,y)坐标处的YcbCr值,为彩色图像的阈值分割的阈值门限,阈值门限根据手动选取机械臂主体颜色部分的平均值来设置。
最终的阈值分割的逻辑值取深度图像与彩色图像阈值分割的交集。
步骤三:用中值滤波对机械臂轮廓图像就行平滑处理(预处理)。
步骤四:用zhang并行快速细化算法提取机械臂轮廓骨架。
步骤五:机械臂关节点定位。机械臂都会有它的产品说明书和产品技术规格书,机械臂各个关节的结构尺寸都有标注,各部分的关节比例关系为后面关节点定位提供有效的信息。通过遍历幅机械臂骨架图,细化后的机械臂骨架线机械臂骨架部分像素值为1,背景部分为0,机械臂骨架为单位像素宽,找出像素值为1的八邻域只有一个像素值为1的所有像素点,根据机械臂关节位置关系,像素坐标点纵坐标y最大的像素点为机械臂底座关节点位置,像素点横坐标x最小的为机械臂末端执行器的关节点位置。再从机械臂末端执行器关节点的像素位置开始延骨架线遍历,直到遍历到机械臂底座关节点位置截止,遍历路径的像素点总个数为机械臂骨架线长度,再通过机械臂产品规格图,可以得到机械臂各个关节的比例,其他关节点按照计算的骨架线长度和各个关节的比例关系就可以定位出来。
步骤六:机械臂关节角度的计算。通过Kinect相机建立空间坐标系,将定位出的关节点由图像二维坐标转换为三维坐标,再将机械臂关节角度计算简化为对空间向量夹角的计算,该方法简单有效。
深度图像到空间三维坐标的转换由如下表达式求得:
其中,(i,j)为图像二维坐标,(x,y,z)为空间坐标,(δx,δy)为Kinect相机的镜头畸变,(cx,cy)为图像中心点,(fx,fy)为比例参数,d是深度图像二维坐标(x,y)处的深度值,根据定位出的关节点像素的图像二维坐标和深度值,按上式即可算出每个关节点的空间坐标;
参照图2所示,对于Kinect坐标系中任意两个不重合的三维坐标点A(x1,y1,z1)、B(x2,y2,z2),转化到传统空间坐标系中组成向量AB,转化公式为:
根据以上性质,机械臂关节角度的计算可以简化为空间向量夹角的计算,如定位出的关节坐标点A(x1,y1,z1)、B(x2,y2,z2)、C(x3,y3,z3)之间关节角度,可以直接通过计算空间向量BA和BC的夹角得出,公式如下:
关节点B、C、D,E之间关节角度依次按上述公式计算即可,对于机械臂基座转动的关节角度计算按以下方式计算:将关节点A初始位置投影到xOz平面A′,以向量EA′为基准,在机械臂转动的过程中将关节点A继续投影到xOz平面A″,通过上述公式计算向量EA′和EA″的夹角获得。
显然,上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而这些属于本发明的精神所引伸出的显而易见的变化或变动仍处于本发明的保护范围之中。
Claims (4)
1.一种机械臂关节角度检测方法,其特征在于,包括如下步骤:
步骤一:采集RGB-D原始图像;
步骤二:结合彩色图像与深度图像,用阈值分割的方法提取机械臂目标轮廓图像;
步骤三:对提取的机械臂轮廓进行平滑处理;
步骤四:通过Zhang并行快速细化算法提取机械臂轮廓骨架;
步骤五:结合机械臂各刚体部件的位置关系和骨架线长度对机械臂关节点定位,确定机械臂关节点;
步骤六:通过定位出的机械臂关节点的三维信息和空间向量的可平移性质及方向性计算机械臂各关节角度,将机械臂关节角度计算简化为对空间向量夹角的计算。
2.如权利要求1所述的机械臂关节角度检测方法,其特征在于,步骤二中,阈值分割提取机械臂目标轮廓图像具体包括两大块:
a、设定阈值对深度图像进行阈值分割提取机械臂轮廓,对于深度图像,通过深度值的判定把机械臂目标区域与背景区域进行初步区分,深度图像目标提取的公式:
其中,f(x,y)是阈值分割中(x,y)处的逻辑值,d(x,y)为深度图像中(x,y)坐标处的深度值,θ为深度图像的阈值分割的阈值门限,θ根据机械臂的工作空间设置;
b、结合彩色图像进行分割,移除机械臂目标以外物体,对于彩色图像,阈值的选取根据机械臂主体颜色来设定,设定过程如下:首先取彩色图像第一帧作为先验图片,将其由RGB图像转换为YCbCr图像,然后手动选取机械臂主体颜色部分,若选择的矩形宽为w,高为h,p(y,cb,cr)为矩形区域的像素点,(i,j)为图像二维坐标,则矩形区域的颜色平均值为:
取矩形区域的颜色平均值为彩色图像的阈值分割的阈值门限;
彩色图像目标提取的公式:
其中,g(x,y)是阈值分割中(x,y)处的逻辑值,c(x,y)为深度图像中(x,y)坐标处的YcbCr值,为彩色图像的阈值分割的阈值门限,根据手动选取机械臂主体颜色部分的平均值来设置;
最终的阈值分割的逻辑值取深度图像与彩色图像阈值分割的交集。
3.如权利要求1所述的机械臂关节角度检测方法,其特征在于,步骤五机械臂关节点定位具体为:
通过遍历幅机械臂骨架图,细化后的机械臂骨架线机械臂骨架部分像素值为1,背景部分为0,机械臂骨架为单位像素宽,找出像素值为1的八邻域只有一个像素值为1的所有像素点,根据机械臂关节位置关系,像素坐标点纵坐标y最大的像素点为机械臂底座关节点位置,像素点横坐标x最小的为机械臂末端执行器的关节点位置;再从机械臂末端执行器关节点的像素位置开始延骨架线遍历,直到遍历到机械臂底座关节点位置截止,遍历路径的像素点总个数为机械臂骨架线长度,再通过机械臂产品规格图,得到机械臂各个关节的比例,其他关节点按照计算的骨架线长度和各个关节的比例关系就可以定位出来。
4.如权利要求1所述的机械臂关节角度检测方法,其特征在于,步骤六机械臂关节角度的计算具体为:
通过相机建立空间坐标系,将定位出的关节点由图像二维坐标转换为三维坐标,再将机械臂关节角度计算简化为对空间向量夹角的计算;深度图像到空间三维坐标的转换由如下表达式求得:
其中,(i,j)为图像二维坐标,(x,y,z)为空间坐标,(δx,δy)为相机的镜头畸变,(cx,cy)为图像中心点,(fx,fy)为比例参数,d是深度图像二维坐标(x,y)处的深度值;根据定位出的关节点像素的图像二维坐标和深度值,按上式算出每个关节点的空间坐标;
对于任意两个不重合的三维坐标点A(x1,y1,z1)、B(x2,y2,z2),转化到传统空间坐标系中组成向量AB,转化公式为:
根据以上性质,机械臂关节角度的计算简化为空间向量夹角的计算,如定位出的关节坐标点A(x1,y1,z1)、B(x2,y2,z2)、C(x3,y3,z3)之间关节角度,直接通过计算空间向量BA和BC的夹角得出,公式如下:
关节点B、C、D、E之间关节角度依次按上述公式计算,对于机械臂基座转动的关节角度计算按以下方式计算:将关节点A初始位置投影到xOz平面A′,以向量EA′为基准,在机械臂转动的过程中将关节点A继续投影到xOz平面A″,通过计算向量EA′和EA″的夹角获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610948647.6A CN106384115B (zh) | 2016-10-26 | 2016-10-26 | 一种机械臂关节角度检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610948647.6A CN106384115B (zh) | 2016-10-26 | 2016-10-26 | 一种机械臂关节角度检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106384115A true CN106384115A (zh) | 2017-02-08 |
CN106384115B CN106384115B (zh) | 2019-10-22 |
Family
ID=57956590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610948647.6A Active CN106384115B (zh) | 2016-10-26 | 2016-10-26 | 一种机械臂关节角度检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106384115B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107560880A (zh) * | 2017-08-31 | 2018-01-09 | 西门子工厂自动化工程有限公司 | 机械手性能测试方法及装置,计算机可读存储介质 |
CN108510582A (zh) * | 2018-04-02 | 2018-09-07 | 苏州蜗牛数字科技股份有限公司 | 一种匹配任意骨骼模型的刚体生成方法 |
CN108673484A (zh) * | 2018-07-09 | 2018-10-19 | 原敏虎 | 一种万能机械臂 |
CN109492639A (zh) * | 2018-11-12 | 2019-03-19 | 北京拓疆者智能科技有限公司 | 装载位置三维坐标获取方法、***及图像识别设备 |
CN110378956A (zh) * | 2019-07-23 | 2019-10-25 | 招商局重庆交通科研设计院有限公司 | 用于隧道灯清洁的隧道灯具定位方法及*** |
CN110695990A (zh) * | 2019-09-23 | 2020-01-17 | 江苏理工学院 | 一种基于Kinect手势识别的机械臂控制*** |
CN111145236A (zh) * | 2019-12-04 | 2020-05-12 | 东南大学 | 一种基于数字孪生的产品拟实物装配模型生成方法及实现框架 |
CN111402337A (zh) * | 2020-04-03 | 2020-07-10 | 中联重科股份有限公司 | 工程机械臂架类设备的姿态识别方法、装置及该工程机械 |
CN113280805A (zh) * | 2021-04-14 | 2021-08-20 | 中联重科股份有限公司 | 用于识别臂架姿态的方法、处理器、装置及工程机械 |
CN113343412A (zh) * | 2021-04-22 | 2021-09-03 | 国网浙江省电力有限公司嘉兴供电公司 | 一种机械臂末端精准定位虚拟仿真方法 |
CN113896105A (zh) * | 2021-05-27 | 2022-01-07 | 徐州重型机械有限公司 | 一种起重机状态监控*** |
CN113925497A (zh) * | 2021-10-22 | 2022-01-14 | 吉林大学 | 一种基于双目视觉测量***的汽车乘员乘坐姿态提取方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102778953A (zh) * | 2012-06-28 | 2012-11-14 | 华东师范大学 | 基于Kinect的皮影戏远程数字表演的体感控制方法 |
CN102922521A (zh) * | 2012-08-07 | 2013-02-13 | 中国科学技术大学 | 一种基于立体视觉伺服的机械臂***及其实时校准方法 |
CN103386683A (zh) * | 2013-07-31 | 2013-11-13 | 哈尔滨工程大学 | 一种基于Kinect的体感控制机械臂方法 |
CN104167016A (zh) * | 2014-06-16 | 2014-11-26 | 西安工业大学 | 一种基于rgb彩色与深度图像的三维运动重建方法 |
CN104315998A (zh) * | 2014-10-29 | 2015-01-28 | 武汉科技大学 | 一种基于深度图像和方位角的门开度判断方法 |
CN105631875A (zh) * | 2015-12-25 | 2016-06-01 | 广州视源电子科技股份有限公司 | 确定相机坐标与机械臂手爪坐标映射关系的方法及其*** |
-
2016
- 2016-10-26 CN CN201610948647.6A patent/CN106384115B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102778953A (zh) * | 2012-06-28 | 2012-11-14 | 华东师范大学 | 基于Kinect的皮影戏远程数字表演的体感控制方法 |
CN102922521A (zh) * | 2012-08-07 | 2013-02-13 | 中国科学技术大学 | 一种基于立体视觉伺服的机械臂***及其实时校准方法 |
CN103386683A (zh) * | 2013-07-31 | 2013-11-13 | 哈尔滨工程大学 | 一种基于Kinect的体感控制机械臂方法 |
CN104167016A (zh) * | 2014-06-16 | 2014-11-26 | 西安工业大学 | 一种基于rgb彩色与深度图像的三维运动重建方法 |
CN104315998A (zh) * | 2014-10-29 | 2015-01-28 | 武汉科技大学 | 一种基于深度图像和方位角的门开度判断方法 |
CN105631875A (zh) * | 2015-12-25 | 2016-06-01 | 广州视源电子科技股份有限公司 | 确定相机坐标与机械臂手爪坐标映射关系的方法及其*** |
Non-Patent Citations (1)
Title |
---|
张峰: "基于RGB-D图像的手势检测研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107560880A (zh) * | 2017-08-31 | 2018-01-09 | 西门子工厂自动化工程有限公司 | 机械手性能测试方法及装置,计算机可读存储介质 |
CN108510582A (zh) * | 2018-04-02 | 2018-09-07 | 苏州蜗牛数字科技股份有限公司 | 一种匹配任意骨骼模型的刚体生成方法 |
CN108673484A (zh) * | 2018-07-09 | 2018-10-19 | 原敏虎 | 一种万能机械臂 |
CN109492639A (zh) * | 2018-11-12 | 2019-03-19 | 北京拓疆者智能科技有限公司 | 装载位置三维坐标获取方法、***及图像识别设备 |
CN110378956A (zh) * | 2019-07-23 | 2019-10-25 | 招商局重庆交通科研设计院有限公司 | 用于隧道灯清洁的隧道灯具定位方法及*** |
CN110695990A (zh) * | 2019-09-23 | 2020-01-17 | 江苏理工学院 | 一种基于Kinect手势识别的机械臂控制*** |
CN111145236A (zh) * | 2019-12-04 | 2020-05-12 | 东南大学 | 一种基于数字孪生的产品拟实物装配模型生成方法及实现框架 |
CN111402337A (zh) * | 2020-04-03 | 2020-07-10 | 中联重科股份有限公司 | 工程机械臂架类设备的姿态识别方法、装置及该工程机械 |
CN113280805A (zh) * | 2021-04-14 | 2021-08-20 | 中联重科股份有限公司 | 用于识别臂架姿态的方法、处理器、装置及工程机械 |
CN113280805B (zh) * | 2021-04-14 | 2023-03-17 | 中联重科股份有限公司 | 用于识别臂架姿态的方法、处理器、装置及工程机械 |
CN113343412A (zh) * | 2021-04-22 | 2021-09-03 | 国网浙江省电力有限公司嘉兴供电公司 | 一种机械臂末端精准定位虚拟仿真方法 |
CN113896105A (zh) * | 2021-05-27 | 2022-01-07 | 徐州重型机械有限公司 | 一种起重机状态监控*** |
CN113925497A (zh) * | 2021-10-22 | 2022-01-14 | 吉林大学 | 一种基于双目视觉测量***的汽车乘员乘坐姿态提取方法 |
CN113925497B (zh) * | 2021-10-22 | 2023-09-15 | 吉林大学 | 一种基于双目视觉测量***的汽车乘员乘坐姿态提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106384115B (zh) | 2019-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106384115A (zh) | 一种机械臂关节角度检测方法 | |
CN111179324B (zh) | 基于颜色和深度信息融合的物体六自由度位姿估计方法 | |
CN106041937B (zh) | 一种基于双目立体视觉的机械手抓取控制***的控制方法 | |
CN103529855B (zh) | 一种旋转可调式双目视觉的目标识别定位装置及其在农业果实采摘机械的应用 | |
CN106524945B (zh) | 一种基于机械臂和结构光视觉的平面夹角在线测量方法 | |
CN107876970A (zh) | 一种机器人多层多道焊接焊缝三维检测及焊缝拐点识别方法 | |
CN102353340B (zh) | 缸盖毛坯加工尺寸识别方法及装置 | |
CN106530276A (zh) | 一种用于非标准件抓取的机械手定位方法以及定位*** | |
CN108573221A (zh) | 一种基于视觉的机器人目标零件显著性检测方法 | |
CN110425996A (zh) | 基于双目立体视觉的工件尺寸测量方法 | |
CN105069751A (zh) | 一种深度图像缺失数据的插值方法 | |
CN111598172B (zh) | 基于异构深度网络融合的动态目标抓取姿态快速检测方法 | |
CN106403924B (zh) | 基于深度摄像头的机器人快速定位与姿态估计方法 | |
CN113902810A (zh) | 一种基于平行式双目立体视觉的机器人齿轮倒角加工方法 | |
Fan et al. | A simple calibration method of structured light plane parameters for welding robots | |
Xia et al. | Workpieces sorting system based on industrial robot of machine vision | |
Fan et al. | A combined 2D-3D vision system for automatic robot picking | |
TW201714695A (zh) | 即時三維建模之雷射飛行打標系統及其方法 | |
CN107270826A (zh) | 一种孔的视觉测量方法 | |
CN114750154A (zh) | 一种配网带电作业机器人的动态目标识别定位与抓取方法 | |
CN108399630B (zh) | 一种复杂场景下感兴趣区域内目标快速测距方法 | |
Han et al. | Target positioning method in binocular vision manipulator control based on improved canny operator | |
CN110136248B (zh) | 一种基于双目立体视觉的变速器壳体三维重建装置及方法 | |
CN104614372A (zh) | 一种太阳能硅片检测方法 | |
Gao et al. | Vision localization algorithms for apple bagging robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |