CN107316288A - 一种悬臂式掘进机截割头位姿视觉测量方法 - Google Patents

一种悬臂式掘进机截割头位姿视觉测量方法 Download PDF

Info

Publication number
CN107316288A
CN107316288A CN201710443405.6A CN201710443405A CN107316288A CN 107316288 A CN107316288 A CN 107316288A CN 201710443405 A CN201710443405 A CN 201710443405A CN 107316288 A CN107316288 A CN 107316288A
Authority
CN
China
Prior art keywords
msub
mrow
msup
positioning mark
receptive field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710443405.6A
Other languages
English (en)
Other versions
CN107316288B (zh
Inventor
张旭辉
刘永伟
杨文娟
王冬曼
毛清华
杜昱阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Science and Technology
Original Assignee
Xian University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Science and Technology filed Critical Xian University of Science and Technology
Priority to CN201710443405.6A priority Critical patent/CN107316288B/zh
Publication of CN107316288A publication Critical patent/CN107316288A/zh
Application granted granted Critical
Publication of CN107316288B publication Critical patent/CN107316288B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种悬臂式掘进机截割头位姿视觉测量方法,在掘进机截割头处安置方形定位标识,并通过固定安装在掘进机机身上的摄像机对掘进机图像进行采集;对采集得到的目标图像进行降噪处理,提取降噪处理后图像中的定位标识;对定位标识进行边缘直线拟合,得到定位标识的四个顶点坐标;计算掘进机截割部的水平摆动角和上下抬升角,即掘进机截割头位的位姿;本发明方法能准确测量出掘进机图像中截割部的水平摆动角和上下抬升角,为掘进机截割头的位置测量提供必要的技术支持,具有显著的经济效益和较高的工程应用价值。

Description

一种悬臂式掘进机截割头位姿视觉测量方法
技术领域
本发明属于矿用设备运行状态监测领域,尤其涉及一种悬臂式掘进机截割头位姿视觉测量方法。
背景技术
掘进机截割部旋转和抬升角度是掘进机工况的重要参数,因此掘进机角度检测非常必要。目前国内掘进机自动化程度低,机身及截割头自主定位技术落后,严重限制了自动截割***的发展。目前常用接触式测量方法,这样方法往往无法满足工况要求,还使用旋转编码器对掘进机在工况条件下的旋转和抬升角度进行测量,这种测量方法存在较大的误差且安装困难。
发明内容
针对现有制备技术的缺陷和不足,本发明的目的是提供一种悬臂式掘进机截割头位姿视觉测量方法,能够自动测量出掘进机视频图像中截割部的旋转角和抬升角,为煤矿井下掘进机截割部角度测量提供必要的技术支持。
为了实现上述目的,本发明采用如下技术方案予以实现:
一种悬臂式掘进机截割头位姿视觉测量方法,包括以下步骤:
步骤一:在掘进机截割头处安置方形定位标识,并通过摄像机对掘进机图像进行采集;
步骤二:对采集得到的目标图像进行降噪处理,提取降噪处理后图像中的定位标识;
步骤三:对定位标识进行边缘直线拟合,得到定位标识的四个顶点坐标,具体步骤为:
步骤3.1:对定位标识按照设定的中心间距和大小分布感受野,采用(r*2+1)*(r*2+1)的掩模,r为感受野细胞半径,掩模中心与感受野细胞中心重合;
步骤3.2:利用梯度算子计算每个感受野掩模梯度方向,通过掩模梯度方向对每个感受野方向进行定性判断,从而分别划分出定位标识的上边缘、下边缘、左边缘和右边缘上分布的感受野细胞;
步骤3.3:利用感受野模型,计算上边缘方向各个感受野的响应值,根据单个感受野内像素点形成的对比边缘位置与感受野中心距离的关系,确定每个感受野中心到感受野内对比边缘到感受野中心的距离,然后利用带约束的最小二乘法模型拟合出标识板上边缘所在直线;
步骤3.4:重复步骤3.3,分别对定位标识的下边缘、左边缘、右边缘所在直线进行拟合;
步骤3.5:根据拟合的上边缘、下边缘、左边缘和右边缘四条直线方程,得到定位标识的四个顶点坐标;
步骤四:计算掘进机截割头位的位姿;
步骤4.1:根据步骤三得到定位标识的四个顶点坐标,将其转化为图像坐标,根据图像坐标与光心坐标的关系,计算定位标识的法向量;
其中,为定位标识的法向量,a∈i,b∈i,c∈i,a≠b≠c,i=1,2,3,4;
(Xi,Yi,Zi)为定位标识顶点的光心坐标,(xi,yi)为定位标识顶点的图像坐标,C为摄像机的有效焦距;
B1=x2y3-x4y3+x4y2-x2y4+x3y4-x3y2
B2=x3y4-x4y3-x1y4+x4y1+x1y3-x3y1
B3=x1y2-x4y2-x2y1-x1y4+x4y1+x2y4
B4=x3y2-x2y3+x1y3+x2y1-x1y2-x3y1
其中,l为长方形定位标识的长边边长或正方形定位标识的边长;
步骤4.2:通过式(1)和式(2)计算掘进机截割部的水平摆动角γ和上下抬升角α,即掘进机截割头位的位姿;
γ=θ-θ0 (1)
α=β-β0 (2)
其中,θ为掘进机截割部在摆动过程中,定位标识的法向量与竖直方向的夹角,θ0为掘进机截割部在初始位置时,定位标识的法向量与竖直方向的夹角;β为掘进机截割部在上下抬升过程中,定位标识的法向量与水平方向的夹角,β0为掘进机截割部在初始位置时,定位标识的法向量与水平方向的夹角。
进一步的,所述的步骤二包括:
步骤2.1:对采集得到的目标图像进行自适应二值化预处理;
步骤2.2:利用基于连通分量的方法对预处理后的目标图像中的定位标识进行提取。
与现有技术相比,本发明的有益效果是:
本发明方法能准确测量出掘进机图像中截割部的水平摆动角和上下抬升角,为掘进机截割头的位置测量提供必要的技术支持,具有显著的经济效益和较高的工程应用价值。
附图说明
图1为本发明的流程图。
图2为本发明的掘进机中定位标识和摄像机的安装位置图。
图3为本发明方法采集的图像及其处理后的图像,(a)原始图像,(b)二值化预处理后的图像,(c)提取的定位标识。
以下结合实施例对本发明的具体内容作进一步详细解释说明。
具体实施方式
光心坐标系(相机坐标系):以相机的光心为坐标原点,X轴、Y轴分别平行于CCD平面的两条垂直边,Z轴与相机的光轴重合。
图像坐标系:坐标原点在CCD图像平面的中心,X轴、Y轴分别平行于CCD平面的两条垂直边。
像素坐标系:坐标原点在CCD图像平面的左上角,U轴、V轴分别平行于图像坐标的X轴、Y轴。
本发明的悬臂式掘进机截割头位姿测量方法,包括以下步骤:
步骤一:在掘进机截割部处安置方形定位标识,并通过摄像机对掘进机图像进行采集,摄像机一般固定安装在掘进机机身上,如图1所示。
步骤二:对采集得到的目标图像进行降噪处理,提取预处理后图像中的定位标识,具体包括:
步骤2.1:对采集得到的每帧目标图像进行自适应二值化预处理;
步骤2.2:利用基于连通分量的方法对预处理后的目标图像中的定位标识进行提取;
步骤三:对每个定位标识进行边缘直线拟合,得到每个定位标识的四个顶点坐标,具体包括:
步骤3.1:对定位标识按照设定的中心间距和大小分布感受野,采用(r*2+1)*(r*2+1)的掩模,r为感受野细胞半径,掩模中心与感受野细胞中心重合;
步骤3.2:利用梯度算子计算每个感受野掩模梯度方向;
通过掩模梯度方向,对每个感受野方向进行定性判断,从而分别划分出定位标识上边缘、下边缘、左边缘、右边缘上分布的感受野细胞;
步骤3.3:利用感受野模型,计算上边缘方向各个感受野的响应值S,
S=S1-S2 (3)
其中,σD=rD/4,σS=rS/4;rD和rS分别表示感受野的中心区和外周区(也包含中心区的大圆)的半径,h(u,v,η)表示对比刺激覆盖率为η时,位于像素(u,v)的像素点刺激强度,对于二值图像中像素值为255的点取值为1,像素值为0的点取值为0;
S1为感受野中心区响应值,S2为感受野周边区域的响应值,Dl为位于感受野中心区的像素点,Se为位于感受野周边区域的像素点,l=0,1,2,...,f,e=1,2,...,m,f为位于感受野中心区的像素点,m为位于感受野周边区域的像素点个数。
根据单个感受野内像素点形成的对比边缘位置与感受野中心距离的关系,确定每个感受野中心到感受野内拟合对比边缘的距离dh,h=1,2,...,n,其中n表示感受野细胞个数。
假设边缘所在直线方程(a,b)(u,v)T+c=0,根据点到直线的距离公式:
其中,(uh,vh)为感受野中心在像素坐标系上的坐标点。
利用带约束的最小二乘法模型对该边缘所在直线进行拟合;
其中,L(a,b,c,λ)表示拉格朗日函数,λ为参数;a,b,c为拟合的边缘所在直线方程系数,U、V均表示由感受野细胞中心的像素坐标组成的n*1矩阵,D表示dh组成的n*1矩阵;
在约束条件a2+b2=1下,找到a,b,c最优解(a*,b*,c*);
步骤3.4:重复步骤3.3,分别对定位标识的下边缘、左边缘、右边缘所在直线进行拟合;
步骤3.5:根据拟合的上边缘、下边缘、左边缘和右边缘四条直线方程,得到定位标识的四个顶点坐标;
步骤四:计算掘进机截割部的水平摆动角γ和上下抬升角α,即掘进机截割头位的位姿,具体包括:
步骤4.1:根据步骤三得到每个定位标识的四个顶点坐标,将其转化为图像坐标,很据图像坐标与光心坐标的关系,计算定位标识的法向量;在计算法向量过程中,选择定位标识其中三个顶点坐标,通过三个顶点形成的向量即可确定定位标识所在空间平面,从而求得其法向量
其中,为定位标识的法向量,a∈i,b∈i,c∈i,a≠b≠c,i=1,2,3,4;
(Xi,Yi,Zi)为定位标识顶点的光心坐标,(xi,yi)为定位标识顶点的图像坐标,C为摄像机的有效焦距;
B1=x2y3-x4y3+x4y2-x2y4+x3y4-x3y2
B2=x3y4-x4y3-x1y4+x4y1+x1y3-x3y1
B3=x1y2-x4y2-x2y1-x1y4+x4y1+x2y4
B4=x3y2-x2y3+x1y3+x2y1-x1y2-x3y1
其中,l为定位标识的边长,若定位标识为长方形,则l为长边的边长。
步骤4.2:通过式(1)和式(2)计算掘进机截割部的水平摆动角γ和上下抬升角α,即掘进机截割头位的位姿;
γ=θ-θ0 (1)
α=β-β0 (2)
其中,θ为掘进机截割部在摆动过程中,定位标识的法向量与竖直方向的夹角,θ0为掘进机截割部在初始位置时,定位标识的法向量与竖直方向的夹角;β为掘进机截割部在上下抬升过程中,定位标识的法向量与水平方向的夹角,β0为掘进机截割部在初始位置时,定位标识的法向量与水平方向的夹角。
以下给出本发明的具体实施例,需要说明的是本发明并不局限于以下具体实施例,凡在本申请技术方案基础上做的等同变换均落入本发明的保护范围。
实施例
本实施例给出一种悬臂式掘进机截割头位姿测量方法,将掘进机截割头放置在水平摆角和上下抬升角均为零的位置处,摄像机采集掘进机上的方形定位标识板,如图3(a)所示;
对采集得到的目标图像进行降噪处理,对去噪后的掘进机图像进行自适应二值化处理,图3(b)表示二值化后图像;提取步骤二值化后的掘进机图像中的连通分量;利用连通分量的长短轴比和面积信息提取与分割掘进机图像中的定位标识,如图3(c)所示;
采用感受野细胞模型对定位标识进行边缘直线拟合:利用梯度算子计算每个感受野掩模梯度方向,通过梯度方向,对每个感受野方向进行定性判断,从而划分出定位标识四个边缘分布的感受野;
利用感受野模型,计算上边缘方向各个感受野的响应值,根据单个感受野内像素点形成的对比边缘位置与感受野中心距离的关系,确定每个感受野中心到感受野内对比边缘到感受野中心的距离,然后利用带约束的最小二乘法模型拟合出标识板上边缘所在直线;
重复上述过程,分别对定位标识的下边缘、左边缘、右边缘所在直线进行拟合;根据拟合的上边缘、下边缘、左边缘和右边缘四条直线方程,得到定位标识的四个顶点坐标。
计算定位标识的空间朝向,即定位标识的法向量根据定位标识的法向量与水平方形、竖直方向的夹角,计算得到掘进机截割部的水平摆动角为1.6742°,上下抬升角为5.6719°;说明掘进机机身上的相机的摆放位置不在水平面与竖直面上;
调整截割头的水平摆角为向右最大为33° 30′ 41″,上下摆角为向上最大为31°45′ 30″时,进行图像采集,计算得此时掘进机截割头的水平摆角为34.8292°,上下抬升角为37.7276°,考虑相机自身的偏移,最终得到掘进机截割头实际的水平摆角为33.155°,上下抬升角为32.0557°,可以看出,本发明方法得到的掘进机截割头的位姿与截割头实际位姿很接近。

Claims (2)

1.一种悬臂式掘进机截割头位姿视觉测量方法,其特征在于,包括以下步骤:
步骤一:在掘进机截割头处安置方形定位标识,并通过摄像机对掘进机图像进行采集;
步骤二:对采集得到的目标图像进行降噪处理,提取降噪处理后图像中的定位标识;
步骤三:对定位标识进行边缘直线拟合,得到定位标识的四个顶点坐标,具体步骤为:
步骤3.1:对定位标识按照设定的中心间距和大小分布感受野,采用(r*2+1)*(r*2+1)的掩模,r为感受野细胞半径,掩模中心与感受野细胞中心重合;
步骤3.2:利用梯度算子计算每个感受野掩模梯度方向,通过掩模梯度方向对每个感受野方向进行定性判断,从而分别划分出定位标识的上边缘、下边缘、左边缘和右边缘上分布的感受野细胞;
步骤3.3:利用感受野模型,计算上边缘方向各个感受野的响应值,根据单个感受野内像素点形成的对比边缘位置与感受野中心距离的关系,确定每个感受野中心到感受野内对比边缘到感受野中心的距离,然后利用带约束的最小二乘法模型拟合出标识板上边缘所在直线;
步骤3.4:重复步骤3.3,分别对定位标识的下边缘、左边缘、右边缘所在直线进行拟合;
步骤3.5:根据拟合的上边缘、下边缘、左边缘和右边缘四条直线方程,得到定位标识的四个顶点坐标;
步骤四:计算掘进机截割头位的位姿;
步骤4.1:根据步骤三得到定位标识的四个顶点坐标,将其转化为图像坐标,根据图像坐标与光心坐标的关系,计算定位标识的法向量;
其中,为定位标识的法向量,a∈i,b∈i,c∈i,a≠b≠c,i=1,2,3,4;
<mrow> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>t</mi> <mi>i</mi> </msub> <msub> <mi>x</mi> <mi>i</mi> </msub> </mrow> <mi>C</mi> </mfrac> <mo>,</mo> <msub> <mi>Y</mi> <mi>i</mi> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>t</mi> <mi>i</mi> </msub> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mi>C</mi> </mfrac> <mo>,</mo> <msub> <mi>Z</mi> <mi>i</mi> </msub> <mo>=</mo> <msub> <mi>t</mi> <mi>i</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
(Xi,Yi,Zi)为定位标识顶点的光心坐标,(xi,yi)为定位标识顶点的图像坐标,C为摄像机的有效焦距;
<mrow> <msub> <mi>t</mi> <mn>1</mn> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>B</mi> <mn>1</mn> </msub> <mi>C</mi> <mi>l</mi> </mrow> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <msup> <mi>C</mi> <mn>2</mn> </msup> </mrow> </msqrt> </mfrac> </mrow>
<mrow> <msub> <mi>t</mi> <mn>2</mn> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>B</mi> <mn>2</mn> </msub> <mi>C</mi> <mi>l</mi> </mrow> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <msup> <mi>C</mi> <mn>2</mn> </msup> </mrow> </msqrt> </mfrac> </mrow>
<mrow> <msub> <mi>t</mi> <mn>3</mn> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>B</mi> <mn>3</mn> </msub> <mi>C</mi> <mi>l</mi> </mrow> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <msup> <mi>C</mi> <mn>2</mn> </msup> </mrow> </msqrt> </mfrac> </mrow>
<mrow> <msub> <mi>t</mi> <mn>4</mn> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>B</mi> <mn>4</mn> </msub> <mi>C</mi> <mi>l</mi> </mrow> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>B</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>B</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <msup> <mi>C</mi> <mn>2</mn> </msup> </mrow> </msqrt> </mfrac> </mrow> 1
B1=x2y3-x4y3+x4y2-x2y4+x3y4-x3y2
B2=x3y4-x4y3-x1y4+x4y1+x1y3-x3y1
B3=x1y2-x4y2-x2y1-x1y4+x4y1+x2y4
B4=x3y2-x2y3+x1y3+x2y1-x1y2-x3y1
其中,l为长方形定位标识的长边边长或正方形定位标识的边长;
步骤4.2:通过式(1)和式(2)计算掘进机截割部的水平摆动角γ和上下抬升角α,即掘进机截割头位的位姿;
γ=θ-θ0 (1)
α=β-β0 (2)
其中,θ为掘进机截割部在摆动过程中,定位标识的法向量与竖直方向的夹角,θ0为掘进机截割部在初始位置时,定位标识的法向量与竖直方向的夹角;β为掘进机截割部在上下抬升过程中,定位标识的法向量与水平方向的夹角,β0为掘进机截割部在初始位置时,定位标识的法向量与水平方向的夹角。
2.如权利要求1所述的悬臂式掘进机截割头位姿视觉测量方法,其特征在于:所述的步骤二包括:
步骤2.1:对采集得到的目标图像进行自适应二值化预处理;
步骤2.2:利用基于连通分量的方法对预处理后的目标图像中的定位标识进行提取。
CN201710443405.6A 2017-06-13 2017-06-13 一种悬臂式掘进机截割头位姿视觉测量方法 Active CN107316288B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710443405.6A CN107316288B (zh) 2017-06-13 2017-06-13 一种悬臂式掘进机截割头位姿视觉测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710443405.6A CN107316288B (zh) 2017-06-13 2017-06-13 一种悬臂式掘进机截割头位姿视觉测量方法

Publications (2)

Publication Number Publication Date
CN107316288A true CN107316288A (zh) 2017-11-03
CN107316288B CN107316288B (zh) 2018-06-29

Family

ID=60183295

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710443405.6A Active CN107316288B (zh) 2017-06-13 2017-06-13 一种悬臂式掘进机截割头位姿视觉测量方法

Country Status (1)

Country Link
CN (1) CN107316288B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564628A (zh) * 2018-04-17 2018-09-21 北京理工大学 一种面向掘进机自动化的截割头视觉定位定向***
CN109115173A (zh) * 2018-08-23 2019-01-01 西安科技大学 基于直线定位模型的掘进机机身位姿单目视觉测量方法
CN109579831A (zh) * 2018-11-09 2019-04-05 西安科技大学 矿用悬臂式掘进机可视化辅助导引方法和***
CN111780666A (zh) * 2020-07-17 2020-10-16 西安科技大学 一种矿用掘进机位姿监测***及监测方法
CN112050732A (zh) * 2020-08-21 2020-12-08 西安科技大学 一种悬臂式掘进机空间位姿自动检测方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080270335A1 (en) * 2001-05-31 2008-10-30 Canon Kabushiki Kaisha Pulse signal circuit, parallel processing circuit, and pattern recognition system
CN104776843A (zh) * 2015-03-24 2015-07-15 中国矿业大学(北京) 一种悬臂式掘进机机身与截割头位姿检测方法
CN105241444A (zh) * 2015-09-19 2016-01-13 中国煤炭科工集团太原研究院有限公司 一种悬臂式掘进机空间位姿自动检测***及其测量方法
CN106052645A (zh) * 2016-03-11 2016-10-26 中国矿业大学 一种悬臂式掘进机空间位姿实时检测***及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080270335A1 (en) * 2001-05-31 2008-10-30 Canon Kabushiki Kaisha Pulse signal circuit, parallel processing circuit, and pattern recognition system
CN104776843A (zh) * 2015-03-24 2015-07-15 中国矿业大学(北京) 一种悬臂式掘进机机身与截割头位姿检测方法
CN105241444A (zh) * 2015-09-19 2016-01-13 中国煤炭科工集团太原研究院有限公司 一种悬臂式掘进机空间位姿自动检测***及其测量方法
CN106052645A (zh) * 2016-03-11 2016-10-26 中国矿业大学 一种悬臂式掘进机空间位姿实时检测***及方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
M.L. LIU等: "Pose estimation using four corresponding points", 《PATTERN RECOGNITION LETTERS》 *
YUXIN DU等: "Visual measurement system for roadheaders pose detection in mines", 《OPTICAL ENGINEERING》 *
刘昶等: "基于共面二点一线特征的单目视觉定位", 《计算机应用研究》 *
田劼等: "悬臂式掘进机空间位姿的运动学模型与仿真", 《煤炭学报》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564628A (zh) * 2018-04-17 2018-09-21 北京理工大学 一种面向掘进机自动化的截割头视觉定位定向***
CN108564628B (zh) * 2018-04-17 2023-05-26 北京理工大学 一种面向掘进机自动化的截割头视觉定位定向***
CN109115173A (zh) * 2018-08-23 2019-01-01 西安科技大学 基于直线定位模型的掘进机机身位姿单目视觉测量方法
CN109115173B (zh) * 2018-08-23 2020-09-11 西安科技大学 基于直线定位模型的掘进机机身位姿单目视觉测量方法
CN109579831A (zh) * 2018-11-09 2019-04-05 西安科技大学 矿用悬臂式掘进机可视化辅助导引方法和***
CN109579831B (zh) * 2018-11-09 2020-05-19 西安科技大学 矿用悬臂式掘进机可视化辅助导引方法和***
CN111780666A (zh) * 2020-07-17 2020-10-16 西安科技大学 一种矿用掘进机位姿监测***及监测方法
CN111780666B (zh) * 2020-07-17 2023-11-07 西安科技大学 一种矿用掘进机位姿监测***及监测方法
CN112050732A (zh) * 2020-08-21 2020-12-08 西安科技大学 一种悬臂式掘进机空间位姿自动检测方法及***

Also Published As

Publication number Publication date
CN107316288B (zh) 2018-06-29

Similar Documents

Publication Publication Date Title
CN107316288A (zh) 一种悬臂式掘进机截割头位姿视觉测量方法
CN107316330B (zh) 基于多图像序列的井下液压支架组位姿及直线度测量方法
CN105113403B (zh) 基于智能检测设备的桥梁底部检测方法
CN104637073B (zh) 一种基于太阳照射阴影补偿的带状地下结构探测方法
CN108318009B (zh) 一种基于无人机视频的通讯塔垂直度检测方法
CN106683097A (zh) 一种无人机定位的方法以及***
CN112050732B (zh) 一种悬臂式掘进机空间位姿自动检测方法及***
CN111077890A (zh) 一种基于gps定位与自动避障的农业机器人的实现方法
CN107292926B (zh) 基于多图像序列的巡检机器人运动轨迹直线度测量方法
CN106546263A (zh) 一种基于机器视觉的激光水平仪出射激光线检测方法
CN110632346B (zh) 风向标安装误差校正方法、装置及***
CN113160211B (zh) 基于无人机平台的建筑物损伤判读***
WO2021017352A1 (zh) 激光雷达-摄像机联合标定靶和联合标定方法
CN108564628A (zh) 一种面向掘进机自动化的截割头视觉定位定向***
CN108122255A (zh) 一种基于梯形与圆形组合地标的无人机位姿估计方法
CN116295313B (zh) 掘进机的实时定位***
CN106595593A (zh) 基于椭圆特征拟合的悬垂绝缘子串风偏监测方法
CN105303564A (zh) 一种塔式起重机负荷立体摆角的视觉检测方法
CN105511486B (zh) 一种基于异带航拍影像的电力弧垂检测方法及***
CN103810676A (zh) 一种钢管运行速度的监测方法
CN203479295U (zh) 一种基于飞行器的云层高度测量***
CN116579989B (zh) 一种基于深度相机的隧道打孔倾角修正方法
CN116241265A (zh) 悬臂式掘进机超挖预警装置、方法、***、设备及介质
CN107131837B (zh) 一种采煤机摇臂采高视觉测量方法
CN116704019A (zh) 一种基于锚杆网络的钻锚机器人单目视觉定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant