CN114155289A - 基于双目视觉的电点火***电火花轮廓尺寸测量方法 - Google Patents
基于双目视觉的电点火***电火花轮廓尺寸测量方法 Download PDFInfo
- Publication number
- CN114155289A CN114155289A CN202111488743.4A CN202111488743A CN114155289A CN 114155289 A CN114155289 A CN 114155289A CN 202111488743 A CN202111488743 A CN 202111488743A CN 114155289 A CN114155289 A CN 114155289A
- Authority
- CN
- China
- Prior art keywords
- camera
- spark
- image
- electric
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010892 electric spark Methods 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 title claims abstract description 11
- 238000012937 correction Methods 0.000 claims abstract description 16
- 239000011159 matrix material Substances 0.000 claims abstract description 14
- 238000001914 filtration Methods 0.000 claims abstract description 4
- 238000006243 chemical reaction Methods 0.000 claims abstract description 3
- 238000000691 measurement method Methods 0.000 claims abstract description 3
- 238000007781 pre-processing Methods 0.000 claims abstract description 3
- 238000001514 detection method Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 6
- 206010047571 Visual impairment Diseases 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000007858 starting material Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004200 deflagration Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000000295 fuel oil Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一种基于双目视觉的电点火***电火花轮廓尺寸测量方法,基于张正友标定法对双目相机进行标定,获取相机的内参数矩阵、畸变系数与外参数矩阵;双目相机同步采集并保存左右电火花图像对;图像预处理后进行畸变矫正与立体校正:首先对左右图像对进行高斯滤波去除噪声,再基于相机标定所得的畸变参数进行火花图像对的畸变矫正,之后基于相机的外参数矩阵进行立体校正,将实际的左右相机图像平面校正为共面行对准。左右图像对提取ROI区域后进行立体匹配;基于相似三角形计算火花的轮廓尺寸:根据三角法原理,基于相机标定所得参数矩阵,可以实现一个像素点的视差值到实际三维坐标的转换,通过计算轮廓上任意选定两点的实际坐标间的距离,可以获得火花的轮廓尺寸。
Description
技术领域
本发明属于计算机视觉技术领域,更具体地,涉及一种用于测量航空发动机点火电嘴产生的电火花轮廓尺寸的方法。
背景技术
航空发动机电点火***由电点火装置、高压点火电缆和点火电嘴组成,被用于发动机启动和加力时点火。点火***通电时,点火装置将交流电转换为高压脉冲输出,并由点火电缆将高压脉冲传输至点火电嘴,点火电嘴将在高压脉冲的作用下产生电火花,由电火花将燃烧室的油气混合气体点燃。
在发动机启动阶段,接通点火***的电源进行点火,当起动机转速达到一定值时,表示点火成功,一般正常的点火时间为2~6秒,当点火时间大于8秒时,点火电嘴的温度将过高,此时燃烧室的燃油已累积过多,起动机将超温爆燃导致点火失败。点火***的点火时间受多种因素影响,其中一个因素是,电嘴产生的电火花与燃油喷嘴的相对位置,当两者距离较远时,将导致点火时间变长。因此通过对电火花真实轮廓尺寸参数(如火花长度等)的测量,可以为两者安装的相对位置距离提供参考,降低该因素对点火时间的影响。目前,电火花轮廓尺寸检测的相关技术研究还比较稀缺。
发明内容
为了实现对电火花真实轮廓尺寸的简单且较精确的检测,本发明提供了一种基于双目视觉的电点火***电火花轮廓尺寸测量方法。
为达到上述目的,本发明所采用的技术方案是:一种基于双目视觉的电点火***电火花轮廓尺寸测量方法,其包括以下步骤:
S1:双目相机标定:基于张正友标定法对双目相机进行标定,获取相机的内参数矩阵、畸变系数与外参数矩阵;
S2:双目相机同步采集并保存左右电火花图像对;
S3:图像预处理后进行畸变矫正与立体校正:首先对左右图像对进行高斯滤波去除噪声,再基于相机标定所得的畸变参数进行火花图像对的畸变矫正,之后基于相机的外参数矩阵进行立体校正,将实际的左右相机图像平面校正为共面行对准。
S4:左右图像对提取ROI区域后进行立体匹配;
S5:基于相似三角形计算火花的轮廓尺寸:根据三角法原理,基于相机标定所得参数矩阵,可以实现一个像素点的视差值到实际三维坐标的转换,通过计算轮廓上任意选定两点的实际坐标间的距离,可以获得火花的轮廓尺寸。
进一步地,所述双目相机同步采集并保存左右电火花图像对包括以下步骤:
S2-1:通过控制相机的曝光度来防止火花亮度过高引起的过曝,实现火花形状的准确获取;S2-2:采用多线程实现左右相机同步采集并保存图像;
S2-3:有效火花图像的筛选:由于相机拍摄帧率与电嘴火花的频率不一致,部分照片上没有火花形状、或者仅有部分火花形状或火花残影,通过一个设定的灰度阈值进行左右图像对的二值化后,在其上检测火花的面积,若左右图像的火花面积均大于阈值,则将该图像对另存入有效图像库。
进一步地,所述左右图像对提取ROI区域后进行立体匹配包括以下步骤:
S4-1:基于轮廓边缘进行ROI区域提取:根据图像中电火花灰度值远大于背景环境灰度值,通过设定灰度值将校正后的图像对进行二值化后,采用边缘检测算子提取火花边缘作为掩码得到感兴趣区域,大幅减少图像处理的数据量。
S4-2:视差计算及优化:采用BM立体匹配算法获取初始视差图后,对初始视差图进行视差优化,包括唯一性检测、左右一致性检测,最终获取较准确的视差图。
与现有技术相比,本发明的有益效果是:
1)***简单、安装方便:测量安装时只需调整双目相机与点火电嘴的相对位置;
2)成本低:***只需要一个带USB接口的双目摄像机,价格在500元左右;
3)自动化程度及精度较高:当放置好双目相机后,点击程序的开始按钮后,软件自动运行并最终输出一个较高精度的轮廓尺寸。
附图说明
图1是本说明所述的基于双目视觉的电火花轮廓尺寸测量流程图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细阐述,以使本发明的技术方案和优点能更易于被本领域的技术人员理解,从而对本发明的保护范围做出更加清楚明确的界定。
下面结合附图对本发明进一步说明,该实例包括以下步骤:
S1、双目相机标定:将9*6的棋盘格靶标置于双目相机的主要工作距离处,在较大范围内旋转并适当倾斜靶标,清晰拍摄每个位置的靶标图像。将14对靶标图像分别进行靶标角点提取,在初步提取的角点信息上进一步进行亚像素信息提取,结合角点的对应空间三维坐标,对左右相机分别进行单目相机标定,并对标定结果进行评价;当平均标定误差大于0.5像素时,表明此次标定结果有效,获得相机的内外参矩阵和畸变系数矩阵。
S2、双目相机采集图像:将双目相机放置在离点火电嘴8-15cm的位置,并尽可能与其保持平行,且双目相机基线中心对准点火电嘴口;调整相机曝光率为-8,分辨率为800*600,接通点火***电源持续点火8S的过程中,双目相机的左右相机同时连续采集电火花图像并按顺序进行命名保存;
S3、有效图片筛选:对于保存的每个图像对,先判断左图是否有效:将图像以180的固定灰度阈值进行二值化后,对图像进行轮廓提取,在此情况下若存在最大轮廓,计算其包含的面积即为火花的面积,将其与固定面积阈值进行比较,若大于阈值则表明此火花图像有效。若左图像有效,再以同样方法判断右图是否有效。当左右图像均有效时,将此对图像保存至有效图像库。
S4、图像畸变矫正与立体校正:将有效图像库中的左右图像分别进行相加求平均左右图像即image L、imageR,然后对image L、imageR进行5*5的高斯滤波,再基于相机标定的畸变参数分别进行image L、imageR的畸变矫正,最后基于左右相机各自外参矩阵中的旋转量和平移量,进行image L、imageR的立体校正。
S5、ROI区域提取:对校正后的image L、imageR基于固定灰度阈值进行图像二值化,采用cann边缘检测算子在二值化后的图像中提取火花轮廓作为掩模,从校正后的imageL、imageR中获得感兴趣的区域。
S6、立体匹配:采用SAD窗口大小为5,最大视差值为5*16的BM算法进行立体匹配,分别以左右图像为待匹配图获取相应的初始视差图,基于此进行唯一性检测、左右一致性检测来剔除错误匹配,获取较准确的视差图。
S7、轮廓尺寸测量:基于相机标定所得的相机内参与基线长度,分别基于三角测量公式计算选中点的三维坐标,再计算两点间的实际距离即可得到火花长度、火花宽度。
以上为本发明的进一步阐述,本说明书中描述的计算公式及执行步骤只是为了帮助读者理解本发明,并不用于限制本发明,凡不脱离本发明本质所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.一种基于双目视觉的电点火***电火花轮廓尺寸测量方法,其特征在于:包括以下步骤:
S1:双目相机标定:基于张正友标定法对双目相机进行标定,获取相机的内参数矩阵、畸变系数与外参数矩阵;
S2:双目相机同步采集并保存左右电火花图像对;
S3:图像预处理后进行畸变矫正与立体校正:首先对左右图像对进行高斯滤波去除噪声,再基于相机标定所得的畸变参数进行火花图像对的畸变矫正,之后基于相机的外参数矩阵进行立体校正,将实际的左右相机图像平面校正为共面行对准;
S4:左右图像对提取ROI区域后进行立体匹配;
S5:基于相似三角形计算火花的轮廓尺寸:根据三角法原理,基于相机标定所得参数矩阵,可以实现一个像素点的视差值到实际三维坐标的转换,通过计算轮廓上任意选定两点的实际坐标间的距离,可以获得火花的轮廓尺寸。
2.根据权利要求1所述的基于双目视觉的电点火***电火花轮廓尺寸测量方法,其特征在于,所述双目相机同步采集并保存左右电火花图像对包括以下步骤:
S2-1:通过控制相机的曝光度来防止火花亮度过高引起的过曝,实现火花形状的准确获取;
S2-2:采用多线程实现左右相机同步采集并保存图像;
S2-3:有效火花图像的筛选:由于相机拍摄帧率与电嘴火花的频率不一致,部分照片上没有火花形状、或者仅有部分火花形状或火花残影,通过一个设定的灰度阈值进行左右图像对的二值化后,在其上检测火花的面积,若左右图像的火花面积均大于阈值,则将该图像对另存入有效图像库;
所述左右图像对提取ROI区域后,进行立体匹配包括以下步骤:
S4-1:基于轮廓边缘进行ROI区域提取:根据图像中电火花灰度值远大于背景环境灰度值,通过设定灰度值将校正后的图像对进行二值化后,采用边缘检测算子提取火花边缘作为掩码得到感兴趣区域,大幅减少图像处理的数据量;
S4-2:视差计算及优化:采用BM立体匹配算法获取初始视差图后,对初始视差图进行视差优化,包括唯一性检测、左右一致性检测,最终获取较准确的视差图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111488743.4A CN114155289A (zh) | 2021-12-08 | 2021-12-08 | 基于双目视觉的电点火***电火花轮廓尺寸测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111488743.4A CN114155289A (zh) | 2021-12-08 | 2021-12-08 | 基于双目视觉的电点火***电火花轮廓尺寸测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114155289A true CN114155289A (zh) | 2022-03-08 |
Family
ID=80453335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111488743.4A Pending CN114155289A (zh) | 2021-12-08 | 2021-12-08 | 基于双目视觉的电点火***电火花轮廓尺寸测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114155289A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116665034A (zh) * | 2022-11-11 | 2023-08-29 | 中国消防救援学院 | 一种基于边缘特征的立体匹配及火焰空间定位方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107588721A (zh) * | 2017-08-28 | 2018-01-16 | 武汉科技大学 | 一种基于双目视觉的零件多尺寸的测量方法及*** |
CN108629812A (zh) * | 2018-04-11 | 2018-10-09 | 深圳市逗映科技有限公司 | 一种基于双目相机的测距方法 |
WO2020172783A1 (zh) * | 2019-02-26 | 2020-09-03 | 武汉资联虹康科技股份有限公司 | 一种用于经颅磁刺激诊疗的人头姿态跟踪*** |
US20210319580A1 (en) * | 2018-12-17 | 2021-10-14 | Autel Robotics Co., Ltd. | Method, apparatus and electronic device for stereo matching |
-
2021
- 2021-12-08 CN CN202111488743.4A patent/CN114155289A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107588721A (zh) * | 2017-08-28 | 2018-01-16 | 武汉科技大学 | 一种基于双目视觉的零件多尺寸的测量方法及*** |
CN108629812A (zh) * | 2018-04-11 | 2018-10-09 | 深圳市逗映科技有限公司 | 一种基于双目相机的测距方法 |
US20210319580A1 (en) * | 2018-12-17 | 2021-10-14 | Autel Robotics Co., Ltd. | Method, apparatus and electronic device for stereo matching |
WO2020172783A1 (zh) * | 2019-02-26 | 2020-09-03 | 武汉资联虹康科技股份有限公司 | 一种用于经颅磁刺激诊疗的人头姿态跟踪*** |
Non-Patent Citations (4)
Title |
---|
何树成;张丽红;: "基于像素分类校正优化的立体匹配算法" * |
杨晨曦;华云松;: "基于双目立体视觉的目标物测距研究" * |
肖宇: "基于双目视觉的阵列孔板的测量和定位方法研究" * |
蓝畋;华云松;: "基于立体标定件的双目视觉目标测量方法" * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116665034A (zh) * | 2022-11-11 | 2023-08-29 | 中国消防救援学院 | 一种基于边缘特征的立体匹配及火焰空间定位方法 |
CN116665034B (zh) * | 2022-11-11 | 2023-10-31 | 中国消防救援学院 | 一种基于边缘特征的立体匹配及火焰空间定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105225482B (zh) | 基于双目立体视觉的车辆检测***和方法 | |
US11398053B2 (en) | Multispectral camera external parameter self-calibration algorithm based on edge features | |
CN106296698B (zh) | 一种基于立体视觉的闪电三维定位方法 | |
CN108613628A (zh) | 一种基于双目视觉的架空输电线路弧垂测量方法 | |
CN111784778A (zh) | 基于线性求解非线性优化的双目相机外参标定方法和*** | |
CN107590444B (zh) | 静态障碍物的检测方法、装置及存储介质 | |
CN112381847B (zh) | 管路端头空间位姿测量方法及*** | |
CN110136047B (zh) | 一种车载单目图像中静止目标三维信息获取方法 | |
CN111862193A (zh) | 一种基于形状描述子的电焊焊点双目视觉定位方法及装置 | |
CN114155289A (zh) | 基于双目视觉的电点火***电火花轮廓尺寸测量方法 | |
CN111798507A (zh) | 一种输电线安全距离测量方法、计算机设备和存储介质 | |
CN111502671A (zh) | 盾构激光标靶导向搭载双目相机的综合导向装置及方法 | |
CN109005347A (zh) | 一种超长焦镜头的辅助聚焦方法 | |
CN114511608A (zh) | 一种深度图像的获取方法、装置、终端、成像***和介质 | |
CN116645476B (zh) | 一种基于多目视觉的棒材三维数据模型重建方法及*** | |
CN111145254B (zh) | 一种基于双目视觉的门阀毛坯定位方法 | |
CN110310371B (zh) | 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法 | |
CN116206140A (zh) | 一种基于双目立体视觉与U-Net神经网络的裂缝图像匹配方法 | |
CN104237167A (zh) | 扫描装置扫描oct断层图像失真的校正方法及*** | |
CN111815693B (zh) | 一种深度图像生成方法和装置 | |
Yaping et al. | Research on binocular forest fire source location and ranging system | |
CN112233164B (zh) | 一种视差图错误点识别与校正方法 | |
JP2002352231A (ja) | 人体端点検出方法及び装置 | |
Qu et al. | Computer vision-based 3D coordinate acquisition of surface feature points of building structures | |
CN110827230A (zh) | 一种利用tof提升rgb图像质量的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20220308 |