CN112378591A - 基于计算机视觉的气密性检测激光器位姿自适应调整方法 - Google Patents
基于计算机视觉的气密性检测激光器位姿自适应调整方法 Download PDFInfo
- Publication number
- CN112378591A CN112378591A CN202011204227.XA CN202011204227A CN112378591A CN 112378591 A CN112378591 A CN 112378591A CN 202011204227 A CN202011204227 A CN 202011204227A CN 112378591 A CN112378591 A CN 112378591A
- Authority
- CN
- China
- Prior art keywords
- point
- laser
- refraction
- intersection
- straight line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M3/00—Investigating fluid-tightness of structures
- G01M3/02—Investigating fluid-tightness of structures by using fluid or vacuum
- G01M3/04—Investigating fluid-tightness of structures by using fluid or vacuum by detecting the presence of fluid at the leakage point
- G01M3/06—Investigating fluid-tightness of structures by using fluid or vacuum by detecting the presence of fluid at the leakage point by observing bubbles in a liquid pool
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供了一种基于计算机视觉的气密性检测激光器位姿自适应调整方法,该方法包括:采集的检测缸图像经过深度学习神经网络的处理后得到包括激光线特征的语义分割图和包括折射点、反射点的关键点热力图,对语义分割图和关键点热力图进行处理得到第一直线即液面线和第二直线,根据第一直线对相机位姿进行调整后获取检测缸中水的高度,水的高度在正常范围内时,重新采集检测缸图像,经过处理得到新的包括激光线特征的语义分割图后提取激光线连通域,根据水的高度和激光线连通域中心点的坐标对激光器的位姿进行调整。该方法可以自适应对相机和激光器调整,提高了后续进行气密性检测、缺陷定位时的准确性。
Description
技术领域
本发明涉及人工智能、气密性检测领域,具体地,是一种基于计算机视觉的气密性检测激光器位姿自适应调整方法。
背景技术
通过计算机视觉的方式检测水中零件泄漏气泡的位置,能够在判断零件泄漏的同时定位缺陷,为了克服水体浑浊增强气泡的特征,往往采用线阵激光照射水体,当水中气泡触碰到水中激光束时,气泡表面发生反射和折射,显示出带有与激光同色的高亮点。由于检测时相机视角的不同,且水体的水位也在变化,线阵激光的位姿需要结合需要不断调整。目前,相关人员往往依据经验进行激光器位姿的调整,该方法主观性强,容易出现较大误差,导致气密性检测结果不精确。
发明内容
为了解决上述问题,本发明提出一种基于计算机视觉的气密性检测激光器位姿自适应调整方法,该方法包括:
步骤一,利用相机采集进行气密性检测时所用检测缸的图像,图像中包括激光器发出的激光、检测缸、水;将采集到的检测缸图像送入深度学习神经网络,得到语义分割图和关键点热力图;
步骤二,对语义分割图进行激光线区域的提取,得到激光线二值图,对激光线二值图进行细化处理,得到细化二值图;对细化二值图中的激光线进行直线拟合后获取激光线的交点信息,并将得到的多个交点归于交点集合中;
根据关键点热力图得到折射点点集和反射点点集,根据交点集合对两个点集进行筛选;
步骤三,对经过筛选的折射点点集、反射点点集中的点分别进行直线拟合,得到第一直线、第二直线;根据第一直线对相机的姿态进行调整后获取检测缸中水的高度,判断是否需要加水;
步骤四,水的高度在正常范围内后,改变激光器的滚转角,利用姿态调整后的相机再次对检测缸进行图像采集,并通过深度学习神经网络得到新的语义分割图,对新的语义分割图进行处理后得到新的细化二值图,根据新的细化二值图获取激光线连通域中心点的坐标,结合中心点的坐标和水的高度对激光器的位姿进行调整。
所述激光器为线阵激光器,其初始位姿为竖直摆放且激光器的滚转角为0,俯仰角为θ。
所述深度神经网络包括编码器、语义分割解码器、关键点检测解码器,检测缸图像经过编码器的编码后输出特征向量,特征向量分别输入语义分割解码器、关键点检测解码器,经过处理后分别输出语义分割图、关键点热力图。
所述语义分割图中像素为0的表示背景特征,像素为1的表示检测缸特征,像素为2的表示激光线特征;关键点热力图中的关键点包括激光反射点和激光折射点。
根据交点集合对两个点集进行筛选的具体操作为:
对于折射点点集,计算该点集中任一折射点与交点集合中各交点的距离,与该折射点距离最小的交点为该折射点的对应点,根据对应点的交点信息判断该折射点是否可信;
对于反射点点集,计算该点集中任一反射点与交点集合中各交点的距离,与该反射点距离最小的交点为该反射点的对应点,根据对应点的交点信息判断该反射点是否可信;
若判断结果为折射点或反射点可信,则保留折射点或反射点,否则,剔除折射点或反射点。
根据对应点的交点信息判断折射点、反射点是否可信的判断方法为:
任一交点的交点信息为(x,y,c),其中,(x,y)表示该交点的图像坐标,c表示该交点在c条激光线上,c可取2或3;当任一折射点的对应点的交点信息中c为3时,该折射点可信;当任一反射点的对应点的交点信息中c为2时,该反射点可信。
所述根据第一直线对相机的姿态进行调整是一个连续多次的调整过程,该过程中激光器的俯仰角逐渐减小直至为0,且随着激光器俯仰角的变化需要多次获得第一直线,根据每次获得的第一直线对相机姿态进行调整,直至完成相机姿态的调整;每一次相机姿态的调整具体为:获取第一直线的斜率,若斜率在预设范围内时,不需调整相机姿态,否则,根据斜率计算第一直线倾角,根据倾角对相机进行旋转。
结合中心点的坐标和水的高度对激光器的位姿进行调整具体方法为:中心点坐标为(XC,YC),水的高度为H,e为像素距离阈值;若YC-(H-e)>0,激光器下移,若YC-(H-e)<0,激光器上移,若YC-(H-e)=0,激光器不移动;其中,H为相机姿态调整过程中最后一次获得的第一直线的截距与检测缸底部直线截距相减得到,检测缸底部直线为第二直线或语义分割图中检测缸缸底所在直线。
本发明的有益效果在于:
1.本发明结合气密性检测时所用检测缸,自适应调整相机和激光器,提高了后续气密性检测、缺陷定位的准确性。
2.本发明利用计算机视觉识别图像中的激光线,并基于激光线进行激光器位姿的推理,操作简单,且对激光器进行调整时误差小。
3.该方法通过深度学习神经网络得到激光折射点和激光反射点,并基于折射点和反射点进一步得到检测缸中的水体信息,采用该方法得到的水体信息更加准确,同时保证了后续激光器位姿调整指令的准确性。
附图说明
图1为本发明的实施流程图。
具体实施方式
为了让本领域技术人员更好的理解本发明,下面结合实施例和附图对本发明进行详细描述,参见图1。
本发明的目的是利用计算机识别相机所采集的图像中激光折射、反射的位置,进而获得水体信息,并实现相机姿态以及线阵激光器位姿的调整;本发明的实施流程如图1所示,具体地,使用激光器照向用于气密性检测的透明玻璃检测缸,并用相机对检测缸进行图像采集,使用深度学习神经网络提取所采集图像中激光透射到水面发生折射的位置和激光在检测缸缸底发生反射的位置,进而确认图像中的液面位置;根据获得的液面信息调整线阵激光器的位姿,为之后的气密性检测做准备,使得气密性检测前期的硬件调整能够自适应完成。
本发明所述气密性检测场景为:待检测零件内部充气后,沉浸放置于透明检测缸中,通过相机采集图像,使用计算机视觉检测水体中的泄露气泡来判断零件的气密性。
实施例:
使用计算机视觉检测水体中零件的泄露气泡时,往往会由于水体浑浊、光照强度不合适使得气泡特征不够明显,难以被检测、分割出来;因此,通常使用线阵激光向水体照射,通过气泡遇到激光时由于介质的改变,使得激光在气泡表面发生反射和折射而产生的高亮点来增强水体中气泡的特征,从而辅助气密性气泡检测。而进行气密性检测时相机视角不同,同时水体的水位也在变化,因此,线阵激光器的位姿需要结合水体信息不断调整。
利用相机在进行气密性检测时所用检测缸的正视前方采集检测缸的图像,图像中包括激光器以一定的姿态发出的激光、检测缸、水。
由于不同场景下水体的背景、浑浊度、激光波长(颜色)都不相同,图像处理的方式难以适应不同情况,泛化能力有限;而使用深度学习神经网络能够通过大量训练数据让网络学习激光折射和反射的特征,从而提高神经网络的泛化能力。
此外,激光在图像中是单一颜色的特征,相较透明的水体更易识别,且识别结果更准确。同时相机采集图像时,有时因为水面光线反射,使得采集的图像中上半部分存在虚假的镜面影响,此时采用图像处理的方式会很容易造成误识别。因此,实施例中使用深度学习神经网络对检测缸图像中的激光线、激光折射点及激光反射点进行识别和定位。
将采集到的检测缸图像送入深度学习神经网络,得到语义分割图和关键点热力图;具体地:
深度学习神经网络包括两个分支,其中一个分支以Encoder-Decoder的结构对采集的RGB检测缸图像进行语义分割,实现像素级的分类,提取图像中的激光线和检测缸;另一个分支以Encoder-Decoder的结构对采集的RGB检测缸图像进行激光折射点、反射点的识别与回归,得到图像中因水面存在激光发生折射的位置,激光照射到缸体底部发生反射的位置。
两个分支同时对同一图像进行分析处理,两个分支的输出都是与图像中激光相关的信息,故两个分支可以共用同一编码器Encoder,且相互验证,两个监督向使得网络的训练结果更加准确。
深度学习神经网络的输入为RGB检测缸图像,输出为语义分割图和多通道的关键点热力图;该网络首先对输入图像进行编码,提取图像中的特征,而后其中一个分支使用解码过程恢复图像并进行像素级的分类,另一个分支同样使用解码过程恢复图像并进行关键点的回归;即深度学习神经网络包括编码器、语义分割解码器、关键点检测解码器,检测缸图像经过编码器的编码即使用卷积和池化操作在对图像进行下采样的过程中,提取图像中的空域特征,输出特征向量,特征向量分别输入语义分割解码器、关键点检测解码器,经过语义分割解码器的处理后输出单通道语义分割图,其像素值为其所述类别值;经过关键点检测解码器的处理后输出多通道的关键点热力图,通道数为关键点的类别数加上背景通道,各通道图像中各元素的值表示该位置像素属于目标关键点的置信度。
具体地,深度学习神经网络的训练过程为:
(a)该网络所用训练数据集为正对检测缸的相机采集的检测缸图像,图像中要包括检测缸底部,即所采集的图像中应能体现检测缸中水体的高度信息,线阵激光器位于检测缸的正左或正右方向,竖直摆放且线阵激光器的滚转角为0,俯仰角即激光器与竖直方向直线之间的夹角为θ度进行照射,实施例中θ取45。
(b)两个分支都有训练标签,语义分割分支的标签为单通道图像,单通道图像中进行了像素级的分类,实施例中标签图像中的像素分为激光线、检测缸、其他背景三类;标注时,其他背景类像素标注像素值为0,检测缸类像素标注像素值为1,激光线类像素标注像素值为2。
关键点检测分支的标签为对应关键点的热斑图像,实施例中包括两类关键点,激光折射点和激光反射点,每类关键点对应一个通道,背景对应一背景通道,标签图像为三通道图像,制作标签时首先需要标注关键点对应位置的像素,而后使用高斯核进行模糊处理,得到对应的热力图。
(c)语义分割分支的Loss函数使用交叉熵损失函数,关键点检测分支的Loss函数使用均方误差损失函数。
至此,得到语义分割图和关键点热力图。
其中,对语义分割图进行激光线区域的提取,可得到激光线二值图;对关键点热力图进行soft argmax后处理后,可得到图像中激光折射点和反射点的具体坐标位置。
实际应用场景中多条激光线在检测缸中反射、折射,会导致图像中激光线的交点较多,且激光线因为水体或检测缸中空气的差异,有时部分激光线条并不可见;且语义分割得到的激光线常有断续断连、粘连成片的问题。
故本发明为了得到最确定、准确的折射点和反射点,在回归关键点的基础上又提取了图像中的激光线条,结合激光线的直线性来验证网络回归的折射点和反射点是否可信。
激光线二值图经过形态学处理进行激光线的细化,得到细化二值图;通过霍夫变换对细化二值图中的激光线进行直线拟合后得到激光线的直线方程信息即各条激光线在图像坐标系中的斜率和截距,并获取激光线的交点信息,并将得到的多个交点归于交点集合中;具体地多个交点的得到过程为:
定义像素值全为0的图像IZ用于统计激光直线的相交情况,若图像IZ中某一像素的坐标满足任一激光线的直线方程,则其像素值加1,对于每个像素位置,验证其对于多个直线方程的满足情况,最终得到统计结果图像,统计结果图像中像素值大于1的位置皆为激光线的交点。
根据关键点热力图得到折射点点集和反射点点集,根据交点集合对两个点集进行筛选;筛选的具体方法为:
交点集合中任一交点的交点信息为(xy,c),其中,(x,y)表示该交点的图像坐标,c表示该交点在c条激光线上,c可取2或3。
对于折射点点集,计算该点集中任一折射点与交点集合中各交点的距离,与该折射点距离最小的交点为该折射点的对应点,根据对应点的交点信息判断该折射点是否可信,即当对应点的交点信息中c为3时,该折射点可信;
对于反射点点集,计算该点集中任一反射点与交点集合中各交点的距离,与该反射点距离最小的交点为该反射点的对应点,根据对应点的交点信息判断该反射点是否可信,即当对应点的交点信息中c为2时,该反射点可信;
若判断结果为折射点或反射点可信,则保留折射点或反射点,否则,剔除折射点或反射点。
至此,得到可信度高的折射点和反射点,虽然可能误判,剔除了一些正确的点,但很好的保证了留下的点都是正确的点,该操作可尽量保证本发明的可靠性和稳定性。
折射为激光照射到水面时发生,故可以将折射点拟合来获得液面线;即对经过筛选的折射点点集、反射点点集中的点分别进行直线拟合,得到第一直线即液面线、第二直线。
根据第一直线对相机的姿态进行调整具体为:激光器的俯仰角由45度逐渐减小直至为0,该过程中随着激光器俯仰角的变化相机采取多帧检测缸图像,经由上述步骤的处理多次获得第一直线,根据每次获得的第一直线对相机姿态进行调整,经过多次调整后完成相机姿态的调整;该过程的目的在于保证所获取的液面的准确性。
每一次相机姿态的调整具体为:获取第一直线的斜率,若斜率在预设范围内时,不需调整相机姿态,否则,根据斜率计算第一直线倾角,根据倾角通过外在机械控制相机进行逆时针旋转,所旋转度数与倾角数值相同;其中,所述预设范围为[-0.1,0.1]。
获取检测缸中水的高度,判断是否需要加水,具体地,相机姿态调整过程中最后一次获得的第一直线的截距与检测缸底部直线截距相减得到水的高度,检测缸底部直线为第二直线或语义分割图中检测缸缸底所在直线;其中,对最后一次相机姿态调整过程对应的语义分割图进行检测缸连通域分析,得到检测缸的最小外接矩形,根据最小外接矩形即可得到语义分割图中检测缸缸底所在直线。
至此,完成相机姿态的调整。
沉浸式气密性检测使用视觉检测气泡的过程中,使用线阵激光器照射水体的目的是增强气泡特征,而后续进行气泡检测时所用相机的视角为顶部俯视缸体,根据气泡亮点的位置来定位泄漏点位置。因此,为了提高定位的准确性,减小光线入水时发生折射带来的视觉误差,应保证相机位姿合适的同时,使得线阵激光器照射气泡的平面低于液面且距离液面足够近。
若水的高度小于设定阈值,则认为水深过低,需要加水;水的高度在正常范围内后,改变激光器的滚转角,即激光器的滚转角变为90度,然后判断是否需要对激光器进行位姿调整:
利用姿态调整后的相机再次对检测缸进行图像采集,此时采集的检测缸图像中多条激光重合为一束激光,通过深度学习神经网络得到新的语义分割图,需要说明的是,此时仅需得到语义分割图,无需进行关键点的回归,对新的语义分割图进行处理后得到新的细化二值图,根据新的细化二值图获取激光线连通域中心点的坐标(XC,YC),结合中心点的坐标和水的高度对激光器的位姿进行调整:
若YC-(H-e)>0,激光器下移;
若YC-(H-e)<0,激光器上移;
若YC-(H-e)=0,激光器不移动;
其中,H为水的高度,e为像素距离阈值,实施例中e取15,单位为像素。
以上所述旨在让本领域技术人员更好的理解本发明,并不用于限制本发明,凡是在本发明精神和原则之内做出的修改与变动,皆在本发明的保护范围内。
Claims (8)
1.一种基于计算机视觉的气密性检测激光器位姿自适应调整方法,其特征在于,该方法包括:步骤一,利用相机采集进行气密性检测时所用检测缸的图像,图像中包括激光器发出的激光、检测缸、水;将采集到的检测缸图像送入深度学习神经网络,得到语义分割图和关键点热力图;
步骤二,对语义分割图进行激光线区域的提取,得到激光线二值图,对激光线二值图进行细化处理,得到细化二值图;对细化二值图中的激光线进行直线拟合后获取激光线的交点信息,并将得到的多个交点归于交点集合中;
根据关键点热力图得到折射点点集和反射点点集,根据交点集合对两个点集进行筛选;
步骤三,对经过筛选的折射点点集、反射点点集中的点分别进行直线拟合,得到第一直线、第二直线;根据第一直线对相机的姿态进行调整后获取检测缸中水的高度,判断是否需要加水;
步骤四,水的高度在正常范围内后,改变激光器的滚转角,利用姿态调整后的相机再次对检测缸进行图像采集,并通过深度学习神经网络得到新的语义分割图,对新的语义分割图进行处理后得到新的细化二值图,根据新的细化二值图获取激光线连通域中心点的坐标,结合中心点的坐标和水的高度对激光器的位姿进行调整。
2.如权利要求1所述的方法,其特征在于,所述激光器为线阵激光器,其初始位姿为竖直摆放且激光器的滚转角为0,俯仰角为θ。
3.如权利要求1所述的方法,其特征在于,所述深度神经网络包括编码器、语义分割解码器、关键点检测解码器,检测缸图像经过编码器的编码后输出特征向量,特征向量分别输入语义分割解码器、关键点检测解码器,经过处理后分别输出语义分割图、关键点热力图。
4.如权利要求3所述的方法,其特征在于,所述语义分割图中像素为0的表示背景特征,像素为1的表示检测缸特征,像素为2的表示激光线特征;关键点热力图中的关键点包括激光反射点和激光折射点。
5.如权利要求1所述的方法,其特征在于,根据交点集合对两个点集进行筛选的具体操作为:
对于折射点点集,计算该点集中任一折射点与交点集合中各交点的距离,与该折射点距离最小的交点为该折射点的对应点,根据对应点的交点信息判断该折射点是否可信;
对于反射点点集,计算该点集中任一反射点与交点集合中各交点的距离,与该反射点距离最小的交点为该反射点的对应点,根据对应点的交点信息判断该反射点是否可信;
若判断结果为折射点或反射点可信,则保留折射点或反射点,否则,剔除折射点或反射点。
6.如权利要求5所述的方法,其特征在于,根据对应点的交点信息判断折射点、反射点是否可信的判断方法为:
任一交点的交点信息为(x,y,c),其中,(x,y)表示该交点的图像坐标,c表示该交点在c条激光线上,c可取2或3;当任一折射点的对应点的交点信息中c为3时,该折射点可信;当任一反射点的对应点的交点信息中c为2时,该反射点可信。
7.如权利要求1所述的方法,其特征在于,所述根据第一直线对相机的姿态进行调整是一个连续多次的调整过程,该过程中激光器的俯仰角逐渐减小直至为0,且随着激光器俯仰角的变化需要多次获得第一直线,根据每次获得的第一直线对相机姿态进行调整,直至完成相机姿态的调整;每一次相机姿态的调整具体为:获取第一直线的斜率,若斜率在预设范围内时,不需调整相机姿态,否则,根据斜率计算第一直线倾角,根据倾角对相机进行旋转。
8.如权利要求7所述的方法,其特征在于,结合中心点的坐标和水的高度对激光器的位姿进行调整具体方法为:中心点坐标为(XC,YC),水的高度为H,e为像素距离阈值;若YC-(H-e)>0,激光器下移,若YC-(H-e)<0,激光器上移,若YC-(H-e)=0,激光器不移动;其中,H为相机姿态调整过程中最后一次获得的第一直线的截距与检测缸底部直线截距相减得到,检测缸底部直线为第二直线或语义分割图中检测缸缸底所在直线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011204227.XA CN112378591A (zh) | 2020-11-02 | 2020-11-02 | 基于计算机视觉的气密性检测激光器位姿自适应调整方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011204227.XA CN112378591A (zh) | 2020-11-02 | 2020-11-02 | 基于计算机视觉的气密性检测激光器位姿自适应调整方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112378591A true CN112378591A (zh) | 2021-02-19 |
Family
ID=74577185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011204227.XA Withdrawn CN112378591A (zh) | 2020-11-02 | 2020-11-02 | 基于计算机视觉的气密性检测激光器位姿自适应调整方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112378591A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113269197A (zh) * | 2021-04-25 | 2021-08-17 | 南京三百云信息科技有限公司 | 基于语义分割的证件图像顶点坐标回归***和识别方法 |
CN113554672A (zh) * | 2021-08-05 | 2021-10-26 | 沭阳县浙台工贸有限公司 | 一种基于机器视觉的气密性检测中相机位姿检测方法及*** |
CN114253305A (zh) * | 2021-12-22 | 2022-03-29 | 宁波南方航空油料辅机厂 | 基于光电检测的水位监控*** |
-
2020
- 2020-11-02 CN CN202011204227.XA patent/CN112378591A/zh not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113269197A (zh) * | 2021-04-25 | 2021-08-17 | 南京三百云信息科技有限公司 | 基于语义分割的证件图像顶点坐标回归***和识别方法 |
CN113269197B (zh) * | 2021-04-25 | 2024-03-08 | 南京三百云信息科技有限公司 | 基于语义分割的证件图像顶点坐标回归***和识别方法 |
CN113554672A (zh) * | 2021-08-05 | 2021-10-26 | 沭阳县浙台工贸有限公司 | 一种基于机器视觉的气密性检测中相机位姿检测方法及*** |
CN114253305A (zh) * | 2021-12-22 | 2022-03-29 | 宁波南方航空油料辅机厂 | 基于光电检测的水位监控*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112378591A (zh) | 基于计算机视觉的气密性检测激光器位姿自适应调整方法 | |
CN115082683B (zh) | 一种基于图像处理的注塑缺陷检测方法 | |
CN111626190B (zh) | 基于聚类分区进行刻度识别的水位监测方法 | |
CN111274976B (zh) | 基于视觉与激光雷达多层次融合的车道检测方法及*** | |
CN106875381B (zh) | 一种基于深度学习的手机外壳缺陷检测方法 | |
CN113469177B (zh) | 基于深度学习的排水管道缺陷检测方法及*** | |
US20210374466A1 (en) | Water level monitoring method based on cluster partition and scale recognition | |
CN112766274A (zh) | 一种基于Mask RCNN算法的水尺图像水位自动读数方法及*** | |
CN111723748A (zh) | 一种红外遥感图像舰船检测方法 | |
Gomez et al. | Traffic lights detection and state estimation using hidden markov models | |
CN103345755A (zh) | 一种基于Harris算子的棋盘格角点亚像素提取方法 | |
CN104700071B (zh) | 一种全景图道路轮廓的提取方法 | |
CN113205063A (zh) | 一种输电导线缺陷的视觉识别及定位方法 | |
CN110232389A (zh) | 一种基于绿色作物特征提取不变性的立体视觉导航方法 | |
CN111507932B (zh) | 高特异性的糖尿病性视网膜病变特征检测方法及存储设备 | |
CN109255350A (zh) | 一种基于视频监控的新能源车牌检测方法 | |
CN116309600B (zh) | 基于图像处理的环保纺织品质量检测方法 | |
CN113065578A (zh) | 一种基于双路区域注意力编解码的图像视觉语义分割方法 | |
CN112242008B (zh) | 一种用于透明容器的ar交互视觉感知方法及*** | |
CN114155230A (zh) | 一种表面光滑的注塑pc板的质量分类方法及*** | |
CN112414623A (zh) | 一种基于人工智能的零件气密性泄漏缺陷检测方法及*** | |
CN111695373A (zh) | 斑马线的定位方法、***、介质及设备 | |
Bruinink et al. | Portable, automatic water level estimation using mobile phone cameras | |
CN111382680A (zh) | 一种闸门监测方法、终端及计算机可读存储介质 | |
CN111524143B (zh) | 一种泡沫粘连图像区域分割的处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210219 |
|
WW01 | Invention patent application withdrawn after publication |