CN113706523A - 基于人工智能技术的皮带跑偏及异常运行状态的监测方法 - Google Patents
基于人工智能技术的皮带跑偏及异常运行状态的监测方法 Download PDFInfo
- Publication number
- CN113706523A CN113706523A CN202111063473.2A CN202111063473A CN113706523A CN 113706523 A CN113706523 A CN 113706523A CN 202111063473 A CN202111063473 A CN 202111063473A CN 113706523 A CN113706523 A CN 113706523A
- Authority
- CN
- China
- Prior art keywords
- gray
- belt
- image
- pixel points
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000002159 abnormal effect Effects 0.000 title claims abstract description 29
- 238000005516 engineering process Methods 0.000 title claims abstract description 22
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 14
- 230000011218 segmentation Effects 0.000 claims description 33
- 238000004422 calculation algorithm Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000003709 image segmentation Methods 0.000 claims description 15
- 239000003086 colorant Substances 0.000 claims description 12
- 239000000463 material Substances 0.000 claims description 12
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 10
- 238000007637 random forest analysis Methods 0.000 claims description 9
- 238000012706 support-vector machine Methods 0.000 claims description 9
- 238000007477 logistic regression Methods 0.000 claims description 6
- 239000003550 marker Substances 0.000 claims description 6
- 230000003068 static effect Effects 0.000 claims description 5
- DYWNLSQWJMTVGJ-UHFFFAOYSA-N (1-hydroxy-1-phenylpropan-2-yl)azanium;chloride Chemical compound Cl.CC(N)C(O)C1=CC=CC=C1 DYWNLSQWJMTVGJ-UHFFFAOYSA-N 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 238000003909 pattern recognition Methods 0.000 claims description 3
- 238000013145 classification model Methods 0.000 abstract description 6
- 239000000284 extract Substances 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000005065 mining Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于人工智能技术的皮带跑偏及异常运行状态监测方法,根据不同物体含有的不同灰度信息将图像中的识别目标分别按多个阈值进行划分,多阈值图像分割方法可提取更多反映物体信息的灰度特征,为进一步挖掘图片中的各类目标物体与皮带异常运行状态之间的关联规则,进而为下一步进行模式识别提供了可能。本发明通过实时识别监控图像像素点并建立识别网格,在皮带跑偏监测阶段,该装置无需任何训练样本,对皮带的跑偏监测具有实时性;在对皮带异常运行状态的模式识别阶段,利用目标物体的灰度信息与皮带运行状态的关联关系,构建了分类模型,以实现基于多阈值的皮带异常运行状态的分类辨识。
Description
技术领域
本发明属于皮带机异常监测技术领域,具体涉及基于人工技术的皮带跑偏及异常运行状态的监测方法。
背景技术
对皮带机皮带异常运行状态的实时准确监测,是确保皮带及其附属设备安全运行的必要前提。然而,由于皮带本身自带的电压、电流报警装置对皮带遗产运行状态的监测效果有限,部分情况下,皮带出现跑偏、托辊脱落甚至皮带撕裂等较为严重的异常运行状况时,电压、电流报警装置无法及时对故障做出报警(误报和漏报),往往在巡视人员发现皮带异常运行状态时,已造成严重的设备损坏事故。此外,受到无聊装卸周期较长的影响,考虑到人力成本,通常无法在任何时段对所有皮带机的跑偏状况进行人工的巡视和监测。因此,考虑采用图像识别和人工智能的方法对皮带跑偏和异常运行状态进行实时的监测与辨识。传统的基于图像识别技术的皮带防跑偏装置采用双阈值分割方式对图像进行识别,由于图像在经过处理后只含有背景和目标两种类型的灰度信息,仅能满足用户对于图像中单一目标的识别需求,对拥有度讴歌目标物的图像分割效果不佳,在构建类间方差函数时可能也会呈现双峰或者多峰,无法挖掘出图片中更深层次的信息。
发明内容
针对现有技术中的上述不足,本发明提供的基于人工智能技术的皮带跑偏及异常运行状态的监测方法解决了传统的皮带运行监测中在利用双阈值分割方法进行图像分割时图片中物体的灰度特征会相互影响,导致发生双峰和多峰现象,进而影响图像分割识别准确率的问题。
为了达到上述发明目的,本发明采用了的技术方案为:一种基于人工智能技术的皮带跑偏的监测方法,包括以下步骤:
S1、在皮带边缘增设标记物;
S2、在设定时间间隔内,基于增设的标记物,采集设定图像识别区域内的皮带图像,并将其转换为灰度图像;
S3、利用图像分割算法对灰度图像进行实时多阈值分割,确定灰度图像中各个像素点的灰度值等级;
S4、遍历灰度图像中确定的若干条分割网格线,根据其灰度值等级,识别出灰度图像中的皮带边缘;
S5、重复步骤S4,在遍历过程中,当灰度图像中每条分割网格线两侧皮带边缘的像素点与实际皮带边缘的像素点之间的像素点个数为零时,确定皮带发生跑偏;
S6、向主控***发送皮带跑偏报警信号,进而控制皮带运行中断,实现皮带跑偏监测。
进一步地,所述步骤S2中,图像识别区域由设定的分割网格线的长度确定,分割网格线的计算公式为:
Gridi=Gridi-1-2·[lin_disi·sinθ]
式中,Gridi为第i条分割网格线的像素点长度,lin_disi为第i条分割网格线间的像素点距离,θ为分割网格线与皮带中轴线的夹角,i>1,lin_disi=i·15;
所述步骤S2中,将采集的皮带图像转换为灰度图像的方法具体为:
将皮带图像中的所有像素点的颜色利用Gamma校正算法进行误差修正转换为灰度,进而获得灰度图像;其中,转换公式具体为:
其中,Grey_Image为转换后的灰度像素点,R为三基色中的红色色值,G为三基色中的绿色色值,B为三基色中的蓝色色值。
进一步地,所述步骤S3具体为:
S31、设灰度图像的尺寸为M×N,其对应的灰度级直方图中有L个灰度级,且灰度值j出现的概率为h(j),j=1,2,…,L;
S32、设置一组灰度级阈值向量[t1,t2,…,tn,。。。,L-1]将灰度图像分割为n+l个具有不同灰度值等级的图像部分,其中图像部分(a,b)对应的交叉熵为:
式中,0≤t1<t2<…<tn≤L-1,u(1,t1)和u(t1,t2)等分别表示各个区域的类内均值,其计算公式为:
S33、确定灰度图像中各个图像部分的交叉熵H*(t1,t2,...,tn)为:
S34、确定使交叉熵H*(t1,t2,...,tn)最小的最优灰度级阈值向量[t1 *,t2 *,…,tn *],即满足:
S35、在确定的最优阈值向量[t1 *,t2 *,…,tn *]的基础上,将灰度图像划分成n+l个具有不同灰度值等级的图像,进而确定出灰度图像中各个像素点的灰度值等级。
进一步地,所述步骤S4具体为:
S41、沿分割网格线Pointleft_i~Pointright_i方向,将灰度图像中各个像素点坐标对应的灰度值等级存入数列中;
其中,Pointleft_i为分割网格线的左侧端点,Pointright_i为分割网格线的右侧端点;
S42、沿分割网格线Pointleft_i~Pointright_i方向,遍历灰度图像中的Gridi个像素点,将所有分割网格线上第一个灰度值等级大于设定灰度值等级的像素点作为左侧皮带边缘,最后一个灰度值等级大于设定灰度值等级的像素点作为皮带右侧边缘,完成皮带边缘识别。
进一步地,所述步骤S41中,分割网格线Pointleft_i~Pointright_i上像素点坐标的计算公式为:
Pointcenter=(xi,yi)=(xi,[lin_disi·cosθ])
式中,Pointcenter为分割网格线与中轴线的交点坐标,Pointleft_i为分割网格线左端点的坐标,Pointright_i指分割网格线右端点的坐标,[·]为取整函数。
一种基于人工智能技术的皮带异常运行状态的监测方法,包括以下步骤:
R1、在皮带边缘增设标记物;
R2、在设定时间间隔内,基于增设的标记物,采集设定图像区域内的皮带图像,并将其转换为灰度图像;
R3、利用图像分割算法对灰度图像进行实时多阈值分割,确定灰度图像中各个像素点的灰度值等级;
R4、遍历灰度图像中确定的若干条分割网格线,根据其灰度值等级,识别出灰度图像中的皮带边缘;
R5、在各条分割网格线中,等间隔提取设定数量像素点的灰度值;
R6、基于提取的灰度值对应的灰度特征,设置用于模式识别的条件属性;
R7、根据提取的灰度值及其对应的条件属性,构建初始数据集;
R8、利用若干初级分类器模型对初始数据集进行训练,并利用次级分类器模型将各个初级分类器模型的输出结果进行融合,进而构成用于皮带运行状态识别的强分类器模型;
R9、获取皮带运行的实时监控图像,并提取监控图像中的灰度特征;
R10、通过训练完成的分类器模型对灰度特征进行识别,获得对应的皮带运行状态,进而实现异常运行状态监测。
进一步地,所述步骤R6中,设置的条件属性包括:
条件属性f1:表示灰度特征在灰度级阈值[0,t0]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f2:表示灰度特征在灰度级阈值[t0,t1]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f3:表示灰度特征在灰度级阈值[t1,t2]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f4:表示灰度特征在灰度级阈值[t2,t3]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f5:表示背景类的灰度特征在灰度级阈值[t3,L-1]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f6:表示灰度特征在灰度级阈值[0,t0]情况下的像素点的平均相对距离;
条件属性f7:表示灰度特征在灰度级阈值[t0,t1]情况下的像素点的平均相对距离;
条件属性f8:表示灰度特征在灰度级阈值[t1,t2]情况下的像素点的平均相对距离;
条件属性f9:表示灰度特征在灰度级阈值[t2,t3]情况下的像素点的平均相对距离;
条件属性f10:表示灰度特征在灰度级阈值[t3,L-1]情况下的像素点的平均相对距离。
进一步地,所述条件属性f1~条件属性f5用于表征灰度图像中不同灰度值等级的颜色特征,计算公式为:
式中,pro_col为灰度特征相同的像素点的比例,|N|为像素点的总数;|Ni|为灰度特征相同的像素点的个数;
所述条件属性f6~条件属性f10用于通过计算灰度特征相同的像素点间的相对距离,来表征相同灰度值等级的像素点的分布情况;其中,灰度特征相同的像素点间的相对距离Rel_dis的计算公式为:
其中,Pixel_m和Pixel_n分别对应第m行和第n行像素点的行数值;Pixel_i和Pixel_j分别对应第i列和第j列像素点的列数值。
进一步地,所述步骤R8中,初级分类器模型包括支持向量机模型、随机森林模型、自适应提升模型、逻辑回归模型以及K最邻近模型;
所述次级分类器模型为逻辑回归分类器模型。
进一步地,所述步骤R10中,皮带运行状态包括运行中有传输物料、有积水下的运行中无传输物料、无积水下的运行中没有传输物料、有积水下的静止状态、无积水下的静止状态、运行中皮带撕裂以及托辊脱落。
本发明的有益效果为:
(1)传统的自适应双阈值图像分割算法仅将图像的灰度特性划分为目标类和背景类两种类型,而针对皮带运行状态模式识别的需要,需要挖掘出更多图片中目标物体潜在的特征信息与皮带运行状态的关联关系,本发明采用多阈值图像分割算法对图像中多个目标类的灰度特征按阈值进行划分,实现并提升了根据图像信息进行皮带运行状态模式识别的准确性;
(2)本发明在跑偏监测过程中,不需要输入任何训练样本,也不需要一次遍历整根网格线就可以判断皮带的跑偏情况,监测及反应时间更快,在针对皮带异常运行状态监测的模式识别过程中,采用了多模型集成分类器的方式,通过SVM、RF、Adaboost、LG以及KNN等模型进行初步识别,然后再对识别结果进行融合,获得最终的识别结果,相较于传统单一算法,如机器学习是算法,例如SVM(支持向量机)模式识别、RF(随机森林)、神经网络模型以及GBDT等算法具有更好的预测效果,且具有较高的计算效率;与深度学习方法相比,例如卷积神经网络、生成式对抗网络等方法相比,该方法无需海量的训练数据就可以达到较好的预测效果,在工程应用中具有可行性和实用性。
附图说明
图1为本发明提供的基于人工智能技术的皮带跑偏监测方法流程图。
图2为本发明提供的图像识别时分割网格线示意图。
图3为本发明提供的皮带跑偏监测效果图。
图4为本发明提供的基于人工智能技术的皮带运行状态监测方法流程图。
图5为本发明提供的皮带内侧监测效果图。
图6为本发明提供的多模型融合集成分类模型流程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
实施例1:
如图1所示,一种基于人工智能技术的皮带跑偏的监测方法,包括以下步骤:
S1、在皮带边缘增设标记物;
S2、在设定时间间隔内,基于增设的标记物,采集设定图像识别区域内的皮带图像,并将其转换为灰度图像;
S3、利用图像分割算法对灰度图像进行实时多阈值分割,确定灰度图像中各个像素点的灰度值等级;
S4、遍历灰度图像中确定的若干条分割网格线,根据其灰度值等级,识别出灰度图像中的皮带边缘;
S5、重复步骤S4,在遍历过程中,当灰度图像中每条分割网格线两侧皮带边缘的像素点与实际皮带边缘的像素点之间的像素点个数为零时,确定皮带发生跑偏;
S6、向主控***发送皮带跑偏报警信号,进而控制皮带运行中断,实现皮带跑偏监测。
在本实施例的步骤S1中,皮带边缘增设的标记物可以为白色耐磨反光贴,其目的是使皮带边缘的色度和亮度与周围环境形成对比。
在本实施例的步骤S2中,以0.5s为时间间隔,采集设定图像识别区域内的皮带图像,其中,图像识别区域由设定的分割网格线的长度确定,分割网格线的计算公式为:
Gridi=Gridi-1-2·[lin_disi·sinθ]
式中,Gridi为第i条分割网格线的像素点长度,lin_disi为第i条分割网格线间的像素点距离,θ为分割网格线与皮带中轴线的夹角,i>1,lin_disi=i·15;
具体地,在第一次运行前就需要确定好图像识别的区域,在本发明中图像识别的区域受到分割网格线长度的控制,如图2所示,分割网格线的长度沿设定的中轴线由近及远不断减小,分割网格线的像素点长度受到θ,初始分割网格像素点长度Grid0和中轴线位置的控制,这三个参数均在第一次运行前由技术人员针对摄像头的安装位置和摄像头分辨率以及皮带的实际情况进行人为调整。
步骤S2中,将采集的皮带图像转换为灰度图像的方法具体为:
将皮带图像中的所有像素点的颜色利用Gamma校正算法进行误差修正转换为灰度,进而获得灰度图像;其中,转换公式具体为:
其中,Grey_Image为转换后的灰度像素点,R为三基色中的红色色值,G为三基色中的绿色色值,B为三基色中的蓝色色值。
本实施例的步骤S3中,利用图像分割算法对采集的灰度图像进行实时分割,基于一维灰度级直方图的最小交叉熵法是一种多阈值的图像分割算法,该方法根据图像的灰度特性,将图像划分为多个部分,以分割前后图像之间的信息量差异性为选取准则,实质上是使分割前后图像的信息量损失为阈值达到最小。上述步骤S3中的交叉熵用于度量两个概率***间信息量的差异,分别表征分割前后图像中像素特征向量的概率分布,最小交叉熵的目的是找到合适的阈值,该阈值可以使分割前后图像的信息量差异最小,基于此,上述步骤S3具体为:
S31、设灰度图像的尺寸为M×N,其对应的灰度级直方图中有L个灰度级,且灰度值j出现的概率为h(j),j=1,2,…,L;
这里灰度级和之后要获得灰度值等级不同,此处的灰度级主要是目前国内LED显示屏采用8位处理***,有256级灰度,也就是从黑到白共256种亮度变化;
S32、设置一组灰度级阈值向量[t1,t2,…,tn,。。。,L-1]将灰度图像分割为n+l个具有不同灰度值等级的图像部分,其中图像部分(a,b)对应的交叉熵为:
式中,0≤t1<t2<…<tn≤L-1,u(1,t1)和u(t1,t2)等分别表示各个区域的类内均值,其计算公式为:
S33、确定灰度图像中各个图像部分的交叉熵H*(t1,t2,...,tn)为:
S34、确定使交叉熵H*(t1,t2,...,tn)最小的最优灰度级阈值向量[t1 *,t2 *,…,tn *],即满足:
S35、在确定的最优阈值向量[t1 *,t2 *,…,tn *]的基础上,将灰度图像划分成n+l个具有不同灰度值等级的图像,进而确定出灰度图像中各个像素点的灰度值等级。
本实施例采用4阈值,即n=5。
本实施例的步骤S4中,利用最小交叉熵算法对采集到的灰度图像进行皮带边缘识别,具体为:
S41、沿分割网格线Pointleft_i~Pointright_i方向,将灰度图像中各个像素点坐标对应的灰度值等级存入数列中;
其中,Pointleft_i为分割网格线的左侧端点,Pointright_i为分割网格线的右侧端点;
S42、沿分割网格线Pointleft_i~Pointright_i方向,遍历灰度图像中的Gridi个像素点,将所有分割网格线上第一个灰度值等级大于设定灰度值等级的像素点作为左侧皮带边缘,最后一个灰度值等级大于设定灰度值等级的像素点作为皮带右侧边缘,完成皮带边缘识别。
具体地,各个像素点坐标对应的灰度值等级1,2,3,4,5,共5个等级,如图3所示沿线段从左至右依次遍历Gridi个像素点,找到每条网格线上的第一个灰度值等级大于4的像素点,则为皮带的左侧实际边缘,最后一个灰度值大于4的像素点,则为皮带的右侧实际边缘(需注意的是白色在灰度图中的灰度值为255,灰度图中灰度值的区间在0~255之间,由于本发明采用4阈值算法进行图像分割,则存在5种灰度值区间,因此白色位于灰度值最大的灰度区间,具有最高的灰度值等级,从这儿也可以看出阈值越高越可挖掘出更多的灰度值特征的信息),其中,分割网格线Pointleft_i~Pointright_i上像素点坐标的计算公式为:
Pointcenter=(xi,yi)=(xi,[lin_disi·cosθ])
式中,Pointcenter为分割网格线与中轴线的交点坐标,Pointleft_i为分割网格线左端点的坐标,Pointright_i指分割网格线右端点的坐标,[·]为取整函数。
实施例2:
基于上述皮带跑偏的监测方法,如图4所示,本实施例中提供了一种基于人工智能技术的皮带异常运行状态的监测方法,包括以下步骤:
R1、在皮带边缘增设标记物;
R2、在设定时间间隔内,基于增设的标记物,采集设定图像区域内的皮带图像,并将其转换为灰度图像;
R3、利用图像分割算法对灰度图像进行实时多阈值分割,确定灰度图像中各个像素点的灰度值等级;
R4、遍历灰度图像中确定的若干条分割网格线,根据其灰度值等级,识别出灰度图像中的皮带边缘;
R5、在各条分割网格线中,等间隔提取设定数量像素点的灰度值;
R6、基于提取的灰度值对应的灰度特征,设置用于模式识别的条件属性;
R7、根据提取的灰度值及其对应的条件属性,构建初始数据集;
R8、利用若干初级分类器模型对初始数据集进行训练,并利用次级分类器模型将各个初级分类器模型的输出结果进行融合,进而构成用于皮带运行状态识别的强分类器模型;
R9、获取皮带运行的实时监控图像,并提取监控图像中的灰度特征;
R10、通过训练完成的分类器模型对灰度特征进行识别,获得对应的皮带运行状态,进而实现异常运行状态监测。
本实施例中的步骤R1~R4与实施例1中的对应步骤的实现方法相同,在此不再赘述。
本实施例的步骤R5中,在基于实时监控图像的皮带防跑偏方法传回的图像以及其识别的皮带边缘点和分割网格线的基础上,对皮带范围内网格线上的像素点按等间隔取图像灰度值等级可作为运行状态识别的条件属性,如图5所示。(考虑程序运行的时效性和图像识别的准确性,若像素点等间隔取值过于稀疏,则无法提取到有效的灰度特征,造成关联规则挖掘的结果不可信,若像素点等间隔取值过于密集,虽可提取大量有效的灰度特征,但会造成程序运行时间过长,无法对皮带的运行状况进行实时的监测,本发明在每一横隔线的像素点中除去皮带边缘的像素点,再等间隔分别提取30个像素点的灰度值)
上述步骤R6中,由上述内容得到的所有灰度特征,设置的条件属性包括:
条件属性f1:表示灰度特征在灰度级阈值[0,t0]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f2:表示灰度特征在灰度级阈值[t0,t1]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f3:表示灰度特征在灰度级阈值[t1,t2]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f4:表示灰度特征在灰度级阈值[t2,t3]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f5:表示背景类的灰度特征在灰度级阈值[t3,L-1]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f6:表示灰度特征在灰度级阈值[0,t0]情况下的像素点的平均相对距离;
条件属性f7:表示灰度特征在灰度级阈值[t0,t1]情况下的像素点的平均相对距离;
条件属性f8:表示灰度特征在灰度级阈值[t1,t2]情况下的像素点的平均相对距离;
条件属性f9:表示灰度特征在灰度级阈值[t2,t3]情况下的像素点的平均相对距离;
条件属性f10:表示灰度特征在灰度级阈值[t3,L-1]情况下的像素点的平均相对距离。
上述所述条件属性f1~条件属性f5代表图像中的灰度特征,由于不同物料和设备在颜色上具有不同的色度特征和光密度特征,由此可展现出不同的灰度特征,因此这5类条件属性利用不同等级灰度特征出现的比例识别图像中的颜色特征,其计算公式为:
式中,pro_col为灰度特征相同的像素点的比例,|N|为像素点的总数;|Ni|为灰度特征相同的像素点的个数;
所述条件属性f6~条件属性f10用于通过计算灰度特征相同的像素点间的相对距离(无需将像素点转换为实际距离),来表征相同灰度值等级的像素点的分布情况;其中,灰度特征相同的像素点间的相对距离Rel_dis的计算公式为:
其中,Pixel_m和Pixel_n分别对应第m行和第n行像素点的行数值;Pixel_i和Pixel_j分别对应第i列和第j列像素点的列数值。
本实施例的步骤R7中,在构建初始数据集时,由于相同类型的物体具有相同的灰度特征,利用基于像素点间相对距离的特征间距离度量方法可有效度量物体的分布状况,构建的初始数据集如表1所示:
表1:初始数据集
其中,xn指某个像素点样本;D指决策属性,对应皮带异常运行状态,本发明中共有7种类别的决策属性,0对应运行中有传输物料,1对应运行中没有传输物料(有积水),2对应运行中没有传输物料(无积水),3对应静止状态(有积水),4对应静止状态(无积水),5对应异常运行状态(如皮带撕裂,托辊脱落),6对应其他状态;
本实施例的步骤R8中,为提升预测精度,采用多模型融合的集成分类方法,该方法相较于单一模型分类的机器学习方法具有更好的预测效果,具有极高的工程应用价值,其基本原理为利用次级分类器模型将多个初级分类器模型融合起来,构建最终的强分类器模型,该分类器模型有助于提升模型的泛化能力并将各初级分类器模型的分类优势给融合起来以进一步提升模型的分类效果,多模型融合的分类模型的分类性能取决于其初级分类器模型和次级元分类器模型的分类效果,一般来说,初级分类器模型通常选择分类性能差异较大的分类器模型,这有助于从不同角度挖掘出数据集的信息,以综合各分类器的分类优势,而次级元分类器通常采用LG(逻辑回归分类器模型)等泛化能力较强的分类器模型防止过拟合。
其中,初级分类器模型包括支持向量机模型(SVM)、随机森林模型(RF)、自适应提升模型(Adaboost)以及K最邻近模型(KNN),其中,SVM支持向量机是通过寻找训练样本集中不同标签所对应的样本到分类超平面的最远距离,以确定分类间隔最大的分类超平面,随机森林(RF)是由多棵决策树组成的。通过对样本随机有放回的采样方法得到不同的训练样本集,在这些新的训练样本集上分别训练次级分类器模型,最终合并次级分类器的测试结果,作为输出;Adaboost是一种多轮迭代的机器学习算法,其利用相同的训练数据集训练不同的次级分类器模型,最后将这些次级分类器模型集成起来,形成一个强分类器模型以达到识别复杂问题的目的;LG是通过假设数据服从某个分布,然后使用极大似然估计做参数的估计,Logistic Regression常用于二分类任务,具有简单、并行化程度高的特点,在实际工程中应用广泛;KNN模型是通过计算训练样本集中样本与样本之间的距离(本发明采用欧氏距离),并取样本间距离最近的K个点(K是工程师自行指定的样本近邻取舍的个数,KNN分类模型的性能会受到K值大小的影响),再计算这K个训练集样本点所对应的标签出现的频次,将该近邻内出现频次最高的标签作为测试样本点的预测标签和近邻。
上述多分类器集成分类模型的流程图如图6所示,需要注意的是多模型融合次级元分类器模型的输入数据集实际上为各初级分类器模型预测输出结果的组合,P={P1,P2,P3,P4,P5,y}。在上述步骤R10中,能够对运行中有传输物料、运行中没有传输物料(有积水)、运行中没有传输物料(无积水)、静止状态(有积水)、静止状态(无积水)、运行中皮带撕裂、托辊脱落等皮带的多种运行状态进行识别。
当监测到皮带运行状态为皮带撕裂、托辊脱落等异常状态时,则立即切断皮带。
本发明采用最小交叉熵的多阈值图像分割算法提出了一种皮带跑偏监测方法,由于传统双阈值分割方法在进行图像分割时图片中物体的灰度特征会相互影响导致发生双峰和多峰现象,进而影响图像分割识别的准确率,此外由于双阈值算法仅含有背景和目标两种类型的灰度信息,利用这两种灰度信息无法有效的挖掘出目标物体和其内在决策事件之间的关联关系,因此本发明根据不同物体含有的不同灰度信息将图像中的识别目标分别按多个阈值进行划分,多阈值图像分割方法可提取更多反映物体信息的灰度特征,为进一步挖掘图片中的各类目标物体与皮带异常运行状态之间的关联规则进而进行模式识别提供了可能。本发明通过实时识别监控图像像素点并建立识别网格,在皮带跑偏监测阶段,该装置无需任何训练样本,对皮带的跑偏监测具有实时性;在对皮带异常运行状态的模式识别阶段,利用目标物体的灰度信息与皮带运行状态的关联关系,构建了分类模型,以实现基于多阈值的皮带异常运行状态的分类辨识。
Claims (10)
1.基于人工智能技术的皮带跑偏的监测方法,其特征在于,包括以下步骤:
S1、在皮带边缘增设标记物;
S2、在设定时间间隔内,基于增设的标记物,采集设定图像识别区域内的皮带图像,并将其转换为灰度图像;
S3、利用图像分割算法对灰度图像进行实时多阈值分割,确定灰度图像中各个像素点的灰度值等级;
S4、遍历灰度图像中确定的若干条分割网格线,根据其灰度值等级,识别出灰度图像中的皮带边缘;
S5、重复步骤S4,在遍历过程中,当灰度图像中每条分割网格线两侧皮带边缘的像素点与实际皮带边缘的像素点之间的像素点个数为零时,确定皮带发生跑偏;
S6、向主控***发送皮带跑偏报警信号,进而控制皮带运行中断,实现皮带跑偏监测。
2.根据权利要求1所述的基于人工智能技术的皮带跑偏的监测方法,其特征在于,所述步骤S2中,图像识别区域由设定的分割网格线的长度确定,分割网格线的计算公式为:
Gridi=Gridi-1-2·[lin_disi·sinθ]
式中,Gridi为第i条分割网格线的像素点长度,lin_disi为第i条分割网格线间的像素点距离,θ为分割网格线与皮带中轴线的夹角,i>1,lin_disi=i·15;
所述步骤S2中,将采集的皮带图像转换为灰度图像的方法具体为:
将皮带图像中的所有像素点的颜色利用Gamma校正算法进行误差修正转换为灰度,进而获得灰度图像;其中,转换公式具体为:
其中,Grey_Image为转换后的灰度像素点,R为三基色中的红色色值,G为三基色中的绿色色值,B为三基色中的蓝色色值。
3.根据权利要求2所述的基于人工智能技术的皮带跑偏的监测方法,其特征在于,所述步骤S3具体为:
S31、设灰度图像的尺寸为M×N,其对应的灰度级直方图中有L个灰度级,且灰度值j出现的概率为h(j),j=1,2,…,L;
S32、设置一组灰度级阈值向量[t1,t2,…,tn,。。。,L-1]将灰度图像分割为n+l个具有不同灰度值等级的图像部分,其中图像部分(a,b)对应的交叉熵为:
式中,0≤t1<t2<…<tn≤L-1,u(1,t1)和u(t1,t2)等分别表示各个区域的类内均值,其计算公式为:
S33、确定灰度图像中各个图像部分的交叉熵H*(t1,t2,...,tn)为:
S34、确定使交叉熵H*(t1,t2,...,tn)最小的最优灰度级阈值向量[t1 *,t2 *,…,tn *],即满足:
S35、在确定的最优阈值向量[t1 *,t2 *,…,tn *]的基础上,将灰度图像划分成n+l个具有不同灰度值等级的图像,进而确定出灰度图像中各个像素点的灰度值等级。
4.根据权利要求3所述的基于人工智能技术的皮带跑偏的监测方法,其特征在于,所述步骤S4具体为:
S41、沿分割网格线Pointleft_i~Pointright_i方向,将灰度图像中各个像素点坐标对应的灰度值等级存入数列中;
其中,Pointleft_i为分割网格线的左侧端点,Pointright_i为分割网格线的右侧端点;
S42、沿分割网格线Pointleft_i~Pointright_i方向,遍历灰度图像中的Gridi个像素点,将所有分割网格线上第一个灰度值等级大于设定灰度值等级的像素点作为左侧皮带边缘,最后一个灰度值等级大于设定灰度值等级的像素点作为皮带右侧边缘,完成皮带边缘识别。
6.一种基于人工智能技术的皮带异常运行状态的监测方法,其特征在于,包括以下步骤:
R1、在皮带边缘增设标记物;
R2、在设定时间间隔内,基于增设的标记物,采集设定图像区域内的皮带图像,并将其转换为灰度图像;
R3、利用图像分割算法对灰度图像进行实时多阈值分割,确定灰度图像中各个像素点的灰度值等级;
R4、遍历灰度图像中确定的若干条分割网格线,根据其灰度值等级,识别出灰度图像中的皮带边缘;
R5、在各条分割网格线中,等间隔提取设定数量像素点的灰度值;
R6、基于提取的灰度值对应的灰度特征,设置用于模式识别的条件属性;
R7、根据提取的灰度值及其对应的条件属性,构建初始数据集;
R8、利用若干初级分类器模型对初始数据集进行训练,并利用次级分类器模型将各个初级分类器模型的输出结果进行融合,进而构成用于皮带运行状态识别的强分类器模型;
R9、获取皮带运行的实时监控图像,并提取监控图像中的灰度特征;
R10、通过训练完成的分类器模型对灰度特征进行识别,获得对应的皮带运行状态,进而实现异常运行状态监测。
7.根据权利要求6所述的基于人工智能技术的皮带异常运行状态的监测方法,其特征在于,所述步骤R6中,设置的条件属性包括:
条件属性f1:表示灰度特征在灰度级阈值[0,t0]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f2:表示灰度特征在灰度级阈值[t0,t1]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f3:表示灰度特征在灰度级阈值[t1,t2]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f4:表示灰度特征在灰度级阈值[t2,t3]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f5:表示背景类的灰度特征在灰度级阈值[t3,L-1]的情况下,其在所有像素点所对应的灰度特征中的占比;
条件属性f6:表示灰度特征在灰度级阈值[0,t0]情况下的像素点的平均相对距离;
条件属性f7:表示灰度特征在灰度级阈值[t0,t1]情况下的像素点的平均相对距离;
条件属性f8:表示灰度特征在灰度级阈值[t1,t2]情况下的像素点的平均相对距离;
条件属性f9:表示灰度特征在灰度级阈值[t2,t3]情况下的像素点的平均相对距离;
条件属性f10:表示灰度特征在灰度级阈值[t3,L-1]情况下的像素点的平均相对距离。
8.根据权利要求7所述的基于人工智能技术的皮带异常运行状态的监测方法,其特征在于,所述条件属性f1~条件属性f5用于表征灰度图像中不同灰度值等级的颜色特征,计算公式为:
式中,pro_col为灰度特征相同的像素点的比例,|N|为像素点的总数;|Ni|为灰度特征相同的像素点的个数;
所述条件属性f6~条件属性f10用于通过计算灰度特征相同的像素点间的相对距离,来表征相同灰度值等级的像素点的分布情况;其中,灰度特征相同的像素点间的相对距离Rel_dis的计算公式为:
其中,Pixel_m和Pixel_n分别对应第m行和第n行像素点的行数值;Pixel_i和Pixel_j分别对应第i列和第j列像素点的列数值。
9.根据权利要求6所述的基于人工智能技术的皮带异常运行状态的监测方法,其特征在于,所述步骤R8中,初级分类器模型包括支持向量机模型、随机森林模型、自适应提升模型、逻辑回归模型以及K最邻近模型;
所述次级分类器模型为逻辑回归分类器模型。
10.根据权利要求6所述的基于人工智能技术的皮带异常运行状态的监测方法,其特征在于,所述步骤R10中,皮带运行状态包括运行中有传输物料、有积水下的运行中无传输物料、无积水下的运行中没有传输物料、有积水下的静止状态、无积水下的静止状态、运行中皮带撕裂以及托辊脱落。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111063473.2A CN113706523B (zh) | 2021-09-10 | 2021-09-10 | 基于人工智能技术的皮带跑偏及异常运行状态的监测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111063473.2A CN113706523B (zh) | 2021-09-10 | 2021-09-10 | 基于人工智能技术的皮带跑偏及异常运行状态的监测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113706523A true CN113706523A (zh) | 2021-11-26 |
CN113706523B CN113706523B (zh) | 2023-08-15 |
Family
ID=78659883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111063473.2A Active CN113706523B (zh) | 2021-09-10 | 2021-09-10 | 基于人工智能技术的皮带跑偏及异常运行状态的监测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113706523B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113986678A (zh) * | 2021-11-05 | 2022-01-28 | 江苏鼎驰电子科技有限公司 | 基于数据训练的设备状态监测*** |
CN114758139A (zh) * | 2022-06-16 | 2022-07-15 | 成都鹏业软件股份有限公司 | 基坑积水检测方法 |
CN115171051A (zh) * | 2022-09-06 | 2022-10-11 | 合肥金星智控科技股份有限公司 | 一种运输皮带边缘撕裂的在线检测方法及*** |
CN116167991A (zh) * | 2023-02-15 | 2023-05-26 | 中科微至科技股份有限公司 | 一种基于DeepLabv3+的皮带边缘线检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007131580A1 (en) * | 2006-05-12 | 2007-11-22 | Eastman Kodak Company | Method of ensuring a correct lateral registration setting and printing machine suitable therefor |
CN104714417A (zh) * | 2014-12-30 | 2015-06-17 | 华南理工大学 | 一种具有未知扰动大加减速传送带振动pd控制*** |
CN105160654A (zh) * | 2015-07-09 | 2015-12-16 | 浙江工商大学 | 基于特征点提取的毛巾标签缺陷检测方法 |
CN106203338A (zh) * | 2016-07-11 | 2016-12-07 | 南京航空航天大学 | 基于网格区域分割和阈值自适应的人眼状态快速识别方法 |
CN107822265A (zh) * | 2017-11-30 | 2018-03-23 | 温州大学激光与光电智能制造研究院 | 一种鞋底摩擦磨损测试装置及*** |
CN109967389A (zh) * | 2019-04-23 | 2019-07-05 | 南京斯杩克机器人技术有限公司 | 一种起爆具缺陷自动检测***及其检测方法 |
CN209622826U (zh) * | 2018-11-21 | 2019-11-12 | 裴永斌 | 适用于锅炉烟气中含有粘附性较强灰的余热锅炉清灰装置 |
-
2021
- 2021-09-10 CN CN202111063473.2A patent/CN113706523B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007131580A1 (en) * | 2006-05-12 | 2007-11-22 | Eastman Kodak Company | Method of ensuring a correct lateral registration setting and printing machine suitable therefor |
CN104714417A (zh) * | 2014-12-30 | 2015-06-17 | 华南理工大学 | 一种具有未知扰动大加减速传送带振动pd控制*** |
CN105160654A (zh) * | 2015-07-09 | 2015-12-16 | 浙江工商大学 | 基于特征点提取的毛巾标签缺陷检测方法 |
CN106203338A (zh) * | 2016-07-11 | 2016-12-07 | 南京航空航天大学 | 基于网格区域分割和阈值自适应的人眼状态快速识别方法 |
CN107822265A (zh) * | 2017-11-30 | 2018-03-23 | 温州大学激光与光电智能制造研究院 | 一种鞋底摩擦磨损测试装置及*** |
CN209622826U (zh) * | 2018-11-21 | 2019-11-12 | 裴永斌 | 适用于锅炉烟气中含有粘附性较强灰的余热锅炉清灰装置 |
CN109967389A (zh) * | 2019-04-23 | 2019-07-05 | 南京斯杩克机器人技术有限公司 | 一种起爆具缺陷自动检测***及其检测方法 |
Non-Patent Citations (3)
Title |
---|
JUNRONG XIA: "Perspectives on inter-state transmission interconnection between China and Arab States", 《2016 IEEE PES ASIA-PACIFIC POWER AND ENERGY ENGINEERING CONFERENCE (APPEEC)》 * |
刘永华: "输煤皮带秤测量精准度存在的问题及处理", 《河北电力技术 》 * |
贾颜飞: "选煤厂带式输送机皮带跑偏原因分析及处理", 《科技与创新》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113986678A (zh) * | 2021-11-05 | 2022-01-28 | 江苏鼎驰电子科技有限公司 | 基于数据训练的设备状态监测*** |
CN113986678B (zh) * | 2021-11-05 | 2022-06-24 | 江苏鼎驰电子科技有限公司 | 基于数据训练的设备状态监测*** |
CN114758139A (zh) * | 2022-06-16 | 2022-07-15 | 成都鹏业软件股份有限公司 | 基坑积水检测方法 |
CN115171051A (zh) * | 2022-09-06 | 2022-10-11 | 合肥金星智控科技股份有限公司 | 一种运输皮带边缘撕裂的在线检测方法及*** |
CN115171051B (zh) * | 2022-09-06 | 2023-01-10 | 合肥金星智控科技股份有限公司 | 一种运输皮带边缘撕裂的在线检测方法及*** |
CN116167991A (zh) * | 2023-02-15 | 2023-05-26 | 中科微至科技股份有限公司 | 一种基于DeepLabv3+的皮带边缘线检测方法 |
CN116167991B (zh) * | 2023-02-15 | 2023-09-08 | 中科微至科技股份有限公司 | 一种基于DeepLabv3+的皮带边缘线检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113706523B (zh) | 2023-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113706523A (zh) | 基于人工智能技术的皮带跑偏及异常运行状态的监测方法 | |
US10445602B2 (en) | Apparatus and method for recognizing traffic signs | |
Romdhane et al. | An improved traffic signs recognition and tracking method for driver assistance system | |
CN111126115B (zh) | 暴力分拣行为识别方法和装置 | |
Bedruz et al. | Real-time vehicle detection and tracking using a mean-shift based blob analysis and tracking approach | |
CN108629286B (zh) | 一种基于主观感知显著模型的遥感机场目标检测方法 | |
US9904868B2 (en) | Visual attention detector and visual attention detection method | |
Le et al. | Real time traffic sign detection using color and shape-based features | |
CN107220962B (zh) | 一种隧道裂纹的图像检测方法和装置 | |
CN111027475A (zh) | 一种基于视觉的实时交通信号灯识别方法 | |
CN104966304A (zh) | 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法 | |
CN105740774A (zh) | 一种图像的文本区域定位方法及装置 | |
CN111242046B (zh) | 一种基于图像检索的地面交通标志识别方法 | |
Chen et al. | Ship imaging trajectory extraction via an aggregated you only look once (YOLO) model | |
CN110008833B (zh) | 基于光学遥感图像的目标船只检测方法 | |
CN111950498A (zh) | 一种基于端到端实例分割的车道线检测方法及装置 | |
Rabee et al. | License plate detection and recognition in complex scenes using mathematical morphology and support vector machines | |
CN115170567A (zh) | 一种船舶用的防水钢板缺陷检测方法 | |
CN108491857A (zh) | 一种视域重叠的多摄像机目标匹配方法 | |
CN107832732B (zh) | 基于三叉树遍历的车道线检测方法 | |
CN116958113A (zh) | 一种产品检测方法、装置、设备及存储介质 | |
CN107704864A (zh) | 基于图像对象性语义检测的显著目标检测方法 | |
CN115223112A (zh) | 一种基于语义分割的待行区检测方法 | |
CN115115636B (zh) | 一种无人抓料机智能控制***及控制方法 | |
Srikumar et al. | Adaptive windowing and granular computing based image segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |