CN110717499B - 基于单层感知器模型的图像特征提取方法 - Google Patents
基于单层感知器模型的图像特征提取方法 Download PDFInfo
- Publication number
- CN110717499B CN110717499B CN201910904798.5A CN201910904798A CN110717499B CN 110717499 B CN110717499 B CN 110717499B CN 201910904798 A CN201910904798 A CN 201910904798A CN 110717499 B CN110717499 B CN 110717499B
- Authority
- CN
- China
- Prior art keywords
- image
- gray level
- previous frame
- follows
- perceptron model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于单层感知器模型的图像特征提取方法,包括以下步骤:对输入目标跟踪过程中前后相邻的两帧图像做灰度变换;对前一帧图像的灰度图像进行高斯滤波;求前一帧灰度图像与高斯滤波图像的绝对差;将绝对差图像与后一帧灰度图像相乘;提取前一帧灰度图像的边缘特征;将相乘得到的新图像与前一帧灰度图像的边缘特征图像相加;对相加得到的新图像进行膨胀处理,得到最终的特征图像。
Description
技术领域
本发明涉及一种计算机视觉技术,特别是一种基于单层感知器模型的图像特征提取方法。
背景技术
现有的目标跟踪算法中,采用的图像特征主要是灰度特征、颜色特征、HOG特征和深度学习预先训练习得的特征。这些特征都存在各自的问题:灰度特征包含的图像信息过于简单,无法将目标精确地从背景中分离出来;颜色特征对于红外成像跟踪时没有作用,而且还会增加程序的计算量;HOG特征计算过程冗杂,计算量大,会大大降低跟踪的实时性;深度学习利用神经网络预先训练需要大量的数据样本,样本难以获得,且训练过程耗时长,对计算机硬件的要求高,需要GPU的辅助。对于目标跟踪来说,精度和实时性是最关键的两个指标。因而,在保障精度的前提下,能提高跟踪的实时性是计算机视觉***所亟需的。
发明内容
本发明的目的在于提供一种基于单层感知器模型的图像特征提取方法。
实现本发明目的的技术方案为:一种基于单层感知器模型的图像特征提取方法,包括以下步骤:
步骤1,对输入目标跟踪过程中前后相邻的两帧图像做灰度变换;
步骤2,对前一帧图像的灰度图像进行高斯滤波;
步骤3,求前一帧灰度图像与高斯滤波图像的绝对差;
步骤4,将绝对差图像与后一帧灰度图像相乘;
步骤5,提取前一帧灰度图像的边缘特征;
步骤6,将相乘得到的新图像与前一帧灰度图像的边缘特征图像相加;
步骤7,对相加得到的新图像进行膨胀处理,得到最终的特征图像。
进一步地,所述步骤1的具体过程为:
步骤1.1,输入原始的相邻两帧图像Ii和Ii+1;
步骤1.2,对两幅图像进行灰度变换:Ii=rgb2gray(Ii)和Ii+1=rgb2gray(Ii+1)。
进一步地,所述步骤2的具体过程为:用二阶高斯滤波对前一帧灰度图像Ii进行处理,得到新图像
Ji=uint8(filter2(fspecial('gaussian'),Ii))。
进一步地,所述步骤3的具体过程为:求出Ii和Ji两幅图像的绝对差,得到新图像Ki=imabsdiff(Ii,Ji),作为感知器模型中的权重W。
进一步地,所述步骤4的具体过程为:将后一帧灰度图像图像Ii+1感知器模型中的输入X,图像Ki和Ii+1相乘,对照感知器模型中输入与权重相乘的计算过程,得到新图像:Pi=immultiply(Ki*a,Ii+1),其中,a是一个值小于1的比例系数。
进一步地,所述步骤5的具体过程为:用canny算子提取前一帧灰度图像的边缘特征:Qi=uint8(edge(Ii,'canny')*b),其中,b是边缘特征系数。
进一步地,所述步骤6的具体过程为:对照感知器模型的计算过程,将图像Pi和Qi相加,得到新图像:Mi=imadd(Pi,Qi)。
进一步地,所述步骤7的具体过程为:用膨胀算法对相加得到的新图像进行处理:Ni=imdilate(Mi,SE),其中,SE=strel('square',c),代表以c*c的正方形为单位进行膨胀。
本发明与现有技术相比,具有以下优点:(1)本发明在提取特征时不需要利用图像的颜色特征,直接对灰度图像进行后续处理,可适应于红外成像的目标跟踪;(2)本发明构造的图像特征比HOG特征计算量小,处理步骤简单,能大幅度提高目标跟踪的实时性;(3)本发明的程序运行语句少,可移植性强,便于后续的修改;(4)本发明不需要预先对大量样本数据进行训练;(5)本发明在提取图像特征时,抑制背景信息,增强了目标与背景的差异,在提升跟踪速度的同时也保障了目标跟踪的精度。
下面结合说明书附图对本发明做进一步描述。
附图说明
图1为基于单层感知模型的图像特征提取方法的流程图。
图2为单层感知器模型图。
图3为图像特征提取过程中各阶段的效果图。其中,(a)是前一帧灰度图像Ii,(b)是后一帧灰度图像Ii+1,(c)是图像Pi,即对应感知器模型中的W和X的乘积,(d)是图像Qi,即对应感知器模型中的阈值,(e)是图像Mi,即感知器模型中乘积与阈值的相加运算,(f)是图像Ni,即为最终的特征图像。
具体实施方式
结合图1至图3,一种基于单层感知器模型的图像特征提取方法,包括以下步骤:
步骤1,输入目标跟踪过程中前后相邻的两帧图像,做灰度变换;
步骤2,对前一帧图像的灰度图像进行高斯滤波;
步骤3,求前一帧灰度图像与高斯滤波图像的绝对差;
步骤4,将绝对差图像与后一帧灰度图像相乘;
步骤5,提取前一帧灰度图像的边缘特征;
步骤6,将相乘得到的新图像与边缘特征图像相加;
步骤7,对相加得到的新图像进行膨胀处理,得到最终的特征图像。
进一步地,所述的步骤1包括以下具体步骤:
步骤1.1,输入原始的相邻两帧图像Ii和Ii+1;
步骤1.2,对两幅图像进行灰度变换:Ii=rgb2gray(Ii);Ii+1=rgb2gray(Ii+1)
进一步地,所述的步骤2包括以下具体步骤:用二阶高斯滤波对前一帧灰度图像Ii进行处理,得到新图像Ji=uint8(filter2(fspecial('gaussian'),Ii))。
进一步地,所述的步骤3包括以下具体步骤:求出Ii和Ji两幅图像的绝对差,得到新图像Ki=imabsdiff(Ii,Ji),作为感知器模型中的权重W。
进一步地,所述的步骤4包括以下具体步骤:将后一帧灰度图像图像Ii+1感知器模型中的输入X,图像Ki和Ii+1相乘,对照感知器模型中输入与权重相乘的计算过程,得到新图像:Pi=immultiply(Ki*a,Ii+1),其中,a是一个值小于1的比例系数,a=0.12,防止图像Ki有像素点的值超过255。
进一步地,所述的步骤5包括以下具体步骤:用canny算子提取前一帧灰度图像的边缘特征:Qi=uint8(edge(Ii,'canny')*b),其中,b是边缘特征系数,b=60,b的大小决定了边缘特征的强弱。
进一步地,所述的步骤6包括以下具体步骤:对照感知器模型的计算过程,将图像Pi和Qi相加,得到新图像:Mi=imadd(Pi,Qi)。
进一步地,所述的步骤7包括以下具体步骤:用膨胀算法对相加得到的新图像进行处理:Ni=imdilate(Mi,SE),其中,SE=strel('square',c),代表以c*c的正方形为单位进行膨胀。
在OTB数据库中进行跟踪测试,与最常用的HOG特征相比,本方法跟踪绝大部分序列的实时性(以帧率FPS为测评指标)高出2~8倍,如下面表格所示。
Claims (1)
1.一种基于单层感知器模型的图像特征提取方法,其特征在于,包括以下步骤:
步骤1,对输入目标跟踪过程中前后相邻的两帧图像做灰度变换,具体过程为:
步骤1.1,输入原始的相邻两帧图像Ii和Ii+1;
步骤1.2,对两幅图像进行灰度变换:Ii=rgb2gray(Ii)和Ii+1=rgb2gray(Ii+1);
步骤2,对前一帧图像的灰度图像进行高斯滤波,具体过程为:用二阶高斯滤波对前一帧灰度图像Ii进行处理,得到新图像:
Ji=uint8(filter2(fspecial('gaussian'),Ii));
步骤3,求前一帧灰度图像与高斯滤波图像的绝对差,具体过程为:求出Ii和Ji两幅图像的绝对差,得到新图像Ki=imabsdiff(Ii,Ji),作为感知器模型中的权重W;
步骤4,将绝对差图像与后一帧灰度图像相乘,具体过程为:将后一帧灰度图像Ii+1作为感知器模型中的输入X,图像Ki和Ii+1相乘,对照感知器模型中输入与权重相乘的计算过程,得到新图像:Pi=immultiply(Ki*a,Ii+1),其中,a是一个值小于1的比例系数;
步骤5,提取前一帧灰度图像的边缘特征,具体过程为:用canny算子提取前一帧灰度图像的边缘特征:Qi=uint8(edge(Ii,'canny')*b),其中,b是边缘特征系数;
步骤6,将相乘得到的新图像与前一帧灰度图像的边缘特征图像相加,具体过程为:对照感知器模型的计算过程,将图像Pi和Qi相加,得到新图像:Mi=imadd(Pi,Qi);
步骤7,对相加得到的新图像进行膨胀处理,得到最终的特征图像,具体过程为:用膨胀算法对相加得到的新图像进行处理:Ni=imdilate(Mi,SE),其中,SE=strel('square',c),代表以c*c的正方形为单位进行膨胀。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910904798.5A CN110717499B (zh) | 2019-09-24 | 2019-09-24 | 基于单层感知器模型的图像特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910904798.5A CN110717499B (zh) | 2019-09-24 | 2019-09-24 | 基于单层感知器模型的图像特征提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110717499A CN110717499A (zh) | 2020-01-21 |
CN110717499B true CN110717499B (zh) | 2022-08-09 |
Family
ID=69210098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910904798.5A Active CN110717499B (zh) | 2019-09-24 | 2019-09-24 | 基于单层感知器模型的图像特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110717499B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916446A (zh) * | 2010-07-23 | 2010-12-15 | 北京航空航天大学 | 基于边缘信息和均值移位的灰度目标跟踪算法 |
CN109166139A (zh) * | 2018-07-18 | 2019-01-08 | 天津大学 | 一种结合快速背景抑制的尺度自适应目标跟踪方法 |
CN109272489A (zh) * | 2018-08-21 | 2019-01-25 | 西安电子科技大学 | 基于背景抑制与多尺度局部熵的红外弱小目标检测方法 |
-
2019
- 2019-09-24 CN CN201910904798.5A patent/CN110717499B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916446A (zh) * | 2010-07-23 | 2010-12-15 | 北京航空航天大学 | 基于边缘信息和均值移位的灰度目标跟踪算法 |
CN109166139A (zh) * | 2018-07-18 | 2019-01-08 | 天津大学 | 一种结合快速背景抑制的尺度自适应目标跟踪方法 |
CN109272489A (zh) * | 2018-08-21 | 2019-01-25 | 西安电子科技大学 | 基于背景抑制与多尺度局部熵的红外弱小目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110717499A (zh) | 2020-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110245608B (zh) | 一种基于半张量积神经网络的水下目标识别方法 | |
CN110503108B (zh) | 违章建筑识别方法及装置、存储介质、计算机设备 | |
CN110969124B (zh) | 基于轻量级多分支网络的二维人体姿态估计方法及*** | |
CN108052980B (zh) | 基于图像的空气质量等级检测方法 | |
CN111160533A (zh) | 一种基于跨分辨率知识蒸馏的神经网络加速方法 | |
CN111027382B (zh) | 一种基于注意力机制的轻量级人脸检测的方法及模型 | |
CN109753996B (zh) | 基于三维轻量化深度网络的高光谱图像分类方法 | |
CN109829924B (zh) | 一种基于主体特征分析的图像质量评价方法 | |
CN109886945B (zh) | 基于对比度增强的无参考对比度失真图像质量评价方法 | |
CN109711268B (zh) | 一种人脸图像筛选方法及设备 | |
CN113705675B (zh) | 一种基于多尺度特征交互网络的多聚焦图像融合方法 | |
CN114596448A (zh) | 一种肉鸭健康管理方法及其管理*** | |
CN105138983A (zh) | 基于加权部件模型和选择性搜索分割的行人检测方法 | |
CN111047618B (zh) | 基于多尺度的无参考屏幕内容图像质量评估方法 | |
CN109034070B (zh) | 一种置换混叠图像盲分离方法及装置 | |
CN111126185A (zh) | 一种针对道路卡口场景的深度学习车辆目标识别方法 | |
CN110288026A (zh) | 一种基于度量关系图学习的图像分割方法及装置 | |
CN110717499B (zh) | 基于单层感知器模型的图像特征提取方法 | |
CN109522865A (zh) | 一种基于深度神经网络的特征加权融合人脸识别方法 | |
CN113487538A (zh) | 一种多目标分割缺陷检测方法、装置及其计算机存储介质 | |
CN112270404A (zh) | 一种基于ResNet64网络的紧固件产品鼓包缺陷的检测结构及其方法 | |
CN108122233B (zh) | 基于局部像素综合特征的彩色图像分割方法 | |
CN113496485B (zh) | 卫星遥感图像质量评价方法及装置 | |
Niu et al. | Underwater Waste Recognition and Localization Based on Improved YOLOv5. | |
CN114663562A (zh) | 基于人工智能和模式识别的中间画图像优化方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |