CN117809262B - 一种实时图像识别方法及客户行为分析*** - Google Patents
一种实时图像识别方法及客户行为分析*** Download PDFInfo
- Publication number
- CN117809262B CN117809262B CN202410231380.3A CN202410231380A CN117809262B CN 117809262 B CN117809262 B CN 117809262B CN 202410231380 A CN202410231380 A CN 202410231380A CN 117809262 B CN117809262 B CN 117809262B
- Authority
- CN
- China
- Prior art keywords
- feature
- behavior
- fitness function
- function value
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000004458 analytical method Methods 0.000 title claims abstract description 32
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 112
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 76
- 206010000117 Abnormal behaviour Diseases 0.000 claims abstract description 42
- 238000012544 monitoring process Methods 0.000 claims abstract description 34
- 238000005457 optimization Methods 0.000 claims abstract description 31
- 238000007781 pre-processing Methods 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 238000012216 screening Methods 0.000 claims abstract description 8
- 230000004913 activation Effects 0.000 claims description 48
- 238000012545 processing Methods 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 18
- 230000002159 abnormal effect Effects 0.000 claims description 16
- 238000009826 distribution Methods 0.000 claims description 13
- 238000003062 neural network model Methods 0.000 claims description 11
- 238000009792 diffusion process Methods 0.000 claims description 9
- 239000006185 dispersion Substances 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 8
- 230000035945 sensitivity Effects 0.000 claims description 8
- 238000000926 separation method Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 28
- 230000001965 increasing effect Effects 0.000 abstract description 10
- 230000006399 behavior Effects 0.000 description 133
- 230000006870 function Effects 0.000 description 115
- 238000001514 detection method Methods 0.000 description 15
- 238000011176 pooling Methods 0.000 description 9
- 102100033620 Calponin-1 Human genes 0.000 description 8
- 102100033591 Calponin-2 Human genes 0.000 description 8
- 101000945318 Homo sapiens Calponin-1 Proteins 0.000 description 8
- 101000945403 Homo sapiens Calponin-2 Proteins 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 230000001105 regulatory effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000036461 convulsion Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000004297 night vision Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010224 classification analysis Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000021824 exploration behavior Effects 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 235000012434 pretzels Nutrition 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种实时图像识别方法及客户行为分析***,包括步骤:S1:采用CCD相机实时收集监控区域的视频图像数据;S2:对采集的视频图像数据进行预处理;S3:采用第一卷积神经网络模型对预处理后的视频图像数据进行特征提取;S4:采用水波优化算法对提取的特征进行筛选;S5:将筛选出的最优特征组合输入至训练好的第二卷积神经网络模型,对客户行为进行识别及异常行为检测;S6:将识别结果进行实时反馈和显示;本申请采用两阶段的卷积神经网络模型,从而提高模型对不同视频场景的适应性和识别性能,此外,本***还引入了水波优化算法来优化特征选择过程,大大提升了识别的准确性和效率,极大增加用户体验。
Description
技术领域
本发明涉及大数据技术领域,具体涉及一种实时图像识别方法及客户行为分析***。
背景技术
随着数字化和智能化技术的快速发展,实时图像识别技术在多个领域中的应用变得日益广泛,尤其是在客户行为分析、公共安全、零售业等方面。实时图像识别技术能够对监控区域内的视频流进行连续分析,及时识别和响应各种情况,包括正常的客户行为模式和潜在的异常行为。然而,随着应用场景的复杂性增加,现有技术面临着几个关键挑战,需要更加高效和精确的方法来提高图像识别的性能和适应性。
传统的图像识别技术主要依赖于简单的机器学习模型,这可能足够处理简单场景,但在实时和复杂的视频监控中,这些方法往往难以适应动态变化的环境,特别是在光照、背景和目标行为多样性方面。此外,传统方法在处理大规模视频数据时,计算效率和实时性也成为限制因素。
随着深度学习技术的兴起,卷积神经网络(CNN)成为图像识别领域的主流方法之一。CNN能够自动学习和提取高级特征,显示出比传统方法更好的性能。然而,标准的CNN模型在实时图像识别任务中仍存在一些局限性。首先,固定的激活函数如ReLU和Tanh虽然在多数情况下表现良好,但它们缺乏对输入数据特性的适应性,可能不适用于所有类型的视频场景。其次,特征选择和优化过程在大多数CNN模型中不够灵活,难以针对特定的行为模式进行优化。
且现有的视频图像实时识别一般针对视频图像提取的所有特征进行处理识别,导致数据冗余程度较高,且在特征提取以及具体识别过程中采用相同的模型导致不能够根据实时视频图像数据特点及不同激活函数的CNN模型优势进行识别,实导致识别效率及判断准确度较差,且现有的激活函数不能够根据视频图像的特点适应性变化,针对实时视频图像数据处理时有较高的局限性,高准确率高效率的视频图像处理迫切需要一种新的解决方案,以提高处理的效率和客户满意度。
发明内容
针对现有技术中提到的上述问题,本发明提供了一种实时图像识别方法及客户行为分析***,该***采用两阶段的卷积神经网络模型,第一阶段专注于高效的特征提取,而第二阶段则负责行为的精确识别和异常检测,不同于传统CNN模型,本***在两个阶段的网络中分别采用了动态调节的激活函数,根据视频内容的动态变化自适应调整激活函数的参数,从而提高模型对不同视频场景的适应性和识别性能。此外,本***还引入了水波优化算法来优化特征选择过程,大大提升了识别的准确性和效率,极大增加用户体验。
本申请提供一种实时图像识别方法,包括步骤:
S1:采用CCD相机实时收集监控区域的视频图像数据;
S2:对采集的视频图像数据进行预处理;
S3:采用第一卷积神经网络模型对预处理后的视频图像数据进行特征提取,提取的特征集为:/>,其中,n是特征总数,/>分别表示特征集中第1、第2、第n个特征;第一卷积神经网络模型采用的激活函数/>为:
;
其中,为第一卷积神经网络模型输入信号,/>为视频帧变化率,/>为动态系数,/>,/>为设置的视频变化率敏感度系数,/>为自定义常数;
S4:采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合;
S5:将筛选出的最优特征组合输入至训练好的第二卷积神经网络模型,对客户行为进行识别及异常行为检测;第二卷积神经网络模型采用的激活函数为:
;
其中,为第二卷积神经网络模型输入信号,即选择出适应度值最高的特征子集作为最优特征组合;/>为输入特征的方差,反映特征值分布的离散程度;/>为自然对数的底数;
S6:将识别结果进行实时反馈和显示。
优选地,所述S4:采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合,包括:
S41:计算特征子集为水波的适应度函数值/>为:
;
;
;
其中,为特征子集内聚度权重系数,/>为分离度权重系数,/>为皮尔逊相关系数,/>、/>分别为特征集中第m、第n个特征;
S42:水波的传播表示如下:
;
其中,分别表示在时间t+1和t时的水波也即特征子集,/>表示基于水波适应度函数值调整的变化量,用于特征子集的更新;
S43:水波干涉,若两个水波和/>相遇,则更新后的适应度函数值为/>:
;
其中,为调节参数,/>为特征集中的第/>个特征子集的适应度函数值;
S44:根据干涉后的适应度函数值更新特征子集;
S45:迭代水波的传播和干涉当达到设定迭代次数时,选择出适应度值最高的特征子集作为最优特征组合。
优选地,所述表示基于水波适应度函数值调整的变化量,用于特征子集的更新;
;
其中,表示与水波适应度值相关的基础扩散速度,/>为衰减系数,/>表示/>与当前最佳水波之间的适应度差异。
优选地,所述为皮尔逊相关系数:
;
其中,、/>分别表示特征/>和特征/>在第i个样本点的值;K为样本点总数,/>和/>分别表示特征/>和特征/>对应特征子集中所有样本点的平均值。
优选地,所述S44:根据干涉后的适应度函数值更新特征子集,包括:如果特征子集和/>的干涉导致/>的适应度函数值提高:则将属于/>且不属于特征子集/>的每个特征逐一加入到特征子集/>中,并逐一计算加入后特征子集/>的适应度函数值,若适应度函数值提高则确定添加特征,否则不添加;对于属于特征子集/>的每个特征逐一移除后,逐一计算特征子集/>的适应度函数值,若适应度函数值提高则确定移除,否则不移除。
优选地,所述S2:对采集的视频图像数据进行预处理,包括采用直方图均衡化对采集的视频图像数据进行对比度增强处理,采用高斯滤波进行去噪处理。
优选地,所述S6:将识别结果进行实时反馈和显示,包括将识别结果通过图形用户界面(GUI)在监控中心的显示屏上实时展示,其中识别结果包括客户的行为类别和行为的概率评分。
优选地,所述识别结果包括客户的行为类别和行为的概率评分,行为类别包括:浏览商品、手触选购商品、排队结账、非正常停留和紧急事件;非正常停留包括异常行为每天出现的频次,紧急事件包括顾客突然倒地、出现明火、出现打斗、出现地震、出现盗窃。
本申请还提供一种实时图像识别客户行为分析***,包括:
数据采集单元:采用CCD相机实时收集监控区域的视频图像数据;
数据预处理单元:对采集的视频图像数据进行预处理;
特征提取单元:采用第一卷积神经网络模型对预处理后的视频图像数据进行特征提取,提取的特征集为:/>,其中,n是特征总数,/>分别表示特征集中第1、第2、第n个特征;第一卷积神经网络模型采用的激活函数/>为:
;
其中,为第一卷积神经网络模型输入信号,/>为视频帧变化率,/>为动态系数,/>,/>为设置的视频变化率敏感度系数,/>为自定义常数;
特征筛选单元:采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合;
行为识别单元:将筛选出的最优特征组合输入至训练好的第二卷积神经网络模型,对客户行为进行识别及异常行为检测;第二卷积神经网络模型采用的激活函数为:
;
其中,为第二卷积神经网络模型输入信号,即选择出适应度值最高的特征子集作为最优特征组合;/>为输入特征的方差,反映特征值分布的离散程度;/>为自然对数的底数;
结果反馈单元:将识别结果进行实时反馈和显示。
优选地,所述结果反馈单元:将识别结果进行实时反馈和显示,包括将识别结果通过图形用户界面(GUI)在监控中心的显示屏上实时展示,其中识别结果包括客户的行为类别和行为的概率评分;行为类别包括:浏览商品、手触选购商品、排队结账、非正常停留和紧急事件;非正常停留包括异常行为每天出现的频次,紧急事件包括顾客突然倒地、出现明火、出现打斗、出现地震、出现盗窃。
本发明提供了一种实时图像识别方法及客户行为分析***,所能实现的有益技术效果如下:
1、本发明该***采用两阶段的卷积神经网络模型,第一阶段专注于高效的特征提取,而第二阶段则负责行为的精确识别和异常检测,不同于传统CNN模型,本***在两个阶段的网络中分别采用了动态调节的激活函数,根据视频内容的动态变化自适应调整激活函数的参数,从而提高模型对不同视频场景的适应性和识别性能。此外,本***还引入了水波优化算法来优化特征选择过程,大大提升了识别的准确性和效率,极大增加用户体验。
2、本发明第一卷积神经网络模型采用的激活函数为:
;
其中,为第一卷积神经网络模型输入信号,/>为视频帧变化率,/>为动态系数,/>,/>为设置的视频变化率敏感度系数,/>为自定义常数;通过引入视频帧变化率,第一卷积神经网络模型能够有效地理解和利用时间序列数据的顺序信息,增强视频图像特征提取的准确性。
3、本发明第二卷积神经网络模型采用的激活函数为:
;
其中,为第二卷积神经网络模型输入信号,即选择出适应度值最高的特征子集作为最优特征组合;/>为输入特征的方差,反映特征值分布的离散程度;/>为自然对数的底数;通过将/>为输入特征的方差引入到识别过程中,大大提高了行为识别的准确性,提升了实时视频数据处理效率和准确率,能够更准确地预测客户的行为类别和行为的概率评分。
4、本发明采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合。通过水波的传播、水波的干涉,选择出最优特征集;特征集更新过程中根据干涉后的适应度函数值更新特征子集,包括:如果特征子集/>和/>的干涉导致/>的适应度函数值提高:则将属于/>且不属于特征子集/>的每个特征逐一加入到特征子集/>中,并逐一计算加入后特征子集/>的适应度函数值,若适应度函数值提高则确定添加特征,否则不添加;对于属于特征子集/>的每个特征逐一移除后,逐一计算特征子集/>的适应度函数值,若适应度函数值提高则确定移除,否则不移除。通过选择合适的特征集,大大降低了数据冗余度,提高了视频图像处理效率以及预测准确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明的一种实时图像识别方法步骤示意图;
图2是本发明的一种实时图像识别客户行为分析***示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例1:
针对现有技术中提到的上述问题,为解决上述技术问题,如附图1所示:提供本申请提供一种实时图像识别方法,包括步骤:
S1:采用CCD相机实时收集监控区域的视频图像数据;***配置
在一些实施例中,相机选择:选择具有高分辨率(至少1080p)和高帧率(至少30fps)的CCD相机,以确保收集到的视频图像数据既清晰又流畅。该CCD相机配备了自动光圈调节和红外夜视功能,保证在各种光照条件下均能获得高质量的图像数据。安装位置:在零售商店内关键区域(如入口、收银台、重要商品展示区)安装CCD相机。相机安装的位置和角度经过精心设计,以最大程度地覆盖监控区域,同时减少死角和遮挡。网络连接:所有CCD相机通过有线或无线网络连接到中央处理单元。使用高速以太网连接,确保视频数据能够实时且无损地传输到处理单元进行分析。实时视频捕捉:CCD相机不间断地捕捉监控区域内的实时视频流,通过预设的网络协议实时传输到数据处理中心。图像质量优化:相机内置的图像处理算法自动调整图像参数(如曝光、对比度、白平衡),确保在不同的环境光照条件下均能获得最佳的图像质量。数据传输:采用高效的数据压缩算法减少传输数据量,同时保证图像质量不受影响,确保实时性。
客户行为监测:通过分析收集到的视频数据,***能够实时识别客户在零售商店内的各种行为模式,如浏览、选购、排队等。异常行为检测:***能够识别潜在的异常行为,如长时间停留、急速移动等,及时提醒店铺管理人员进行相应处理。安全监控:在商店关闭时间,***仍然工作,通过红外夜视功能监控可能的安全威胁,如非法入侵等。
S2:对采集的视频图像数据进行预处理;对从CCD相机采集的视频图像数据进行预处理的具体步骤。预处理是图像识别流程中的关键环节,它通过改善图像质量和减少数据冗余来提高后续图像识别的准确性和效率。
在一些实施例中,首先进行灰度转换:将彩***图像转换为灰度图像。这一步骤可以显著减少数据量,因为灰度图像仅包含亮度信息,而不包括颜色信息。灰度转换公式为:Y=0.299R+0.587G+0.114B;其中,R、G、B分别代表红色、绿色、蓝色通道的像素值,Y是转换后的灰度值。噪声去除:使用高斯滤波器或中值滤波器去除图像中的随机噪声。高斯滤波是通过将像素点与其周围像素的加权平均来平滑图像,有效去除高斯噪声;中值滤波则是将像素点的值替换为其周围像素值的中位数,适合去除椒盐噪声。边缘增强:采用Canny边缘检测算法或Sobel算子来增强图像的边缘信息。边缘增强有助于突出图像中的结构特征,为后续的特征提取和识别提供更清晰的基础。对比度增强:通过直方图均衡化技术增强图像的对比度。直方图均衡化通过调整图像的强度分布来改善整体对比度,使图像的高亮和暗部细节更加明显。尺寸标准化:将所有图像调整到统一的分辨率和尺寸。这一步骤确保输入数据的一致性,便于后续的网络模型处理。
零售商店监控:在零售商店的客户行为分析***中,预处理步骤确保从监控视频中提取的图像数据质量高、一致,为识别客户行为提供准确的输入。公共安全监控:在公共场所的安全监控***中,通过预处理改善图像质量,提高异常行为检测的准确性和响应速度。
S3:采用第一卷积神经网络模型对预处理后的视频图像数据进行特征提取,提取的特征集为:/>,其中,n是特征总数,/>分别表示特征集中第1、第2、第n个特征;第一卷积神经网络模型采用的激活函数/>为:
;
其中,为第一卷积神经网络模型输入信号,/>为视频帧变化率,/>为动态系数,/>,/>为设置的视频变化率敏感度系数,/>为自定义常数;
在一些实施例中,***核心是通过第一卷积神经网络模型(CNN1)对预处理后的视频图像数据进行高效的特征提取。CNN1模型采用了一个动态调节的激活函数,该激活函数能够根据实时视频内容的变化动态调整,以提高特征提取的准确性和适应性。第一卷积神经网络模型设计,网络架构:CNN1模型设计为包含多个卷积层、池化层和全连接层的标准卷积神经网络架构。网络的输入是经过预处理的视频图像帧,输出是一组高级特征,用于后续的行为识别和分析。特征提取流程:CNN1模型首先通过卷积层提取视频图像的基础特征,然后通过动态激活函数进行非线性变换,最后通过池化层降维,输出一组高级特征。计算视频帧变化率:***通过比较连续视频帧的差异来计算变化率V。这可以通过评估帧与帧之间的像素差异或其他图像相似度度量来实现。调整激活函数参数:根据计算得到的变化率V,***动态调整激活函数中的系数γ(V),以适应视频内容的实时变化。客户行为识别:在零售商店中,该CNN1模型能够有效提取出反映客户行为特征的特征集,如客户在商店内的移动路径、停留时间等。异常行为检测:通过分析特定的行为特征,如在非常规区域的长时间停留,***能够识别潜在的异常行为,并及时警告管理人员。
在一些实施例中,第一卷积神经网络模型(CNN1)旨在从零售商店的监控视频中提取特征,用于进一步的客户行为分析。该模型结构处理高维度的视频数据并有效地提取出有用的视觉特征。以下是CNN1模型的结构详细说明:输入层功能:接收预处理后的视频图像帧作为输入。输入层描述:输入层接受固定尺寸(例如,224x224像素)的灰度图像。预处理步骤包括灰度转换、噪声去除和边缘增强等,旨在改善图像质量并减少后续处理的计算负担。卷积层功能:使用滤波器(或称为卷积核)提取图像的局部特征。卷积层描述:CNN1包含多个卷积层,每个层使用不同大小和形状的滤波器来探测图像中的边缘、纹理等基础特征。随着网络层次的加深,卷积层能够捕获更复杂的视觉模式。激活层功能:引入非线性,增强网络的表达能力。激活层描述:激活层位于卷积层之后,使用动态调节的激活函数处理卷积层的输出。该动态激活函数根据视频内容的变化自适应调整,从而使特征提取过程更加灵活和有效。池化层(下采样层)功能:降低特征维度,减少计算量。池化层(下采样层)描述:池化层通常位于卷积层和激活层之后,用于减少数据的空间大小,同时保留重要的特征信息。这通过对邻近像素进行最大值或平均值运算来实现。全连接层功能:将提取的特征映射到最终的输出。全连接层功能描述:在卷积神经网络的末端,几个全连接层负责将前面层次提取的高级特征整合起来,进行最终的分类或回归分析。在本实例中,全连接层的输出是一组代表不同客户行为特征的向量。输出层功能:输出网络的最终结果。输出层功能描述:输出层根据实际应用需求设计。在客户行为分析的场景中,输出层可能是一个特征向量,详细描述了视频帧中客户的行为特征,供后续的行为识别与异常检测单元使用。
S4:采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合;水波优化(Ripple Optimization, RO)算法对第一卷积神经网络模型(CNN1)提取的特征进行筛选。
在一些实施例中,水波优化算法目标是从大量特征中选出最能代表视频内容的特征子集,以提高后续行为识别的准确性和效率。水波优化算法灵感来源于自然界中水波的传播和干涉现象。在这个算法中,每个特征子集被视为一个“水波”,其适应度函数值类似于水波的能量。算法通过模拟水波的传播、反射和干涉过程来探索特征空间,寻找最优的特征子集。实施步骤初始化:根据CNN1模型提取的特征集,生成初始的特征子集,每个子集代表一个“水波”。初始子集可以通过随机选择特征或使用启发式方法生成。传播:模拟每个水波在特征空间中的传播。传播过程中,根据特征子集的适应度函数值调整其传播速度和范围,适应度较高的水波传播得更远。适应度评估:为每个水波(特征子集)计算适应度函数值。适应度函数可以基于特征子集对行为识别任务的贡献度来定义,例如使用交叉验证在行为识别模型上的准确率作为适应度评分。干涉与选择:当两个或多个水波在特征空间中相遇时,它们会发生干涉。通过比较干涉后的适应度函数值,选择适应度最高的特征子集。干涉过程可以增强好的特征组合,削弱不佳的组合。更新与迭代:基于干涉结果更新特征子集,然后重复传播和干涉过程,直到满足停止条件,如达到最大迭代次数或适应度改善不再显著。输出最优特征组合:算法结束时,选出具有最高适应度函数值的特征子集作为最优特征组合,供后续的行为识别和异常检测使用。应用场景客户行为分析:在零售商店监控***中,通过水波优化算法筛选出的特征子集能够准确反映顾客的行为模式,如购物路径、停留时间等,为商店提供有价值的客户行为洞察。异常行为检测:筛选出的最优特征组合有助于提高异常行为检测的准确率,如识别商店内的盗窃行为或紧急事件,确保顾客和员工的安全。
S5:将筛选出的最优特征组合输入至训练好的第二卷积神经网络模型,对客户行为进行识别及异常行为检测;第二卷积神经网络模型采用的激活函数为:
;
其中,为第二卷积神经网络模型输入信号,即选择出适应度值最高的特征子集作为最优特征组合;/>为输入特征的方差,反映特征值分布的离散程度;/>为自然对数的底数;
在一些实施例中,***通过第二卷积神经网络模型(CNN2)对筛选出的最优特征组合进行分析,以识别零售商店中的正常客户行为和异常行为。CNN2模型采用了一个根据输入特征方差动态调整的激活函数,增强了模型对不同场景和行为模式的适应性和识别能力。第二卷积神经网络模型网络架构:CNN2模型设计包括多层卷积层、激活层、池化层和至少一个全连接层,最终通过一个分类层输出识别结果。该模型专门针对从视频中提取并通过水波优化算法筛选出的特征进行处理。动态激活函数:为了适应从不同视频场景中提取的特征,CNN2采用了基于输入特征方差动态调整的激活函数。这种激活函数能够根据特征的分布特性调整激活函数的响应;特征方差计算:在特征筛选阶段后,***会计算所选最优特征组合的方差,作为动态调整激活函数参数的依据。行为识别和异常检测流程,输入特征处理:将水波优化算法筛选出的最优特征组合输入到CNN2模型。动态激活调整:根据输入特征的方差动态调整激活层的响应,以适应特征值的分布特性。行为识别:通过CNN2模型的卷积层、激活层和池化层处理输入特征,全连接层整合特征信息,分类层输出客户行为的识别结果。异常行为检测:模型同时被训练以识别正常行为模式和潜在的异常行为,如异常停留、急速移动等,对异常行为进行标记和警报。零售商店监控:***能够实时监控客户在商店内的行为,自动识别购物、浏览等正常行为以及盗窃、紧急事件等异常行为,为店铺管理提供决策支持。安全监控:除了零售环境,该***也适用于公共场所的安全监控,能够及时发现并响应异常事件,保障公众安全。通过采用动态激活函数的第二卷积神经网络模型,本实施例不仅提高了客户行为识别的准确性,还增强了***对不同视频内容和行为模式的适应性。
在一些实施例中,第二卷积神经网络模型(CNN2)通过分析由第一卷积神经网络模型(CNN1)提取并经过水波优化算法筛选的特征集,来识别零售商店中的各种客户行为,以及及时发现潜在的异常行为。输入层:接收来自CNN1的经过筛选的最优特征组合。这些特征已经过预处理和初步的特征提取,因此包含了关于客户行为的关键信息。卷积层:CNN2包含多个卷积层,用于进一步分析和处理输入的特征。这些卷积层通过使用不同大小的滤波器来捕捉特征中的细微模式和复杂的空间关系,以便更好地识别客户的具体行为。激活层:位于卷积层之后,使用特定的激活函数来增加模型的非线性和处理能力。在本实施例中,激活函数被设计为能够根据输入特征的统计属性动态调整,以提高模型对不同特征分布的适应性。池化层:用于降维和特征选择,减少计算量同时保留重要信息。池化操作有助于提取更加抽象的特征表示,同时使模型对小的位置变化保持不变性。全连接层:在经过多层卷积、激活和池化处理后,特征被送入全连接层进行最终的整合。全连接层负责将提取的高级特征映射到行为识别的输出空间,输出层之前可能包含一个或多个全连接层以增强模型的学习能力。输出层:最后的输出层根据应用需求设计,例如,在客户行为识别任务中,输出层可能采用softmax函数来分类不同类型的客户行为;在异常行为检测中,输出层可能设计为二分类输出,区分正常行为和异常行为。在零售商店监控***中部署该CNN2模型,可以实现以下应用:客户行为分析:***能够识别并分类店内客户的常见行为,如浏览、选购、排队等,为商店提供有价值的客户流动和行为模式分析。异常行为及时警报:***能够检测并识别潜在的异常行为,如长时间未动、急速奔跑等,及时向管理人员发出警报,提高安全管理的效率和效果。
S6:将识别结果进行实时反馈和显示。
在一些实施例中,***通过第二卷积神经网络模型(CNN2)识别客户行为,并将识别结果实时反馈给店铺管理人员或安全监控中心。以下是实时反馈和显示识别结果的具体实现方法。图形用户界面(GUI):***配备了一个直观的图形用户界面,用于在监控中心的显示屏幕上实时展示识别结果。GUI显示内容包括客户行为类型(如浏览、选购、排队等)、异常行为警报(如长时间未动、急速奔跑等)以及相关的视频画面。移动端通知:除了GUI外,***还能通过移动应用向管理人员发送即时通知,确保即使不在监控中心也能及时了解店内情况。通知内容包括简要的行为描述和发生时间,必要时附带关键帧图像。电子邮件报告:***定期生成客户行为分析报告,以电子邮件形式发送给店铺管理人员。报告提供了详细的客户行为统计、异常事件记录以及建议的操作措施。识别结果处理:CNN2模型识别出客户行为后,***立即对识别结果进行处理,包括行为类别、发生时间和地点等信息。结果展示:处理后的识别结果实时显示在监控中心的GUI上,异常行为同时触发声音警报,以引起操作人员的注意。即时通知发送:对于检测到的异常行为,***通过移动应用向指定的管理人员发送即时通知,确保快速响应。报告生成与发送:***根据收集到的行为数据定期生成分析报告,总结客户行为模式、异常事件发生情况及建议措施,并通过电子邮件发送给管理人员。零售商店管理:通过实时反馈和显示识别结果,店铺管理人员可以更好地理解客户行为模式,优化店铺布局和产品放置,提高客户满意度和销售额。安全监控:***能够及时识别和警报潜在的安全问题,如紧急事件或可疑行为,帮助管理人员快速采取应对措施,保障店铺和客户的安全。
在一些实施例中,所述S4:采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合,包括:
S41:计算特征子集为水波的适应度函数值/>为:
;
;
;
其中,为特征子集内聚度权重系数,/>为分离度权重系数,/>为皮尔逊相关系数,/>、/>分别为特征集中第m、第n个特征;
S42:水波的传播表示如下:
;
其中,分别表示在时间t+1和t时的水波也即特征子集,/>表示基于水波适应度函数值调整的变化量,用于特征子集的更新;
S43:水波干涉,若两个水波和/>相遇,则更新后的适应度函数值为/>:
;
其中,为调节参数,/>为特征集中的第/>个特征子集的适应度函数值;
S44:根据干涉后的适应度函数值更新特征子集;
S45:迭代水波的传播和干涉当达到设定迭代次数时,选择出适应度值最高的特征子集作为最优特征组合。
在一个实施例中,实时图像识别***特别是针对客户行为分析任务,使用水波优化(Ripple Optimization, RO)算法对从视频图像中提取的特征进行筛选,以选出最能代表目标行为的特征子集。此过程仿照自然界中水波的传播和干涉现象,通过计算特征子集(水波)的适应度函数值,进行特征子集的更新和选择。S41:计算特征子集的适应度函数值,在这一步骤中,***对每个初始特征子集(被视为一个水波)进行评估,计算其适应度函数值。适应度函数考虑了特征子集内的特征间相关性和特征子集间的独立性,通过权衡内聚度和分离度来评估特征子集的质量。适应度函数的计算涉及评估特征子集中各特征的相关性,使用皮尔逊相关系数作为度量。S42:水波的传播,模拟每个水波(特征子集)在特征空间中的传播。传播过程模拟了特征子集在寻找最优组合过程中的探索行为,其中适应度函数值高的水波具有更广的传播范围,反映了更优质特征组合的扩散。S43:水波干涉,当两个水波在特征空间中相遇时,它们会发生干涉,干涉结果导致适应度函数值的更新。干涉过程旨在模拟自然界中波的叠加原理,通过结合两个特征子集的信息,生成可能的更优特征组合。S44:更新特征子集,基于干涉后的适应度函数值,***更新特征子集。这一步骤是选择过程的关键,只有适应度函数值提升的特征子集才会被保留和进一步扩散。S45:迭代过程;重复执行水波的传播和干涉过程,直到达到预定的迭代次数。最终,选出适应度函数值最高的特征子集作为最优特征组合,用于后续的客户行为识别和异常行为检测。在一个零售商店的监控***中应用上述过程,目的是通过监控视频来分析客户行为,识别如长时间停留、急速移动等异常行为。初始化:从监控视频的初步处理中提取一组特征,如人物移动速度、停留时间等,形成初始特征子集。特征子集评估与更新:通过模拟水波传播和干涉,评估和更新特征子集,以找到最具代表性的特征组合。客户行为识别:使用筛选出的最优特征组合,通过第二卷积神经网络模型准确识别出客户的常规行为和异常行为。实时反馈:将识别结果实时显示在监控中心,并通过移动应用或电子邮件通知店铺管理人员。通过本实施例,水波优化算法成功地为实时图像识别***提供了一种有效的特征筛选方法,增强了客户行为分析的准确性和效率。这一方法的应用不仅限于零售商店监控,还可扩展至其他需要实时视频分析的领域,如公共安全监控、交通流量分析等。
在一些实施例中,所述表示基于水波适应度函数值调整的变化量,用于特征子集的更新;
;
其中,表示与水波适应度值相关的基础扩散速度,/>为衰减系数,/>表示/>与当前最佳水波之间的适应度函数值差异。
在一些实施例中,所述为皮尔逊相关系数:
;
其中,、/>分别表示特征/>和特征/>在第i个样本点的值;K为样本点总数,/>和/>分别表示特征/>和特征/>对应特征子集中所有样本点的平均值。皮尔逊相关系数的值范围从-1到1,接近1或-1表示强相关,接近0表示无相关。
在一些实施例中,基础扩散速度:每个水波(特征子集)具有一个基础扩散速度,这是与水波适应度值相关的固有属性,代表了水波在特征空间中的基本扩散能力。扩散速度的大小反映了特征子集初始的优质程度。衰减系数:衰减系数用于调整水波扩散速度随时间的衰减速率。衰减系数使得水波随着时间推进而逐渐减弱,模拟了自然界中波动传播的能量损耗。适应度差异表示与当前最佳水波(即当前找到的具有最高适应度函数值的特征子集)之间的适应度函数值差异。这个差异用于指导水波的更新方向,以便特征子集向更优的状态演化。
在一些实施例中,所述S44:根据干涉后的适应度函数值更新特征子集,包括:如果特征子集和/>的干涉导致/>的适应度函数值提高:则将属于/>且不属于特征子集/>的每个特征逐一加入到特征子集/>中,并逐一计算加入后特征子集/>的适应度函数值,若适应度函数值提高则确定添加特征,否则不添加;对于属于特征子集/>的每个特征逐一移除后,逐一计算特征子集/>的适应度函数值,若适应度函数值提高则确定移除,否则不移除。/>
在一些实施例中,监控一个零售商店以识别和分析客户行为。目标是从监控视频中提取特征,并使用RO算法选择最能代表客户行为的特征子集。特征子集更新过程干涉结果分析:在水波优化算法的上下文中,当两个特征子集(水波)发生干涉时,比较干涉前后的适应度函数值。如果干涉导致适应度函数值提高,认为这两个特征子集的结合可能揭示了更有效的特征组合。特征添加:检查属于干涉水波之一但不属于当前特征子集的每个特征。逐一尝试将这些特征添加到当前特征子集中,并计算添加后的特征子集的适应度函数值。如果添加某个特征后适应度函数值提高,则将该特征永久加入到特征子集中;如果适应度函数值没有提高,将不会添加该特征。特征移除:接下来,考察当前特征子集中的每个特征。逐一尝试从特征子集中移除这些特征,并计算移除后的特征子集的适应度函数值。如果移除某个特征后适应度函数值提高,则确定移除该特征;如果适应度函数值没有提高或降低,将保留该特征。通过这种方法,能够动态调整特征子集,使其更加精炼和有效。这个过程有助于去除冗余或不相关的特征,同时增强特征子集对客户行为识别任务的贡献。在零售商店的客户行为分析中,通过精炼的特征子集,可以更准确地识别客户的购物习惯、偏好及潜在的异常行为,如长时间停留或急速移动等。更新后的特征子集可以直接应用于后续的行为识别模型中,如第二卷积神经网络模型,以实现更高的识别准确率和实时性。
在一些实施例中,所述S2:对采集的视频图像数据进行预处理,包括采用直方图均衡化对采集的视频图像数据进行对比度增强处理,采用高斯滤波进行去噪处理。在一个实施例中***部署在一个零售商店,旨在通过监控视频实时分析客户行为,视频监控***不断地收集商店内部的图像数据,这些数据在不同的光照条件下可能会有不同的质量问题,如对比度不足或图像噪声。对比度增强处理:直方图均衡化:对每帧视频图像应用直方图均衡化技术来增强图像的对比度。直方图均衡化通过改变图像的直方图分布,使整个直方图范围更广,从而增强图像的整体对比度。这一步骤尤其对于在低光照条件下捕获的图像非常有用,可以显著提高图像的可视性。去噪处理:高斯滤波:使用高斯滤波器对图像进行平滑处理,以去除图像中的随机噪声。高斯滤波通过给图像中每个像素周围的像素分配权重(这些权重形成一个高斯函数),然后用加权平均值替换每个像素的值。这种方法可以有效地减少图像噪声,同时保持图像边缘的完整性。经过直方图均衡化处理的视频图像,其对比度得到显著提升,图像中的细节更加清晰可见,有助于后续的特征提取和行为识别算法更准确地识别客户行为。应用高斯滤波去噪后的图像,噪声水平降低,图像质量得到改善,减少了后续图像处理算法的误判概率。在零售商店的客户行为分析中,预处理后的高质量图像数据可以帮助识别客户的购物路径、停留区域、选购行为等。例如,对比度增强后的图像可以帮助识别在货架前停留的客户,而去噪处理后的图像可以在人群密集的环境中更准确地跟踪客户的移动。
在一些实施例中,所述S6:将识别结果进行实时反馈和显示,包括将识别结果通过图形用户界面(GUI)在监控中心的显示屏上实时展示,其中识别结果包括客户的行为类别和行为的概率评分。在零售商店的监控***中,通过图形用户界面(GUI)实时展示客户行为的识别结果,包括行为类别和行为的概率评分。这一功能使得店铺管理人员能够即时了解店内客户的行为动态,对特定行为作出快速响应。
在一些实施例中,零售商店配备了高质量的监控摄像头和先进的图像识别***,目的是实时监控并分析客户的购物行为,如浏览、选购、排队支付等,以及可能的异常行为,如急速奔跑(可能指示紧急情况)或长时间徘徊(可能是盗窃行为的迹象)。实时反馈和显示过程行为识别:***通过第二卷积神经网络模型(CNN2)分析监控视频流,实时识别出客户的行为类别,并计算每种行为的概率评分。结果展示:GUI设计:监控中心的显示屏配备了一个直观的图形用户界面,用于展示识别结果。GUI以清晰的布局展示各个监控画面,每个画面旁边实时显示当前识别出的行为类别和相应的概率评分。行为类别展示:例如,如果***识别出某位客户正在“选购”商品,GUI会在该客户的视频画面旁显示“选购”标签,以及模型对这一行为判断的概率评分,如“选购 - 95%”。异常行为警告:对于检测到的异常行为,GUI会以更醒目的颜色或标记(如红色闪烁框)突出显示,同时展示行为类别和高概率评分,如“急速奔跑 - 90%”,并可选配声音警报,以便管理人员迅速采取行动。交互功能:GUI还提供交互功能,允许管理人员点击某个监控画面,放大查看详细情况,或快速回放最近的行为片段,以便进一步分析。优化店铺运营:通过实时监控客户行为,管理人员可以根据客户的行为模式调整店铺布局,优化商品摆放,提高客户满意度和销售额。提高安全性:实时识别并展示异常行为,如急速奔跑可能指示的紧急情况,使得店铺管理人员能够快速响应,及时处理可能的安全问题。
在一些实施例中,所述识别结果包括客户的行为类别和行为的概率评分,行为类别包括:浏览商品、手触选购商品、排队结账、非正常停留和紧急事件;非正常停留包括异常行为每天出现的频次,紧急事件包括顾客突然倒地、出现明火、打斗、地震、盗窃行为。浏览商品:***通过分析客户在货架前的停留时间和移动模式,识别出客户正在浏览商品。例如,如果一个客户在一排货架前缓慢移动,***可能会显示“浏览商品 - 90%”的标签和评分。手触选购商品:当客户伸手取货或在货架间选择商品时,***通过识别手部动作和商品互动,判断为“手触选购商品”。例如,一个客户停留并伸手取下一个商品,***可能标记为“手触选购商品 - 95%”。排队结账:通过监控收银区的客户队列和行为,***识别出正在排队结账的客户。如果一个客户加入收银队列,***显示“排队结账 - 98%”。异常行为与紧急事件检测非正常停留:***通过分析客户在特定区域内的停留时间,识别出非正常停留行为。例如,如果一个客户在非商品区域停留超过设定的时间阈值,***可能警告“非正常停留 - 85%”。此外,***还统计这种行为每天出现的频次,帮助管理人员识别潜在的安全或盗窃问题。紧急事件:顾客突然倒地:通过分析客户的姿态变化,***能够识别出倒地事件,并立即发出警报,如“紧急事件:顾客突然倒地 - 99%”。出现明火:***通过图像分析识别出火焰和烟雾特征,发出“紧急事件:明火 - 97%”的警报。打斗:通过监测客户之间的快速运动和互动模式,***识别打斗行为,并显示“紧急事件:打斗 - 90%”。地震:虽然地震不易直接通过行为识别来检测,但***可以通过监控摄像头震动和商品掉落等间接标志来识别潜在的地震事件,并发出警报。盗窃行为:***通过分析客户的行为模式、停留时间和手部动作,识别潜在的盗窃行为,并标记为“紧急事件:盗窃行为 - 92%”。
实施例2:
本申请还提供一种实时图像识别客户行为分析***,包括:
数据采集单元:采用CCD相机实时收集监控区域的视频图像数据;
在一些实施例中,***硬件组成数据采集单元硬件:如图2所示,包括高分辨率CCD相机,这些相机安装在零售商店内的关键位置,如入口、收银台、主要通道和货架区域。相机应支持高清视频捕获和夜视功能,以适应不同的光照条件。网络连接:以太网或Wi-Fi模块,用于将视频数据实时传输到处理中心。数据预处理单元硬件:高性能服务器或专用图像处理硬件,如GPU加速器。服务器配置高速CPU、大容量内存和高速SSD存储,以支持大规模视频数据的快速预处理操作。特征提取单元硬件:同数据预处理单元,通常部署在具有强大计算能力的服务器上,配备专业的GPU加速器,用于执行深度学***板电脑,用于向管理人员发送即时通知和警报。***操作流程CCD相机实时捕获零售商店内的视频图像数据,并通过网络实时传输到处理中心。视频数据首先在数据预处理单元进行处理,包括对比度增强和去噪。预处理后的数据送往特征提取单元,通过第一卷积神经网络模型提取关键特征。提取的特征通过特征筛选单元,使用水波优化算法筛选出最优特征组合。最优特征组合输入到行为识别单元,第二卷积神经网络模型分析这些特征,识别客户行为和异常事件。识别结果通过结果反馈单元实时展示在监控中心的显示屏上,并通过移动设备向管理人员发送通知和警报。
数据预处理单元:对采集的视频图像数据进行预处理;
特征提取单元:采用第一卷积神经网络模型对预处理后的视频图像数据进行特征提取,提取的特征集为:/>,其中,n是特征总数,/>分别表示特征集中第1、第2、第n个特征;第一卷积神经网络模型采用的激活函数/>为:
;
其中,为第一卷积神经网络模型输入信号,/>为视频帧变化率,/>为动态系数,/>,/>为设置的视频变化率敏感度系数,/>为自定义常数;
特征筛选单元:采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合;
行为识别单元:将筛选出的最优特征组合输入至训练好的第二卷积神经网络模型,对客户行为进行识别及异常行为检测;第二卷积神经网络模型采用的激活函数为:
;
其中,为第二卷积神经网络模型输入信号,即选择出适应度值最高的特征子集作为最优特征组合;/>为输入特征的方差,反映特征值分布的离散程度;/>为自然对数的底数;
结果反馈单元:将识别结果进行实时反馈和显示。
在一些实施例中,所述结果反馈单元:将识别结果进行实时反馈和显示,包括将识别结果通过图形用户界面(GUI)在监控中心的显示屏上实时展示,其中识别结果包括客户的行为类别和行为的概率评分;行为类别包括:浏览商品、手触选购商品、排队结账、非正常停留和紧急事件;非正常停留包括异常行为每天出现的频次,紧急事件包括顾客突然倒地、出现明火、打斗、地震、盗窃行为。
本发明提供了一种实时图像识别方法及客户行为分析***,所能实现的有益技术效果如下:
1、本发明该***采用两阶段的卷积神经网络模型,第一阶段专注于高效的特征提取,而第二阶段则负责行为的精确识别和异常检测,不同于传统CNN模型,本***在两个阶段的网络中分别采用了动态调节的激活函数,根据视频内容的动态变化自适应调整激活函数的参数,从而提高模型对不同视频场景的适应性和识别性能。此外,本***还引入了水波优化算法来优化特征选择过程,大大提升了识别的准确性和效率,极大增加用户体验。
2、本发明第一卷积神经网络模型采用的激活函数为:
;
其中,为第一卷积神经网络模型输入信号,/>为视频帧变化率,/>为动态系数,/>,/>为设置的视频变化率敏感度系数,/>为自定义常数;通过引入视频帧变化率,第一卷积神经网络模型能够有效地理解和利用时间序列数据的顺序信息,增强视频图像特征提取的准确性。
3、本发明第二卷积神经网络模型采用的激活函数为:
;
其中,为第二卷积神经网络模型输入信号,即选择出适应度值最高的特征子集作为最优特征组合;/>为输入特征的方差,反映特征值分布的离散程度;/>为自然对数的底数;通过将/>为输入特征的方差引入到识别过程中,大大提高了行为识别的准确性,提升了实时视频数据处理效率和准确率,能够更准确地预测客户的行为类别和行为的概率评分。
4、本发明采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合。通过水波的传播、水波的干涉,选择出最优特征集;特征集更新过程中根据干涉后的适应度函数值更新特征子集,包括:如果特征子集/>和/>的干涉导致/>的适应度函数值提高:则将属于/>且不属于特征子集/>的每个特征逐一加入到特征子集/>中,并逐一计算加入后特征子集/>的适应度函数值,若适应度函数值提高则确定添加特征,否则不添加;对于属于特征子集/>的每个特征逐一移除后,逐一计算特征子集/>的适应度函数值,若适应度函数值提高则确定移除,否则不移除。通过选择合适的特征集,大大降低了数据冗余度,提高了视频图像处理效率以及预测准确度。
以上对一种实时图像识别方法及客户行为分析***进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想;同时,对于本领域的一般技术人员,依据本发明的思想和方法,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种实时图像识别方法,其特征在于,包括步骤:
S1:采用CCD相机实时收集监控区域的视频图像数据;
S2:对采集的视频图像数据进行预处理;
S3:采用第一卷积神经网络模型对预处理后的视频图像数据进行特征提取,提取的特征集为:/>,其中,n是特征总数,/>分别表示特征集中第1、第2、第n个特征;第一卷积神经网络模型采用的激活函数/>为:
;
其中,为第一卷积神经网络模型输入信号,/>为视频帧变化率,/>为动态系数,,/>为设置的视频变化率敏感度系数,/>为自定义常数;
S4:采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合;
S5:将筛选出的最优特征组合输入至训练好的第二卷积神经网络模型,对客户行为进行识别及异常行为检测;第二卷积神经网络模型采用的激活函数为:
;
其中,为第二卷积神经网络模型输入信号,即选择出适应度函数值最高的特征子集作为最优特征组合;/>为输入特征的方差,反映特征值分布的离散程度;/>为自然对数的底数;
S6:将识别结果进行实时反馈和显示;
所述S4:采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合,包括:
S41:计算第i个特征子集的适应度函数值/>为:
;
;
;
其中,为特征子集内聚度权重系数,/>为分离度权重系数,/>为皮尔逊相关系数,/>、/>分别为特征集中第m、第n个特征;
S42:水波的传播表示如下:
;
其中,分别表示在时间t+1和t时的水波也即特征子集,/>表示基于水波适应度函数值调整的变化量,用于特征子集的更新;
S43:水波干涉,若两个水波和/>相遇,则更新后的适应度函数值为/>:
;
其中,为调节参数,/>为特征集中的第/>个特征子集/>的适应度函数值;
S44:根据干涉后的适应度函数值更新特征子集,包括:如果特征子集和/>的干涉导致/>的适应度函数值提高:则将属于/>且不属于特征子集/>的每个特征逐一加入到特征子集/>中,并逐一计算加入后特征子集/>的适应度函数值,若适应度函数值提高则确定添加特征,否则不添加;对于属于特征子集/>的每个特征逐一移除后,逐一计算特征子集/>的适应度函数值,若适应度函数值提高则确定移除,否则不移除;
S45:迭代水波的传播和干涉,当达到设定迭代次数时,选择出适应度函数值最高的特征子集作为最优特征组合。
2.如权利要求1所述的一种实时图像识别方法,其特征在于,所述表示基于水波适应度函数值调整的变化量,用于特征子集的更新,包括:
;
其中,表示与水波适应度函数值相关的基础扩散速度,/>为衰减系数,/>表示/>与当前最佳水波之间的适应度函数值差异。
3.如权利要求1所述的一种实时图像识别方法,其特征在于,所述为皮尔逊相关系数:
;
其中,、/>分别表示特征/>和特征/>在第i个样本点的值;K为样本点总数,/>和/>分别表示特征/>和特征/>对应特征子集中所有样本点的平均值。
4.如权利要求1所述的一种实时图像识别方法,其特征在于,所述S2:对采集的视频图像数据进行预处理,包括:采用直方图均衡化对采集的视频图像数据进行对比度增强处理,采用高斯滤波进行去噪处理。
5.如权利要求1所述的一种实时图像识别方法,其特征在于,所述S6:将识别结果进行实时反馈和显示,包括:将识别结果通过图形用户界面在监控中心的显示屏上实时展示,其中识别结果包括顾客的行为类别。
6.如权利要求5所述的一种实时图像识别方法,其特征在于,所述行为类别包括:浏览商品、手触选购商品、排队结账、非正常停留和紧急事件;非正常停留包括异常行为每天出现的频次,紧急事件包括顾客突然倒地、出现明火、出现打斗、出现地震和出现盗窃。
7.一种实时图像识别客户行为分析***,用于实现如权利要求1所述的实时图像识别方法,其特征在于,包括:
数据采集单元:采用CCD相机实时收集监控区域的视频图像数据;
数据预处理单元:对采集的视频图像数据进行预处理;
特征提取单元:采用第一卷积神经网络模型对预处理后的视频图像数据进行特征提取,提取的特征集为:/>,其中,n是特征总数,/>分别表示特征集中第1、第2、第n个特征;第一卷积神经网络模型采用的激活函数/>为:
;
其中,为第一卷积神经网络模型输入信号,/>为视频帧变化率,/>为动态系数,,/>为设置的视频变化率敏感度系数,/>为自定义常数;
特征筛选单元:采用水波优化算法对提取的特征进行筛选,特征集中的第/>个特征子集为/>表示一个水波,其中/>,计算水波的适应度函数值,选择出适应度函数值最高的特征子集作为最优特征组合;
行为识别单元:将筛选出的最优特征组合输入至训练好的第二卷积神经网络模型,对客户行为进行识别及异常行为检测;第二卷积神经网络模型采用的激活函数为:
;
其中,为第二卷积神经网络模型输入信号,即选择出适应度函数值最高的特征子集作为最优特征组合;/>为输入特征的方差,反映特征值分布的离散程度;/>为自然对数的底数;
结果反馈单元:将识别结果进行实时反馈和显示。
8.如权利要求7所述的一种实时图像识别客户行为分析***,其特征在于,结果反馈单元:将识别结果进行实时反馈和显示,包括:将识别结果通过图形用户界面在监控中心的显示屏上实时展示,其中识别结果包括顾客的行为类别;所述行为类别包括:浏览商品、手触选购商品、排队结账、非正常停留和紧急事件;非正常停留包括异常行为每天出现的频次,紧急事件包括顾客突然倒地、出现明火、出现打斗、出现地震和出现盗窃。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410231380.3A CN117809262B (zh) | 2024-03-01 | 2024-03-01 | 一种实时图像识别方法及客户行为分析*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410231380.3A CN117809262B (zh) | 2024-03-01 | 2024-03-01 | 一种实时图像识别方法及客户行为分析*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117809262A CN117809262A (zh) | 2024-04-02 |
CN117809262B true CN117809262B (zh) | 2024-05-28 |
Family
ID=90430605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410231380.3A Active CN117809262B (zh) | 2024-03-01 | 2024-03-01 | 一种实时图像识别方法及客户行为分析*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117809262B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709511A (zh) * | 2016-12-08 | 2017-05-24 | 华中师范大学 | 基于深度学习的城市轨道交通全景监控视频故障检测方法 |
CN107480724A (zh) * | 2017-08-23 | 2017-12-15 | 湖北工业大学 | 一种聚类中心的确定方法、确定***及一种聚类方法 |
CN107958313A (zh) * | 2017-12-19 | 2018-04-24 | 兰州理工大学 | 一种离散的水波优化算法 |
CN108288093A (zh) * | 2018-01-31 | 2018-07-17 | 湖北工业大学 | Bp神经网络权值确定方法、***以及预测方法、*** |
CN115471856A (zh) * | 2022-08-23 | 2022-12-13 | 国网山东省电力公司济南供电公司 | 一种***图像信息识别方法、装置及存储介质 |
CN116667438A (zh) * | 2023-05-30 | 2023-08-29 | 杭州电子科技大学 | 基于水波优化算法的pv并网逆变器控制方法 |
CN117010971A (zh) * | 2023-09-28 | 2023-11-07 | 国任财产保险股份有限公司 | 一种基于人像识别的智能健康险提供方法及*** |
CN117093894A (zh) * | 2023-07-19 | 2023-11-21 | 中用科技有限公司 | 一种基于神经网络的局部放电建模分析方法、***和装置 |
CN117406713A (zh) * | 2023-09-25 | 2024-01-16 | 三峡大学 | 基于改进水波优化算法的多目标点路径规划方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11003994B2 (en) * | 2017-12-13 | 2021-05-11 | Cognizant Technology Solutions U.S. Corporation | Evolutionary architectures for evolution of deep neural networks |
-
2024
- 2024-03-01 CN CN202410231380.3A patent/CN117809262B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709511A (zh) * | 2016-12-08 | 2017-05-24 | 华中师范大学 | 基于深度学习的城市轨道交通全景监控视频故障检测方法 |
CN107480724A (zh) * | 2017-08-23 | 2017-12-15 | 湖北工业大学 | 一种聚类中心的确定方法、确定***及一种聚类方法 |
CN107958313A (zh) * | 2017-12-19 | 2018-04-24 | 兰州理工大学 | 一种离散的水波优化算法 |
CN108288093A (zh) * | 2018-01-31 | 2018-07-17 | 湖北工业大学 | Bp神经网络权值确定方法、***以及预测方法、*** |
CN115471856A (zh) * | 2022-08-23 | 2022-12-13 | 国网山东省电力公司济南供电公司 | 一种***图像信息识别方法、装置及存储介质 |
CN116667438A (zh) * | 2023-05-30 | 2023-08-29 | 杭州电子科技大学 | 基于水波优化算法的pv并网逆变器控制方法 |
CN117093894A (zh) * | 2023-07-19 | 2023-11-21 | 中用科技有限公司 | 一种基于神经网络的局部放电建模分析方法、***和装置 |
CN117406713A (zh) * | 2023-09-25 | 2024-01-16 | 三峡大学 | 基于改进水波优化算法的多目标点路径规划方法 |
CN117010971A (zh) * | 2023-09-28 | 2023-11-07 | 国任财产保险股份有限公司 | 一种基于人像识别的智能健康险提供方法及*** |
Non-Patent Citations (5)
Title |
---|
Fraud detection in bank transaction with wrapper model and Harris water optimization-based deep recurrent neural network;Chandra Sekhar Kolli et al.;《Kybernetes》;20210706;第50卷(第06期);全文 * |
Optimized Deep Learning Model for Colorectal Cancer Detection and Classification Model;Mahmoud Ragab et al.;《Materials & Continua》;20220114;第71卷(第03期);全文 * |
Rider Water Wave-enabled deep learning for disease detection in rice plant;T.Daniya et al.;《Advances in Engineering Software》;20230831;第182卷;全文 * |
基于水波优化算法的多阈值图像分割方法;金旭旸 等;《科技创新与生产力》;20190430(第04期);全文 * |
基于自适应参数调节和动态分组学习的水波优化算法;林伟豪 等;《广东石油化工学院学报》;20200630;第30卷(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117809262A (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110428522B (zh) | 一种智慧新城的智能安防*** | |
Franklin et al. | Anomaly detection in videos for video surveillance applications using neural networks | |
TWI759286B (zh) | 用於藉由機器學習訓練物件分類器之系統及方法 | |
JP6867153B2 (ja) | 異常監視システム | |
CN101795395B (zh) | 一种人群态势监控***及方法 | |
US20060170769A1 (en) | Human and object recognition in digital video | |
US10956753B2 (en) | Image processing system and image processing method | |
US20090160657A1 (en) | Monitoring system | |
CN110032977A (zh) | 一种基于深度学习图像火灾识别的安全预警管理*** | |
CN107911653A (zh) | 驻所智能视频监控模组、***、方法以及存储介质 | |
CN105426820B (zh) | 基于安防监控视频数据的多人异常行为检测方法 | |
CN109377713B (zh) | 一种火灾预警方法及*** | |
CN110852382A (zh) | 一种基于时空多特征提取的行为识别***及其工作方法 | |
KR102149832B1 (ko) | 딥러닝 기반의 자동 폭력 감지 시스템 | |
CN108898104A (zh) | 一种物品识别方法、装置、***及计算机存储介质 | |
Zin et al. | Unattended object intelligent analyzer for consumer video surveillance | |
GB2410391A (en) | Capturing an exemplar image of detected activity due to introduction of a foreground object into a monitored scene | |
CN108009479A (zh) | 分布式机器学习***及其方法 | |
CN107122743A (zh) | 安防监控方法、装置和电子设备 | |
Kim et al. | Identifying shoplifting behaviors and inferring behavior intention based on human action detection and sequence analysis | |
CN116419059A (zh) | 基于行为标签的自动监控方法、装置、设备及介质 | |
CN116416281A (zh) | 一种粮库ai视频监管分析方法及*** | |
CN112232107A (zh) | 一种图像式烟雾探测***及方法 | |
US8229879B2 (en) | System and method for auto-adaptive network | |
CN117809262B (zh) | 一种实时图像识别方法及客户行为分析*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |