CN114783000B - 一种明厨亮灶场景下工作人员着装规范检测方法及装置 - Google Patents

一种明厨亮灶场景下工作人员着装规范检测方法及装置 Download PDF

Info

Publication number
CN114783000B
CN114783000B CN202210673405.6A CN202210673405A CN114783000B CN 114783000 B CN114783000 B CN 114783000B CN 202210673405 A CN202210673405 A CN 202210673405A CN 114783000 B CN114783000 B CN 114783000B
Authority
CN
China
Prior art keywords
pedestrian
information
posture
data
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210673405.6A
Other languages
English (en)
Other versions
CN114783000A (zh
Inventor
闫超
罗钦瀚
孙亚楠
黄小冬
杨凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Dongfang Tiancheng Intelligent Technology Co ltd
Original Assignee
Chengdu Dongfang Tiancheng Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Dongfang Tiancheng Intelligent Technology Co ltd filed Critical Chengdu Dongfang Tiancheng Intelligent Technology Co ltd
Priority to CN202210673405.6A priority Critical patent/CN114783000B/zh
Publication of CN114783000A publication Critical patent/CN114783000A/zh
Application granted granted Critical
Publication of CN114783000B publication Critical patent/CN114783000B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像识别技术领域,提供了一种明厨亮灶场景下工作人员着装规范检测方法及装置,该方法包括训练阶段,训练阶段包括以下步骤:通过摄像头获取输入图像;对输入图像中的目标行人框进行识别,获取目标行人框的行人位置信息、行人姿态信息和行人服饰信息,行人服饰信息包括帽子穿戴情况和围裙穿戴情况;对获取到的目标行人框的行人位置信息、行人姿态信息和行人服饰信息进行标注,形成数据集,该装置包括标注模块,标注模块包括第一单元和第二单元;存储模块,存储模块用于存储已标注的数据样本,并将数据样本划分为训练数据和测试数据;获取模块,获取模块用于利用上述方法对输入图像进行编码。

Description

一种明厨亮灶场景下工作人员着装规范检测方法及装置
技术领域
本发明涉及图像识别技术领域,具体涉及一种明厨亮灶场景下工作人员着装规范检测方法及装置。
背景技术
明厨亮灶,是指餐饮服务提供者采用透明玻璃、视频等方式,向社会公众展示餐饮服务相关过程的一种形式,通过摄像头、电子显示屏等设备,将餐饮服务的关键部位与环节置于社会监督之下。
在厨房里,工作人员的着装规范程度会直接影响到食品安全。然而,面对数量庞大的餐饮点,24小时人工监督显得难以为继。因此,需要一种智能检测方法,在无人情况下对不达标行为进行监督和告警。
目前,已有一些基于机器学习的着装规范检测方法,相比这些案例,本任务由于在明厨亮灶场景中,因此具有其特殊性,主要表现为以下几点因素:
1.边缘端部署,同时处理多路摄像头,对告警鲁棒性和准确性要求较高。
2.摄像头拍摄角度、高度不确定,室内场景差异化大,数据分布复杂。
3.工作人员在图像中的姿态与位置多变、较密集,遮挡较严重,标注较困难。
4.工作服颜色、款式差异较大,纹理、颜色等简单特征无法表征着装是否符合规范。
一般地,基于机器学习的算法能力很大程度上依赖训练数据的质量和数量,考虑到上述因素,大型明厨亮灶场景下的数据集构建具有较大困难,这又进一步限制了一般方法的精确性和鲁棒性。
综上所述,面对明厨亮灶场景,如何提高告警信息的准确性和鲁棒性是亟待解决的技术问题。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种明厨亮灶场景下工作人员着装规范检测方法及装置,以提高在明厨亮灶场景下,告警信息的准确性和鲁棒性。
根据本发明的第一个方面,提供一种明厨亮灶场景下工作人员着装规范检测方法,包括训练阶段,所述训练阶段包括以下步骤:
S1、通过摄像头获取输入图像;
S2、对所述输入图像中的目标行人框进行识别,获取所述目标行人框的行人位置信息、行人姿态信息和行人服饰信息,所述行人位置信息包括位置点数据、遮挡情况和密集情况,所述行人姿态信息包括***情况、头部可见情况和人体与摄像头之间的朝向情况,所述行人服饰信息包括帽子穿戴情况和围裙穿戴情况;
S3、对获取到的所述目标行人框的行人位置信息、行人姿态信息和行人服饰信息进行标注,形成数据集,上述信息全部规范者标定为着装规范,上述信息有任一不规范者标定为着装不规范、并发出警示信息,上述信息有任一不确定者标定为无法判断。
进一步地,所述遮挡情况包括被没有遮挡和遮挡,所述密集情况包括不密集和密集,所述***情况包括坐姿、站立和其他,所述头部可见情况包括可以观察到头部、不可以观察到头部和其他,所述人体与摄像头之间的朝向情况包括正面朝向摄像头、背面朝向摄像头和其他,所述帽子穿戴情况包括戴了帽子、没有戴帽子和其他,所述围裙穿戴情况包括穿戴了围裙、没有穿戴围裙和其他。
进一步地,所述训练阶段还包括以下步骤:
S4、根据S2步骤获取到的数据集以及神经网络训练模型参数训练行人位置模型、行人姿态模型和行人服饰模型,通过上述模型拟合行人,表征出行人的位置特征编码、姿态特征编码和服饰特征编码;
S5、对S4步骤表征出的结果进一步编码,得到特定的特征维度;
S6、将S5步骤得到的特征维度输入分类器,得到预测的最终告警结果。
进一步地,所述训练阶段还包括以下步骤:
S7、将模型参数记录于测试设备上,并设定阈值,通过测试数据验证算法给出的告警效果。
进一步地,还包括测试阶段,所述测试阶段包括以下步骤:
S9、通过摄像头获取场景输入图像;
S10、初始化网络结构,初始化测试程序运行环境,初始化训练存储的权重参数;
S11、将场景输入图像输入行人位置模型、得到行人位置特征编码,将行人位置特征编码和场景输入图像输入行人姿态模型和行人服饰模型,得到行人姿态特征编码和行人服饰特征编码,采用S5步骤进一步编码,得到特定的特征维度;
S12、将S11步骤得到的特征维度输入分类器,获取告警信息。
进一步地,采用目标检测算法网络YOLOX检测行人位置信息,采用分类网络结构SWIN Transformer检测行人姿态信息和行人服饰信息,所述分类器为三分类的SVM分类器。
进一步地,利用爬虫技术抓取所述摄像头的视频流,对视频抽帧,从而获取到输入图像;或直接获取摄像头拍摄的图像,从而获取到输入图像。
根据本发明的第二个方面,提供一种检测装置,包括:
标注模块,所述标注模块包括第一单元和第二单元,所述第一单元用于爬取数据、获取真实场景的图像信息,所述第二单元用于将获取到的图像信息标注为对应的格式数据;
存储模块,所述存储模块用于存储已标注的数据样本,并将所述数据样本划分为训练数据和测试数据;
获取模块,所述获取模块用于利用上述方法对输入图像进行编码,将图像中的行人位置信息、行人姿态信息和行人服饰信息转换为特征向量;以及
确认模块,所述确认模块用于最终判断是否给出告警信息。
进一步地,还包括构建模块,所述构建模块用于基于数据训练的权重构建算法模型网络。
有益效果:本发明提供的一种明厨亮灶场景下工作人员着装规范检测方法,通过将着装规范的复杂问题分解,将行人编码为特定的多维特征,避免了单一模型预测对训练用样本和算法模型复杂度的要求,提高了输出告警的准确性和鲁棒性。
附图说明
图1为SVM分类器工作流程框图;
图2为本发明的方法流程框图;
图3为模型推断流程框图;
图4为本发明的装置结构框图。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
如图1-图4所示,本发明提供一种明厨亮灶场景下工作人员着装规范检测方法,包括训练阶段和测试阶段。
训练阶段的具体步骤如下:
步骤一、利用爬虫技术抓取所述摄像头的视频流,对视频抽帧,从而获取到输入图像;或直接获取摄像头拍摄的图像,从而获取到输入图像。
步骤二、对输入图像中的目标行人框进行识别,获取目标行人框的行人位置信息、行人姿态信息和行人服饰信息,行人位置信息包括坐标数据、宽度数据、高度数据、遮挡情况和密集情况,行人姿态信息包括***情况、头部可见情况和人体与摄像头之间的朝向情况,行人服饰信息包括帽子穿戴情况和围裙穿戴情况。
对获取到的所述目标行人框的行人位置信息、行人姿态信息和行人服饰信息进行标注,形成数据集,上述信息全部规范者标定为着装规范,上述信息有任一不规范者标定为着装不规范、并发出警示信息,上述信息有任一不确定者标定为无法判断。
标注格式大致如下表所示。
Figure 469613DEST_PATH_IMAGE001
其中,每一行对应输入图像中的一个行人标注结果,其标注可以等价为一个向量:
Figure 256303DEST_PATH_IMAGE002
参数说明:
Figure 224128DEST_PATH_IMAGE003
表示行人标注结果,x表示左上角所在列,y表示左上角行,w表 示行人标注的列宽,h表示行人标注的行高,f0表示遮挡情况,f1表示密集情况,f2表示姿体 位情况,f3表示头部可见情况,f4表示朝向情况,f5表示帽子穿戴情况,f6表示围裙穿戴情 况,f7表示着装。
行人位置信息的标注为:
Figure 678243DEST_PATH_IMAGE003
[0]:
Figure 191264DEST_PATH_IMAGE003
[5]。
具体地,遮挡情况(f0):是否有环境遮挡,0(没有遮挡), 1(遮挡)。
具体地,密集情况(f1):是否密集,0(不密集), 1(密集)。
行人姿态信息的标注特征维度为:
Figure 980098DEST_PATH_IMAGE003
[6]:
Figure 502346DEST_PATH_IMAGE003
[8]。
具体地,姿态(f2):行人处于坐或站,0(坐姿), 1(站立),2(其他)。
具体地,头部(f3):是否包含头部信息,0(可以观察到头部),1(不可以观察到头部),2(其他)。
具体地,朝向(f4):人员面对摄像机的正反,0(正面朝向摄像头),1(背面朝向摄像头),2(其他)。
行人服饰信息的标记为:
Figure 545388DEST_PATH_IMAGE003
[9]:
Figure 494890DEST_PATH_IMAGE003
[10]。
具体地,帽子(f5):是否佩戴了帽子,0(戴了帽子), 1(没有),2(其他)。
具体地,围裙(f6):是否穿戴围裙,0(穿戴围裙),1(没有穿戴),2(其他)。
着装规范的标记为
Figure 242790DEST_PATH_IMAGE004
[11]。
具体地,着装(f7):0(着装规范),1(着装不规范),2(无法判断)。
其中,只有标记为1的样本需要给出告警。
步骤三、标注数据,存储标注结果,建立现实场景下的数据集。首先标注工作人员位置的位置信息,对位置信息中处于密集、遮挡的行人,直接标定为无法判断,不进行后续标注。随后标记行人的姿态信息,同理地,对于不可以观察到头部、其他等情况,依然标定为无法判断,不进行后续的标注。最后根据行人的服饰信息,标定符合规范和不符合规范的标记结果。
步骤四、定义算法模型结构,特别的,针对行人位置的检测,采用业界通用的目标检测算法网络YOLOX,针对行人姿态与行人服饰的检测采用业界通用的分类网络结构SwinTransformer,针对着装规范的最终判断,采用支持向量机或随机森林等(SVM),共计4个模型。
步骤五、利用训练集数据以及神经网络训练模型参数,训练以下3个模型:Model_pede(行人位置模型)、Model_pose(行人姿态模型)、Model_dress(行人服饰模型),以一幅输入图像(image)为例,通过模型拟合行人,表征出行人的位置特征编码、姿态特征编码和服饰特征编码。
行人在输入图像中的位置特征编码:
Figure 303150DEST_PATH_IMAGE005
Figure 449967DEST_PATH_IMAGE006
,P_cls, P_c0, P_c1, P_c2];
参数说明:P_cls表示行人概率,P_c0表示正常,P_c1表示遮挡行人,P_c2表示密集行人,[xi,yi,wi,hi]表示行人位置。
然后,同样地,对行人姿态模型和行人服饰模型进行训练,只采用标记为可用的行人进行训练,
行人在输入图像中的姿态特征编码:Score_pose = Model_pose(box,image),
行人在输入图像中的服饰特征编码:Score_dress = Model_dress(box,image),
参数说明;Score_pose,Score_dress是模型输出的向量,分别表征图像中某行人的姿态特征编码和服饰特征编码, 具体地,
Score_pose[0:2] 表示行人***情况;
Score_pose[3:5] 表示头部可见情况;
Score_pose[6:8] 表示人体与摄像头之间的朝向情况;
Score_dress[0:2] 表示行人服饰的帽子佩戴情况;
Score_dress[3:5] 表示行人服饰围裙佩戴情况。
步骤六、对标注结果进行进一步编码,得到特定的特征维度。
其编码规则如下,其中针对行人位置信息的编码特征为:
Figure 570369DEST_PATH_IMAGE007
参数说明:
Figure 553369DEST_PATH_IMAGE008
表示位置信息特征编码,w表示行人标注的列宽;h 表示行人标注的行高。
分别计算行人检测结果区域3通道(B,G,R)上的直方图:
选定为16维的直方图,每一维的灰度级间隔为256/16 = 16,然后统计整个区域的灰度,得到16维的特征;
归一化:将得到的16维特征都除以整个区域的像素点的总数
根据类别概率,采用one-hot编码机制,即只有一个维度为1,其余位置为0,形成3维向量:
feature_loc_bbx[49-51] = [0,1,0]
针对行人姿态信息的特征编码规则采用one-hot编码机制,共计9维,如下
Feature_pose_bbx[52-60] = [0,1,0....]
针对行人服饰信息的特征编码规则,共计6维特征,如下:
feature_property_bbx[61-66] = [0,1,0,...]
因此,编码的特征维度为1+48+3+9+6=67维。
步骤七、利用步骤六提取的特定的特征维度,以及标注的行人姿态特征编码和行人服饰特征编码进行级联,根据标注的标签(0/1/2),训练一个3分类的SVM分类器,采用one-vs-one的方式,针对3类标签,需要训练3*2/2个分类器,分别对应(SVM1/0 vs 1)、(SVM2/0 vs 2)、(SVM3/1 vs 2);
该分类器输入的特征维度是经过编码器处理后之后的特征,共计有67维,输出为预测的最终告警结果。
步骤八、将模型参数记录于测试设备上,并设定和阈值,通过测试数据验证算法给出的告警效果。
测试阶段的具体步骤如下:
步骤一、获取摄像头视频流,对视频抽帧,获取待测的场景输入图像。
步骤二、初始化网络结构,初始化测试程序运行环境,初始化训练存储的权重参数。
步骤三、将图像输入Model_pede,获取行人位置特征编码,将行人位置特征编码和场景输入图像输入Model_Pose以及Model_dress获取行人的姿态特征编码和服饰特征编码,采用训练步骤六中的方式计算编码,采用one-hot编码机制:
Figure 666687DEST_PATH_IMAGE009
Figure 418743DEST_PATH_IMAGE010
Figure 975626DEST_PATH_IMAGE011
参数说明:
Figure 695189DEST_PATH_IMAGE012
表示行人位置模型,
Figure 97352DEST_PATH_IMAGE013
表示行人姿态模型,
Figure 703913DEST_PATH_IMAGE014
表示行人服饰模型。
步骤四、将上述特征级联在一起送入SVM分类器,获取告警信息,最终预测的结果可以如图2。
本发明是一种基于多特征级联的着装规范检测方法。本发明的优点是:通过将着装规范的复杂问题分解,将行人编码为特定多维特征,避免了单一模型预测对训练用样本和算法模型复杂度的要求,提高了输出告警的准确性和鲁棒性。
1.降低了标注样本的困难程度,降低了对于标注数据样本覆盖区域的需求程度,针对工作人员遮挡,不用再标注服装属性,避免对于关键点等的复杂标注。
2.具有一定的可解释性,使得模型输出具备更高的可信度,不再是一个黑盒子,其特征输出维度具有一定的物理意义。
3.模型给出的告警更加准确,在人员密集、环境遮挡的情况下误报警信息较少,给出的告警较为精确。
本发明还提供一种检测装置,包括:
标注模块,标注模块包括第一单元和第二单元,第一单元用于爬取数据、获取真实场景的图像信息,第二单元用于将获取到的图像信息标注为对应的格式数据。
存储模块,存储模块用于存储已标注的数据样本,并将数据样本划分为训练数据和测试数据。
获取模块,获取模块用于利用上述方法对输入图像进行编码,将图像中的行人位置信息、行人姿态信息和行人服饰信息转换为特征向量。
确认模块,确认模块用于最终判断是否给出告警信息。
构建模块,构建模块用于基于数据训练的权重构建算法模型网络。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点,对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (7)

1.一种明厨亮灶场景下工作人员着装规范检测方法,其特征在于:包括训练阶段,所述训练阶段包括以下步骤:
S1、通过摄像头获取输入图像;
S2、对所述输入图像中的目标行人框进行识别,获取所述目标行人框的行人位置信息、行人姿态信息和行人服饰信息,所述行人位置信息包括位置点数据、遮挡情况和密集情况,所述行人姿态信息包括***情况、头部可见情况和人体与摄像头之间的朝向情况,所述行人服饰信息包括帽子穿戴情况和围裙穿戴情况;
S3、对获取到的所述目标行人框的行人位置信息、行人姿态信息和行人服饰信息进行标注,形成数据集,上述信息全部规范者标定为着装规范,上述信息有任一不规范者标定为着装不规范、并发出警示信息,上述信息有任一不确定者标定为无法判断;
所述遮挡情况包括被没有遮挡和遮挡,所述密集情况包括不密集和密集,所述***情况包括坐姿、站立和其他,所述头部可见情况包括可以观察到头部、不可以观察到头部和其他,所述人体与摄像头之间的朝向情况包括正面朝向摄像头、背面朝向摄像头和其他,所述帽子穿戴情况包括戴了帽子、没有戴帽子和其他,所述围裙穿戴情况包括穿戴了围裙、没有穿戴围裙和其他;
所述训练阶段还包括以下步骤:
S4、根据S2步骤获取到的数据集以及神经网络训练模型参数训练行人位置模型、行人姿态模型和行人服饰模型,通过上述模型拟合行人,表征出行人的位置特征编码、姿态特征编码和服饰特征编码;
S5、对S4步骤表征出的结果进一步编码,得到特定的特征维度;
S6、将S5步骤得到的特征维度输入分类器,得到预测的最终告警结果。
2.根据权利要求1所述的一种明厨亮灶场景下工作人员着装规范检测方法,其特征在于:所述训练阶段还包括以下步骤:
S7、将模型参数记录于测试设备上,并设定阈值,通过测试数据验证算法给出的告警效果。
3.根据权利要求2所述的一种明厨亮灶场景下工作人员着装规范检测方法,其特征在于:还包括测试阶段,所述测试阶段包括以下步骤:
S9、通过摄像头获取场景输入图像;
S10、初始化网络结构,初始化测试程序运行环境,初始化训练存储的权重参数;
S11、将场景输入图像输入行人位置模型、得到行人位置特征编码,将行人位置特征编码输入行人姿态模型、得到行人姿态特征编码,将行人姿态特征编码输入行人服饰模型、得到行人服饰特征编码,采用S5步骤进一步编码,得到特定的特征维度;
S12、将S11步骤得到的特征维度输入分类器,获取告警信息。
4.根据权利要求1所述的一种明厨亮灶场景下工作人员着装规范检测方法,其特征在于:采用目标检测算法网络YOLOX检测行人位置信息,采用分类网络结构SWIN Transformer检测行人姿态信息和行人服饰信息,所述分类器为三分类的SVM分类器。
5.根据权利要求1所述的一种明厨亮灶场景下工作人员着装规范检测方法,其特征在于:利用爬虫技术抓取所述摄像头的视频流,对视频抽帧,从而获取到输入图像;或直接获取摄像头拍摄的图像,从而获取到输入图像。
6.一种检测装置,应用于权利要求3所述的明厨亮灶场景下工作人员着装规范检测方法,其特征在于:包括:
标注模块,所述标注模块包括第一单元和第二单元,所述第一单元用于爬取数据、获取真实场景的图像信息,所述第二单元用于将获取到的图像信息标注为对应的格式数据;
存储模块,所述存储模块用于存储已标注的数据样本,并将所述数据样本划分为训练数据和测试数据;
获取模块,所述获取模块用于利用上述方法对输入图像进行编码,将图像中的行人位置信息、行人姿态信息和行人服饰信息转换为特征向量;以及
确认模块,所述确认模块用于最终判断是否给出告警信息。
7.根据权利要求6所述的一种检测装置,其特征在于:还包括构建模块,所述构建模块用于基于数据训练的权重构建算法模型网络。
CN202210673405.6A 2022-06-15 2022-06-15 一种明厨亮灶场景下工作人员着装规范检测方法及装置 Active CN114783000B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210673405.6A CN114783000B (zh) 2022-06-15 2022-06-15 一种明厨亮灶场景下工作人员着装规范检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210673405.6A CN114783000B (zh) 2022-06-15 2022-06-15 一种明厨亮灶场景下工作人员着装规范检测方法及装置

Publications (2)

Publication Number Publication Date
CN114783000A CN114783000A (zh) 2022-07-22
CN114783000B true CN114783000B (zh) 2022-10-18

Family

ID=82421138

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210673405.6A Active CN114783000B (zh) 2022-06-15 2022-06-15 一种明厨亮灶场景下工作人员着装规范检测方法及装置

Country Status (1)

Country Link
CN (1) CN114783000B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472574A (zh) * 2019-08-15 2019-11-19 北京文安智能技术股份有限公司 一种检测着装不规范的方法、装置及***
CN111881705A (zh) * 2019-09-29 2020-11-03 深圳数字生命研究院 数据处理、训练、识别方法、装置和存储介质
CN112560656A (zh) * 2020-12-11 2021-03-26 成都东方天呈智能科技有限公司 一种联合注意力机制端到端训练的行人多目标跟踪方法
CN112560759A (zh) * 2020-12-24 2021-03-26 中再云图技术有限公司 一种基于人工智能明厨亮灶规范检测识别方法,存储装置及服务器
CN113553979A (zh) * 2021-07-30 2021-10-26 国电汉川发电有限公司 一种基于改进yolo v5的安全服检测方法和***
CN114227720A (zh) * 2022-01-10 2022-03-25 中山市火炬科学技术学校 厨房防疫视觉识别巡航监测机器人

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11651609B2 (en) * 2020-06-10 2023-05-16 Here Global B.V. Method, apparatus, and system for mapping based on a detected pedestrian type
CN112966618B (zh) * 2021-03-11 2024-02-09 京东科技信息技术有限公司 着装识别方法、装置、设备及计算机可读介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472574A (zh) * 2019-08-15 2019-11-19 北京文安智能技术股份有限公司 一种检测着装不规范的方法、装置及***
CN111881705A (zh) * 2019-09-29 2020-11-03 深圳数字生命研究院 数据处理、训练、识别方法、装置和存储介质
CN112560656A (zh) * 2020-12-11 2021-03-26 成都东方天呈智能科技有限公司 一种联合注意力机制端到端训练的行人多目标跟踪方法
CN112560759A (zh) * 2020-12-24 2021-03-26 中再云图技术有限公司 一种基于人工智能明厨亮灶规范检测识别方法,存储装置及服务器
CN113553979A (zh) * 2021-07-30 2021-10-26 国电汉川发电有限公司 一种基于改进yolo v5的安全服检测方法和***
CN114227720A (zh) * 2022-01-10 2022-03-25 中山市火炬科学技术学校 厨房防疫视觉识别巡航监测机器人

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Personnel dress code detection algorithm based on convolutional neural network cascade;Zhang Na等;《2020 2nd International Conference on Machine Learning, Big Data and Business Intelligence (MLBDBI)》;20210226;215-221 *
基于图像识别的工作人员穿戴规范性检测技术研究;袁一丹;《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅰ辑》;20200115(第01期);B026-10 *
基于深度学习的污染场地作业人员着装规范性检测;刘欣宜等;《中国安全生产科学技术》;20200731(第07期);169-175 *
改进YOLOv5的油田作业现场安全着装小目标检测;田枫等;《计算机***应用》;20220314;第31卷(第3期);159-168 *

Also Published As

Publication number Publication date
CN114783000A (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
CN111414887B (zh) 基于yolov3算法的二次检测口罩人脸识别方法
CN111967393B (zh) 一种基于改进YOLOv4的安全帽佩戴检测方法
CN110135269B (zh) 一种基于混合颜色模型与神经网络的火灾图像检测方法
US9652863B2 (en) Multi-mode video event indexing
CN111814638B (zh) 基于深度学习的安防场景火焰检测方法
CN107437318B (zh) 一种可见光智能识别算法
CN110414400B (zh) 一种施工现场安全帽穿戴自动检测方法及***
CN111401311A (zh) 一种基于图像检测的高空抛物识别方法
CN113516076A (zh) 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法
CN112183472A (zh) 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法
CN112487891B (zh) 一种应用于电力作业现场的视觉智能动态识别模型构建方法
CN112906481A (zh) 一种基于无人机实现森林火情检测的方法
CN113989858B (zh) 一种工作服识别方法及***
CN110096945B (zh) 基于机器学习的室内监控视频关键帧实时提取方法
CN112184773A (zh) 一种基于深度学习的安全帽佩戴检测方法及***
CN113436229A (zh) 一种多目标跨摄像机行人轨迹路径的生成方法
CN112270253A (zh) 一种高空抛物的检测方法及装置
CN114885119A (zh) 一种基于计算机视觉的智能监控报警***及方法
CN115359406A (zh) 一种邮局场景人物交互行为识别方法及***
CN116310922A (zh) 石化厂区监控视频风险识别方法、***、电子设备及存储介质
CN112989958A (zh) 基于YOLOv4与显著性检测的安全帽佩戴识别方法
CN117475353A (zh) 基于视频的异常烟雾识别方法及***
Rother et al. What can casual walkers tell us about a 3D scene?
CN112633179A (zh) 基于视频分析的农贸市场过道物体占道检测方法
CN116682162A (zh) 一种基于实时视频流的机器人人员检测算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant