CN111401278A - 安全帽识别方法、装置、电子设备及存储介质 - Google Patents

安全帽识别方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111401278A
CN111401278A CN202010203042.0A CN202010203042A CN111401278A CN 111401278 A CN111401278 A CN 111401278A CN 202010203042 A CN202010203042 A CN 202010203042A CN 111401278 A CN111401278 A CN 111401278A
Authority
CN
China
Prior art keywords
image
head
feature
map
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010203042.0A
Other languages
English (en)
Inventor
贾挺猛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Unisinsight Technology Co Ltd
Original Assignee
Chongqing Unisinsight Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Unisinsight Technology Co Ltd filed Critical Chongqing Unisinsight Technology Co Ltd
Priority to CN202010203042.0A priority Critical patent/CN111401278A/zh
Publication of CN111401278A publication Critical patent/CN111401278A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例涉及图像识别领域,提供一种安全帽识别方法、装置、电子设备及存储介质,所述方法包括:获取待识别图像;将待识别图像输入预先训练的人头识别模型,利用人头识别模型对待识别图像进行人头识别,得到待识别图像中的人头位置;依据人头位置得到待识别图像中的人头区域图;将人头区域图输入预先训练的安全帽识别模型,利用安全帽识别模型对人头区域图进行安全帽识别,得到人头区域图中的人头是否佩戴有安全帽的识别结果。本发明实施例提高了安全帽的识别准确率。

Description

安全帽识别方法、装置、电子设备及存储介质
技术领域
本发明涉及图像识别技术领域,具体而言,涉及一种安全帽识别方法、装置、电子设备及存储介质。
背景技术
随着社会的不断进步,城市的飞速扩展,人们对安全作业的需求越来越强。而在建筑、煤炭、冶金、石化、电力等诸多特殊施工行业,在非机动车安全驾驶检测等交通行业,仍然存在相关人员个人防具欠缺、防护意识薄弱的问题。这类行业均需要检测相关人员是否有佩戴安全帽,通过视频监管和语音提醒等方式,来避免发生事故。因此采用视频做智能分析成为当今安全帽识别的优选方法。现有的安全帽识别方法的识别准确率不高。
发明内容
本发明的目的在于提供了一种安全帽识别方法、装置、电子设备及存储介质,其能够提高安全帽的识别准确率。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本实施例提供一种安全帽识别方法,所述方法包括:获取待识别图像;将待识别图像输入预先训练的人头识别模型,利用人头识别模型对待识别图像进行人头识别,得到待识别图像中的人头位置;依据人头位置得到待识别图像中的人头区域图;将人头区域图输入预先训练的安全帽识别模型,利用安全帽识别模型对人头区域图进行安全帽识别,得到人头区域图中的人头是否佩戴有安全帽的识别结果。
第二方面,本实施例提供一种安全帽识别装置,所述装置包括获取模块、人头识别模块、人头区域确定模块及安全帽识别模块,其中,获取模块,用于获取待识别图像;人头识别模块,用于将待识别图像输入预先训练的人头识别模型,利用人头识别模型对待识别图像进行人头识别,得到待识别图像中的人头位置;人头区域确定模块,用于依据人头位置得到待识别图像中的人头区域图;安全帽识别模块,用于将人头区域图输入预先训练的安全帽识别模型,利用安全帽识别模型对人头区域图进行安全帽识别,得到人头区域图中的人头是否佩戴有安全帽的识别结果。
第三方面,本实施例提供一种电子设备,所述电子设备包括:一个或多个处理器;存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如前述实施方式中任一项所述的安全帽识别方法。
第四方面,本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如前述实施方式中任一项所述的安全帽识别方法。
相对于现有技术,本发明实施例提供了一种安全帽识别方法、装置、电子设备及存储介质,其能够通过先识别人头位置,再基于人头位置进一步识别该人头是否佩戴有安全帽的识别结果,减少了待识别图像中的复杂背景带来的干扰,提高了安全帽的识别准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例所提供的一种安全帽识别方法的流程图。
图2示出了本发明实施例所提供的人头识别模型的结构示例图。
图3示出了本发明实施例所提供的另一种安全帽识别方法的流程图。
图4示出了本发明实施例所提供融合网络的结构示例图。
图5示出了本发明实施例所提供的另一种安全帽识别方法的流程图。
图6示出了本发明实施例所提供的安全帽识别模型的结构示例图。
图7示出了本发明实施例所提供的另一种安全帽识别方法的流程图。
图8示出了本发明实施例所提供的安全帽识别装置的结构示意图。
图9示出了本发明实施例所提供的电子设备的结构示意图。
图标:10-电子设备;11-存储器;12-通信接口;13-处理器;14-总线;100-安全帽识别装置;110-获取模块;120-人头识别模块;130-人头区域确定模块;140-安全帽识别模块。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,若出现术语“上”、“下”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,若出现术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在不冲突的情况下,本发明的实施例中的特征可以相互结合。
目前安全帽的识别方法,通常基于经典图像处理方法,即针对人体、安全帽等目标,根据形状、纹理、颜色等特征,来做逻辑判定是否戴安全帽。在此方法中,由于目标背景的多样性和复杂性,需要建立的目标特征数据库较大,图像算法计算量相应也会较大,由此导致安全帽类别越多,算法的鲁棒性越差。
为了在对安全帽识别时保持较高的鲁棒性,通常采用深度学习方法,即首先检测图像中人***置或者人脸位置,再进行二次戴帽属性识别。与上述基于经典图像处理方法相比,该方法具备更好的鲁棒性。申请人对该方法进行深入研究后发现:若首先检测人***置再识别戴帽属性,由于姿态、服装、背景等有许多差异,仍会存在人体识别位置不准确、局部人体无法识别、下半身人体误识别为全身人体等问题,因此无法确定人头戴帽区域,进而也就无法做帽子种类的准确识别。若首先检测人脸位置再识别戴帽属性,对于人体背面的场景无法检测到人脸,因此无法确定人头戴帽区域,进而也就无法做帽子种类的准确识别。
有鉴于此,申请人基于对上述方法的缺陷产生的原因的深入研究,提出一种安全帽识别方法、装置、电子设备及存储介质,以提高安全帽的识别准确率,下面将对此进行详细描述。
请参照图1,图1示出了本发明实施例所提供的一种安全帽识别方法的流程图,该方法包括以下步骤:
步骤S101,获取待识别图像。
在本实施例中,待识别图像可以通过对原始图像进行预处理后得到,原始图像可以从拍摄设备拍摄的图片中获取,也可以从拍摄设备拍摄的视频或者监控设备监控的视频流中提取,例如,在视频的图像帧中,每隔预设个数的帧提取一帧作为一张原始图像。
在本实施例中,对原始图像进行预处理包括但不限于对原始图像进行图像加噪、尺寸缩放、颜色增强等处理。
步骤S102,将待识别图像输入预先训练的人头识别模型,利用人头识别模型对待识别图像进行人头识别,得到待识别图像中的人头位置。
在本实施例中,当待识别图像中存在人头时,利用人头识别模型可以得到待识别图像中的人头位置,其中,该人头位置可以是待识别图像中人头矩形区域的对角点的坐标,也可以是待识别图像中人头矩形区域的中心点坐标及该矩形区域的高度和宽度,或者是其他预设的几何形状及可以确定该几何形状的坐标点,当待识别图像中不存在人头时,可以用预设坐标值进行表示,例如,当人头识别模型得到的对角点的坐标为(0,0)和(0,0)时,可以判定该待识别图像中不存在人头。
步骤S103,依据人头位置得到待识别图像中的人头区域图。
在本实施例中,可以将人头位置确定的区域作为人头区域图,也可以在人头位置确定的区域的基础上进行扩大一定比例后得到的扩大后的区域作为人头区域图。
步骤S104,将人头区域图输入预先训练的安全帽识别模型,利用安全帽识别模型对人头区域图进行安全帽识别,得到人头区域图中的人头是否佩戴有安全帽的识别结果。
在本实施例中,根据安全帽识别模型训练数据标签类别的不同,识别结果中可以包括人头区域图中的人头是否佩戴有安全帽,还可以进一步地包括人头是否佩戴帽子,人头佩戴帽子时佩戴的帽子是否是安全帽,或者佩戴的安全帽的类型等。
本发明实施例提供的上述安全帽识别方法,其能够通过先识别人头位置,再基于人头位置进一步识别人头位置的人头是否佩戴有安全帽的识别结果,一方面,可以大范围过滤头肩以下的图像背景干扰,更加准确获取了安全帽所处于的图像区域,有效提高了安全帽识别的准确率。另一方面,可以解决在人体姿态差异、人体遮挡场景中,无法检测人体上半身,进而无法识别安全帽的问题,最终减少了待识别图像中的复杂背景带来的干扰,提高了安全帽的识别准确率。
在图1的基础上,本发明实施例提供了一种具体人头识别模型的结构,以及利用人头识别模型对待识别图像进行人头识别,得到待识别图像中的人头位置的实现方法,人头识别模型包括第一特征提取网络、融合网络、检测器及后处理模块,其中,检测器的数目与特征提取网络输出的特征图的数目相同,将待识别图像输入第一特征提取网络进行特征提取,得到多个输出特征图,再将多个输出特征图输入到融合网络模块,进行多个不同尺度的特征融合,得到每个输出特征图对应的特征融合图,将每一特征融合图分别输入对应的检测器进行目标检测,将所有检测结果输入到后处理模块,经过筛选过滤,最终获得置信度大于预设分数阈值的人头目标位置。
请参照图2,图2示出了本发明实施例所提供的人头识别模型的结构示例图,图2中第一特征提取网络输出3个输出特征图:输出特征图1、输出特征图2及输出特征图3,每一输出特征图对应一个检测器,一共包括3个检测器:检测器1、检测器2及检测器3。将待识别图像输入第一特征提取网络进行特征提取,得到3个大小依次递增的输出特征图:输出特征图1、输出特征图2及输出特征图3,将3个输出特征图依次输入融合网络,得到3个输出特征图对应的特征融合图:特征融合图1、特征融合图2及特征融合图3,将这3个特征融合分别输入检测器1、检测器2及检测器3,将检测器1、检测器2和检测器3的检测结果输入后处理模块进行处理,最终得到待识别图像中的人头位置。
需要说明的是,图2只是一种具体人头识别模型的示例图,并不代表人头识别模型一定限制于3个输出特征图,在实际使用场景中,输出特征图可以是多个,此时,也会有与每一输出特征图对应的检测器。
请参照图3,图3示出了本发明实施例所提供的另一种安全帽识别方法的流程图,步骤S102包括以下子步骤:
子步骤S1021,利用第一特征提取网络对待识别图像进行特征提取,得到多个大小依次递增的输出特征图。
在本实施例中,第一特征提取网络可以是深度学习网络ResNet,例如ResNet50网络或者ResNet101网络。第一特征提取网络可以包括多层卷积层和多层池化层,卷积次数不同,得到的输出特征图的大小也不同,在本实施例中,第一特征提取网络的输出包括多个大小依次递增的输出特征图,例如输出特征图为3个,按照大小依次递增分别为:30*16、60*32、120*64。
子步骤S1022,按照从小到大的顺序,将多个输出特征图依次输入融合网络,利用融合网络进行特征融合,得到每一输出特征图对应的特征融合图。
在本实施例中,从最小的输出特征图开始,依次对输出特征图进行融合处理,得到对应的特征融合图,作为一种具体实施方式,将多个输出特征图利用融合网络进行特征融合的方法可以是:
第一,将最小的输出特征图作为初始特征图。
第二,对初始特征图进行卷积块的卷积处理,得到初始特征图的第一中间特征图,其中,卷积块包括多个参数相同的卷积层和池化层。
在本实施例中,卷积层的参数包括但不限于卷积核、步长、扩边等,池化层的参数包括、但不限于池化方式,例如最大池化、平均池化等。
第三,对第一中间特征图进行卷积处理,得到初始特征图对应的特征融合图。
在本实施例中,对于最小的输出特征图而言,对其进行卷积块的卷积处理,得到第一中间特征图,再对该第一中间特征图进行卷积处理,就可以得到该最小的输出特征图的特征融合图。
第四,对第一中间特征图依次进行卷积、上采样处理,得到初始特征图对应的第二中间特征图。
在本实施例中,上采样可以通过反卷积的方式实现。
第五,将第二中间特征图与目标输出特征图进行融合,得到初始特征图对应的初始融合图,其中,目标输出特征图为与初始特征图连续的后一特征图。
最后,用初始特征图对应的初始融合图替代初始特征图重复执行上述步骤,直至得到每一输出特征图对应的特征融合图。
在本实施例中,对于除最小的输出特征图之外的其他输出特征图,需要先将该输出特征图与上一输出特征图的第二中间特征图(即对上一输出特征图的第一中间特征图依次进行卷积、上采样处理后得到的第二中间特征图)进行融合后,得到该输出特征图的初始融合图,再对该初始融合图进行卷积块的卷积处理,得到该初始融合图的第一中间特征图,对该初始融合图的第一中间特征图进行卷积处理,得到该输出特征图对应的特征融合图。
为了更清楚地说明融合网络及融合过程,请参照图4,图4示出了本发明实施例所提供融合网络的结构示例图,融合网络的输入为3个大小逐渐递增的输出特征图:输出特征图1~输出特征图3,输出为每个输出特征图对应的特征融合图,特征融合图1~特征融合图3。最小的输出特征图1经过卷积块的卷积处理,得到输出特征图1的第一中间特征图,对输出特征图1的第一中间特征图再进行卷积,得到输出特征图1的特征融合图。然后,将输出特征图1的第一中间特征图进行卷积和上采样处理,得到输出特征图1的第二中间特征,将输出特征图1的第二中间特征与输出特征图2进行融合,得到输出特征图2的初始融合图,输出特征图2的初始融合图,将输出特征图2的初始融合图经过卷积块的卷积处理,得到输出特征图2的初始融合图的第一中间特征图,将输出特征图2的初始融合图的第一中间特征图再进行卷积,得到输出特征图2的特征融合图,依次类推,得到输出特征图3的特征融合图。
需要说明的是,图4只是融合网络的具体结构的示例图,在实际应用场景中,可以有多个输出特征图作为融合网络的输入,融合网络中可以有多个卷积块,任意两个卷积块的参数可以相同也可以不同,融合网络中也可以有多个卷积层,任意两个卷积层的参数可以相同也可以不同,融合网络中也可以有多个上采样,任意两个上采样的参数可以相同也可以不同,本发明实施例对此不予限定。
子步骤S1023,利用每一输出特征图对应的检测器对每一特征融合图进行目标检测,得到每一特征融合图中人头目标框的位置及对应的人头目标框的置信度。
在本实施例中,检测器用于检测出对应的特征融合图中人头目标框的位置及对应的人头目标框的置信度,作为一种具体的实现方式,检测器可以利用yolo层实现。
子步骤S1024,利用后处理模块、按照所有特征融合图中人头目标框的置信度对所有特征融合图中人头目标框的位置进行处理,将处理后的置信度大于预设阈值的特征融合图中人头目标框的位置对应的待识别图像中的位置作为待识别图像中的人头位置。
在本实施例中,特征融合图中人头目标框的置信度用于表征识别出的人头目标框中是否是人头的概率指标。
在本实施例中,对所有特征融合图中人头目标框的位置进行处理包括按照所有特征融合图中人头目标框的置信度对特征融合图中的人头目标框的位置进行排序、合并和筛选,得到处理后的置信度大于预设阈值的特征融合图中人头目标框的位置对应的待识别图像中的位置作为待识别图像中的人头位置。
在本实施例中,为了得到训练后的人头识别模型,需要对构建出的人头识别模型进行训练,具体训练方法可以是:
首先,收集人体图片并标注人头位置。
在本实施例中,人体图片为包含各种人体场景的图片,用矩形框选定人头的位置范围,制作成坐标标签文件。标签记录格式为人头标签0、人头中心位置横坐标cx、人头中心位置横坐标cy、人头宽度w、人头高度h。
其次,对人体图片进行图像增强。
由于目标场景多变,包含人头的人体图片存在背景、尺度、颜色等差异性,对标注的图片做各类图像增强处理,如图像缩放、随机噪声、随机颜色等方法。
作为一种具体实施方式,可以对人体图片做如下增强处理:
(1)随机选择40%的人体图片添加图像噪点增强。
(2)随机选择20%的人体图片做多尺度缩放resize,以人头识别模型的输入图像的原始大小为基准,缩放尺度控制在0.8~1.2。
(3)随机选择20%的人体图片作图像颜色增强,包括图像亮度、对比度等。
需要说明的是,上述随机选择的比例40%、20%,缩放比例0.8~1.2均可以根据实际需要进行设置。
第三,将处理后的人体图片转换成训练样本。
在本实施例中,预先设计一组多种不同尺度的输入尺寸,以随机方式设定为人头识别模型的输入,以提高模型的泛化能力。例如,定义一组包含n个不同大小的输入图像尺度参数集为size_list,表示为:size_list=[s1,s2,...,sn],其中,si为第i个输入尺寸,随机尺度当量为s,s=size_list[rand(0,n)],其中,rand为随机函数,则求解随机生成的模型图像输入宽dim_w、高dim_h如下:
dim_w=s,dim_h=s
对于任意一张人体图片,从size_list随机选择一个尺度当量s,根据s对该人体图片进行相应的缩放处理,得到训练样本。
第四,为每个检测器设置anchor,以便于根据检测器得到的人头目标框的位置映射到对应训练样本中的人头位置。
在本实施例中,每个检测器可以对应3个anchor,每个检测器的anchor大小可以根据对实际应用场景的训练图像聚类方法获得,可提升对实际场景的模型预测能力。
第五,将训练样本输入至人头识别模型中进行训练,直至得到训练完成的人头识别模型。
在本实施例中,设置初始学习率为0.001,设置学习策略为poly策略,将训练样本输入至人头识别模型中进行处理,该处理过程如步骤S102极其子步骤S1021~S1024,最终输出识别的人头位置,将识别出的人头位置和训练样本中预先标注的位置进行比较,不断地调整人头识别模型的各项参数(例如,卷积核、步长等参数),直至满足迭代次数,或者预设条件,最终得到训练完成的人头识别模型。例如,迭代100轮次epoch。
本发明实施例提供的上述安全帽识别方法,通过构建人头识别模型,将不同尺度的深层特征图上采样融合浅层特征图的方法,解决了实际应用场景中远处较小人头检测不够准确的问题,提升人头检测算法针对复杂场景的鲁棒性,因而有效提高安全帽识别的准确率。
在图1的基础上,为了减少人头识别模型识别人头位置的偏差,本发明实施例还提供了,另一种安全帽识别方法,请参照图5,图5示出了本发明实施例所提供的另一种安全帽识别方法的流程图,步骤S103包括以下子步骤:
步骤S1031,将待识别图像中以第一坐标和第二坐标为对角的矩形区域作为初始区域图。
在本实施例中,人头位置包括第一坐标和第二坐标,第一坐标和第二坐标用于确定待识别图像中对应的区域。例如,当人头位置对应的区域为矩形时,第一坐标和第二坐标为该矩形的互为对角的坐标。
步骤S1032,对初始区域图进行预设比例的扩充,得到人头区域图。
在本实施例中,按照预设比例,根据初始区域图的第一坐标和第二坐标,求得扩充后的初始区域图(即人头区域图)的第一坐标和第二坐标。例如,当初始区域图为矩形时,初始区域图的左上角的第一坐标为(X1,Y1),初始区域图的右下角的第二坐标为(X2,Y2),预设比例为20%,即针对初始区域图向上下左右各扩张20%尺寸,获取人头区域图。人头区域图左上角的第一坐标为(X3,Y3),人头区域图右下角的第二坐标为(X4,Y4)则:
X3=X1–(X2-X1)*0.2;
Y3=Y1–(Y2-Y1)*0.2;
X4=X2+(X2-X1)*0.2;
Y4=Y2+(Y2-Y1)*0.2。
本发明实施例提供的上述安全帽识别方法,通过对人头识别模型识别出的人头位置对应的初始区域图进行扩充,所获取的人头区域图剔除了人体和背景等信息,一方面排除了无效的背景信息干扰,可以大大提升安全帽识别准确性;另一方面,人头区域图不受人体和场景的类别限制,非常容易采集和标注,可节省数据标注人力成本,同时有效地改善了因人头识别模型识别人头位置出现偏差而导致最终识安全帽识别正确率的问题。
在图1的基础上,本发明实施例提供了一种具体的安全帽识别模型的结构,以及利用安全帽识别模型进行安全帽识别的实现方法,安全帽识别模型包括第二特征提取网络、池化层、全连接层及激活层。将所述人头区域图输入第二特征提取网络进行图像特征提取,再利用池化层对得到的图像特征图进行最大池化处理,得到池化特征图,利用全连接层对该池化特征图进行降维,得到一维向量,接下来将一维向量输入激活层,得到人头戴安全帽的概率值,依据概率值得到人头区域图中的人头是否佩戴有安全帽的识别结果。
请参照图6,图6示出了本发明实施例所提供的安全帽识别模型的结构示例图。
请参照图7,图7示出了本发明实施例所提供的另一种安全帽识别方法的流程图,步骤S104包括以下子步骤:
子步骤S1041,将人头区域图输入第二特征提取网络进行图像特征提取,得到图像特征图。
在本实施例中,图像特征包括、但不限于纹理、颜色、边缘轮廓等信息。
子步骤S1042,利用池化层对图像特征图进行最大池化处理得到池化特征图。
在本实施例中,池化层主要有以下几个作用:(1)保留主要的特征,同时减少下一层的参数和计算量,防止过拟合;(2)保持某种不变性,包括translation(平移),rotation(旋转),scale(尺度)。常用池化处理有最大池化处理(max-pooling)和平均池化处理(mean-pooling)。最大池化处理指对一小块区域取最大值,例如,池化窗大小为2*2,需要池化的区域如下:
1 1 1 0
2 3 3 1
2 3 2 1
1 2 2 1
以2*2为单位区域,取每一个单位区域中的最大值,得到池化后的区域如下:
3 3
3 2
作为一种具体实施方式,本实施例采用最大池化可以实现减少训练参数量和计算量,同时提取特征中最强烈的语义信息。
子步骤S1043,利用全连接层对池化特征图进行降维,得到一维向量。
子步骤S1044,将一维向量输入激活层,得到人头戴安全帽的概率值,以依据概率值得到人头区域图中的人头是否佩戴有安全帽的识别结果。
在本实施例中,分类结果和安全帽识别模型进行训练时打标签的方式及对应的全连接层及激活层的设置相关,例如,训练时,打的标签为两类:0-不戴帽、1-戴帽,则分类结果是戴帽的概率值,例如输出的概率值为0.2,可以认为识别结果为不戴帽,输出的概率值为0.8,可以认为识别结果为戴帽。再例如,训练时,打的标签为三类:0-不戴帽、1-戴普通帽、2-戴安全帽,则分类结果是:戴帽、戴普通帽、戴安全帽的概率值。
在本实施例中,为了得到训练后的安全帽识别模型,需要对构建出的安全帽识别模型进行训练,具体训练方法可以是:
第一,收集人头戴帽图片并标注戴帽类别。
在本实施例中,人头戴帽图片可以从两个途径收集:(1)抓取网络上开源人头戴帽数据;(2)根据人头识别模型输出人头位置得到的人头区域图。将人头戴帽图片分为多类,例如分成三类,并打上不同的标签:0-不戴帽、1-戴普通帽、2-戴安全帽。可以对三种不同类型的人头戴帽图片的比例进行设置,例如三类人头戴帽图片的比例设置为3:2:1。
第二,对人头戴帽图片进行图像增强。
对于人头戴帽图片选择性地做以下随机增强处理:
(1)随机选择40%的人头戴帽图片添加图像噪点增强。
(2)随机选择20%的人头戴帽图片做多尺度缩放resize,以安全帽识别模型的输入图像原始大小为基准,缩放尺度控制在0.8~1.2。
(3)随机选择20%的人头戴帽图片作图像颜色增强,包括图像亮度、对比度等。
(4)随机选择20%的人头戴帽图片做图像裁剪,裁剪比例随机5%~10%。
需要说明的是,上述随机选择的比例40%、20%,缩放比例0.8~1.2、裁剪比例随机5%~10%均可以根据实际需要进行设置。
第三,将处理后的人头戴帽图片转换成训练样本。
第四,将训练样本输入至安全帽识别模型中进行训练,直至得到训练完成的安全帽识别模型。
在本实施例中,设置初始学习率为0.001,设置学习策略为step策略,将训练样本输入至安全帽识别模型中进行处理,该处理过程如步骤S104极其子步骤S1041~S1044,最终输出人头戴安全帽的概率值,将人头戴安全帽的概率值与预先标注的分类进行比较,利用模型损失函数采用欧式距离EuclideanLoss计算识别结果与实际的误差,不断更新模型权重系数,直至满足迭代次数,或者预设条件,最终得到训练完成的安全帽识别模型,例如迭代150轮次epoch。
本发明实施例提供的上述安全帽识别方法,通过构建安全帽识别模型,可以得到出待识别图像中的人头位置是否戴帽,是否戴安全帽的识别结果。
需要说明的是,可以根据识别结果进行进一步处理,例如,当识别结果为未戴安全帽时发出告警信息等。
需要说明的是,S1021~S1024也可以代替图1、图5和图7中的步骤S102,S1031~S1032也可以代替图1、图3和图7中的步骤S103,S1041~S1044也可以代替图1、图3、图5中的步骤S104。
为了执行上述实施例及各个可能的实施方式中的相应步骤,下面给出一种安全帽识别装置的实现方式,请参看图8,图8示出了本发明实施例提供的安全帽识别装置100的结构示意图。需要说明的是,本实施例所提供的安全帽识别装置100,其基本原理及产生的技术效果和上述实施例相同,为简要描述,本实施例部分未提及指出,可参考上述实施例中的相应内容。
安全帽识别装置100包括获取模块110、人头识别模块120、人头区域确定模块130及安全帽识别模块140。
获取模块110,用于获取待识别图像。
人头识别模块120,用于将待识别图像输入预先训练的人头识别模型,利用人头识别模型对待识别图像进行人头识别,得到待识别图像中的人头位置。具体地,人头识别模型包括第一特征提取网络、融合网络、检测器及后处理模块,其中,检测器的数目与特征提取网络输出的特征图的数目相同,人头识别模块120具体用于:利用第一特征提取网络对待识别图像进行特征提取,得到多个大小依次递增的输出特征图;按照从小到大的顺序,将多个输出特征图依次输入融合网络,利用融合网络进行特征融合,得到每一输出特征图对应的特征融合图;利用每一输出特征图对应的检测器对每一特征融合图进行目标检测,得到每一特征融合图中人头目标框的位置及对应的人头目标框的置信度;利用后处理模块、按照所有特征融合图中人头目标框的置信度对所有特征融合图中的人头目标框的位置进行处理,将处理后的置信度大于预设阈值的特征融合图中人头目标框的位置对应的待识别图像中的位置作为待识别图像中的人头位置。
具体地,人头识别模块120在按照从小到大的顺序,将多个输出特征图依次输入融合网络,利用融合网络进行特征融合,得到每一输出特征图对应的特征融合图时,具体用于:将最小的输出特征图作为初始特征图;对初始特征图进行卷积块的卷积处理,得到初始特征图的第一中间特征图,其中,卷积块包括多个参数相同的卷积层和池化层;对第一中间特征图进行卷积处理,得到初始特征图对应的特征融合图;对第一中间特征图依次进行卷积、上采样处理,得到初始特征图对应的第二中间特征图;将第二中间特征图与目标输出特征图进行融合,得到特征图对应的初始融合图,其中,目标输出特征图为与初始特征图连续的后一特征图;用初始特征图对应的初始融合图替代初始特征图重复执行上述步骤,直至得到每一输出特征图对应的特征融合图。
人头区域确定模块130,用于依据人头位置得到待识别图像中的人头区域图。
具体地,人头位置包括第一坐标和第二坐标,人头区域确定模块130具体用于:将待识别图像中以第一坐标和所述第二坐标为对角的矩形区域作为初始区域图;对初始区域图进行预设比例的扩充,得到人头区域图。
安全帽识别模块140,用于将人头区域图输入预先训练的安全帽识别模型,利用安全帽识别模型对人头区域图进行安全帽识别,得到人头区域图中的人头是否佩戴有安全帽的识别结果。
具体地,安全帽识别模型包括第二特征提取网络、池化层、全连接层及激活层;安全帽识别模块140具体用于:将人头区域图输入第二特征提取网络进行图像特征提取,得到图像特征图;利用池化层对图像特征图进行最大池化处理得到池化特征图;利用全连接层对池化特征图进行降维,得到一维向量;将一维向量输入激活层,得到人头戴安全帽的概率值,以依据概率值得到人头区域图中的人头是否佩戴有安全帽的识别结果。
本发明实施例给出了一种电子设备的结构示意图,请参照图9,图9示出了本发明实施例所提供的电子设备10的结构示意图,电子设备10包括存储器11、通信接口12、处理器13、总线14。存储器11、通信接口12和处理器13通过总线14连接,处理器13用于执行存储器11中存储的计算机程序,上述安全帽识别方法可以应用于电子设备10。
电子设备10可以、但不限于智能手机、平板电脑、笔记本电脑、主机或者服务器等设备。
电子设备10通过通信接口12以实现与其他电子设备之间的通信。
其中,存储器11可能包含高速随机存取存储器(RAM:Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。
总线14可以是ISA总线、PCI总线或EISA总线等。图9中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
其中,存储器11用于存储程序,例如图7中的安全帽识别装置100,处理器13在接收到执行指令后,执行程序以实现本发明上述实施例揭示的安全帽识别方法。
处理器13可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器13中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器13可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器13执行时实现如前述实施方式中任一项所述的安全帽识别方法。
综上所述,本发明实施例提供了一种安全帽识别方法、装置、电子设备及存储介质,所述方法包括:获取待识别图像;将待识别图像输入预先训练的人头识别模型,利用人头识别模型对待识别图像进行人头识别,得到待识别图像中的人头位置;依据人头位置得到待识别图像中的人头区域图;将人头区域图输入预先训练的安全帽识别模型,利用安全帽识别模型对人头区域图进行安全帽识别,得到人头区域图中的人头是否佩戴有安全帽的识别结果。相对于现有技术,本发明实施例能够通过先识别人头位置,再基于人头位置进一步识别人头位置的人头是否佩戴有安全帽的识别结果,减少了待识别图像中的复杂背景带来的干扰,提高了安全帽的识别准确率。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种安全帽识别方法,其特征在于,所述方法包括:
获取待识别图像;
将所述待识别图像输入预先训练的人头识别模型,利用所述人头识别模型对所述待识别图像进行人头识别,得到所述待识别图像中的人头位置;
依据所述人头位置得到所述待识别图像中的人头区域图;
将所述人头区域图输入预先训练的安全帽识别模型,利用所述安全帽识别模型对所述人头区域图进行安全帽识别,得到所述人头区域图中的人头是否佩戴有安全帽的识别结果。
2.如权利要求1所述的安全帽识别方法,其特征在于,所述人头识别模型包括第一特征提取网络、融合网络、检测器及后处理模块,其中,所述检测器的数目与所述特征提取网络输出的特征图的数目相同;
所述利用所述人头识别模型对所述待识别图像进行人头识别,得到所述待识别图像中人头位置的步骤,包括:
利用所述第一特征提取网络对所述待识别图像进行特征提取,得到多个大小依次递增的输出特征图;
按照从小到大的顺序,将多个所述输出特征图依次输入所述融合网络,利用所述融合网络进行特征融合,得到每一所述输出特征图对应的特征融合图;
利用每一所述输出特征图对应的所述检测器对每一所述特征融合图进行目标检测,得到每一所述特征融合图中人头目标框的位置及对应的人头目标框的置信度;
利用所述后处理模块、按照所有所述特征融合图中人头目标框的置信度对所有特征融合图中人头目标框的位置进行处理,将处理后的置信度大于预设阈值的所述特征融合图中人头目标框的位置对应的所述待识别图像中的位置作为所述待识别图像中的人头位置。
3.如权利要求2所述的安全帽识别方法,其特征在于,所述按照从小到大的顺序,将多个所述输出特征图依次输入所述融合网络,利用所述融合网络进行特征融合,得到每一所述输出特征图对应的特征融合图的步骤包括:
将最小的输出特征图作为初始特征图;
对所述初始特征图进行卷积块的卷积处理,得到所述初始特征图的第一中间特征图,其中,所述卷积块包括多个参数相同的卷积层和池化层;
对所述第一中间特征图进行卷积处理,得到所述初始特征图对应的特征融合图;
对所述第一中间特征图依次进行卷积、上采样处理,得到所述初始特征图对应的第二中间特征图;
将所述第二中间特征图与目标输出特征图进行融合,得到初始特征图对应的初始融合图,其中,所述目标输出特征图为与所述初始特征图连续的后一特征图;
用所述初始特征图对应的初始融合图替代所述初始特征图重复执行上述步骤,直至得到每一所述输出特征图对应的特征融合图。
4.如权利要求1所述的安全帽识别方法,其特征在于,所述安全帽识别模型包括第二特征提取网络、池化层、全连接层及激活层;
利用所述安全帽识别模型对所述人头区域图进行安全帽识别,得到所述人头区域图中的人头是否佩戴有安全帽的识别结果的步骤,包括:
将所述人头区域图输入所述第二特征提取网络进行图像特征提取,得到图像特征图;
利用所述池化层对所述图像特征图进行最大池化处理得到池化特征图;
利用所述全连接层对所述池化特征图进行降维,得到一维向量;
将所述一维向量输入所述激活层,得到人头戴安全帽的概率值,以依据所述概率值得到所述人头区域图中的人头是否佩戴有安全帽的识别结果。
5.如权利要求1所述的安全帽识别方法,其特征在于,所述人头位置包括第一坐标和第二坐标,依据所述人头在所述待识别图像中的人头位置得到所述待识别图像中的人头区域图的步骤包括:
将所述待识别图像中以所述第一坐标和所述第二坐标为对角的矩形区域作为初始区域图;
对所述初始区域图进行预设比例的扩充,得到所述人头区域图。
6.一种安全帽识别装置,其特征在于,所述装置包括:
获取模块,用于获取待识别图像;
人头识别模块,用于将所述待识别图像输入预先训练的人头识别模型,利用所述人头识别模型对所述待识别图像进行人头识别,得到所述待识别图像中的人头位置;
人头区域确定模块,用于依据所述人头位置得到所述待识别图像中的人头区域图;
安全帽识别模块,用于将所述人头区域图输入预先训练的安全帽识别模型,利用所述安全帽识别模型对所述人头区域图进行安全帽识别,得到所述人头区域图中的人头是否佩戴有安全帽的识别结果。
7.如权利要求6所述的安全帽识别装置,其特征在于,所述人头识别模型包括第一特征提取网络、融合网络、检测器及后处理模块,其中,所述检测器的数目与所述特征提取网络输出的特征图的数目相同;
所述人头识别模块具体用于:
利用所述第一特征提取网络对所述待识别图像进行特征提取,得到多个大小依次递增的输出特征图;
按照从小到大的顺序,将多个所述输出特征图依次输入所述融合网络,利用所述融合网络进行特征融合,得到每一所述输出特征图对应的特征融合图;
利用每一所述输出特征图对应的所述检测器对每一所述特征融合图进行目标检测,得到每一所述特征融合图中人头目标框的位置及对应的人头目标框的置信度;
利用所述后处理模块、按照所有所述特征融合图中人头目标框的置信度对所有特征融合图中人头目标框的位置进行处理,将处理后的置信度大于预设阈值的所述特征融合图中人头目标框的位置对应的所述待识别图像中的位置作为所述待识别图像中的人头位置。
8.如权利要求6所述的安全帽识别装置,其特征在于,所述安全帽识别模型包括第二特征提取网络、池化层、全连接层及激活层;
所述安全帽识别模块具体用于:
将所述人头区域图输入所述第二特征提取网络进行图像特征提取,得到图像特征图;
利用所述池化层对所述图像特征图进行最大池化处理得到池化特征图;
利用所述全连接层对所述池化特征图进行降维,得到一维向量;
将所述一维向量输入所述激活层,得到人头戴安全帽的概率值,以依据所述概率值得到所述人头区域图中的人头是否佩戴有安全帽的识别结果。
9.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-5中任一项所述的安全帽识别方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-5中任一项所述的安全帽识别方法。
CN202010203042.0A 2020-03-20 2020-03-20 安全帽识别方法、装置、电子设备及存储介质 Pending CN111401278A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010203042.0A CN111401278A (zh) 2020-03-20 2020-03-20 安全帽识别方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010203042.0A CN111401278A (zh) 2020-03-20 2020-03-20 安全帽识别方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN111401278A true CN111401278A (zh) 2020-07-10

Family

ID=71432770

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010203042.0A Pending CN111401278A (zh) 2020-03-20 2020-03-20 安全帽识别方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111401278A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112149512A (zh) * 2020-08-28 2020-12-29 成都飞机工业(集团)有限责任公司 一种基于两阶段深度学习的安全帽佩戴识别方法
CN112149513A (zh) * 2020-08-28 2020-12-29 成都飞机工业(集团)有限责任公司 基于深度学习的工业制造现场安全帽佩戴识别***和方法
CN112861751A (zh) * 2021-02-22 2021-05-28 中国中元国际工程有限公司 一种机场行李房人员管理方法及装置
CN113139426A (zh) * 2021-03-12 2021-07-20 浙江智慧视频安防创新中心有限公司 一种佩戴安全帽的检测方法、装置、存储介质及终端
CN113435343A (zh) * 2021-06-29 2021-09-24 重庆紫光华山智安科技有限公司 图像识别方法、装置、计算机设备及存储介质
CN114445710A (zh) * 2022-01-29 2022-05-06 北京百度网讯科技有限公司 图像识别方法、装置、电子设备以及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504369A (zh) * 2014-12-12 2015-04-08 无锡北邮感知技术产业研究院有限公司 一种安全帽佩戴情况检测方法
CN109034215A (zh) * 2018-07-09 2018-12-18 东北大学 一种基于深度卷积神经网络的安全帽佩戴检测方法
US20190051292A1 (en) * 2017-08-14 2019-02-14 Samsung Electronics Co., Ltd. Neural network method and apparatus
CN109635697A (zh) * 2018-12-04 2019-04-16 国网浙江省电力有限公司电力科学研究院 基于YOLOv3目标检测的电力作业人员安全着装检测方法
CN109753898A (zh) * 2018-12-21 2019-05-14 中国三峡建设管理有限公司 一种安全帽识别方法及装置
CN110210274A (zh) * 2018-02-28 2019-09-06 杭州海康威视数字技术股份有限公司 安全帽检测方法、装置及计算机可读存储介质
CN110689054A (zh) * 2019-09-10 2020-01-14 华中科技大学 一种工人违规行为监测方法
CN110852183A (zh) * 2019-10-21 2020-02-28 广州大学 一种未佩戴安全帽人员识别方法、***、装置和存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504369A (zh) * 2014-12-12 2015-04-08 无锡北邮感知技术产业研究院有限公司 一种安全帽佩戴情况检测方法
US20190051292A1 (en) * 2017-08-14 2019-02-14 Samsung Electronics Co., Ltd. Neural network method and apparatus
CN110210274A (zh) * 2018-02-28 2019-09-06 杭州海康威视数字技术股份有限公司 安全帽检测方法、装置及计算机可读存储介质
CN109034215A (zh) * 2018-07-09 2018-12-18 东北大学 一种基于深度卷积神经网络的安全帽佩戴检测方法
CN109635697A (zh) * 2018-12-04 2019-04-16 国网浙江省电力有限公司电力科学研究院 基于YOLOv3目标检测的电力作业人员安全着装检测方法
CN109753898A (zh) * 2018-12-21 2019-05-14 中国三峡建设管理有限公司 一种安全帽识别方法及装置
CN110689054A (zh) * 2019-09-10 2020-01-14 华中科技大学 一种工人违规行为监测方法
CN110852183A (zh) * 2019-10-21 2020-02-28 广州大学 一种未佩戴安全帽人员识别方法、***、装置和存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JOSEPH REDMON 等: "YOLOv3: An Incremental Improvement", 《ARXIV》 *
MINGLIANG ZHONG 等: "A YOLOv3-based non-helmet-use detection for seafarer safety aboard merchant ships", 《ICAITA 2019》 *
小绿叶: "一文看懂YOLO v3", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/60944510》 *
方明 等: "基于改进YOLO v2的快速安全帽佩戴情况检测", 《光学精密工程》 *
林俊 等: "基于YOLO的安全帽检测方法", 《计算机***应用》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112149512A (zh) * 2020-08-28 2020-12-29 成都飞机工业(集团)有限责任公司 一种基于两阶段深度学习的安全帽佩戴识别方法
CN112149513A (zh) * 2020-08-28 2020-12-29 成都飞机工业(集团)有限责任公司 基于深度学习的工业制造现场安全帽佩戴识别***和方法
CN112861751A (zh) * 2021-02-22 2021-05-28 中国中元国际工程有限公司 一种机场行李房人员管理方法及装置
CN112861751B (zh) * 2021-02-22 2024-01-12 中国中元国际工程有限公司 一种机场行李房人员管理方法及装置
CN113139426A (zh) * 2021-03-12 2021-07-20 浙江智慧视频安防创新中心有限公司 一种佩戴安全帽的检测方法、装置、存储介质及终端
CN113435343A (zh) * 2021-06-29 2021-09-24 重庆紫光华山智安科技有限公司 图像识别方法、装置、计算机设备及存储介质
CN113435343B (zh) * 2021-06-29 2022-11-29 重庆紫光华山智安科技有限公司 图像识别方法、装置、计算机设备及存储介质
CN114445710A (zh) * 2022-01-29 2022-05-06 北京百度网讯科技有限公司 图像识别方法、装置、电子设备以及存储介质

Similar Documents

Publication Publication Date Title
CN111401278A (zh) 安全帽识别方法、装置、电子设备及存储介质
CN111052126B (zh) 行人属性识别与定位方法以及卷积神经网络***
CN109508688B (zh) 基于骨架的行为检测方法、终端设备及计算机存储介质
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
CN108875540B (zh) 图像处理方法、装置和***及存储介质
US9008365B2 (en) Systems and methods for pedestrian detection in images
CN110263712B (zh) 一种基于区域候选的粗精行人检测方法
KR20160143494A (ko) 현저성 정보 취득 장치 및 현저성 정보 취득 방법
CN110119726B (zh) 一种基于YOLOv3模型的车辆品牌多角度识别方法
CN106845406A (zh) 基于多任务级联卷积神经网络的头肩检测方法及装置
WO2020220663A1 (zh) 目标检测方法及装置、设备及存储介质
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
EP1774470A1 (en) Object recognition method and apparatus therefor
CN110765833A (zh) 一种基于深度学习的人群密度估计方法
CN111524145A (zh) 图片智能裁剪方法、***、计算机设备及存储介质
CN112115775A (zh) 一种基于计算机视觉的监控场景下的吸烟行为检测方法
Liu et al. Smoke-detection framework for high-definition video using fused spatial-and frequency-domain features
CN111209873A (zh) 一种基于深度学习的高精度人脸关键点定位方法及***
CN111382638A (zh) 一种图像检测方法、装置、设备和存储介质
CN112989958A (zh) 基于YOLOv4与显著性检测的安全帽佩戴识别方法
CN117475353A (zh) 基于视频的异常烟雾识别方法及***
Ramzan et al. Automatic Unusual Activities Recognition Using Deep Learning in Academia.
Zhang et al. Visual saliency: from pixel-level to object-level analysis
CN108875572B (zh) 基于背景抑制的行人重识别方法
CN102682291A (zh) 一种场景人数统计方法、装置和***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200710