CN111461017A - 一种用于城市级规模的餐饮后厨工作服高精度识别方法 - Google Patents

一种用于城市级规模的餐饮后厨工作服高精度识别方法 Download PDF

Info

Publication number
CN111461017A
CN111461017A CN202010250479.XA CN202010250479A CN111461017A CN 111461017 A CN111461017 A CN 111461017A CN 202010250479 A CN202010250479 A CN 202010250479A CN 111461017 A CN111461017 A CN 111461017A
Authority
CN
China
Prior art keywords
clothes
human body
color
network
rectangular frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010250479.XA
Other languages
English (en)
Other versions
CN111461017B (zh
Inventor
吴晓晖
王书平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Shizai Technology Co ltd
Original Assignee
Hangzhou Shizai Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Shizai Technology Co ltd filed Critical Hangzhou Shizai Technology Co ltd
Priority to CN202010250479.XA priority Critical patent/CN111461017B/zh
Publication of CN111461017A publication Critical patent/CN111461017A/zh
Application granted granted Critical
Publication of CN111461017B publication Critical patent/CN111461017B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

一种用于城市级规模的餐饮后厨工作服高精度识别方法,属于图像识别技术领域,包括以下步骤:步骤一、建立专用数据集;步骤二、训练人体关键点提取网络OpenPose,并提取图像中人体关键点;步骤三、根据步骤二中得到的关键点计算出人体外接矩形框和上身外接矩形框以及下身外接矩形框的图像;步骤四、将步骤三得到人体外接矩形框区域的图像输入到款式分类网络进行类型识别,与相应的用户数据库进行比对;步骤五、将比对获得的结果反馈至相应的门店;本发明极大提高算法准确性和鲁邦性。较好的解决了后厨场景中面临的问题;通过网络级联结构确保运行速度快和资源开销相对较小,能够满足现场部署的要求。

Description

一种用于城市级规模的餐饮后厨工作服高精度识别方法
技术领域
本发明属于图像识别技术领域,特别涉及一种用于城市级规模的餐饮后厨工作服高精度识别方法。
背景技术
卫生是餐厅赖以生存的基本条件。若不注意餐厅卫生,不仅会影响顾客的健康,也可能波及整个社会,其中的严重性及重要性,是每个餐厅经营者都不可轻视的事情。顾客对餐厅消费的首要条件就是卫生环境,餐厅为顾客提供合乎卫生标准的餐点及饮料是餐厅的重要职责。对于餐厅本身来说,质量是生命,卫生是最起码也是最基本的条件。现在全国食品防疫部门或***门对餐厅的食品卫生实施监督的要求非常严格,食品监督管理局实施明厨亮灶等工程,要求餐饮门店后厨装配监控相机并接入到监督局的监控***中进行统一监控后厨作业流程、后厨人员行为和着装和后厨环境等。但是人工监控和筛查后厨人员行为和着装非常缓慢和耗时。运用计算机视觉自动识别后厨人员着装的需求越来越迫切。
有很多计算机视觉的方法已经应用于工作服检测,但是城市级食安监管平台,需要用算法自动分析全城数万个监控摄像头视频(包括各种类型餐饮后厨、学校食堂),从中寻找出违规操作和食安隐患。后厨场景相对其他的环境存在以下几个难点:1.后厨服装颜色,类型特别繁多,因为餐饮类型不同工作服颜色和类型就会存在差异;2.场景较复杂,后厨场景光照变化较多,后厨作业会严重影响光照条件导致图像质量下降;3.后厨遮挡非常严重,后厨空间较为狭窄,物品设备及人员较多会出现人员遮挡。城市级规模的后厨场景较为复杂且不可控,对算法的鲁棒性提出了很高的要求,现有的算法存在明显缺陷:1.采用单一网络直接判定工作服颜色和类型,这种简单粗暴地办法只适合在场景单一的近景场景,在城市级规模环境会因为上述三个问题造成大量误判和漏判;2.采用图像分割算法进行工作服识别,这种算法对光照极其敏感,无法应对光照复杂的环境,并且该算法资源消耗特别高,运行速度较慢,给实际部署造成极大成本开销。
发明内容
本发明的目的在于提供一种用于城市级规模的餐饮后厨工作服高精度识别方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种用于城市级规模的餐饮后厨工作服高精度识别方法,包括以下步骤:
步骤一、建立专用数据集;
步骤二、训练人体关键点提取网络OpenPose,并提取图像中人体关键点;
步骤三、根据步骤二中得到的关键点计算出人体外接矩形框和上身外接矩形框以及下身外接矩形框的图像;
步骤四、将步骤三得到人体外接矩形框区域的图像输入到款式分类网络进行类型识别,得到工作服类型,若服装类型为上衣裤子,再将上身外接矩形框以及下身外接矩形框的图像输入到颜色分类网络识别,最后,将工作服类型和颜色与相应的用户数据库进行比对;
步骤五、将比对获得的结果反馈至相应的门店。
作为优选,所述步骤一中的专用数据库包含总计人体目标超过100万个。
作为优选,所述步骤一的具体内容如下:
①工作服数据集DataSetcolor包含上衣颜色和下身衣服颜色2个大类,其中,上衣颜色和下身衣服颜色均包含白色、红色、蓝色、黑色、黄色、灰色、绿色、紫色及非纯色任意图案;工作服款式数据集DataSetstyle包括衣服样式和围裙样式,其中,围裙样式包括半身式、全包式、挂肩式、挂颈式以及未穿围裙,衣服样式包括上衣裤子、大衣、连衣裙子、上衣裙子以及上衣短裤;
②采用上述两个数据集作为网络训练集训练用于识别工作服的识别网络。采用工作服款式数据集DataSetstyle训练工作服款式分类网络Netstyle,其中,训练工作服款式分类网络Netstyle选用resnet50作为特征提取网络,然后,在darknet框架下采用迁移学习方法训练,具体来说,将初始学习率lr=0.01,采用steps方法进行学习率更新,同时,通过随机裁剪,曝光,旋转以及镜像等方法进行训练数据增强,经过测试,当迭代测试iters=260000时,网络模型的准确率最高;同理,工作服颜色数据集DataSetcolor训练工作服颜色分类网络Netcolor,网络选用resnet18作为特征提取网络,在darknet框架下采用迁移学习方法训练上述网络,其中,初始学习率设定为lr=0.001,采用随机裁剪,曝光,旋转以及镜像等方法进行训练数据增强,经过测试迭代iters=180000次网络模型的准确率最高。
作为优选,所述步骤二具体内容如下:
S1:首先添加后厨样本重新训练人体关键点提取网络OpenPose;利用上述的网络提取人体关键点坐标矩阵:
Figure BDA0002435313380000041
其中,n表示人体ID,在该发明中提取人体中25个关键点,pn0表示第n个人体的第一个关键点,pn24表示第n个人体的第24个关键点,其中pn24=[x y],x,y为坐标点的横纵坐标。
作为优选,根据上述关键点计算人体外接矩形框:
Figure BDA0002435313380000042
其中,n为人体ID,xn为第n个人体外接矩形框的左上点的横坐标,yn为第n个人体外接矩形框的左上点的纵坐标,wn为第n个人体外接矩形框的宽度,hn为第n个人体外接矩形框的高度,此时,人体上半身外接矩形框:
Figure BDA0002435313380000043
以及人体下半身外接矩形框:
Figure BDA0002435313380000044
人体外接矩形框计算过程是遍历keypoints,找到每一行最小横坐标xmin,最大横坐标xmax,最小纵坐标ymin,最大纵坐标ymax,计算外接矩形框左上点和右下点的坐标:
Figure BDA0002435313380000051
yleftup=ymin
Figure BDA0002435313380000052
yrightbottom=ymax
进而求得:
xn=xleftup
yn=yleftup
wn=xrightbottom-xleftup
hn=yrightbottom-yleftup
同理,人体上半身外接矩形框计算过程是遍历keypoints,找到人体颈部关键点的横纵坐标xneck、yneck,找到人体臀部关键点的横纵坐标xmidhip,ymidhip,进而求得:
xn=xleftup
yn=yneck
wn=xrightbottom-xleftup
hn=ymidhip-yneck
人体下半身外接矩形框计算过程是:
xn=xleftup,yn=ymidhip,wn=xrightbottom-xleftup,hn=yrightbottom-ymidhip
作为优选,所述步骤四的具体步骤内容如下:
SS1:如果得到服装类型tn=上衣裤子,在输入图像中分别截取上述得到人体上半身和下半身外接矩形框区域的图像输入到颜色分类网络进行颜色识别,得到上衣颜色和裤子颜色的矩阵:
Figure BDA0002435313380000061
其中,cupn表示上衣颜色,cdownn表示裤子颜色。
SS2:将款式分类网络和颜色分类网络两个网络得到的上衣颜色,裤子颜色,衣服款式,围裙款式进行汇总,得到工作服信息矩阵:
Figure BDA0002435313380000062
其中,tn表示服装类型,cn表示服装颜色,将该信息矩阵输入到门店数据库进行比对确定是否违规。
SS3:如果得到服装类型tn=大衣、连衣裙、围裙,则不需要进行颜色识别,直接将服装类型和门店数据库比对。
与现有技术相比,本发明的有益效果是:本发明建立了庞大的专用数据集,为网络模型的准确性提供了保障;采用人体关键点网络与两个分类网络级联的方法进行判定,能够极大提高算法准确性和鲁邦性。较好的解决了后厨场景中面临的问题;人体关键点网络的应用解决后厨场景中遮挡比较严重的问题,并且精准分割上身和下身边界,用于减小后续的分类网络的难度;两个分类网络分别负责识别着装类型和着装颜色,将颜色和类型结合起来进行决策,提高准确率;网络级联结构运行速度快和资源开销相对较小,能够满足现场部署的要求。
附图说明
图1是本发明架构示意图;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清除,完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部实施例。
如图1所示的一种用于城市级规模的餐饮后厨工作服高精度识别方法,包括人体关键点网络、第一分类网络和第二分类网络;其中,第一分类网络为款式分类网络,第二分类网络为颜色分类网络,通过人体关键点网络与两个分类网络级联的方法提高算法准确性和鲁棒性,提高识别的准确率,具体步骤如下:
步骤一:建立庞大的专用数据集,所述专用数据集包括工作服颜色数据集DataSetcolor和工作服款式数据集DataSetstyle,数据集DataSetcolor和DataSetstyle包含总计人体目标超过100万个,提高了工作服识别模型和检测模型的准确率。
①工作服数据集DataSetcolor包含上衣颜色和下身衣服颜色2个大类,其中,上衣颜色和下身衣服颜色均包含白色、红色、蓝色、黑色、黄色、灰色、绿色、紫色及非纯色任意图案;工作服款式数据集DataSetstyle包括衣服样式和围裙样式,其中,围裙样式包括半身式、全包式、挂肩式、挂颈式以及未穿围裙,衣服样式包括上衣裤子、大衣、连衣裙子、上衣裙子以及上衣短裤;值得一说的是,若工作服款式为大衣、连衣裙、围裙,则不需要进行颜色识别。
②采用上述两个数据集作为网络训练集训练用于识别工作服的识别网络。采用工作服款式数据集DataSetstyle训练工作服款式分类网络Netstyle,其中,训练工作服款式分类网络Netstyle选用resnet50作为特征提取网络,然后,在darknet框架下采用迁移学习方法训练,具体来说,将初始学习率lr=0.01,采用steps方法进行学习率更新,同时,通过随机裁剪,曝光,旋转以及镜像等方法进行训练数据增强,经过测试,当迭代测试iters=260000时,网络模型的准确率最高;同理,工作服颜色数据集DataSetcolor训练工作服颜色分类网络Netcolor,网络选用resnet18作为特征提取网络,在darknet框架下采用迁移学习方法训练上述网络,其中,初始学习率设定为lr=0.001,采用随机裁剪,曝光,旋转以及镜像等方法进行训练数据增强,经过测试迭代iters=180000次网络模型的准确率最高。
步骤二:重新训练人体关键点提取网络OpenPose,并提取图像中人体关键点。具体内容如下:
S1:首先添加后厨样本重新训练人体关键点提取网络OpenPose;利用上述的网络提取人体关键点坐标矩阵:
Figure BDA0002435313380000081
其中,n表示人体ID,在该发明中提取人体中25个关键点,pn0表示第n个人体的第一个关键点,pn24表示第n个人体的第24个关键点,其中,
pn24=[x y],x,y为坐标点的横纵坐标。
S2:根据上述关键点计算出人体外接矩形框和上身外接矩形框以及下身外接矩形框。根据上述关键点计算人体外接矩形框:
Figure BDA0002435313380000091
其中,n为人体ID,xn为第n个人体外接矩形框的左上点的横坐标,yn为第n个人体外接矩形框的左上点的纵坐标,wn为第n个人体外接矩形框的宽度,hn为第n个人体外接矩形框的高度,此时,
人体上半身外接矩形框:
Figure BDA0002435313380000092
以及人体下半身外接矩形框:
Figure BDA0002435313380000093
人体外接矩形框计算过程是遍历keypoints,找到每一行最小横坐标xmin,最大横坐标xmax,最小纵坐标ymin,最大纵坐标ymax,计算外接矩形框左上点和右下点的坐标:
Figure BDA0002435313380000094
yleftup=ymin
Figure BDA0002435313380000095
yrightbottom=ymax
进而求得,xn=xleftup,yn=yleftup,wn=xrightbottom-xleftup,hn=yrightbottom-yleftup;同理,人体上半身外接矩形框计算过程是遍历keypoints,找到人体颈部关键点的横纵坐标xneck、yneck,找到人体臀部关键点的横纵坐标xmidhip,ymidhip,进而求得xn=xleftup,yn=yneck,wn=xrightbottom-xleftup,hn=ymidhip-yneck;人体下半身外接矩形框计算过程是xn=xleftup,yn=ymidhip,wn=xrightbottom-xleftup,hn=yrightbottom-ymidhip
步骤三:输入图像,即截取步骤得到人体外接矩形框区域的图像输入到款式分类网络进行类型识别,得到工作服类型的矩阵:
Figure BDA0002435313380000101
其中tn表示服装类型。
SS1:如果得到服装类型tn=上衣裤子,在输入图像中分别截取上述得到人体上半身和下半身外接矩形框区域的图像输入到颜色分类网络进行颜色识别,得到上衣颜色和裤子颜色的矩阵:
Figure BDA0002435313380000102
其中,cupn表示上衣颜色,cdownn表示裤子颜色。
SS2:将款式分类网络和颜色分类网络两个网络得到的上衣颜色,裤子颜色,衣服款式,围裙款式进行汇总,得到工作服信息矩阵:
Figure BDA0002435313380000103
其中,tn表示服装类型,cn表示服装颜色,将该信息矩阵输入到门店数据库进行比对确定是否违规。
SS3:如果得到服装类型tn=大衣、连衣裙、围裙,则不需要进行颜色识别,直接将服装类型和门店数据库比对。
步骤四:将比对获得的结果反馈至相应的门店。
在本发明的描述中,需要理解的是,术语“中心”、“横向”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,除非另有说明,“若干个”的含义是两个或两个以上。另外,术语“包括”及其任何变形,意图在于覆盖不排他的包含。
本发明按照实施例进行了说明,在不脱离本原理的前提下,本装置还可以作出若干变形和改进。应当指出,凡采用等同替换或等效变换等方式所获得的技术方案,均落在本发明的保护范围内。

Claims (6)

1.一种用于城市级规模的餐饮后厨工作服高精度识别方法,其特征在于:包括以下步骤:
步骤一、建立专用数据集;
步骤二、训练人体关键点提取网络OpenPose,并提取图像中人体关键点;
步骤三、根据步骤二中得到的关键点计算出人体外接矩形框和上身外接矩形框以及下身外接矩形框的图像;
步骤四、将步骤三得到人体外接矩形框区域的图像输入到款式分类网络进行类型识别,得到工作服类型,若服装类型为上衣裤子,再将上身外接矩形框以及下身外接矩形框的图像输入到颜色分类网络识别,最后,将工作服类型和颜色与相应的用户数据库进行比对;
步骤五、将比对获得的结果反馈至相应的门店。
2.根据权利要求1所述的一种用于城市级规模的餐饮后厨工作服高精度识别方法,其特征在于:所述步骤一中的专用数据库包含总计人体目标超过100万个。
3.根据权利要求1所述的一种用于城市级规模的餐饮后厨工作服高精度识别方法,其特征在于:所述步骤一的具体内容如下:
①工作服数据集DataSetcolor包含上衣颜色和下身衣服颜色2个大类,其中,上衣颜色和下身衣服颜色均包含白色、红色、蓝色、黑色、黄色、灰色、绿色、紫色及非纯色任意图案;工作服款式数据集DataSetstyle包括衣服样式和围裙样式,其中,围裙样式包括半身式、全包式、挂肩式、挂颈式以及未穿围裙,衣服样式包括上衣裤子、大衣、连衣裙子、上衣裙子以及上衣短裤;
②采用上述两个数据集作为网络训练集训练用于识别工作服的识别网络;采用工作服款式数据集DataSetstyle训练工作服款式分类网络Netstyle,其中,训练工作服款式分类网络Netstyle选用resnet50作为特征提取网络,然后,在darknet框架下采用迁移学习方法训练,具体来说,将初始学习率lr=0.01,采用steps方法进行学习率更新,同时,通过随机裁剪,曝光,旋转以及镜像等方法进行训练数据增强,经过测试,当迭代测试iters=260000时,网络模型的准确率最高;同理,工作服颜色数据集DataSetcolor训练工作服颜色分类网络Netcolor,网络选用resnet18作为特征提取网络,在darknet框架下采用迁移学习方法训练上述网络,其中,初始学习率设定为lr=0.001,采用随机裁剪,曝光,旋转以及镜像等方法进行训练数据增强,经过测试迭代iters=180000次网络模型的准确率最高。
4.根据权利要求1所述的一种用于城市级规模的餐饮后厨工作服高精度识别方法,其特征在于:所述步骤二具体内容如下:S1:首先添加后厨样本重新训练人体关键点提取网络OpenPose;利用上述的网络提取人体关键点坐标矩阵:
Figure FDA0002435313370000021
其中,n表示人体ID,在该发明中提取人体中25个关键点,pn0表示第n个人体的第一个关键点,pn24表示第n个人体的第24个关键点,其中pn24=[x y],x,y为坐标点的横纵坐标。
5.根据权利要求1所述的一种用于城市级规模的餐饮后厨工作服高精度识别方法,其特征在于:根据上述关键点计算人体外接矩形框:
Figure FDA0002435313370000031
其中,n为人体ID,xn为第n个人体外接矩形框的左上点的横坐标,yn为第n个人体外接矩形框的左上点的纵坐标,wn为第n个人体外接矩形框的宽度,hn为第n个人体外接矩形框的高度,此时,
人体上半身外接矩形框
Figure FDA0002435313370000032
以及人体下半身外接矩形框
Figure FDA0002435313370000033
人体外接矩形框计算过程是遍历keypoints,找到每一行最小横坐标xmin,最大横坐标xmax,最小纵坐标ymin,最大纵坐标ymax,计算外接矩形框左上点和右下点的坐标:
Figure FDA0002435313370000034
yleftup=ymin
Figure FDA0002435313370000035
yrightbottom=ymax;进而求得xn=xleftup,yn=yleftup,wn=xrightbottom-xleftup,hn=yrightbottom-yleftup;同理,人体上半身外接矩形框计算过程是遍历keypoints,找到人体颈部关键点的横纵坐标xneck、yneck,找到人体臀部关键点的横纵坐标xmidhip,ymidhip,进而求得xn=xleftup,yn=yneck,wn=xrightbottom-xleftup,hn=ymidhip-yneck;人体下半身外接矩形框计算过程是xn=xleftup,yn=ymidhip,wn=xrightbottom-xleftup,hn=yrightbottom-ymidhip
6.根据权利要求1所述的一种用于城市级规模的餐饮后厨工作服高精度识别方法,其特征在于:所述步骤四的具体步骤内容如下:SS1:如果得到服装类型tn=上衣裤子,在输入图像中分别截取上述得到人体上半身和下半身外接矩形框区域的图像输入到颜色分类网络进行颜色识别,得到上衣颜色和裤子颜色的矩阵
Figure FDA0002435313370000041
其中,cupn表示上衣颜色,cdownn表示裤子颜色。
SS2:将款式分类网络和颜色分类网络两个网络得到的上衣颜色,裤子颜色,衣服款式,围裙款式进行汇总,得到工作服信息矩阵
Figure FDA0002435313370000042
其中,tn表示服装类型,cn表示服装颜色,将该信息矩阵输入到门店数据库进行比对确定是否违规。
SS3:如果得到服装类型tn=大衣、连衣裙、围裙,则不需要进行颜色识别,直接将服装类型和门店数据库比对。
CN202010250479.XA 2020-04-01 2020-04-01 一种用于城市级规模的餐饮后厨工作服高精度识别方法 Active CN111461017B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010250479.XA CN111461017B (zh) 2020-04-01 2020-04-01 一种用于城市级规模的餐饮后厨工作服高精度识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010250479.XA CN111461017B (zh) 2020-04-01 2020-04-01 一种用于城市级规模的餐饮后厨工作服高精度识别方法

Publications (2)

Publication Number Publication Date
CN111461017A true CN111461017A (zh) 2020-07-28
CN111461017B CN111461017B (zh) 2024-01-19

Family

ID=71685783

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010250479.XA Active CN111461017B (zh) 2020-04-01 2020-04-01 一种用于城市级规模的餐饮后厨工作服高精度识别方法

Country Status (1)

Country Link
CN (1) CN111461017B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860471A (zh) * 2020-09-21 2020-10-30 之江实验室 一种基于特征检索的工服穿戴识别方法及***
CN112183472A (zh) * 2020-10-28 2021-01-05 西安交通大学 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632368A (zh) * 2013-11-29 2014-03-12 苏州有色金属研究院有限公司 金属板带材表面图像缺陷合并方法
KR20140114741A (ko) * 2013-03-19 2014-09-29 삼성전자주식회사 인체 포즈 추정 장치 및 방법
US20170083789A1 (en) * 2015-09-22 2017-03-23 Swati Shah Clothing matching system and method
US20180114084A1 (en) * 2015-07-13 2018-04-26 Baidu Online Network Technology (Beijing) Co., Ltd Method for recognizing picture, method and apparatus for labelling picture, and storage medium
CN108229288A (zh) * 2017-06-23 2018-06-29 北京市商汤科技开发有限公司 神经网络训练及衣服颜色检测方法、装置、存储介质、电子设备
CN108805135A (zh) * 2018-06-14 2018-11-13 深圳码隆科技有限公司 一种服装尺寸数据识别方法、装置和用户终端
WO2018220824A1 (ja) * 2017-06-02 2018-12-06 三菱電機株式会社 画像識別装置
CN109766868A (zh) * 2019-01-23 2019-05-17 哈尔滨工业大学 一种基于身体关键点检测的真实场景遮挡行人检测网络及其检测方法
US10321728B1 (en) * 2018-04-20 2019-06-18 Bodygram, Inc. Systems and methods for full body measurements extraction
CN110263605A (zh) * 2018-07-18 2019-09-20 桂林远望智能通信科技有限公司 基于二维人体姿态估计的行人服饰颜色识别方法及装置
CN110334675A (zh) * 2019-07-11 2019-10-15 山东大学 一种基于人体骨骼关键点分割和列卷积的行人重识别方法
CN110493512A (zh) * 2019-07-31 2019-11-22 幻想动力(上海)文化传播有限公司 摄影构图方法、装置、摄影设备、电子装置及存储介质
CN110555393A (zh) * 2019-08-16 2019-12-10 北京慧辰资道资讯股份有限公司 一种从视频数据中分析行人着装特征的方法和装置
CN110610499A (zh) * 2019-08-29 2019-12-24 杭州光云科技股份有限公司 一种图像中自动裁取局部细节图的方法
WO2020052169A1 (zh) * 2018-09-12 2020-03-19 深圳云天励飞技术有限公司 一种服饰属性识别检测方法及装置
WO2020051959A1 (zh) * 2018-09-10 2020-03-19 深圳码隆科技有限公司 基于图片的服装尺寸测量方法及装置

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140114741A (ko) * 2013-03-19 2014-09-29 삼성전자주식회사 인체 포즈 추정 장치 및 방법
CN103632368A (zh) * 2013-11-29 2014-03-12 苏州有色金属研究院有限公司 金属板带材表面图像缺陷合并方法
US20180114084A1 (en) * 2015-07-13 2018-04-26 Baidu Online Network Technology (Beijing) Co., Ltd Method for recognizing picture, method and apparatus for labelling picture, and storage medium
US20170083789A1 (en) * 2015-09-22 2017-03-23 Swati Shah Clothing matching system and method
WO2018220824A1 (ja) * 2017-06-02 2018-12-06 三菱電機株式会社 画像識別装置
CN108229288A (zh) * 2017-06-23 2018-06-29 北京市商汤科技开发有限公司 神经网络训练及衣服颜色检测方法、装置、存储介质、电子设备
US10321728B1 (en) * 2018-04-20 2019-06-18 Bodygram, Inc. Systems and methods for full body measurements extraction
CN108805135A (zh) * 2018-06-14 2018-11-13 深圳码隆科技有限公司 一种服装尺寸数据识别方法、装置和用户终端
CN110263605A (zh) * 2018-07-18 2019-09-20 桂林远望智能通信科技有限公司 基于二维人体姿态估计的行人服饰颜色识别方法及装置
WO2020051959A1 (zh) * 2018-09-10 2020-03-19 深圳码隆科技有限公司 基于图片的服装尺寸测量方法及装置
WO2020052169A1 (zh) * 2018-09-12 2020-03-19 深圳云天励飞技术有限公司 一种服饰属性识别检测方法及装置
CN109766868A (zh) * 2019-01-23 2019-05-17 哈尔滨工业大学 一种基于身体关键点检测的真实场景遮挡行人检测网络及其检测方法
CN110334675A (zh) * 2019-07-11 2019-10-15 山东大学 一种基于人体骨骼关键点分割和列卷积的行人重识别方法
CN110493512A (zh) * 2019-07-31 2019-11-22 幻想动力(上海)文化传播有限公司 摄影构图方法、装置、摄影设备、电子装置及存储介质
CN110555393A (zh) * 2019-08-16 2019-12-10 北京慧辰资道资讯股份有限公司 一种从视频数据中分析行人着装特征的方法和装置
CN110610499A (zh) * 2019-08-29 2019-12-24 杭州光云科技股份有限公司 一种图像中自动裁取局部细节图的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
吴苗苗等: "款式特征描述符的服装图像细粒度分类方法", 计算机辅助设计与图形学学报, vol. 31, no. 05, pages 780 - 791 *
周俊等: "基于立体视觉的水果采摘机器人***设计", 农业机械学报, vol. 41, no. 06, pages 158 - 162 *
季晨颖;赵鸣博;李潮: "姿态检测网络在服装关键点检测中的应用", 中国科技论文, vol. 15, no. 03, pages 255 - 259 *
梁永春等: "软间隔最大化在露天矿***区域人员疏散自动巡查中的应用研究", 华北科技学院学报, vol. 17, no. 01, pages 45 - 51 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860471A (zh) * 2020-09-21 2020-10-30 之江实验室 一种基于特征检索的工服穿戴识别方法及***
CN112183472A (zh) * 2020-10-28 2021-01-05 西安交通大学 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法

Also Published As

Publication number Publication date
CN111461017B (zh) 2024-01-19

Similar Documents

Publication Publication Date Title
CN103824059B (zh) 一种基于视频图像序列的人脸表情识别方法
CN106934386B (zh) 一种基于自启发式策略的自然场景文字检测方法及***
CN106548165B (zh) 一种基于图像分块加权的卷积神经网络的人脸识别方法
CN107066972B (zh) 基于多通道极值区域的自然场景文本检测方法
CN103761529B (zh) 一种基于多色彩模型和矩形特征的明火检测方法和***
CN110321815A (zh) 一种基于深度学习的道路裂缝识别方法
CN104794491B (zh) 基于预分类的模糊聚类钢板表面缺陷检测方法
CN103745210B (zh) 一种白细胞分类方法及装置
CN101702197A (zh) 一种道路交通标志的检测方法
CN103632158B (zh) 森林防火监控方法及森林防火监控***
CN111461017A (zh) 一种用于城市级规模的餐饮后厨工作服高精度识别方法
CN108898047A (zh) 基于分块遮挡感知的行人检测方法及***
CN105894015B (zh) 一种道闸状态分析方法和***
CN105808665B (zh) 一种新的基于手绘草图的图像检索方法
CN110263609A (zh) 一种安全帽佩戴情况的自动识别方法
CN109816625A (zh) 一种视频质量评分实现方法
CN108460407A (zh) 一种基于深度学习的行人属性精细化识别方法
CN108734184A (zh) 一种对敏感图像进行分析的方法及装置
CN108181316A (zh) 一种基于机器视觉的竹条缺陷检测方法
CN112183472A (zh) 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法
CN106023199B (zh) 一种基于图像分析技术的烟气黑度智能检测方法
CN107730499A (zh) 一种基于nu‑支持向量机的白细胞分类方法
CN109215091A (zh) 一种基于图表示的服装流行色彩自动提取方法
CN105138975B (zh) 一种基于深度信念网络的人体肤色区域分割方法
CN108038510A (zh) 一种基于疑似火焰区域特征的检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant