CN112183287A - 一种移动机器人在复杂背景下的人数统计方法 - Google Patents
一种移动机器人在复杂背景下的人数统计方法 Download PDFInfo
- Publication number
- CN112183287A CN112183287A CN202011002069.XA CN202011002069A CN112183287A CN 112183287 A CN112183287 A CN 112183287A CN 202011002069 A CN202011002069 A CN 202011002069A CN 112183287 A CN112183287 A CN 112183287A
- Authority
- CN
- China
- Prior art keywords
- detection
- mobile robot
- visible light
- training
- light image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000001514 detection method Methods 0.000 claims abstract description 108
- 238000012549 training Methods 0.000 claims description 38
- 230000006870 function Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 16
- 238000012795 verification Methods 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 5
- 238000013526 transfer learning Methods 0.000 claims description 4
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000001914 filtration Methods 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种移动机器人在复杂背景下的人数统计方法,通过深度学习技术对移动机器人上采集到的可见光图像做初步检测,再通过红外摄像头采集得到的红外图像对初步的检测结果做进一步的结果过滤,完成移动机器人在复杂背景下的人数统计问题,解决了现有技术方案检测精度不高、误检现象严重,无法满足监狱等特殊场景对检测结果要求严格的问题。
Description
技术领域
本发明涉及移动机器人技术领域,具体而言,涉及一种移动机器人在复杂背景下的人数统计方法。
背景技术
目前,现有的在复杂背景下的人数检测方法大多存在速度慢、准确度低、可靠性差的问题,导致在一些对准确率、误检率要求较为严格的场景完全不适用。在申请号为CN109359577A的发明专利中,介绍了“一种基于机器学习的复杂背景下人数检测***”,它基于红外图像,从红外图像视频流中做多尺度通道特征叠加,使用机器学习算法中的Adaboost算法训练,实现对人数的检测。然而,红外图像本身信息有限,再加上分类所使用的通道特征全靠人工选择,这从数据信息来源上就限制了此类算法的准确度,在加上诸如灯源、光滑反射物等会给红外图像带来极大干扰,从而限制了其适用场景。随着深度学习技术的发展,计算机视觉方向取得了极大的进步,在人脸检测、行人检测等视觉任务上大大提高了基于传统图像处理或机器学习算法的方法的精度。例如,2018年,张等人就关注了遮挡问题下的行人检测,在论文《Occlusion-aware R-CNN:Detecting Pedestrians in aCrowd》中结合了身体部件的思想,把人体分成5个部分逐一处理,再做特征融合,并调整损失函数设计任务目标,基于二阶段的目标检测方法Faster RCNN实现在复杂背景下的行人检测。复杂背景下的一直是目标检测人物的难点,然而基于深度学习的方法通常需要大量图像训练模型,当图像分辨率不高、目标较小时,往往伴随着严重过拟合现象,出现误检现象。在监狱人数检查等特殊场景下,通常需要较高的召回率,即较低的误检率。在光线不足、人员遮挡等条件下,如果把灯、衣服错误检测成了人,这是不能接受的。所以亟需提供一种方案以便于提高移动机器人在复杂背景下的人员检测与统计的准确性和可靠性。
发明内容
本发明的目的在于提供一种移动机器人在复杂背景下的人数统计方法,用以实现提高移动机器人在复杂背景下的人员检测与统计的准确性和可靠性的技术效果。
本发明提供了一种移动机器人在复杂背景下的人数统计方法,包括如下步骤:
步骤S1、获取移动移动机器人拍摄的第一可见光图像,对所述第一可见光图像进行标注,构建在具体环境下的人员检测数据集,并将所述人员检测数据集划分为训练集、验证集和测试集;其中,标注时的标注部位为人员的头部;
步骤S2、以darknet-53网络作为特征提取骨架网络,使用一阶段方法YOLO v3的目标检测框架构建检测模型并微调,具体为调整激活函数和损失函数的微调,其中激活函数为Mish函数表达式如下:
Mish(x)=x·tanh(log(1+ex))
损失函数为focal loss函数,表达式为:
式中,y是检测框真实标签,p为预测值,α为正负样本平衡参数,γ为难易样本平衡参数;
步骤S3、对所述训练集进行数据增强处理,然后送入所述检测模型进行训练;
步骤S4、使用迁移学***均误差精度均值满足要求的所述检测模型;
步骤S5、获取移动机器人运行时拍摄的第二可见光图像和红外图像,对所述第二可见光图像和所述红外图像进行投影对齐处理;
步骤S6、获取设置的检测超参数,并通过训练好的所述检测模型对所述第二可见光图像进行人员检测,得到初步的检测框集合;
步骤S7、分析所述检测框集合中的各个检测框中的红外图像像素累计强度是否超过设定阈值,若超过设定阈值,则确认目标,输出对应的检测结果。
进一步地,所述步骤S3中对训练集进行数据增强处理的方式至少包括水平翻转、随机裁剪取样和随机旋转。
进一步地,所述步骤S7中的检测模型进行检测时的置信度范围为0.2~0.4。
进一步地,移动机器人对目标场景进行人员检测时,根据设置的时间间隔至少按照步骤S1~S7的过程执行3次,并以检测到的人数最多的一次的输出结果作为最终的检测结果。
进一步地,所述步骤S7中的所述像素累计强度计算方式为:
其中,RGB(x',y')表示红外图像的点坐标投影在可见光图像上的点坐标;wj为表示第j个检测框的宽度;hj为第j个检测框的高度;计算时设定阈值不低于0.8。
本发明的有益效果为:基于深度学习技术,以及可见光和红外图像的数据信息融合,提供了一套高精度、低误检率的人数检测方案,完成移动机器人在复杂背景下的人数统计,解决现有技术方案在复杂场景中检测精度不高、误检现象严重,无法满足监狱等对检测结果要求严格的特殊场景等问题,对遮挡、光照、夜间等复杂环境条件表现出良好的运行性能。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的一种移动机器人在复杂背景下的人数统计方法流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参看图1,图1为本发明实施例提供的一种移动机器人在复杂背景下的人数统计方法流程示意图。
经发明人研究发现,在普通环境中运行良好的人数检测方法,在复杂背景大多存在速度较慢、准确度较低、可靠性较差的问题,导致在一些对准确率、误检率要求较为严格的场景不完全适用。所以为了提高移动机器人进行人员检测时的精度、降低漏检概率,本发明实施例提供了一种移动机器人在复杂背景下的人数统计方法,其具体流程如下所述。
第一步:获取移动移动机器人拍摄的第一可见光图像,对第一可见光图像进行标注,构建在具体环境下的人员检测数据集,并将人员检测数据集划分为训练集、验证集和测试集。
在一种实施方式中,可以在配有SLAM自动导航的移动机器人上安装可见光和红外摄像头,然后拍摄可见光图像,并使用标注工具labelme进行数据标注,并6:2:2的比例划分为训练集、验证集、测试集三部分,其中训练集用来训练数据、验证集用来调整、选择模型、测试集用来测试最终的模型精度。在进行数据标注时,因为考虑到头部是人体红外图像强度相对较高的地方,同时可见光图像中,即使在睡觉、生活日常、俯视拍照等复杂条件下,头部一般遮挡较少,所以可以只标注人员的头部,更方便检测。
需要说明的是,训练集、验证集、测试集的划分并不局限于6:2:2的比例,可以根据实际需求进行调整。
第二步:以darknet-53网络作为特征提取骨架网络,使用一阶段方法YOLO v3的目标检测框架构建检测模型并进行微调;其中,进行微调时检测模型的激活函数为Mish函数,表达式为:
Mish(x)=x·tanh(log(1+ex))
损失函数为focal loss函数,表达式为:
式中,y是检测框真实标签,p为预测值,α为正负样本平衡参数,γ为难易样本平衡参数。
通过上述方式微调YOLO v3,虽然激活函数使用Mish函数增加了一定计算量,但是能带来更好的负梯度信息传递,提供更好的稳定性;同时通过focal loss函数可以在一定程度上能平衡特征层正负样本的比例失衡问题,同时增加对困难样本的重点学习。
第三步:对训练集进行数据增强处理,然后送入第二步的检测模型进行训练。
在一种实施方式中,在获取到训练集数据以后,可以先对训练集进行数据增强处理,然后再送入检测模型,根据设置的最大迭代次数对检测模型进行训练。具体地,在进行数据增强处理时,可以对训练集进行水平翻转、随机裁剪取样、随机旋转等处理,以增强模型对数据噪声的稳定性,提高泛化能力。
第四步:使用迁移学***均误差精度均值满足要求的检测模型。
在一种实施方式中,可以使用迁移学***均误差精度均值(mAP)达到所需要求,多次调整超参数,通过验证集挑选mAP最高的最佳模型。
第五步:获取移动机器人拍摄的第二可见光图像和红外图像,对第二可见光图像和红外图像进行投影对齐处理。
在一种实施方式中,当获取到mAP最高的检测模型后,就可以通过移动机器人上的可见光和红外摄像头再次拍摄当前检测环境的第二可见光图像和红外图像,然后对第二可见光图像和红外图像进行投影对齐处理。
具体地,可以通过人工判断红外图像中高亮部分与可见光中实际物体的对应关系,并手工标注10组的对应点集,再使用RANSAC算法求取从红外图像到可见光图像的投影变换矩阵H,此投影变换矩阵是固定的,于是有投影关系:
RGB(x',y')=H·Infrared(x,y)
其中,Infrared(x,y)为红外图像的点坐标;RGB(x',y')表示Infrared(x,y)投影在可见光图像上的点坐标;H表示投影变换矩阵。
需要说明的是,对应点集的组数并不局限于上述的10组,只要对应点集的组数不少于4组,能够达到投影对齐的目的,用户可以根据实际需求进行标注。投影变换矩阵仅需一次手动配准计算,此后即可固定下来,直接用于后续的红外图像到可见光图像的投影。
第六步:获取设置的检测超参数,并通过训练好的所述检测模型对所述第二可见光图像进行人员检测,得到初步的检测框集合。
在一种实施方式中,在获取到用户设置的检测超参数后,就可以通过训练好的检测模型对第二可见光图像进行人员检测,得到初步的检测框集合S={box1(x1,y1,w1,h1),box2(x2,y2,w2,h2),…},其中box为检测框,x为检测框的左上点横坐标,y为检测框的左上点纵坐标,w为检测框的宽度,h为检测框的宽度的高度。另外需要说明的是,检测模型进行人员检测时的置信度范围可以设为0.2~0.4,从而保证能以较高的容忍度完整检测出所有的人员,允许一定的误检测。
第七步:分析所述检测框集合中的各个检测框中的红外图像像素累计强度是否超过设定阈值,若超过设定阈值,则确认目标,输出对应的检测结果。
在一种实施方式中,红外图像像素累计强度的计算方式为:
其中,RGB(x',y')表示红外图像的点坐标投影在可见光图像上的点坐标;wj为表示第j个检测框的宽度;hj为第j个检测框的高度,计算时设定阈值不低于0.8。若红外图像的像素累计强度I超过设定阈值,则输出对应的结果为最终结果,否则将该输出结果作为候选结果。
为了测试本发明的实际应用情况,本实施例在某看守所,进行了验证测试(本次验证测试时检测模型的置信度设为0.4,像素累计强度I的设定阈值为0.85)。具体地,在某一夜巡机器人上搭载可见光和红外双摄像头,在对每一个监室的正常巡视中共采集640张图像,每张图像平均有10人以上,并以6:2:2的比例划分为训练集、验证集、测试集。首先根据上述的训练过程训练模型,由于监舍内的人员活动情况较为复杂,其中睡觉和非睡觉场景、严重遮挡场景性能差异较大,所以以此进行细分,使用训练得到的模型分别检验各个场景下的性能,并对比了原先的Yolo v3模型,得到如表1的测试结果。
表1测试结果
为了本发明能更好的投入实际应用,还可以对移动机器人的检测过程做进一步的流程优化,每隔2秒,执行一次第一步到第七步的流程,一共执行3次,从3次中,取人数最多的一次作为最后的检测结果,以避免人员走动带来的漏检现象。需要说明的是,上述流程也并不局限于执行3次,也可以根据实际需求设置重复执行的次数。
综上所述,本发明实施例提供一种移动机器人在复杂背景下的人数统计方法,通过深度学习技术对机器人上采集到的可见光图像做初步检测,再通过红外摄像头采集得到的红外图像对初步的检测结果做进一步的结果过滤,完成移动机器人的人数统计问题,尤其解决了在复杂背景下现有技术方案检测精度不高、误检现象较为严重,无法满足监狱等特殊场景对检测结果要求严格的问题。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (5)
1.一种移动机器人在复杂背景下的人数统计方法,其特征在于,包括如下步骤:
步骤S1、获取移动移动机器人拍摄的第一可见光图像,对所述第一可见光图像进行标注,构建在具体环境下的人员检测数据集,并将所述人员检测数据集划分为训练集、验证集和测试集;其中,标注时的标注部位为人员的头部;
步骤S2、以darknet-53网络作为特征提取骨架网络,使用一阶段方法YOLO v3的目标检测框架构建检测模型并微调,具体为调整激活函数和损失函数的微调,其中激活函数为Mish函数表达式如下:
Mish(x)=x·tanh(log(1+ex))
损失函数为focal loss函数,表达式为:
式中,y是检测框真实标签,p为预测值,α为正负样本平衡参数,γ为难易样本平衡参数;
步骤S3、对所述训练集进行数据增强处理,然后送入所述检测模型进行训练;
步骤S4、使用迁移学***均误差精度均值满足要求的所述检测模型;
步骤S5、获取移动机器人运行时拍摄的第二可见光图像和红外图像,对所述第二可见光图像和所述红外图像进行投影对齐处理;
步骤S6、获取设置的检测超参数,并通过训练好的所述检测模型对所述第二可见光图像进行人员检测,得到初步的检测框集合;
步骤S7、分析所述检测框集合中的各个检测框中的红外图像的像素累计强度是否超过设定阈值,若超过设定阈值,则确认目标,输出对应的检测结果。
2.根据权利要求1所述的方法,其特征在于,所述步骤S3中对所述训练集进行数据增强处理的方式至少包括水平翻转、随机裁剪取样和随机旋转。
3.根据权利要求1所述的方法,其特征在于,所述步骤S6中的所述检测模型进行检测时的置信度范围为0.2~0.4。
4.根据权利要求1-3任一项所述的方法,其特征在于,移动机器人对目标场景进行人员检测时,根据设置的时间间隔至少按照步骤S1~S7的过程执行3次,并以检测到的人数最多的一次的输出结果作为最终的检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011002069.XA CN112183287A (zh) | 2020-09-22 | 2020-09-22 | 一种移动机器人在复杂背景下的人数统计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011002069.XA CN112183287A (zh) | 2020-09-22 | 2020-09-22 | 一种移动机器人在复杂背景下的人数统计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112183287A true CN112183287A (zh) | 2021-01-05 |
Family
ID=73955324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011002069.XA Pending CN112183287A (zh) | 2020-09-22 | 2020-09-22 | 一种移动机器人在复杂背景下的人数统计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183287A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113693590A (zh) * | 2021-09-27 | 2021-11-26 | 江苏凤凰智慧教育研究院有限公司 | 坐位体前屈监测装置和方法 |
CN114511821A (zh) * | 2022-04-18 | 2022-05-17 | 深圳市爱深盈通信息技术有限公司 | 一种上下车人数统计方法、***、计算机设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015052896A1 (ja) * | 2013-10-09 | 2015-04-16 | 日本電気株式会社 | 乗車人数計測装置、乗車人数計測方法およびプログラム記録媒体 |
CA3010997A1 (en) * | 2016-03-17 | 2017-09-21 | Nec Corporation | Passenger counting device, system, method and program, and vehicle movement amount calculation device, method and program |
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及*** |
CN110675447A (zh) * | 2019-08-21 | 2020-01-10 | 电子科技大学 | 一种基于可见光相机与热像仪结合的人数统计方法 |
CN111327788A (zh) * | 2020-02-28 | 2020-06-23 | 北京迈格威科技有限公司 | 相机组的同步方法、测温方法、装置及电子*** |
-
2020
- 2020-09-22 CN CN202011002069.XA patent/CN112183287A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015052896A1 (ja) * | 2013-10-09 | 2015-04-16 | 日本電気株式会社 | 乗車人数計測装置、乗車人数計測方法およびプログラム記録媒体 |
CA3010997A1 (en) * | 2016-03-17 | 2017-09-21 | Nec Corporation | Passenger counting device, system, method and program, and vehicle movement amount calculation device, method and program |
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及*** |
CN110675447A (zh) * | 2019-08-21 | 2020-01-10 | 电子科技大学 | 一种基于可见光相机与热像仪结合的人数统计方法 |
CN111327788A (zh) * | 2020-02-28 | 2020-06-23 | 北京迈格威科技有限公司 | 相机组的同步方法、测温方法、装置及电子*** |
Non-Patent Citations (1)
Title |
---|
董洪义: "深度学习之PyTorch物体检测实战", vol. 2020, 31 March 2020, 机械工业出版社, pages: 180 - 182 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113693590A (zh) * | 2021-09-27 | 2021-11-26 | 江苏凤凰智慧教育研究院有限公司 | 坐位体前屈监测装置和方法 |
CN114511821A (zh) * | 2022-04-18 | 2022-05-17 | 深圳市爱深盈通信息技术有限公司 | 一种上下车人数统计方法、***、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN104166841B (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
CN111178183B (zh) | 人脸检测方法及相关装置 | |
US8750573B2 (en) | Hand gesture detection | |
US8792722B2 (en) | Hand gesture detection | |
Shahbaz et al. | Evaluation of background subtraction algorithms for video surveillance | |
CN111611874B (zh) | 基于ResNet和Canny的人脸口罩佩戴检测方法 | |
CN105930822A (zh) | 一种人脸抓拍方法及*** | |
CN111144207B (zh) | 一种基于多模态信息感知的人体检测和跟踪方法 | |
CN113762009B (zh) | 一种基于多尺度特征融合及双注意力机制的人群计数方法 | |
CN113743260B (zh) | 一种地铁站台密集人流情况下的行人跟踪方法 | |
US20220148292A1 (en) | Method for glass detection in real scenes | |
CN112183472A (zh) | 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法 | |
CN112926522B (zh) | 一种基于骨骼姿态与时空图卷积网络的行为识别方法 | |
CN109902576B (zh) | 一种头肩图像分类器的训练方法及应用 | |
CN109558790B (zh) | 一种行人目标检测方法、装置及*** | |
CN110795975B (zh) | 人脸误检优化方法及装置 | |
CN110599463A (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
CN112183287A (zh) | 一种移动机器人在复杂背景下的人数统计方法 | |
CN112541403B (zh) | 一种利用红外摄像头的室内人员跌倒检测方法 | |
CN111160100A (zh) | 一种基于样本生成的轻量级深度模型航拍车辆检测方法 | |
CN112347967B (zh) | 一种复杂场景下融合运动信息的行人检测方法 | |
CN107145820B (zh) | 基于hog特征和fast算法的双眼定位方法 | |
CN112686180A (zh) | 一种封闭空间人员数量计算方法 | |
CN115797970B (zh) | 基于YOLOv5模型的密集行人目标检测方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |