CN110991397A - 一种行进方向确定方法及相关设备 - Google Patents

一种行进方向确定方法及相关设备 Download PDF

Info

Publication number
CN110991397A
CN110991397A CN201911304545.0A CN201911304545A CN110991397A CN 110991397 A CN110991397 A CN 110991397A CN 201911304545 A CN201911304545 A CN 201911304545A CN 110991397 A CN110991397 A CN 110991397A
Authority
CN
China
Prior art keywords
image
determining
image areas
target image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911304545.0A
Other languages
English (en)
Other versions
CN110991397B (zh
Inventor
唐健
张军
祝严刚
石伟
王志元
陶昆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Jieshun Science and Technology Industry Co Ltd
Original Assignee
Shenzhen Jieshun Science and Technology Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Jieshun Science and Technology Industry Co Ltd filed Critical Shenzhen Jieshun Science and Technology Industry Co Ltd
Priority to CN201911304545.0A priority Critical patent/CN110991397B/zh
Publication of CN110991397A publication Critical patent/CN110991397A/zh
Application granted granted Critical
Publication of CN110991397B publication Critical patent/CN110991397B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种行人行进方向判定方法,包括:获取包含人物对象的多帧视频图像,其中多帧视频图像具有先后采集顺序。使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域。使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域。根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势。根据所述变化趋势,确定所述同一人物对象的行进方向。

Description

一种行进方向确定方法及相关设备
技术领域
本申请实施例涉及图像识别领域,尤其涉及一种行进方向确定方法及相关设备。
背景技术
图像识别技术是一项快速进步且具有广阔前景的前沿技术,图像识别分为学习和识别两部分,学习的目的是形成识别所需要的各种图像特征,识别是根据这些特征正确地区分出待识别图像的类别。图像处理和识别技术在智能设备、物联网技术等领域有着重要作用。
采集到人员的图像,根据图像智能设备可以识别出人员的行进方向信息。行进方向信息有实际的作用,比如:对于门禁设备而言,门禁设备使用图像识别技术可以识别出人员的行进方向,根据行进方向对使用者的需求进行判断,如果行人有使用门禁设备的需求,则门禁设备启动门禁识别流程;如果行人没有使用门禁设备的需求,则门禁设备不启动门禁识别流程。
因此,需要一种技术方案,根据图像识别人物的行进方向。
发明内容
本申请实施例第一方面提供了一种行进方向确定方法,包括:
获取包含人物对象的多帧视频图像,其中多帧视频图像具有先后采集顺序;
使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域;
使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域;
根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势;
根据所述变化趋势,确定所述同一人物对象的行进方向。
根据本申请实施例第一方面,可选地,所述使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域,包括:
使用单步多框检测器,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域,其中所述单步多框检测器神经网络模型由包含人头的图像数据集训练得到。
根据本申请实施例第一方面,可选地,在所述使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域之后,所述使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域之前,还包括:
将多个所述图像区域按预设比例放大,以使得所述图像区域包括所述人物对象的上半身图像区域。
根据本申请实施例第一方面,可选地,所述基于深度学习的跟踪算法包括行人重识别神经网络模型,所述行人重识别神经网络模型的损失函数为边界损失函数。
根据本申请实施例第一方面,可选地,所述使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域,包括:
使用行人重识别神经网络模型对所述图像区域进行特征对比,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第一概率;
使用卡尔曼滤波算法对所述图像区域进行预测,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第二概率;
为所述第一概率及所述第二概率设定不同权重;
对所述第一概率及所述第二概率进行加权运算,得到加权结果;
将所述加权结果与预设阈值进行比较,若所述加权结果大于所述预设阈值,则确定所述加权结果对应的两个图像区域属于同一人物对象;
将所述属于同一人物对象的图像区域进行组合,得到所述同一人物对象的多个目标图像区域。
根据本申请实施例第一方面,可选地,所述根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势,包括:
提取多个所述目标图像区域的大小及位置信息;
使用多个所述目标图像区域的大小及位置信息及先后采集顺序,计算所述目标图像区域的变化趋势。
根据本申请实施例第一方面,可选地,在判断所述同一行人的行进方向之后,还包括:
使用多帧投票方法处理所述多帧视频图像,以验证所述同一行人的行进方向是否正确。
根据本申请实施例第一方面,可选地,所述方法还包括:
确定所述多帧视频图像所包括的场景;
获得所述场景对应的预设行进方向范围;
判断所述同一人物对象的行进方向是否属于所述预设行进方向范围,得到判断结果;其中,所述判断结果用于触发执行与所述判断结果对应的预设处理动作。
根据本申请实施例第一方面,可选地,所述多帧视频图像包括门禁***图像采集器采集的多帧视频图像。
本申请实施例第二方面提供了一种行进方向确定设备,包括:
视频图像获取单元,用于获取包含人物对象的多帧视频图像,其中多帧视频图像具有先后采集顺序;
人像区域确定单元,用于使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域;
同一人物确定单元,用于使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域;
变化趋势确定单元,用于根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势;
行进方向确定单元,用于根据所述变化趋势,确定所述同一人物对象的行进方向。
根据本申请实施例第二方面,可选地,所述人像区域确定单元用于使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域时,具体用于:
使用单步多框检测器,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域,其中所述单步多框检测器神经网络模型由包含人头的图像数据集训练得到。
根据本申请实施例第二方面,可选地,还包括:
放大单元,用于将多个所述图像区域按预设比例放大,以使得所述图像区域包括所述人物对象的上半身图像区域。
根据本申请实施例第二方面,可选地,所述基于深度学习的跟踪算法包括行人重识别神经网络模型,所述行人重识别神经网络模型的损失函数为边界损失函数。
根据本申请实施例第二方面,可选地,所述同一人物确定单元用于使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域时,具体用于:
使用行人重识别神经网络模型对所述图像区域进行特征对比,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第一概率;
使用卡尔曼滤波算法对所述图像区域进行预测,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第二概率;
为所述第一概率及所述第二概率设定不同权重;
对所述第一概率及所述第二概率进行加权运算,得到加权结果;
将所述加权结果与预设阈值进行比较,若所述加权结果大于所述预设阈值,则确定所述加权结果对应的两个图像区域属于同一人物对象;
将所述属于同一人物对象的图像区域进行组合,得到所述同一人物对象的多个目标图像区域。
根据本申请实施例第二方面,可选地,所述变化趋势确定单元用于根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势时,具体用于:
提取多个所述目标图像区域的大小及位置信息;
使用多个所述目标图像区域的大小及位置信息及先后采集顺序,计算所述目标图像区域的变化趋势。
根据本申请实施例第二方面,可选地,还包括:
验证单元,用于使用多帧投票方法处理所述多帧视频图像,以验证所述同一行人的行进方向是否正确。
根据本申请实施例第二方面,可选地,还包括:
场景确定单元,用于确定所述多帧视频图像所包括的场景;
方向范围单元,用于获得所述场景对应的预设行进方向范围;
判断方向单元,用于判断所述同一人物对象的行进方向是否属于所述预设行进方向范围,得到判断结果;其中,所述判断结果用于触发执行与所述判断结果对应的预设处理动作。
根据本申请实施例第二方面,可选地,所述多帧视频图像包括门禁***图像采集器采集的多帧视频图像。
本申请实施例第三方面提供了一种行进方向确定设备,包括:
中央处理器,存储器,输入输出接口,有线或无线网络接口以及电源;
所述存储器为短暂存储存储器或持久存储存储器;
所述中央处理器配置为与所述存储器通信,执行所述存储器中的指令操作以执行本申请实施例第一方面中任意一项所述的方法。
本申请实施例第四方面提供了一种计算机可读存储介质,包括指令,当所述指令在计算机上运行时,使得计算机执行如本申请实施例第一方面中任意一项所述的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:根据视频流中行人图像的变化判断行人的前进方向,使得设备可以同时参考是否存在行人以及行人的前进方向两种信息进行下一步的策略执行。
附图说明
图1为本申请行进方向确定方法实施例的一个流程示意图;
图2为本申请行进方向确定方法实施例的另一个流程示意图;
图3为本申请行进方向确定方法实施例的一个设备示意图;
图4为本申请行进方向确定方法实施例的另一个设备示意图;
图5为本申请行进方向确定方法实施例的另一个设备示意图。
具体实施方式
本申请实施例提供了一种行进方向确定方法及相关设备,用于智能设备及其实施策略等相关领域。
图像识别,是指利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对象的技术,是应用深度学习算法的一种实践应用。现阶段图像识别技术一般分为人脸识别与商品识别,人脸识别主要运用在安全检查、身份核验与移动支付中;商品识别主要运用在商品流通过程中,特别是无人货架、智能零售柜等无人零售领域。
当前的技术环境下,智能设备可以对某些场景的实时图像进行采集,并对采集到的图像使用图像识别技术进行处理。对于人脸识别方面,可以在获取到图像后,识别出含有人脸图像的视频帧,并根据该信息进行下一步策略。例如,当前的智能门禁***中已普遍采用基于视频图像处理的人脸识别技术。然而,门禁***对图像识别技术的使用方式是在获取到特定区域内的图像中识别到人脸后就打开门禁,这一使用方式造成门禁***往往会误侦测到非通行方向的人员,例如人员平行经过或反向通行时,面部朝向摄像头而被误识别,导致误开闸的现象。在多个门禁通道平行存在的***中该现象尤为突出,严重影响门禁***开启的准确性和效率。
采集到人员的图像,根据图像智能设备可以识别出人员的行进方向信息。行进方向信息有实际的作用,比如:对于门禁设备而言,门禁设备使用图像识别技术可以识别出人员的行进方向,根据行进方向对使用者的需求进行判断,如果行人有使用门禁设备的需求,则门禁设备启动门禁识别流程;如果行人没有使用门禁设备的需求,则门禁设备不启动门禁识别流程。
请参阅图1,本申请行进方向确定方法的一个实施例,该方法实施例可以应用在但不局限于门禁***中。该实施例具体包括:步骤101-步骤105。
101、获取包含人物对象的多帧视频图像。
获取包含人物对象的多帧视频图像,其中多帧视频图像具有先后采集顺序。多帧视频图像一般来源于智能设备或***中的图像采集装置,图像采集装置所获取的图像与智能设备所执行的操作之间有着间接的联系,多帧视频图像可以是连续的视频流,或者对于不常使用的设备也可以按一定规则的时间间隔获取视频帧,组成多帧视频图像,并对其进行处理。多帧视频图像中应包含人物对象,即需对其行进方向进行判断的行人。
102、使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域。
使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域。深度学习神经网络模型可对视频图像进行识别处理,并获得包括单个人物对象的图像区域,以识别框的形式在视频图像中标出,对于识别框内包含的图像称之为包括单个人物对象的图像区域。基于人脸识别技术的人物识别技术发展已较为成熟,并广泛应用于车站、超市和路口等公共设施。
103、使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域。
使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域。基于深度学习的跟踪算法可以将上述102步骤中所识别出的包括单个人物对象的图像区域进行识别并分组,根据不同人物对象在图像区域中所体现的特征不同,确定属于不同人物的图像区域,基于深度学习的跟踪算法同样应用于对车辆的识别与跟踪,通过对神经网络进行训练并结合一些其他算法,基于深度学习的跟踪算法可以准确的识别属于同一车辆的图像,并根据其图像所表现出的运动轨迹得出车辆时速等信息。基于深度学习的跟踪算法应用于对人物对象进行识别时与应用于对车辆的识别时的原理相似,只需对训练神经网络时所使用的训练集进行调整,此处不再赘述。
步骤102中得到的图像区域是包含人物对象的图像区域,这些图像区域所包含的人物对象可能是同一个人物对象,也可能是不同的多个人物对象。本步骤是在这些图像区域中,提取出包含相同一个人物对象的图像区域,将这些图像区域称为该同一人物对象的目标图像区域。需要说明的是,本步骤可以是将所有的图像区域进行分组,得到所有人物对象区域各自的一组目标图像区域;或者本步骤也可以是从所有的图像区域中,提取部分人物对象各自的一组目标图像区域。
104、根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势。
根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势。按照目标区域所对应的视频图像的时间上的顺序对其进行分析,通过图像区域大小,及在视频图像上的位置等信息可以得到目标图像区域的变化趋势,变化趋势可以是图像区域越来越小或越来越大,在视频图像上的位置可以是由左向右或由上向下移动。
105、根据所述变化趋势,确定所述同一人物对象的行进方向。
根据对目标图像区域的变化趋势的分析,确定人物对象的行进方向,人物对象的行进方向一般与目标图像区域的变化趋势相符,对于要求较低的判断情况,可以直接将目标图像区域的变化趋势视为人物对象的行进方向,也可以将目标图像区域的变化趋势细化进行分析,如目标图像区域越来越小根据透视原理,说明人物对象的行进方向包括远离图像采集设备的分量,根据图像变化幅度可得出该分量大小,进而与其他方向的速度分量叠加,得到确定的行进方向。
从以上技术方案可以看出,本申请实施例具有以下优点:根据视频流中行人图像的变化判断行人的前进方向,使得设备可以同时参考是否存在行人以及行人的前进方向两种信息进行下一步的策略执行。
请参阅图2,本申请行进方向确定方法的一个实施例包括:步骤201-步骤216。
201、获取包含人物对象的多帧视频图像。
获取包含人物对象的多帧视频图像,其中多帧视频图像具有先后采集顺序。本步骤与上述图1对应实施例中步骤101类似,此处不再赘述。
202、使用单步多框检测器神经网络模型,分别在每帧视频图像中确定包括单个人物对象的图像区域,得到多个图像区域。
使用单步多框检测器,分别在每帧视频图像中确定包括单个人物对象的图像区域,得到多个图像区域。单步多框检测器(SSD,Single Shot MultiBox Detector)在进行检测时的主要思路是均匀地在图片的不同位置进行密集抽样,抽样时可以采用不同尺度和长宽比,然后利用卷积神经网络(CNN,Convolutional Neural Networks)提取特征后直接进行分类与回归,整个过程只需要一步。SSD具有多尺度特征图,利用卷积进行检测,设置先验框等特点。这使得SSD准确度较高,而且对于小目标检测效果也较好。
203、将多个所述图像区域按预设比例放大,以使得所述图像区域包括所述人物对象的上半身图像区域。
将多个所述图像区域按预设比例放大,以使得所述图像区域包括所述人物对象的上半身图像区域。使用SSD对视频图像进行处理的过程中,由于SSD对小目标检测效果较好,可以使用训练集包括人头或人脸信息的训练集,这样所获得的图像区域准确率更高且不容易出现遗漏。但对于下一步骤进行跟踪过程而言,图像区域越小所包含的特征也越少,跟踪难度也就越大。将目标图像区域进行放大,使得目标图像区域包含人物对象的上半身图像区域易于跟踪过程的进行。
204、使用行人重识别神经网络模型对所述图像区域进行特征对比,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第一概率。
使用行人重识别神经网络模型对所述图像区域进行特征对比,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第一概率。在使用基于深度学习的跟踪算法(deep-sort跟踪算法)的过程中首先使用行人重识别神经网络模型对图像区域进行特征对比,行人重识别神经网络模型实质上等于一个二分类网络。行人重识别网络经过足够数据的训练之后,向其再次输入一张测试图片,网络将自动提取出一个特征向量,这个特征用于行人重识别任务,依据特征向量之间的距离进行比较以判断比较的两个图像区域是否属于同一人物对象。
基于深度学习的跟踪算法包括行人重识别神经网络模型,所述行人重识别神经网络模型的损失函数为边界损失函数。边界损失函数提高了行人重识别神经网络的识别能力和鲁棒性。更易于实际实施并得出准确结果。
依据特征向量之间的距离判定进行比较以判断比较的两个图像区域是否属于同一人物对象的比较结果称为第一概率,例如对于视频图像中第一帧所包含的图像区域称为第一图像区域,第二帧所包含的图像区域称为第二图像区域,以此类推。经过行人重识别神经网络模型对图像区域进行特征对比,得到第一图像区域与第二图像区域所包含的人物对象属于同一人物的概率值A,A值即称为第一概率。对于实际操作过程可以将每两张视频图像都进行比较,但由于计算量问题,一般都是按时间顺序对两两视频帧进行比较,对于具体实施过程此处不做限定。
205、使用卡尔曼滤波算法对所述图像区域进行预测,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第二概率。
使用卡尔曼滤波算法对所述图像区域进行预测,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第二概率。卡尔曼滤波算法同样是包含在deep-sort跟踪算法中的一个子算法,卡尔曼滤波的实质是由量测值重构***的状态向量。它以“预测—实测—修正”的顺序递推,根据***的量测值来消除随机干扰,再现***的状态,或根据***的量测值从被污染的***中恢复***的本来面目。卡尔曼滤波应用于图像追踪过程的工作原理是依据原有视频图像中不同图像区域的属性值推测下一帧图像区域出现的位置,并给与其出现在不同区域的概率值。在具有确定下一帧图像区域位置信息的情况下,概率值也可获得,该概率值称为第二概率。
206、为所述第一概率及所述第二概率设定不同权重,对所述第一概率及所述第二概率进行加权运算,得到加权结果。
为所述第一概率及所述第二概率设定不同权重,对所述第一概率及所述第二概率进行加权运算,得到加权结果。为通过行人重识别神经网络模型获得的第一概率和使用卡尔曼滤波算法获得的第二概率分别赋予不同的权重值。权重值可以是固定的,也可以是按概率值大小进行变化。一般而言通过行人重识别神经网络模型获得的第一概率所赋予的权重较高,具体实施过程中不做限定,对于不同视频帧的两种方式获得的概率分别计算得到对应的加权结果,两种跟踪方式共同使用提高了本方法的鲁棒性。
207、将所述加权结果与预设阈值进行比较。
将所述加权结果与预设阈值进行比较,预设阈值为人工设定,对于跟踪要求较高的场景,阈值可相应设定为较高值,即对属于同一人物对象的图像区域判定较为严格。将所得到的的所有加权结果分别与预设阈值进行比较,得到对应结果。
208、若加权结果大于所述预设阈值,则确定所述加权结果对应的两个图像区域属于同一人物对象。
若加权结果大于所述预设阈值,则确定所述加权结果对应的两个图像区域属于同一人物对象。对于比较并获得加权结果的两个不同帧内的图像区域包含的人物为同一人物对象,跟踪过程中最重要部分完成,得出前一帧之后帧所包含的人物对象是否为同一人物的结论。
209、将所述属于同一人物对象的图像区域进行组合,得到该同一人物对象的多个目标图像区域。
将所述属于同一人物对象的图像区域进行组合,得到该同一人物对象的多个目标图像区域。在进行比较后,会得到某两张图像区域所包含的人物对象为同一人物对象的多个结果,按其出现情况进行分组,例如对于视频图像中第一帧中包括A图像区域和B图像区域,第二帧中包括C、D、E三个图像区域,通过上述步骤判断A图像区域与C图像区域属于同一人物对象,B图像区域与D图像区域属于同一人物对象,E属于单独人物对象,因不存在A或C图像区域与B或D图像区域属于同一人物对象的结论,因此将A图像区域和C图像区域分为一组,对应一个人物对象,该组中的图像区域称为对应该人物的目标图像区域;B图像区域和D图像区域分为一组,对应另一人物对象,该组中的图像区域称为对应另一人物人物的目标图像区域。同理E视为与其他两组所对应的人物对象不同的另一人物对象所对应的目标图像区域。
在实际应用过程中,也可能出现需实时对所采集到的视频帧进行处理的情况,因此,在得到分组信息后,可对组中包括的图像区域进行特征提取,得出属于同一人物在其之前出现的视频帧中所采集到的的特征总和,在获取到新的视频帧后,只需对新获取的视频帧中包含的图像区域分别与每组目标图像区域所对应的特征总和进行对比,即可得出图像区域属于哪组目标图像区域的结果。
当无法获取到对应某一人物对象的目标图像区域时,可能存在该人物对象脱离视频图像或暂时被遮挡两种情况,为保证跟踪过程的鲁棒性,可对无法获取到对应该人物对象的目标图像区域所处的视频帧之后的10帧视频帧进行检测,若不存在对应该人物对象的目标图像区域,则认定该人物对象脱离视频图像,对该人物对象的跟踪结束。
210、提取多个目标图像区域的大小及位置信息。
提取多个目标图像区域的大小及位置信息,并对其按照上述209步骤的分组进行处理。目标图像区域的大小信息沿时间的变化过程可获得人物对象是向图像采集设备靠近还是远离图像采集设备的速度分量信息,可以定性获得靠近或远离的结论,也可以根据沿时间的变化过程中图像区域大小变化的速度得出靠近或远离的速度大小的定量信息。位置信息可以得到目标图像区域平行与图像采集设备的速度分量信息,二者结合分析可以得到具体的人物对象速度方向信息,即行进方向信息。
211、使用多个所述目标图像区域的大小及位置信息及先后采集顺序,计算所述目标图像区域的变化趋势。
使用多个所述目标图像区域的大小及位置信息及先后采集顺序,计算所述目标图像区域的变化趋势。图像采集设备所才采集的场景一般保持不变,因此只需对图像区域大小及位置信息沿时间顺序的变化信息进行分析,即可获得目标图像区域的变化趋势,对于不同组的目标图像区域即不同人物对象所属的目标图像区域分别进行分析,可获得不同人物对象对应的目标图像区域的变化趋势。
212、根据所述变化趋势,确定所述同一人物对象的行进方向。
根据所述变化趋势,确定所述同一人物对象的行进方向。结合图像采集设备所采集的视频图像中包含的场景及目标图像区域的变化趋势对人物对象的实际行进方向作出分析,例如,对于图像采集设备设置地点为与水平方向平行的情况,可以根据人物对象靠近或远离图像采集设备得出部分水平方向人物对象的行进方向分量,若图像采集设备朝北设置,则人物对象靠近图像采集设备(即图像区域大小变化趋势为越来越大)则人物对象具有朝北的速度分量。依次此则结合视频图像中包含的场景及图像采集设备设置的位置信息对图像区域的变化趋势进行分析,得出人物对象的实际行进方向。
213、使用多帧投票方法处理所述多帧视频图像以验证所述同一行人的行进方向是否正确。
使用多帧投票方法处理所述多帧视频图像以验证所述同一行人的行进方向是否正确。在得出同一行人的行进方向结果后,可以使用该行人的历史图像对该结果进行判断,判断结果可以使百分比,代表该行进方向的可信度,某些行人的行进方向不固定,使用该可信度信息可以增强智能设备在下一策略执行过程中的灵活性。
需要说明的是,本步骤也可以在图1所示的实施例之后执行。
214、确定所述多帧视频图像所包括的场景。
确定所述多帧视频图像所包括的场景。确定图像采集设备所对应的实际使用场景,给据该场景信息,可使得行进方向信息更加具体,例如在对场景确定过程中得出该场景只有一条可通行道路的结论,若判定行人的行进方向信息不属于该道路的行进方向或反方向,则该行进方向信息可信度不高,或应当重新判定,提高了本方法的鲁棒性和可实施度。
值得注意的是,对多帧视频图像所包括的场景确定过程可以在前述步骤201-步骤213之间任意时间点执行,并且对其他步骤不造成影响,此处不做限定。
215、获得所述场景对应的预设行进方向范围。
获得所述场景对应的预设行进方向范围,本方法应用于智能设备时大多要求对行进方向进行分类,根据行进方向的类别以判断行人是否有使用设备的意图,例如对于门禁设备,我们可以将方向分类为远离门禁、靠近门禁和与门禁方向平行移动三个类别,其中靠近门禁的行人被视为有使用意图的行人,门禁设备可以直接对有使用意图的行人进行打开门禁操作或进一步判断行人身份。
值得注意的是,获得所述场景对应的预设行进方向范围可以在前述步骤201-步骤213之间任意时间点执行,并且对其他步骤不造成影响,此处不做限定。
216、判断所述同一人物对象的行进方向是否属于所述预设行进方向范围,得到判断结果。
在得到人物对象的行进方向后,判断所述同一人物对象的行进方向是否属于所述预设行进方向范围,得到判断结果。预设行进方向范围一般以目的进行限定,例如对于道路场景,可以得到沿某某路前进的方向信息。将多种类的行进方向概括为某一预设行进方向范围的判断结果,易于智能设备依据该判断结果触发下一步的操作。
需要说明的是,本步骤的执行顺序并不局限于图示的说明,可以是其他情况。例如,步骤S215可以在其他顺序执行,本步骤只要在步骤212以及步骤215之后执行即可。另外,步骤214-216也可以在图1所示的实施例之后执行。
请参阅图3,本申请行进方向确定设备的一个实施例包括:视频图像获取单元301、人像区域确定单元302、同一人物确定单元303、变化趋势确定单元304和行进方向确定单元305等单元。其中:
视频图像获取单元301,用于获取包含人物对象的多帧视频图像,其中多帧视频图像具有先后采集顺序。
人像区域确定单元302,用于使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域。
同一人物确定单元303,用于使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域。
变化趋势确定单元304,用于根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势。
行进方向确定单元305,用于根据所述变化趋势,确定所述同一人物对象的行进方向。
本实施例中视频图像获取单元301、人像区域确定单元302、同一人物确定单元303、变化趋势确定单元304和行进方向确定单元305等单元所执行的操作流程与图1对应实施例中的步骤流程类似,此处不再赘述。
请参阅图4,本申请行进方向确定设备的一个实施例包括:视频图像获取单元401、人像区域确定单元402、放大单元403、同一人物确定单元404、变化趋势确定单元405、行进方向确定单元406、验证单元407、场景确定单元408、方向范围单元409和判断方向单元410等单元。
其中视频图像获取单元401和行进方向确定单元406与上述图3对应实施例中相同名称单元用途相同,此处不再赘述。
人像区域确定单元402,用于使用单步多框检测器,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域,其中所述单步多框检测器神经网络模型由包含人头的图像数据集训练得到。
放大单元403,用于将多个所述图像区域按预设比例放大,以使得所述图像区域包括所述人物对象的上半身图像区域。
同一人物确定单元404,用于使用行人重识别神经网络模型对所述图像区域进行特征对比,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第一概率;其中行人重识别神经网络模型的损失函数为边界损失函数。
使用卡尔曼滤波算法对所述图像区域进行预测,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第二概率。
为所述第一概率及所述第二概率设定不同权重。
对所述第一概率及所述第二概率进行加权运算,得到加权结果。
将所述加权结果与预设阈值进行比较,若所述加权结果大于所述预设阈值,则确定所述加权结果对应的两个图像区域属于同一人物对象。
将所述属于同一人物对象的图像区域进行组合,得到所述同一人物对象的多个目标图像区域。
变化趋势确定单元405,用于提取多个所述目标图像区域的大小及位置信息;
使用多个所述目标图像区域的大小及位置信息及先后采集顺序,计算所述目标图像区域的变化趋势。
验证单元407,用于使用多帧投票方法处理所述多帧视频图像,以验证所述同一行人的行进方向是否正确。
场景确定单元408,用于确定所述多帧视频图像所包括的场景。
方向范围单元409,用于获得所述场景对应的预设行进方向范围。
判断方向单元410用于判断所述同一人物对象的行进方向是否属于所述预设行进方向范围,得到判断结果;其中,所述判断结果用于触发执行与所述判断结果对应的预设处理动作。
本实施例中视频图像获取单元401、人像区域确定单元402、放大单元403、同一人物确定单元404、变化趋势确定单元405、行进方向确定单元406、验证单元407、场景确定单元408、方向范围单元409和判断方向单元410等单元所执行的操作流程与图2对应实施例中的步骤流程类似,此处不再赘述。
图5是本申请实施例提供的一种行进方向确定设备的结构示意图,该服务器500可以包括一个或一个以***处理器(central processing units,CPU)501和存储器505,该存储器505中存储有一个或一个以上的应用程序或数据。
本实施例中,中央处理器501中的具体功能模块划分可以与前述图3或图4中所描述的各单元功能模块划分方式类似,此处不再赘述。
其中,存储器505可以是易失性存储或持久存储。存储在存储器505的程序可以包括一个或一个以上模块,每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器501可以设置为与存储器505通信,在服务器500上执行存储器505中的一系列指令操作。
服务器500还可以包括一个或一个以上电源502,一个或一个以上有线或无线网络接口503,一个或一个以上输入输出接口504,和/或,一个或一个以上操作***,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等。
该中央处理器501可以执行前述图3或图4所示实施例中行进方向确定设备所执行的操作,具体此处不再赘述。
本申请实施例还提供了一种计算机存储介质,该计算机存储介质用于储存为上述行进方向确定设备所用的计算机软件指令,其包括用于执行为地理信息***所设计的程序。
该行进方向确定设备可以如前述图3或图4中所描述的行进方向确定设备。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,read-onlymemory)、随机存取存储器(RAM,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (20)

1.一种行进方向确定方法,其特征在于,包括:
获取包含人物对象的多帧视频图像,其中多帧视频图像具有先后采集顺序;
使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域;
使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域;
根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势;
根据所述变化趋势,确定所述同一人物对象的行进方向。
2.根据权利要求1所述的行进方向确定方法,其特征在于,所述使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域,包括:
使用单步多框检测器,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域,其中所述单步多框检测器神经网络模型由包含人头的图像数据集训练得到。
3.根据权利要求1所述的行进方向确定方法,其特征在于,在所述使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域之后,所述使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域之前,还包括:
将多个所述图像区域按预设比例放大,以使得所述图像区域包括所述人物对象的上半身图像区域。
4.根据权利要求1所述的行进方向确定方法,其特征在于,所述基于深度学习的跟踪算法包括行人重识别神经网络模型,所述行人重识别神经网络模型的损失函数为边界损失函数。
5.根据权利要求1所述的行进方向确定方法,其特征在于,所述使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域,包括:
使用行人重识别神经网络模型对所述图像区域进行特征对比,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第一概率;
使用卡尔曼滤波算法对所述图像区域进行预测,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第二概率;
为所述第一概率及所述第二概率设定不同权重;
对所述第一概率及所述第二概率进行加权运算,得到加权结果;
将所述加权结果与预设阈值进行比较,若所述加权结果大于所述预设阈值,则确定所述加权结果对应的两个图像区域属于同一人物对象;
将所述属于同一人物对象的图像区域进行组合,得到所述同一人物对象的多个目标图像区域。
6.根据权利要求1所述的行进方向确定方法,其特征在于,所述根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势,包括:
提取多个所述目标图像区域的大小及位置信息;
使用多个所述目标图像区域的大小及位置信息及先后采集顺序,计算所述目标图像区域的变化趋势。
7.根据权利要求1所述的行进方向确定方法,其特征在于,在判断所述同一行人的行进方向之后,还包括:
使用多帧投票方法处理所述多帧视频图像,以验证所述同一行人的行进方向是否正确。
8.根据权利要求1所述的行进方向确定方法,其特征在于,所述方法还包括:
确定所述多帧视频图像所包括的场景;
获得所述场景对应的预设行进方向范围;
判断所述同一人物对象的行进方向是否属于所述预设行进方向范围,得到判断结果;其中,所述判断结果用于触发执行与所述判断结果对应的预设处理动作。
9.根据权利要求1所述的行进方向确定方法,其特征在于,所述多帧视频图像包括门禁***图像采集器采集的多帧视频图像。
10.一种行进方向确定设备,其特征在于,包括:
视频图像获取单元,用于获取包含人物对象的多帧视频图像,其中多帧视频图像具有先后采集顺序;
人像区域确定单元,用于使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域;
同一人物确定单元,用于使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域;
变化趋势确定单元,用于根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势;
行进方向确定单元,用于根据所述变化趋势,确定所述同一人物对象的行进方向。
11.根据权利要求10所述的行进方向确定设备,其特征在于,所述人像区域确定单元用于使用深度学习神经网络模型,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域时,具体用于:
使用单步多框检测器,分别在每帧所述视频图像中确定包括单个人物对象的图像区域,得到多个图像区域,其中所述单步多框检测器神经网络模型由包含人头的图像数据集训练得到。
12.根据权利要求10所述的行进方向确定设备,其特征在于,还包括:
放大单元,用于将多个所述图像区域按预设比例放大,以使得所述图像区域包括所述人物对象的上半身图像区域。
13.根据权利要求10所述的行进方向确定设备,其特征在于,所述基于深度学习的跟踪算法包括行人重识别神经网络模型,所述行人重识别神经网络模型的损失函数为边界损失函数。
14.根据权利要求10所述的行进方向确定设备,其特征在于,所述同一人物确定单元用于使用基于深度学习的跟踪算法,从所述多个图像区域中确定包含同一人物对象的多个目标图像区域时,具体用于:
使用行人重识别神经网络模型对所述图像区域进行特征对比,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第一概率;
使用卡尔曼滤波算法对所述图像区域进行预测,得到每个所述图像区域与其他所述图像区域属于同一人物对象的第二概率;
为所述第一概率及所述第二概率设定不同权重;
对所述第一概率及所述第二概率进行加权运算,得到加权结果;
将所述加权结果与预设阈值进行比较,若所述加权结果大于所述预设阈值,则确定所述加权结果对应的两个图像区域属于同一人物对象;
将所述属于同一人物对象的图像区域进行组合,得到所述同一人物对象的多个目标图像区域。
15.根据权利要求10所述的行进方向确定设备,其特征在于,所述变化趋势确定单元用于根据多个所述目标图像区域的先后采集顺序,确定所述目标图像区域的变化趋势时,具体用于:
提取多个所述目标图像区域的大小及位置信息;
使用多个所述目标图像区域的大小及位置信息及先后采集顺序,计算所述目标图像区域的变化趋势。
16.根据权利要求10所述的行进方向确定设备,其特征在于,还包括:
验证单元,用于使用多帧投票方法处理所述多帧视频图像,以验证所述同一行人的行进方向是否正确。
17.根据权利要求10所述的行进方向确定设备,其特征在于,还包括:
场景确定单元,用于确定所述多帧视频图像所包括的场景;
方向范围单元,用于获得所述场景对应的预设行进方向范围;
判断方向单元,用于判断所述同一人物对象的行进方向是否属于所述预设行进方向范围,得到判断结果;其中,所述判断结果用于触发执行与所述判断结果对应的预设处理动作。
18.根据权利要求10所述的行进方向确定设备,其特征在于,所述多帧视频图像包括门禁***图像采集器采集的多帧视频图像。
19.一种行进方向确定设备,其特征在于,包括:
中央处理器,存储器,输入输出接口,有线或无线网络接口以及电源;
所述存储器为短暂存储存储器或持久存储存储器;
所述中央处理器配置为与所述存储器通信,执行所述存储器中的指令操作以执行权利要求1至9中任意一项所述的方法。
20.一种计算机可读存储介质,包括指令,当所述指令在计算机上运行时,使得计算机执行如权利要求1至9中任意一项所述的方法。
CN201911304545.0A 2019-12-17 2019-12-17 一种行进方向确定方法及相关设备 Active CN110991397B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911304545.0A CN110991397B (zh) 2019-12-17 2019-12-17 一种行进方向确定方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911304545.0A CN110991397B (zh) 2019-12-17 2019-12-17 一种行进方向确定方法及相关设备

Publications (2)

Publication Number Publication Date
CN110991397A true CN110991397A (zh) 2020-04-10
CN110991397B CN110991397B (zh) 2023-08-04

Family

ID=70094887

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911304545.0A Active CN110991397B (zh) 2019-12-17 2019-12-17 一种行进方向确定方法及相关设备

Country Status (1)

Country Link
CN (1) CN110991397B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111975776A (zh) * 2020-08-18 2020-11-24 广州市优普科技有限公司 基于深度学习和卡尔曼滤波的机器人移动跟踪***及方法
CN113112866A (zh) * 2021-04-14 2021-07-13 深圳市旗扬特种装备技术工程有限公司 一种智能交通预警方法及智能交通预警***
CN114359973A (zh) * 2022-03-04 2022-04-15 广州市玄武无线科技股份有限公司 基于视频的商品状态识别方法、设备及计算机可读介质
CN114937231A (zh) * 2022-07-21 2022-08-23 成都西物信安智能***有限公司 一种提高目标识别跟踪准确度的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008092393A1 (fr) * 2007-01-25 2008-08-07 Shanghai Yao Wei Industry Co, Ltd Procédé de poursuite de cible mobile et de comptage
CN105825166A (zh) * 2015-12-15 2016-08-03 广东亿迅科技有限公司 基于人体hog特征的行人流量统计方法及统计***
CN106560861A (zh) * 2015-09-30 2017-04-12 徐贵力 基于计算机视觉的智能监管方法
CN108496350A (zh) * 2017-09-27 2018-09-04 深圳市大疆创新科技有限公司 一种对焦处理方法及设备
CN108875542A (zh) * 2018-04-04 2018-11-23 北京旷视科技有限公司 一种人脸识别方法、装置、***及计算机存储介质
CN109711267A (zh) * 2018-12-03 2019-05-03 浙江大华技术股份有限公司 一种行人重识别、行人运动轨迹生成方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008092393A1 (fr) * 2007-01-25 2008-08-07 Shanghai Yao Wei Industry Co, Ltd Procédé de poursuite de cible mobile et de comptage
CN106560861A (zh) * 2015-09-30 2017-04-12 徐贵力 基于计算机视觉的智能监管方法
CN105825166A (zh) * 2015-12-15 2016-08-03 广东亿迅科技有限公司 基于人体hog特征的行人流量统计方法及统计***
CN108496350A (zh) * 2017-09-27 2018-09-04 深圳市大疆创新科技有限公司 一种对焦处理方法及设备
CN108875542A (zh) * 2018-04-04 2018-11-23 北京旷视科技有限公司 一种人脸识别方法、装置、***及计算机存储介质
CN109711267A (zh) * 2018-12-03 2019-05-03 浙江大华技术股份有限公司 一种行人重识别、行人运动轨迹生成方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHEN BIN,ET AL: "Design of Power Intelligent Safety Supervision System Based on Deep Learning" *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111975776A (zh) * 2020-08-18 2020-11-24 广州市优普科技有限公司 基于深度学习和卡尔曼滤波的机器人移动跟踪***及方法
CN113112866A (zh) * 2021-04-14 2021-07-13 深圳市旗扬特种装备技术工程有限公司 一种智能交通预警方法及智能交通预警***
CN113112866B (zh) * 2021-04-14 2022-06-03 深圳市旗扬特种装备技术工程有限公司 一种智能交通预警方法及智能交通预警***
CN114359973A (zh) * 2022-03-04 2022-04-15 广州市玄武无线科技股份有限公司 基于视频的商品状态识别方法、设备及计算机可读介质
CN114937231A (zh) * 2022-07-21 2022-08-23 成都西物信安智能***有限公司 一种提高目标识别跟踪准确度的方法

Also Published As

Publication number Publication date
CN110991397B (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN108492319B (zh) 基于深度全卷积神经网络的运动目标检测方法
CN102542289B (zh) 一种基于多高斯计数模型的人流量统计方法
US10445567B2 (en) Pedestrian head identification method and system
CN110991397B (zh) 一种行进方向确定方法及相关设备
Subburaman et al. Counting people in the crowd using a generic head detector
US20060067562A1 (en) Detection of moving objects in a video
CN111091057A (zh) 一种信息处理方法、装置及计算机可读存储介质
CN104966305A (zh) 基于运动矢量划分的前景检测方法
CN104200218B (zh) 一种基于时序信息的跨视角动作识别方法及***
Dousai et al. Detecting humans in search and rescue operations based on ensemble learning
CN110580708B (zh) 一种快速移动检测方法、装置及电子设备
CN114092956A (zh) 门店客流统计方法、装置、计算机设备和存储介质
CN110889347A (zh) 基于时空计数特征的密度交通流计数方法及***
CN106845361B (zh) 一种行人头部识别方法及***
Yu et al. Length-based vehicle classification in multi-lane traffic flow
Alamri et al. Al-Masjid An-Nabawi crowd adviser crowd level estimation using head detection
CN111062294B (zh) 一种客流排队时间的检测方法、装置及***
CN114494355A (zh) 基于人工智能的轨迹分析方法、装置、终端设备及介质
CN106446837A (zh) 一种基于运动历史图像的挥手检测方法
CN106778679B (zh) 一种基于大数据机器学习的特定人群视频识别方法
CN113569716B (zh) 一种货车车轴快速识别与计数方法
CN117058627B (zh) 一种公共场所人群安全距离监测方法、介质及***
CN116258466B (zh) 多模态电力场景作业规范检测方法、***、设备及介质
Naha et al. Moving Objects Tracking in Real Time Video and Plotting Their Path of Movement
Mali et al. Vehicle Detection, Classification and Counting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant