CN110647806B - 对象行为监测方法、装置、设备、***及存储介质 - Google Patents

对象行为监测方法、装置、设备、***及存储介质 Download PDF

Info

Publication number
CN110647806B
CN110647806B CN201910745077.4A CN201910745077A CN110647806B CN 110647806 B CN110647806 B CN 110647806B CN 201910745077 A CN201910745077 A CN 201910745077A CN 110647806 B CN110647806 B CN 110647806B
Authority
CN
China
Prior art keywords
corresponding relation
behavior
monitoring
real
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910745077.4A
Other languages
English (en)
Other versions
CN110647806A (zh
Inventor
李海伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN201910745077.4A priority Critical patent/CN110647806B/zh
Publication of CN110647806A publication Critical patent/CN110647806A/zh
Application granted granted Critical
Publication of CN110647806B publication Critical patent/CN110647806B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Alarm Systems (AREA)

Abstract

本申请涉及一种对象行为监测方法、装置、设备、***及存储介质,属于行为监测技术领域。所述方法包括:接收跟踪雷达发送的第一对应关系,第一对应关系包括对象实时位置和对象标识之间的映射,对象实时位置是跟踪雷达对对象进行跟踪得到的;接收监测摄像机发送的第二对应关系,第二对应关系包括对象行为和对象行为位置之间的映射,对象行为位置是监测摄像机监测到对象行为时对象所在的位置;将第一对应关系和第二对应关系进行匹配,得到第三对应关系,第三对应关系包括对象行为和对象标识之间的映射。本申请实施例提供的技术方案可以解决人员行为监测的精确性不高的问题。

Description

对象行为监测方法、装置、设备、***及存储介质
技术领域
本申请涉及行为监测技术领域,特别是涉及一种对象行为监测方法、装置、设备、***及存储介质。
背景技术
当前,对人员的行为进行监测在人们的日常生活中已经越来越常见了。例如,可以对教室内学生的行为进行监测,以确定学生的学习专注度。又例如,可以对办公室内工作人员的行为进行监测,以确定工作人员是否违反工作纪律。
相关技术中,可以在建筑物内设置监测摄像机,该监测摄像机可以对人员的行为进行监测,得到人员的行为信息,并在监测到人员的行为时对人员的脸部进行拍摄,得到人员的脸部图像。该监测摄像机可以根据人员的脸部图像确定人员的标识(例如,该人员的标识可以为人员的姓名、学号或者工号等),从而将人员的标识和人员的行为信息对应地进行上报,从而实现人员行为的监测。
然而,在许多情况下,监测摄像机无法在监测到人员行为时对人员的脸部进行拍摄,例如,当人员背对摄像机,或者,当有遮挡物遮挡人员的脸部时,监测摄像机就无法对人员的脸部进行拍摄,而监测摄像机无法在监测到人员的行为时对人员的脸部进行拍摄会导致监测摄像机仅能监测到人员的行为,而无法确定究竟是哪一个人员进行了该行为,这导致人员行为监测的精确性不高。
发明内容
基于此,有必要针对人员行为监测的精确性不高的问题,提供一种对象行为监测方法、装置、设备、***及存储介质。
第一方面,提供了一种对象行为监测方法,该方法包括:
接收跟踪雷达发送的第一对应关系,该第一对应关系包括对象实时位置和对象标识之间的映射,该对象实时位置是该跟踪雷达对对象进行跟踪得到的;
接收监测摄像机发送的第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到该对象行为时对象所在的位置;
将该第一对应关系和该第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射。
在其中一个实施例中,该将该第一对应关系和该第二对应关系进行匹配,得到第三对应关系,包括:
将该第一对应关系中的对象实时位置与该第二对应关系中的对象行为位置进行匹配,得到相互匹配的对象实时位置和对象行为位置;
获取该相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为;
根据该相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为生成该第三对应关系。
在其中一个实施例中,该将该第一对应关系和该第二对应关系进行匹配,得到第三对应关系,包括:
确定该第二对应关系中是否存在对象脸部图像,该对象脸部图像是该监测摄像机在能够同时监测到对象行为和对象的脸部时对该对象的脸部进行拍摄后得到的;
当该第二对应关系中不存在该对象脸部图像时,将该第一对应关系和该第二对应关系进行匹配,得到该第三对应关系。
在其中一个实施例中,该第二对应关系包括对象行为、对象行为位置和监测区域标识之间的映射,该第三对应关系包括该对象行为、对象标识和监测区域标识之间的映射,该监测区域标识用于指示对象所处的监测区域;该将该第一对应关系和该第二对应关系进行匹配,得到第三对应关系之后,该方法还包括:
检测该第三对应关系中是否存在候选映射组,该候选映射组中的映射包括相同的对象标识和不同的监测区域标识;
当该第三对应关系中存在该候选映射组时,从该候选映射组中删除至少一个映射,得到保留映射组,该保留映射组中的映射包括相同的对象标识和相同的监测区域标识。
第二方面,提供了一种对象行为监测方法,该方法包括:
对对象进行跟踪,得到对象实时位置;
基于该对象实时位置和被跟踪的对象的对象标识,得到第一对应关系;
将该第一对应关系发送至服务器,该第一对应关系用于触发该服务器将该第一对应关系和第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,该第二对应关系是监测摄像机发送给该服务器的,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到对象行为时对象所在的位置。
在其中一个实施例中,该对对象进行跟踪,得到对象实时位置之前,该方法还包括:
接收该监测摄像机发送的第四对应关系,该第四对应关系包括跟踪起点位置和对象标识之间的映射;
对应地,该对对象进行跟踪,得到对象实时位置,包括:
根据该跟踪起点位置对对象进行跟踪,得到该对象实时位置;
对应地,该基于该对象实时位置和被跟踪的对象的对象标识,得到第一对应关系,包括:
根据该对象实时位置和该第四对应关系中的对象标识生成该第一对应关系。
在其中一个实施例中,该对对象进行跟踪,得到对象实时位置,包括:
在监测到对象时,对监测到的对象进行跟踪,得到该对象实时位置;
对应地,基于该对象实时位置和被跟踪的对象的对象标识,得到第一对应关系,包括:
将该对象实时位置发送至该监测摄像机,该对象实时位置用于触发该监测摄像机对该对象实时位置处的对象的脸部进行拍摄得到对象脸部图像,并基于该对象脸部图像获取以及返回对象标识;
接收该对象标识,并基于该对象实时位置和接收到的该对象标识,得到该第一对应关系。
第三方面,提供了一种对象行为监测方法,该方法包括:
对对象的行为进行监测,得到第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到对象行为时对象所在的位置;
将该第二对应关系发送至服务器,其中,该第二对应关系用于触发该服务器将第一对应关系和该第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,该第一对应关系是跟踪雷达发送给该服务器的,该第一对应关系包括对象实时位置和对象标识之间的映射,该对象实时位置是该跟踪雷达对对象进行跟踪得到的。
在其中一个实施例中,该将该第二对应关系发送至服务器之前,该方法还包括:
对对象的脸部进行拍摄,得到对象脸部图像和跟踪起点位置,该跟踪起点位置是该监测摄像机对对象的脸部进行拍摄时对象的位置;
根据该对象脸部图像获取对象标识;
基于该对象标识和该跟踪起点位置生成第四对应关系;
将该第四对应关系发送至该跟踪雷达,该第四对应关系用于触发该跟踪雷达生成该第一对应关系。
在其中一个实施例中,该将该第二对应关系发送至服务器之前,该方法还包括:
接收该跟踪雷达发送的对象实时位置,该对象实时位置是该跟踪雷达对监测到的对象进行跟踪得到的;
对该对象实时位置处的对象的脸部进行拍摄,得到对象脸部图像;
基于该对象脸部图像获取对象标识;
向该跟踪雷达发送该对象标识,该对象标识用于触发该跟踪雷达生成该第一对应关系。
在其中一个实施例中,该对对象的行为进行监测,得到第二对应关系,包括:
对对象的行为进行监测,在能够同时监测到对象行为和对象的脸部时对该对象的脸部进行拍摄,得到对象脸部图像;
生成该第二对应关系,该第二对应关系包括对象行为、对象行为位置和对象脸部图像之间的映射。
在其中一个实施例中,该对对象的行为进行监测,得到第二对应关系,包括:
获取多个监测区域,每个该监测区域一个监测区域标识相对应;
依次对该多个监测区域进行拍摄;
在对每个监测区域进行拍摄时,对该监测区域中的对象的行为进行监测;
生成该第二对应关系,该第二对应关系包括对象行为、对象行为位置和监测区域标识之间的映射。
第四方面,提供了一种对象行为监测装置,该装置包括:
第一接收模块,用于接收跟踪雷达发送的第一对应关系,该第一对应关系包括对象实时位置和对象标识之间的映射,该对象实时位置是该跟踪雷达对对象进行跟踪得到的;
第二接收模块,用于接收监测摄像机发送的第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到该对象行为时对象所在的位置;
匹配模块,用于将该第一对应关系和该第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射。
第五方面,提供了一种对象行为监测装置,该装置包括:
跟踪模块,用于对对象进行跟踪,得到对象实时位置;
获取模块,用于基于该对象实时位置和被跟踪的对象的对象标识,得到第一对应关系;
发送模块,用于将该第一对应关系发送至服务器,该第一对应关系用于触发该服务器将该第一对应关系和第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,该第二对应关系是监测摄像机发送给该服务器的,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到对象行为时对象所在的位置。
第六方面,提供了一种对象行为监测装置,该装置包括:
行为监测模块,用于对对象的行为进行监测,得到第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到对象行为时对象所在的位置;
发送模块,用于将该第二对应关系发送至服务器,其中,该第二对应关系用于触发该服务器将第一对应关系和该第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,该第一对应关系是跟踪雷达发送给该服务器的,该第一对应关系包括对象实时位置和对象标识之间的映射,该对象实时位置是该跟踪雷达对对象进行跟踪得到的。
第七方面,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行该计算机程序时实现上述第一方面中任一项方法的步骤;或者,该处理器执行该计算机程序时实现上述第二方面中任一项方法的步骤;或者,该处理器执行该计算机程序时实现上述第三方面中任一项方法的步骤。
第八方面,提供了一种对象行为监测***,该***包括服务器、跟踪雷达和监测摄像机;
其中,该服务器用于执行如上述第一方面任一所述的对象行为监测方法;
该跟踪雷达用于执行如上述第二方面任一所述的对象行为监测方法;
该监测摄像机用于执行如上述第三方面任一所述的对象行为监测方法。
第九方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述第一方面中任一项的方法的步骤;或者,该计算机程序被处理器执行时实现上述第二方面中任一项的方法的步骤;或者,该计算机程序被处理器执行时实现上述第三方面中任一项的方法的步骤。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过接收跟踪雷达发送的第一对应关系,并接收监测摄像机发送的第二对应关系,其中,第一对应关系包括对象实时位置和对象标识之间的映射,第二对应关系包括对象行为和对象行为位置之间的映射,该对象实时位置是跟踪雷达对对象进行跟踪得到的,对象行为位置是监测摄像机监测到对象行为时对象所在的位置,而后,将第一对应关系和第二对应关系进行匹配,从而得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,由于可以利用第一对应关系中的对象实时位置和第二对应关系中的对象行为位置进行匹配,从而得到对象行为和对象标识之间的映射,因此,在对对象行为进行监测时,不仅可以监测到行为,还可以获取该行为所对应的对象标识,从而就可以确定是哪一个对象进行了该行为,这样就可以保证对象行为监测的精确性。
附图说明
图1为本申请实施例提供的一种实施环境的示意图;
图2为本申请实施例提供的一种实施环境的另一示意图;
图3为本申请实施例提供的一种对象行为监测方法的流程图;
图4为本申请实施例提供的另一种对象行为监测方法的流程图;
图5为本申请实施例提供的另一种对象行为监测方法的流程图;
图6为本申请实施例提供的一种对象行为监测方法的流程图;
图7为本申请实施例提供的另一种对象行为监测方法的流程图;
图8为本申请实施例提供的另一种对象行为监测方法的流程图;
图9为本申请实施例提供的另一种对象行为监测方法的流程图;
图10为本申请实施例提供的另一种对象行为监测方法的流程图;
图11为本申请实施例提供的一种对象行为监测装置的框图;
图12为本申请实施例提供的另一种对象行为监测装置的框图;
图13为本申请实施例提供的另一种对象行为监测装置的框图;
图14为本申请实施例提供的另一种对象行为监测装置的框图;
图15为本申请实施例提供的另一种对象行为监测装置的框图;
图16为本申请实施例提供的另一种对象行为监测装置的框图;
图17为本申请实施例提供的一种计算机设备的框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
下面,将对本申请实施例提供的对象行为监测方法所涉及到的实施环境进行简要说明。
请参考图1,图1为本申请实施例提供的对象行为监测方法所涉及到的一种实施环境的示意图,如图1所示,该实施环境可以包括监测摄像机101、跟踪雷达102和服务器103。监测摄像机101可以通过有线或者无线网络与跟踪雷达102和服务器103分别进行通信,跟踪雷达102可以通过有线或者无线网络与监测摄像机101和服务器103分别进行通信。安装于同一建筑物(这里的同一建筑物可以理解为同一房间)内的跟踪雷达102和监测摄像机101可以标定配对。
其中,监测摄像机101具有:1、拍摄对象的脸部的功能;2、监测对象的行为的功能;3、对被拍摄对象进行定位的功能。跟踪雷达102具有实时跟踪对象,以获取对象实时位置的功能。服务器103可以是一台服务器,也可以是由多台服务器组成的服务器集群。
请参考图2,如图2所示,在本申请实施例中,监测摄像机101可以设置于建筑物的入口处,跟踪雷达102可以设置于建筑物的屋顶处,例如,跟踪雷达102可以设置于建筑物的屋顶的正中央。
将跟踪雷达102设置于建筑物的屋顶处,可以避免被跟踪对象互相遮挡而导致跟踪失败的情况,从而可以提高对象跟踪的可靠性。
可选的,为了提高行为监测的精确性,保证行为监测能够覆盖到建筑物内的每个对象,在本申请实施例中,可以在建筑物内设置多个监测摄像机101以及多个跟踪雷达102,该多个监测摄像机101除了可以设置于建筑物的入口处以外,还可以设置于建筑物内的其他位置处,本申请实施例对此不作具体限定。
请参考图3,其示出了本申请实施例提供的一种对象行为监测方法的流程图,该对象行为监测方法可以应用于图1所示实施环境中的服务器103中。如图3所示,该对象行为监测方法可以包括以下步骤:
步骤301、服务器接收跟踪雷达发送的第一对应关系。
在本申请实施例中,跟踪雷达可以对建筑内的对象进行实时跟踪,从而得到建筑内对象的实时位置,同时,跟踪雷达还可以获取建筑物内对象的标识。其中,对象的标识用于唯一标识该对象,例如,对象的标识可以为姓名、学号、工号或者身份证号等。
在得到建筑内对象的实时位置和标识后,跟踪雷达可以生成并向服务器发送第一对应关系,该第一对应关系可以包括对象实时位置和对象标识之间的至少一个映射,在步骤301中,服务器可以接收跟踪雷达发送的第一对应关系。
表1为一种示例性的第一对应关系的列表。如表1所示,该第一对应关系可以包括A与Xxx的映射以及B与Yyy的映射。
表1
对象标识 对象实时位置
A Xxx
B Yyy
需要指出的是,本申请实施例中的“对象”指的可以是人员。
步骤302、服务器接收监测摄像机发送的第二对应关系。
在本申请实施例中,监测摄像机可以对建筑内对象的行为进行监测,从而得到对象行为,同时,监测摄像机还可以获取在监测到对象行为时对象所在的位置,从而得到对象行为位置。在得到对象行为和对象行为位置之后,监测摄像机可以生成并向服务器发送第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的至少一个映射,在步骤302中,服务器可以接收监测摄像机发送的第二对应关系
表2为一种示例性的第二对应关系的列表。如表2所示,该第二对应关系可以包括写字与Zz的映射以及睡觉与Ff的映射。
表2
对象行为 对象行为位置
写字 Zz
睡觉 Ff
可选的,在对建筑物内的对象进行行为监测的过程中,监测摄像机除了可以得到对象行为和对象行为位置以外,还可以得到对象行为时刻,该对象行为时刻为监测摄像机监测到对象行为的时刻。在这种情况下,监测摄像机可以生成包括对象行为时刻的第二对应关系。
表3为一种示例性的包括对象行为时刻的第二对应关系的列表。如表3所示,该第二对应关系可以包括写字、Zz与t1的映射以及睡觉、Ff与t2的映射。
表3
对象行为 对象行为位置 对象行为时刻
写字 Zz t1
睡觉 Ff t2
步骤303、服务器将第一对应关系和第二对应关系进行匹配,得到第三对应关系。
其中,第三对应关系包括对象行为和对象标识之间的映射。
表4为一种示例性的第三对应关系的列表。如表4所示,该第三对应关系可以包括写字与A的映射以及睡觉与D的映射。
表4
对象行为 对象标识
写字 A
睡觉 D
可选的,在第二对应关系包括对象行为时刻的情况下,第三对应关系也可以包括对象行为时刻。
表5为一种示例性的包括对象行为时刻的第三对应关系的列表。如表5所示,该第三对应关系可以包括写字、A与t1的映射以及睡觉、D与t2的映射。
表5
Figure BDA0002165291550000081
Figure BDA0002165291550000091
在本申请的一个实施例中,服务器将第一对应关系和第二对应关系进行匹配从而得到第三对应关系的技术过程可以为:
服务器将第一对应关系中的对象实时位置与第二对应关系中的对象行为位置进行匹配,从而得到相互匹配的对象实时位置和对象行为位置,其中,相互匹配的对象实时位置和对象行为位置所指示的为同一位置。例如,若第一对应关系中的某对象实时位置所指示的是建筑物内的T位置,第二对应关系中的某对象行为位置所指示的也为建筑物内的T位置,则均指示T位置的该对象实时位置和该对象行为位置相互匹配。
接着,服务器可以获取该相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为,而后,服务器可以根据该相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为生成第三对应关系。利用第三对应关系,服务器就可以确对象行为所对应的对象标识,从而就可以确定是哪一个对象进行了哪一个行为,这样就可以保证行为监测的精确性。
以表1所示的第一对应关系和表2所示的第二对应关系为例,在步骤303中,服务器可以将对象行为位置Zz和Ff与对象实时位置Xxx和Yyy进行匹配,在匹配的过程中,服务器确定对象行为位置Zz所指示的位置与对象实时位置Xxx所指示的位置为同一位置,则服务器可以将对象行为位置Zz和对象实时位置Xxx确定为相互匹配的对象实时位置和对象行为位置。接着,服务器可以从第二对应关系中获取对象行为位置Zz所对应的对象行为,该对象行为是写字。同时,服务器可以从第一对应关系中获取对象实时位置Xxx所对应的对象标识,该对象标识是A。而后,服务器可以生成第三对应关系,该第三对应关系包括A和写字之间的映射。通过第三对应关系,服务器即可确定标识为A的对象进行了写字的行为,这样,就可以保证行为识别的精确性。
需要指出的是,由于对象实时位置是跟踪雷达对建筑物内的对象进行实时跟踪而得到的,因此,实际应用中,对象实时位置通常用于反映对象在跟踪雷达的世界坐标系中的位置。同理地,由于对象行为位置是监测摄像机在对建筑物内的对象进行行为监测时获取到的,因此,实际应用中,对象行为位置通常用于反映对象在监测摄像机的世界坐标系中的位置。
基于上述情况,可选的,在步骤303中,服务器可以将对象实时位置进行坐标转换,从而得到转换后的对象实时位置,该转换后的对象实时位置用于反映对象在监测摄像机的世界坐标系中的位置,服务器可以将该转换后的对象实时位置与对象行为位置进行匹配;或者,服务器可以将对象行为位置进行坐标转换,从而得到转换后的对象行为位置,该转换后的对象行为位置用于反映对象在跟踪雷达的世界坐标系中的位置,服务器可以将该转换后的对象行为位置与对象实时位置进行匹配。
可选的,在本申请的一些实施例中,当监测摄像机能够同时监测到对象行为和对象的脸部时,该监测摄像机可以对该对象的脸部进行拍摄,从而得到对象脸部图像。如果监测摄像机得到了对象脸部图像,则该监测摄像机就可以生成并向服务器包括对象脸部图像的第二对应关系。
表6为一种示例性的包括对象脸部图像的第二对应关系的列表。如表6所示,由于在检测到写字的行为时,监测摄像机还能够同时监测到对象的脸部,因此,监测摄像机可以对该对象的脸部进行拍摄,从而得到对象脸部图像,该对象脸部图像为图像1,因此,表6中包括写字、Zz与图像1的映射,而由于在监测到睡觉的行为时,监测摄像机无法监测到对象的脸部,因此,监测摄像机无法对对象的脸部进行拍摄,故而,表6中包括睡觉与Ff的映射,该映射不包括对象脸部图像。
表6
对象行为 对象行为位置 对象脸部图像
写字 Zz 图像1
睡觉 Ff ——
基于上述情况,可选的,在步骤303中,服务器可以确定第二对应关系中是否存在对象脸部图像,当该第二对应关系中不存在对象脸部图像时,服务器可以将第一对应关系和第二对应关系进行匹配,从而得到第三对应关系,当该第二对应关系中存在对象脸部图像时,服务器可以根据该对象脸部图像确定对象标识,而后,服务器可以基于该对象标识和对象行为生成第三对应关系。
以表6所示的第二对应关系为例,由于写字、Zz与图像1的映射中包括对象脸部图像(也即是图像1),因此,服务器可以根据该图像1确定对象标识,该对象标识为A,而后,服务器可以基于对象标识A和对象行为写字而生成第三对应关系,由于睡觉与Ff的映射不包括对象脸部图像,因此,服务器可以将睡觉与Ff的映射与第一对应关系进行匹配,并根据匹配结果得到第三对应关系。
其中,根据对象脸部图像确定对象标识的技术过程可以为:监测摄像机根据对象脸部图像查询脸部数据库,该脸部数据库中存储有脸部图像与对象标识的至少一个映射,根据查询结果,服务器可以得到与该对象脸部图像所对应的对象标识。
在本申请实施例提供的对象行为监测方法中,服务器接收跟踪雷达发送的第一对应关系,并接收监测摄像机发送的第二对应关系,其中,第一对应关系包括对象实时位置和对象标识之间的映射,第二对应关系包括对象行为和对象行为位置之间的映射,该对象实时位置是跟踪雷达对对象进行跟踪得到的,对象行为位置是监测摄像机监测到对象行为时对象所在的位置,而后,将第一对应关系和第二对应关系进行匹配,从而得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,由于可以利用第一对应关系中的对象实时位置和第二对应关系中的对象行为位置进行匹配,从而得到对象行为和对象标识之间的映射,因此,在对对象行为进行监测时,不仅可以监测到行为,还可以获取该行为所对应的对象标识,从而就可以确定是哪一个对象进行了该行为,这样就可以保证对象行为监测的精确性。
请参考图4,其示出了本申请实施例提供的另一种对象行为监测方法的流程图,该对象行为监测方法可以应用于图1所示实施环境的服务器103中。如图4所示,在上文所述的实施例的基础上,步骤303之后,该对象行为监测方法还可以包括:
步骤401、服务器检测第三对应关系中是否存在候选映射组。
其中,候选映射组中的映射包括相同的对象标识和不同的监测区域标识。
在本申请实施例中,为了提高行为监测的精度,可以将建筑物划分成多个监测区域,在一次行为监测轮询过程中,监测摄像机可以依次对该多个监测区域内的对象进行行为监测,当然,在本申请实施例中,监测摄像机可以执行多个行为监测轮询过程。例如,在对教室内学生行为进行监测的过程中,监测摄像机可以在课程开始时进行行为监测轮询,并在课程开始到课程结束的时间段内,执行多次行为监测轮询过程,为了保证统计方便,不同教室内的监测摄像机在课程开始到课程结束的时间段内执行行为监测轮询的次数相同。
如图5所示,示例性地,可以将建筑物J划分成4个监测区域,该4个监测区域分别为监测区域Q1、监测区域Q2、监测区域Q3和监测区域Q4,其中,每个监测区域均分布有至少一个对象。在一次行为监测轮询过程中,监测摄像机可以先对监测区域Q1内的对象进行行为监测,而后,再对监测区域Q2内的对象进行行为监测,接着,再对监测区域Q3内的对象进行行为监测,最后,再对监测区域Q4内的对象进行行为监测。
在对每个监测区域内的对象进行行为监测后,监测摄像机可以生成包括监测区域标识的第二对应关系,对应地,第三对应关系也可以包括监测区域标识,其中,监测区域标识用于指示对象所处的监测区域。
表7为一种示例性的包括监测区域标识的第三对应关系的列表。如表7所示,该第三对应关系可以包括写字、A与n的映射以及睡觉、D与m的映射以及睡觉、D与n的映射。
表7
Figure BDA0002165291550000111
Figure BDA0002165291550000121
实际应用中,某些对象可能存在于两个相邻的监测区域的交界处,对于这些对象,监测摄像机可能会对其进行重复地行为监测。以表7所示的第三对应关系为例,对象标识D所对应的对象存在于监测区域标识为m的监测区域和监测区域标识为n的监测区域的交界处,因此,监测摄像机对该对象标识D所对应的对象进行了两次重复的行为监测,故而,第三对应关系中存在有对象标识D所对应的对象的两条记录。
为了消除重复记录,服务器可以检测第三对应关系中是否存在候选映射组,该候选映射组中的映射包括相同的对象标识和不同的监测区域标识。
以表7所示的第三对应关系为例,睡觉、D与m的映射以及睡觉、D与n的映射包括相同的对象标识和不同的监测区域标识,因此,服务器可以确定睡觉、D与m的映射以及睡觉、D与n的映射组成的映射组为候选映射组。
步骤402、当第三对应关系中存在候选映射组时,服务器从候选映射组中删除至少一个映射,得到保留映射组。
其中,保留映射组中的映射包括相同的对象标识和相同的监测区域标识。
以表7所示的第三对应关系为例,候选映射组可以包括睡觉、D与m的映射以及睡觉、D与n的映射,在步骤402中,服务器可以将候选映射组中的睡觉、D与m的映射或者睡觉、D与n的映射进行删除,从而得到保留映射组,该保留映射组包括睡觉、D与m的映射或者睡觉、D与n的映射,该保留映射组中的映射包括相同的对象标识和相同的监测区域标识。这样,服务器就可以实现对重复记录的消除,从而可以保证行为监测记录的精确性。
请参考图6,其示出了本申请实施例提供的一种对象行为监测方法的流程图,该对象行为监测方法可以应用于图1所示实施环境中的跟踪雷达102中。如图6所示,该对象行为监测方法可以包括以下步骤:
步骤601、跟踪雷达对对象进行跟踪,得到对象实时位置。
步骤602、跟踪雷达基于对象实时位置和被跟踪的对象的对象标识,得到第一对应关系。
本申请实施例提供了两种跟踪雷达执行步骤601和步骤602的方式。
在第一种方式中,步骤601之前,监测摄像机可以对建筑物内对象的脸部进行拍摄,从而得到对象脸部图像。在得到对象脸部图像后,监测摄像机可以基于对象脸部图像确定对象标识。其中,基于对象脸部图像确定对象标识的技术过程上文中已经进行了说明,本申请实施例在此不再赘述。此外,监测摄像机还可以得到拍摄对象脸部图像时对象所处的位置,并将该位置确定为跟踪起点位置。在得到对象标识和跟踪起点位置后,监测摄像机可以生成并向跟踪雷达发送第四对应关系,该第四对应关系可以包括跟踪起点位置和对象标识之间的映射。
表8为一种示例性的第四对应关系的列表。如表8所示,该第四对应关系可以包括A与d1的映射以及B与d2的映射以及D与d3的映射。
表8
对象标识 跟踪起点位置
A d1
B d2
D d3
在接收到监测摄像机发送的第四对应关系后,跟踪雷达可以根据第四对应关系执行步骤601和602的技术过程。也即是,跟踪雷达可以根据第四对应关系中的跟踪起点位置实时跟踪对象,从而得到对象实时位置,在得到对象实时位置后,跟踪雷达可以根据对象实时位置和第四对应关系中的对象标识生成第一对应关系。
实际应用中,在许多情况下,监测摄像机很可能无法拍摄到建筑物内的所有对象的脸部图像。对于没有被拍摄到脸部图像的对象而言,跟踪雷达无法从监测摄像机处获取第四对应关系,也就无法根据第四对应关系执行步骤601和步骤602的技术过程。
基于此,本申请实施例还提供了第二种执行步骤601和步骤602的技术过程。
在第二种方式中,跟踪雷达可以在未获取跟踪起点位置的前提下对对象进行跟踪,也即是,跟踪雷达可以在监测到建筑物内的对象时,对监测到的对象进行跟踪,得到对象实时位置。由于跟踪雷达没有从监测摄像机处获取第四对应关系,因此,跟踪雷达仅能获取对象实时位置,而无法获取对象标识。在这种情况下,跟踪雷达可以将对象实时位置发送至监测摄像机,监测摄像机可以对对象实时位置处的对象的脸部进行拍摄得到对象脸部图像,并基于该对象脸部图像获取以及向跟踪雷达发送对象标识,跟踪雷达可以接收监测摄像机发送的对象标识,并基于该对象实时位置和接收到的监测摄像机发送的对象标识,得到第一对应关系。
可选的,跟踪雷达可以接收服务器发送的信息补全指令,在接收到该信息补全指令之后,跟踪雷达可以确定自身中的未匹配有对象标识的对象实时位置,而后,跟踪雷达可以将该未匹配有对象标识的对象实时位置发送至监测摄像机,以由监测摄像机根据接收到的对象实时位置向跟踪雷达返回对象标识。
步骤603、跟踪雷达将第一对应关系发送至服务器。
其中,如上文所述,该第一对应关系用于触发服务器将第一对应关系和第二对应关系进行匹配,得到第三对应关系,第三对应关系包括对象行为和对象标识之间的映射。
请参考图7,其示出了本申请实施例提供的一种对象行为监测方法的流程图,该对象行为监测方法可以应用于图1所示实施环境中的监测摄像机101中。如图7所示,该对象行为监测方法可以包括以下步骤:
步骤701、监测摄像机对对象的行为进行监测,得到第二对应关系。
如上文所述,第二对应关系包括对象行为和对象行为位置之间的映射,其中,对象行为位置是监测摄像机监测到对象行为时对象所在的位置。
可选的,如上文所述,在能够同时监测到对象行为和对象的脸部时,监测摄像机可以对对象的脸部进行拍摄,得到对象脸部图像,在这种情况下,监测摄像机可以生成包括对象行为、对象行为位置和对象脸部图像之间的映射的第二对应关系。
可选的,如上文所述,为了提高行为监测的精度,可以将建筑物划分为多个监测区域,其中,每个监测区域均与一个监测区域标识相对应;监测摄像机可以依次对该多个监测区域进行拍摄,在对每个监测区域进行拍摄时,监测摄像机可以对该监测区域中的对象的行为进行监测,在这种情况下,监测摄像机可以生成包括对象行为、对象行为位置和监测区域标识之间的映射的第二对应关系。
步骤702、监测摄像机将第二对应关系发送至服务器。
其中,如上文所述,第二对应关系用于触发服务器将第一对应关系和第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射。
请参考图8,其示出了本申请实施例提供的另一种对象行为监测方法的流程图,该对象行为监测方法可以应用于图1所示实施环境的监测摄像机101中。如图8所示,在上文所述的实施例的基础上,该对象行为监测方法还可以包括:
步骤801、监测摄像机对对象的脸部进行拍摄,得到对象脸部图像和跟踪起点位置。
该跟踪起点位置是监测摄像机对对象的脸部进行拍摄时对象的位置。
步骤802、监测摄像机根据对象脸部图像获取对象标识。
步骤803、检测摄像机基于对象标识和跟踪起点位置生成第四对应关系。
步骤804、监测摄像机将第四对应关系发送至跟踪雷达。
其中,如上文所述,第四对应关系用于触发跟踪雷达生成第一对应关系。
请参考图9,其示出了本申请实施例提供的另一种对象行为监测方法的流程图,该对象行为监测方法可以应用于图1所示实施环境的监测摄像机101中。如图9所示,在上文所述的实施例的基础上,该对象行为监测方法还可以包括:
步骤901、监测摄像机接收跟踪雷达发送的对象实时位置。
该对象实时位置是跟踪雷达对监测到的对象进行跟踪得到的。
步骤902、监测摄像机对对象实时位置处的对象的脸部进行拍摄,得到对象脸部图像。
步骤903、监测摄像机基于对象脸部图像获取对象标识。
步骤904、监测摄像机向跟踪雷达发送对象标识。
其中,对象标识用于触发跟踪雷达生成第一对应关系。
请参考图10,其示出了本申请实施例提供的一种对象行为监测方法的流程图,该对象行为监测方法可以应用于图1所示的实施环境中。如图10所示,该对象行为监测方法可以包括以下步骤:
步骤1001、跟踪雷达对对象进行跟踪,得到对象实时位置。
步骤1002、跟踪雷达基于对象实时位置和被跟踪的对象的对象标识,得到第一对应关系。
步骤1003、跟踪雷达将第一对应关系发送至服务器。
步骤1004、监测摄像机对对象的行为进行监测,得到第二对应关系。
步骤1005、监测摄像机将第二对应关系发送至服务器。
步骤1006、服务器将第一对应关系和第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射。
本实施例的技术过程与上述实施例中的技术过程同理,本申请实施例在此不再赘述。
请参考图11,其示出了本申请实施例提供的一种对象行为监测装置1100的框图,该对象行为监测装置1100可以配置于图1所示的服务器103中。如图11所示,该对象行为监测装置1100可以包括:第一接收模块1101、第二接收模块1102和匹配模块1103。
其中,该第一接收模块1101,用于接收跟踪雷达发送的第一对应关系,该第一对应关系包括对象实时位置和对象标识之间的映射,该对象实时位置是该跟踪雷达对对象进行跟踪得到的。
该第二接收模块1102,用于接收监测摄像机发送的第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到该对象行为时对象所在的位置。
该匹配模块1103,用于将该第一对应关系和该第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射。
在本申请的一个实施例中,该匹配模块1103,具体用于:将该第一对应关系中的对象实时位置与该第二对应关系中的对象行为位置进行匹配,得到相互匹配的对象实时位置和对象行为位置;获取该相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为;根据该相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为生成该第三对应关系。
请参考图12,本申请实施例除了提供一种对象行为监测装置1100之外,还提供了一种对象行为监测装置1200,该对象行为监测装置1200除了包括对象行为监测装置1100的各个模块外,可选的,该对象行为监测装置1200还包括确定模块1104、检测模块1105和删除模块1106。
其中,该确定模块1104,用于确定该第二对应关系中是否存在对象脸部图像,该对象脸部图像是该监测摄像机在能够同时监测到对象行为和对象的脸部时对该对象的脸部进行拍摄后得到的。
对应地,该匹配模块1103,用于在该第二对应关系中不存在该对象脸部图像时,将该第一对应关系和该第二对应关系进行匹配,得到该第三对应关系。
该第二对应关系包括对象行为、对象行为位置和监测区域标识之间的映射,该第三对应关系包括该对象行为、对象标识和监测区域标识之间的映射,该监测区域标识用于指示对象所处的监测区域。
在此基础上,该检测模块1105,用于检测该第三对应关系中是否存在候选映射组,该候选映射组中的映射包括相同的对象标识和不同的监测区域标识。
该删除模块1106,用于在该第三对应关系中存在该候选映射组时,从该候选映射组中删除至少一个映射,得到保留映射组,该保留映射组中的映射包括相同的对象标识和相同的监测区域标识。
本申请实施例提供的对象行为监测装置,可以实现上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
关于对象行为监测装置的具体限定可以参见上文中对于对象行为监测方法的限定,在此不再赘述。上述对象行为监测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
请参考图13,其示出了本申请实施例提供的一种对象行为监测装置1300的框图,该对象行为监测装置1300可以配置于图1所示的跟踪雷达102中。如图13所示,该对象行为监测装置1300可以包括:跟踪模块1301、获取模块1302和发送模块1303。
其中,该跟踪雷达1301,用于对对象进行跟踪,得到对象实时位置。
该获取模块1302,用于基于该对象实时位置和被跟踪的对象的对象标识,得到第一对应关系。
该发送模块1303,用于将该第一对应关系发送至服务器,该第一对应关系用于触发该服务器将该第一对应关系和第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,该第二对应关系是监测摄像机发送给该服务器的,该第二对应关系包括包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到对象行为时对象所在的位置。
在本申请的一个实施例中,该跟踪模块1301,用于在监测到对象时,对监测到的对象进行跟踪,得到该对象实时位置。
对应地,该获取模块1302,用于将该对象实时位置发送至该监测摄像机,该对象实时位置用于触发该监测摄像机对该对象实时位置处的对象的脸部进行拍摄得到对象脸部图像,并基于该对象脸部图像获取以及返回对象标识;接收该对象标识,并基于该对象实时位置和接收到的该对象标识,得到该第一对应关系。
请参考图14,本申请实施例除了提供一种对象行为监测装置1300之外,还提供了一种对象行为监测装置1400,该对象行为监测装置1400除了包括对象行为监测装置1300的各个模块外,可选的,该对象行为监测装置1400还包括:接收模块1304。
其中,该接收模块1304,用于接收该监测摄像机发送的第四对应关系,该第四对应关系包括跟踪起点位置和对象标识之间的映射。
对应地,该跟踪模块1301,用于根据该跟踪起点位置对对象进行跟踪,得到该对象实时位置。
对应地,该获取模块1302,用于根据该对象实时位置和该第四对应关系中的对象标识生成该第一对应关系。
本申请实施例提供的对象行为监测装置,可以实现上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
关于对象行为监测装置的具体限定可以参见上文中对于对象行为监测方法的限定,在此不再赘述。上述对象行为监测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
请参考图15,其示出了本申请实施例提供的一种对象行为监测装置1500的框图,该对象行为监测装置1500可以配置于图1所示的监测摄像机101中。如图14所示,该对象行为监测装置1500可以包括:行为监测模块1501和发送模块1502。
该行为监测模块1501,用于对对象的行为进行监测,得到第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到对象行为时对象所在的位置。
该第一发送模块1502,用于将该第二对应关系发送至服务器,其中,该第二对应关系用于触发该服务器将第一对应关系和该第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,该第一对应关系是跟踪雷达发送给该服务器的,该第一对应关系包括对象实时位置和对象标识之间的映射,该对象实时位置是该跟踪雷达对对象进行跟踪得到的。
在本申请的一个实施例中,该行为监测模块1501,具体用于对对象的行为进行监测,在能够同时监测到对象行为和对象的脸部时对该对象的脸部进行拍摄,得到对象脸部图像;生成该第二对应关系,该第二对应关系包括对象行为、对象行为位置和对象脸部图像之间的映射。
在本申请的一个实施例中,该行为监测模块1501,具体用于获取多个监测区域,每个该监测区域一个监测区域标识相对应;依次对该多个监测区域进行拍摄;在对每个监测区域进行拍摄时,对该监测区域中的对象的行为进行监测;生成该第二对应关系,该第二对应关系包括对象行为、对象行为位置和监测区域标识之间的映射。
请参考图16,本申请实施例除了提供一种对象行为监测装置1500之外,还提供了一种对象行为监测装置1600,该对象行为监测装置1600除了包括对象行为监测装置1500的各个模块外,可选的,该对象行为监测装置1500还包括:第一拍摄模块1503、第一获取模块1504、生成模块1505、第二发送模块1506、接收模块1507、第二拍摄模块1508、第二获取模块1509和第三发送模块1510。
该第一拍摄模块1503,用于对对象的脸部进行拍摄,得到对象脸部图像和跟踪起点位置,该跟踪起点位置是该监测摄像机对对象的脸部进行拍摄时对象的位置。
该第一获取模块1504,用于根据该对象脸部图像获取对象标识。
该生成模块1505,用于基于该对象标识和该跟踪起点位置生成第四对应关系。
该第二发送模块1506,用于将该第四对应关系发送至该跟踪雷达,该第四对应关系用于触发该跟踪雷达生成该第一对应关系。
该接收模块1507,用于接收该跟踪雷达发送的对象实时位置,该对象实时位置是该跟踪雷达对监测到的对象进行跟踪得到的。
该第二拍摄模块1508,用于对该对象实时位置处的对象的脸部进行拍摄,得到对象脸部图像。
该第二获取模块1509,用于基于该对象脸部图像获取对象标识。
该第三发送模块1510,用于向该跟踪雷达发送该对象标识,该对象标识用于触发该跟踪雷达生成该第一对应关系。
本申请实施例提供的对象行为监测装置,可以实现上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
关于对象行为监测装置的具体限定可以参见上文中对于对象行为监测方法的限定,在此不再赘述。上述对象行为监测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在本申请的一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器、跟踪雷达或者监测摄像机,其内部结构图可以如图17所示。该计算机设备包括通过***总线连接的处理器和存储器。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机程序被处理器执行时以实现一种对象行为监测方法。
本领域技术人员可以理解,图17中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本申请实施例提供了一种对象行为监测***,其中,该对象行为监测***包括跟踪雷达、监测摄像机和服务器。
其中,跟踪雷达用于执行上述方法实施例中跟踪雷达所执行的技术过程。
监测摄像机用于执行上述方法实施例中监测摄像机所执行的技术过程。
服务器用于执行上述方法实施例中服务器所执行的技术过程。
在本申请的一个实施例中,提供了一种计算机设备,该计算机设备可以为服务器,该计算机设备包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
接收跟踪雷达发送的第一对应关系,该第一对应关系包括对象实时位置和对象标识之间的映射,该对象实时位置是该跟踪雷达对对象进行跟踪得到的;
接收监测摄像机发送的第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到该对象行为时对象所在的位置;
将该第一对应关系和该第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:将该第一对应关系中的对象实时位置与该第二对应关系中的对象行为位置进行匹配,得到相互匹配的对象实时位置和对象行为位置;获取该相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为;根据该相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为生成该第三对应关系。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:确定该第二对应关系中是否存在对象脸部图像,该对象脸部图像是该监测摄像机在能够同时监测到对象行为和对象的脸部时对该对象的脸部进行拍摄后得到的;当该第二对应关系中不存在该对象脸部图像时,将该第一对应关系和该第二对应关系进行匹配,得到该第三对应关系。
该第二对应关系包括对象行为、对象行为位置和监测区域标识之间的映射,该第三对应关系包括该对象行为、对象标识和监测区域标识之间的映射,该监测区域标识用于指示对象所处的监测区域。在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:检测该第三对应关系中是否存在候选映射组,该候选映射组中的映射包括相同的对象标识和不同的监测区域标识;当该第三对应关系中存在该候选映射组时,从该候选映射组中删除至少一个映射,得到保留映射组,该保留映射组中的映射包括相同的对象标识和相同的监测区域标识。
本申请实施例提供的计算机设备,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在本申请的一个实施例中,提供了一种计算机设备,该计算机设备可以为跟踪雷达,该计算机设备包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
对对象进行跟踪,得到对象实时位置;
基于该对象实时位置和被跟踪的对象的对象标识,得到第一对应关系;
将该第一对应关系发送至服务器,该第一对应关系用于触发该服务器将该第一对应关系和第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,该第二对应关系是监测摄像机发送给该服务器的,该第二对应关系包括包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到对象行为时对象所在的位置。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:接收该监测摄像机发送的第四对应关系,该第四对应关系包括跟踪起点位置和对象标识之间的映射;根据该跟踪起点位置对对象进行跟踪,得到该对象实时位置;根据该对象实时位置和该第四对应关系中的对象标识生成该第一对应关系。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:在监测到对象时,对监测到的对象进行跟踪,得到该对象实时位置;将该对象实时位置发送至该监测摄像机,该对象实时位置用于触发该监测摄像机对该对象实时位置处的对象的脸部进行拍摄得到对象脸部图像,并基于该对象脸部图像获取以及返回对象标识;接收该对象标识,并基于该对象实时位置和接收到的该对象标识,得到该第一对应关系。
本申请实施例提供的计算机设备,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在本申请的一个实施例中,提供了一种计算机设备,该计算机设备可以为监测摄像机,该计算机设备包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
对对象的行为进行监测,得到第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到对象行为时对象所在的位置;
将该第二对应关系发送至服务器,其中,该第二对应关系用于触发该服务器将第一对应关系和该第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,该第一对应关系是跟踪雷达发送给该服务器的,该第一对应关系包括对象实时位置和对象标识之间的映射,该对象实时位置是该跟踪雷达对对象进行跟踪得到的。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:对对象的脸部进行拍摄,得到对象脸部图像和跟踪起点位置,该跟踪起点位置是该监测摄像机对对象的脸部进行拍摄时对象的位置;根据该对象脸部图像获取对象标识;基于该对象标识和该跟踪起点位置生成第四对应关系;将该第四对应关系发送至该跟踪雷达,该第四对应关系用于触发该跟踪雷达生成该第一对应关系。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:接收该跟踪雷达发送的对象实时位置,该对象实时位置是该跟踪雷达对监测到的对象进行跟踪得到的;对该对象实时位置处的对象的脸部进行拍摄,得到对象脸部图像;基于该对象脸部图像获取对象标识;向该跟踪雷达发送该对象标识,该对象标识用于触发该跟踪雷达生成该第一对应关系。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:对对象的行为进行监测,在能够同时监测到对象行为和对象的脸部时对该对象的脸部进行拍摄,得到对象脸部图像;生成该第二对应关系,该第二对应关系包括对象行为、对象行为位置和对象脸部图像之间的映射。
在本申请的一个实施例中,处理器执行计算机程序时还实现以下步骤:获取多个监测区域,每个该监测区域一个监测区域标识相对应;依次对该多个监测区域进行拍摄;在对每个监测区域进行拍摄时,对该监测区域中的对象的行为进行监测;生成该第二对应关系,该第二对应关系包括对象行为、对象行为位置和监测区域标识之间的映射。
本申请实施例提供的计算机设备,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在本申请的一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
接收跟踪雷达发送的第一对应关系,该第一对应关系包括对象实时位置和对象标识之间的映射,该对象实时位置是该跟踪雷达对对象进行跟踪得到的;
接收监测摄像机发送的第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到该对象行为时对象所在的位置;
将该第一对应关系和该第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:将该第一对应关系中的对象实时位置与该第二对应关系中的对象行为位置进行匹配,得到相互匹配的对象实时位置和对象行为位置;获取该相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为;根据该相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为生成该第三对应关系。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:确定该第二对应关系中是否存在对象脸部图像,该对象脸部图像是该监测摄像机在能够同时监测到对象行为和对象的脸部时对该对象的脸部进行拍摄后得到的;当该第二对应关系中不存在该对象脸部图像时,将该第一对应关系和该第二对应关系进行匹配,得到该第三对应关系。
该第二对应关系包括对象行为、对象行为位置和监测区域标识之间的映射,该第三对应关系包括该对象行为、对象标识和监测区域标识之间的映射,该监测区域标识用于指示对象所处的监测区域。在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:检测该第三对应关系中是否存在候选映射组,该候选映射组中的映射包括相同的对象标识和不同的监测区域标识;当该第三对应关系中存在该候选映射组时,从该候选映射组中删除至少一个映射,得到保留映射组,该保留映射组中的映射包括相同的对象标识和相同的监测区域标识。
本实施例提供的计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在本申请的一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
对对象进行跟踪,得到对象实时位置;
基于该对象实时位置和被跟踪的对象的对象标识,得到第一对应关系;
将该第一对应关系发送至服务器,该第一对应关系用于触发该服务器将该第一对应关系和第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,该第二对应关系是监测摄像机发送给该服务器的,该第二对应关系包括包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到对象行为时对象所在的位置。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:接收该监测摄像机发送的第四对应关系,该第四对应关系包括跟踪起点位置和对象标识之间的映射;根据该跟踪起点位置对对象进行跟踪,得到该对象实时位置;根据该对象实时位置和该第四对应关系中的对象标识生成该第一对应关系。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:在监测到对象时,对监测到的对象进行跟踪,得到该对象实时位置;将该对象实时位置发送至该监测摄像机,该对象实时位置用于触发该监测摄像机对该对象实时位置处的对象的脸部进行拍摄得到对象脸部图像,并基于该对象脸部图像获取以及返回对象标识;接收该对象标识,并基于该对象实时位置和接收到的该对象标识,得到该第一对应关系。
本实施例提供的计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在本申请的一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
对对象的行为进行监测,得到第二对应关系,该第二对应关系包括对象行为和对象行为位置之间的映射,该对象行为位置是该监测摄像机监测到对象行为时对象所在的位置;
将该第二对应关系发送至服务器,其中,该第二对应关系用于触发该服务器将第一对应关系和该第二对应关系进行匹配,得到第三对应关系,该第三对应关系包括对象行为和对象标识之间的映射,该第一对应关系是跟踪雷达发送给该服务器的,该第一对应关系包括对象实时位置和对象标识之间的映射,该对象实时位置是该跟踪雷达对对象进行跟踪得到的。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:对对象的脸部进行拍摄,得到对象脸部图像和跟踪起点位置,该跟踪起点位置是该监测摄像机对对象的脸部进行拍摄时对象的位置;根据该对象脸部图像获取对象标识;基于该对象标识和该跟踪起点位置生成第四对应关系;将该第四对应关系发送至该跟踪雷达,该第四对应关系用于触发该跟踪雷达生成该第一对应关系。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:接收该跟踪雷达发送的对象实时位置,该对象实时位置是该跟踪雷达对监测到的对象进行跟踪得到的;对该对象实时位置处的对象的脸部进行拍摄,得到对象脸部图像;基于该对象脸部图像获取对象标识;向该跟踪雷达发送该对象标识,该对象标识用于触发该跟踪雷达生成该第一对应关系。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:对对象的行为进行监测,在能够同时监测到对象行为和对象的脸部时对该对象的脸部进行拍摄,得到对象脸部图像;生成该第二对应关系,该第二对应关系包括对象行为、对象行为位置和对象脸部图像之间的映射。
在本申请的一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取多个监测区域,每个该监测区域一个监测区域标识相对应;依次对该多个监测区域进行拍摄;在对每个监测区域进行拍摄时,对该监测区域中的对象的行为进行监测;生成该第二对应关系,该第二对应关系包括对象行为、对象行为位置和监测区域标识之间的映射。
本实施例提供的计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对申请专利范围的限制。应当指出的是,对于本领域的普通技术对象来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (15)

1.一种对象行为监测方法,其特征在于,所述方法包括:
接收跟踪雷达发送的第一对应关系,所述第一对应关系包括对象实时位置和对象标识之间的映射,所述对象实时位置是所述跟踪雷达对对象进行跟踪得到的;
接收监测摄像机发送的第二对应关系,所述第二对应关系包括对象行为和对象行为位置之间的映射,所述对象行为位置是所述监测摄像机监测到所述对象行为时对象所在的位置;
将所述第一对应关系和所述第二对应关系进行匹配,得到第三对应关系,所述第三对应关系包括对象行为和对象标识之间的映射;
其中,所述将所述第一对应关系和所述第二对应关系进行匹配,得到第三对应关系,包括:
将所述第一对应关系中的对象实时位置与所述第二对应关系中的对象行为位置进行匹配,得到相互匹配的对象实时位置和对象行为位置;
获取所述相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为;
根据所述相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为生成所述第三对应关系。
2.根据权利要求1所述的方法,其特征在于,所述将所述第一对应关系和所述第二对应关系进行匹配,得到第三对应关系之前,所述方法还包括:
确定所述第二对应关系中是否存在对象脸部图像,所述对象脸部图像是所述监测摄像机在能够同时监测到对象行为和对象的脸部时对所述对象的脸部进行拍摄后得到的;
对应地,所述将所述第一对应关系和所述第二对应关系进行匹配,得到第三对应关系,包括:
当所述第二对应关系中不存在所述对象脸部图像时,将所述第一对应关系和所述第二对应关系进行匹配,得到所述第三对应关系。
3.根据权利要求1所述的方法,其特征在于,所述第二对应关系包括对象行为、对象行为位置和监测区域标识之间的映射,所述第三对应关系包括所述对象行为、对象标识和监测区域标识之间的映射,所述监测区域标识用于指示对象所处的监测区域;所述将所述第一对应关系和所述第二对应关系进行匹配,得到第三对应关系之后,所述方法还包括:
检测所述第三对应关系中是否存在候选映射组,所述候选映射组中的映射包括相同的对象标识和不同的监测区域标识;
当所述第三对应关系中存在所述候选映射组时,从所述候选映射组中删除至少一个映射,得到保留映射组,所述保留映射组中的映射包括相同的对象标识和相同的监测区域标识。
4.一种对象行为监测方法,其特征在于,所述方法包括:
接收监测摄像机发送的第四对应关系,所述第四对应关系包括跟踪起点位置和对象标识之间的映射;
根据所述跟踪起点位置对对象进行跟踪,得到对象实时位置;
根据所述对象实时位置和所述第四对应关系中的对象标识生成第一对应关系;
将所述第一对应关系发送至服务器,所述第一对应关系用于触发所述服务器将所述第一对应关系和第二对应关系进行匹配,得到第三对应关系,所述第三对应关系包括对象行为和对象标识之间的映射,所述第二对应关系是所述监测摄像机发送给所述服务器的,所述第二对应关系包括对象行为和对象行为位置之间的映射,所述对象行为位置是所述监测摄像机监测到对象行为时对象所在的位置。
5.根据权利要求4所述的方法,其特征在于,所述根据所述跟踪起点位置对对象进行跟踪,得到所述对象实时位置,包括:
在监测到对象时,对监测到的对象进行跟踪,得到所述对象实时位置;
对应地,根据所述对象实时位置和所述第四对应关系中的对象标识生成所述第一对应关系,包括:
将所述对象实时位置发送至所述监测摄像机,所述对象实时位置用于触发所述监测摄像机对所述对象实时位置处的对象的脸部进行拍摄得到对象脸部图像,并基于所述对象脸部图像获取以及返回对象标识;
接收所述对象标识,并基于所述对象实时位置和接收到的所述对象标识,得到所述第一对应关系。
6.一种对象行为监测方法,其特征在于,所述方法包括:
对对象的行为进行监测,得到第二对应关系,所述第二对应关系包括对象行为和对象行为位置之间的映射,所述对象行为位置是监测摄像机监测到对象行为时对象所在的位置;
将所述第二对应关系发送至服务器,其中,所述第二对应关系用于触发所述服务器将第一对应关系和所述第二对应关系进行匹配,得到第三对应关系,所述第三对应关系包括对象行为和对象标识之间的映射,所述第一对应关系是跟踪雷达发送给所述服务器的,所述第一对应关系包括对象实时位置和对象标识之间的映射,所述对象实时位置是所述跟踪雷达对对象进行跟踪得到的;
其中,生成所述第一对应关系包括:
对对象的脸部进行拍摄,得到对象脸部图像和跟踪起点位置,所述跟踪起点位置是所述监测摄像机对对象的脸部进行拍摄时对象的位置;
根据所述对象脸部图像获取对象标识;
基于所述对象标识和所述跟踪起点位置生成第四对应关系;
将所述第四对应关系发送至所述跟踪雷达,所述第四对应关系用于触发所述跟踪雷达生成所述第一对应关系。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
接收所述跟踪雷达发送的对象实时位置,所述对象实时位置是所述跟踪雷达对监测到的对象进行跟踪得到的;
对所述对象实时位置处的对象的脸部进行拍摄,得到对象脸部图像;
基于所述对象脸部图像获取对象标识;
向所述跟踪雷达发送所述对象标识,所述对象标识用于触发所述跟踪雷达生成所述第一对应关系。
8.根据权利要求6所述的方法,其特征在于,所述对对象的行为进行监测,得到第二对应关系,包括:
对对象的行为进行监测,在能够同时监测到对象行为和对象的脸部时对所述对象的脸部进行拍摄,得到对象脸部图像;
生成所述第二对应关系,所述第二对应关系包括对象行为、对象行为位置和对象脸部图像之间的映射。
9.根据权利要求6所述的方法,其特征在于,所述对对象的行为进行监测,得到第二对应关系,包括:
获取多个监测区域,每个所述监测区域一个监测区域标识相对应;
依次对所述多个监测区域进行拍摄;
在对每个监测区域进行拍摄时,对所述监测区域中的对象的行为进行监测;
生成所述第二对应关系,所述第二对应关系包括对象行为、对象行为位置和监测区域标识之间的映射。
10.一种对象行为监测装置,其特征在于,所述装置包括:
第一接收模块,用于接收跟踪雷达发送的第一对应关系,所述第一对应关系包括对象实时位置和对象标识之间的映射,所述对象实时位置是所述跟踪雷达对对象进行跟踪得到的;
第二接收模块,用于接收监测摄像机发送的第二对应关系,所述第二对应关系包括对象行为和对象行为位置之间的映射,所述对象行为位置是所述监测摄像机监测到所述对象行为时对象所在的位置;
匹配模块,用于将所述第一对应关系和所述第二对应关系进行匹配,得到第三对应关系,所述第三对应关系包括对象行为和对象标识之间的映射;
其中,所述匹配模块,具体用于:将所述第一对应关系中的对象实时位置与所述第二对应关系中的对象行为位置进行匹配,得到相互匹配的对象实时位置和对象行为位置;
获取所述相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为;
根据所述相互匹配的对象实时位置和对象行为位置所分别对应的对象标识和对象行为生成所述第三对应关系。
11.一种对象行为监测装置,其特征在于,所述装置包括:
跟踪模块,用于接收监测摄像机发送的第四对应关系,所述第四对应关系包括跟踪起点位置和对象标识之间的映射;根据所述跟踪起点位置对对象进行跟踪,得到对象实时位置;
获取模块,用于根据所述对象实时位置和所述第四对应关系中的对象标识生成第一对应关系;
发送模块,用于将所述第一对应关系发送至服务器,所述第一对应关系用于触发所述服务器将所述第一对应关系和第二对应关系进行匹配,得到第三对应关系,所述第三对应关系包括对象行为和对象标识之间的映射,所述第二对应关系是所述监测摄像机发送给所述服务器的,所述第二对应关系包括对象行为和对象行为位置之间的映射,所述对象行为位置是所述监测摄像机监测到对象行为时对象所在的位置。
12.一种对象行为监测装置,其特征在于,所述装置包括:
行为监测模块,用于对对象的行为进行监测,得到第二对应关系,所述第二对应关系包括对象行为和对象行为位置之间的映射,所述对象行为位置是监测摄像机监测到对象行为时对象所在的位置;
第一发送模块,用于将所述第二对应关系发送至服务器,其中,所述第二对应关系用于触发所述服务器将第一对应关系和所述第二对应关系进行匹配,得到第三对应关系,所述第三对应关系包括对象行为和对象标识之间的映射,所述第一对应关系是跟踪雷达发送给所述服务器的,所述第一对应关系包括对象实时位置和对象标识之间的映射,所述对象实时位置是所述跟踪雷达对对象进行跟踪得到的;
第一拍摄模块,用于对对象的脸部进行拍摄,得到对象脸部图像和跟踪起点位置,所述跟踪起点位置是所述监测摄像机对对象的脸部进行拍摄时对象的位置;
第一获取模块,用于根据所述对象脸部图像获取对象标识;
生成模块,用于基于所述对象标识和所述跟踪起点位置生成第四对应关系;
第二发送模块,用于将所述第四对应关系发送至所述跟踪雷达,所述第四对应关系用于触发所述跟踪雷达生成所述第一对应关系。
13.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至3中任一项所述方法的步骤;或者,所述处理器执行所述计算机程序时实现权利要求4至5中任一项所述方法的步骤;或者,所述处理器执行所述计算机程序时实现权利要求6至9中任一项所述方法的步骤。
14.一种对象行为监测***,其特征在于,所述***包括服务器、跟踪雷达和监测摄像机;
其中,所述服务器用于执行如权利要求1至3任一所述的对象行为监测方法;
所述跟踪雷达用于执行如权利要求4至5任一所述的对象行为监测方法;
所述监测摄像机用于执行如权利要求6至9任一所述的对象行为监测方法。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至3中任一项所述的方法的步骤;或者,所述计算机程序被处理器执行时实现权利要求4至5中任一项所述的方法的步骤;或者,所述计算机程序被处理器执行时实现权利要求6至9中任一项所述的方法的步骤。
CN201910745077.4A 2019-08-13 2019-08-13 对象行为监测方法、装置、设备、***及存储介质 Active CN110647806B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910745077.4A CN110647806B (zh) 2019-08-13 2019-08-13 对象行为监测方法、装置、设备、***及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910745077.4A CN110647806B (zh) 2019-08-13 2019-08-13 对象行为监测方法、装置、设备、***及存储介质

Publications (2)

Publication Number Publication Date
CN110647806A CN110647806A (zh) 2020-01-03
CN110647806B true CN110647806B (zh) 2022-05-03

Family

ID=69009483

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910745077.4A Active CN110647806B (zh) 2019-08-13 2019-08-13 对象行为监测方法、装置、设备、***及存储介质

Country Status (1)

Country Link
CN (1) CN110647806B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311095B (zh) * 2020-02-14 2023-09-01 浙江大华技术股份有限公司 执行提示处理的方法、装置、存储介质及电子装置
CN111402296B (zh) * 2020-03-12 2023-09-01 浙江大华技术股份有限公司 基于摄像机、雷达的目标跟踪方法及相关装置
CN113190821A (zh) * 2021-05-31 2021-07-30 浙江大华技术股份有限公司 一种对象状态信息确定方法、装置、***及介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016181618A1 (ja) * 2015-05-11 2016-11-17 パナソニックIpマネジメント株式会社 監視対象領域設定装置および監視対象領域設定方法
CN106373394B (zh) * 2016-09-12 2019-01-04 深圳尚桥交通技术有限公司 一种基于视频和雷达的车辆检测方法及***
CN106780539B (zh) * 2016-11-30 2019-08-20 航天科工智能机器人有限责任公司 机器人视觉跟踪方法
CN108615321B (zh) * 2018-06-07 2019-10-08 湖南安隆软件有限公司 基于雷达侦测及视频图像行为分析的安防预警***及方法
CN109214276A (zh) * 2018-07-23 2019-01-15 武汉虹信技术服务有限责任公司 一种基于人脸识别技术的目标人员轨迹跟踪的***及方法
CN109343050B (zh) * 2018-11-05 2021-08-27 浙江大华技术股份有限公司 一种雷达视频监测方法及装置
CN109492595B (zh) * 2018-11-19 2020-10-16 浙江传媒学院 适用于固定群体的行为预测方法和***

Also Published As

Publication number Publication date
CN110647806A (zh) 2020-01-03

Similar Documents

Publication Publication Date Title
CN110647806B (zh) 对象行为监测方法、装置、设备、***及存储介质
CN107909668B (zh) 一种签到方法及终端设备
CN111208748B (zh) 基于物联网的联动控制方法、***和计算机设备
CN111262759A (zh) 一种物联网平台测试方法、装置、设备和存储介质
CN106384222A (zh) 保单回销方法和***
CN112364722A (zh) 核电作业人员监控处理方法、装置和计算机设备
CN110136286B (zh) 基于移动终端的考勤方法、装置、计算机设备和存储介质
CN110472492A (zh) 目标生物检测方法、装置、计算机设备和存储介质
CN113762197A (zh) 基于末端电力业务边缘计算的变电站火灾检测方法和装置
CN111065044B (zh) 基于大数据的数据关联分析方法、装置及计算机存储介质
CN111126321B (zh) 电力安全施工防护方法、装置及计算机设备
CN110942455A (zh) 输电线路开口销缺失检测方法、装置和计算机设备
CN109587441A (zh) 视频监视***中设备间直接访问视频数据流和数据的方法
CN109919017B (zh) 人脸识别优化方法、装置、计算机设备和存储介质
CN117391544A (zh) 一种基于bim的装修工程管理方法及***
CN110163183B (zh) 目标检测算法的评估方法、装置、计算机设备和存储介质
CN110659376A (zh) 图片查找方法、装置、计算机设备和存储介质
CN108364024B (zh) 图像匹配方法、装置、计算机设备和存储介质
CN115424405A (zh) 烟火监测告警方法、装置、设备及存储介质
CN111860040A (zh) 站场信号设备状态获取方法、装置和计算机设备
CN110798678B (zh) 录像完整性检测方法、装置、计算机设备和可读存储介质
CN109949449B (zh) 基于人脸识别的识别访客身份方法、装置、计算机设备
CN111402443B (zh) 一种监理考勤方法、客户端及其存储介质
CN114661513B (zh) 分布式多源数据的采集方法、***、设备及存储介质
CN112527661B (zh) 数据脚本的验证方法、装置以及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant