CN110874905A - 监控方法及装置 - Google Patents
监控方法及装置 Download PDFInfo
- Publication number
- CN110874905A CN110874905A CN201811012103.4A CN201811012103A CN110874905A CN 110874905 A CN110874905 A CN 110874905A CN 201811012103 A CN201811012103 A CN 201811012103A CN 110874905 A CN110874905 A CN 110874905A
- Authority
- CN
- China
- Prior art keywords
- target
- video frame
- tracking
- detection
- thermal imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19654—Details concerning communication with a camera
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种监控方法及装置,属于安防领域。所述方法包括:从热成像视频中获取待检测的目标视频帧,该热成像视频通过热成像设备对监控区域进行拍摄得到;调用第一网络模型,将目标视频帧输入至第一网络模型中,输出至少一个检测目标的位置,第一网络模型用于确定任一视频帧中具有预设视觉特征的检测目标的位置;根据至少一个检测目标的位置,确定待跟踪的跟踪目标在目标视频帧中的位置;在目标视频帧之后的视频帧中,对跟踪目标进行跟踪,以确定跟踪目标在目标视频帧之后的视频帧中的位置。本发明通过利用热成像视频进行目标检测,并采用跟踪算法进行跟踪,可以提高识别的准确度和处理效率。
Description
技术领域
本发明涉及安防领域,特别涉及一种监控方法及装置。
背景技术
周界防范是安防领域的一个重要组成部分,是指对一个目标区域的边界进行监测,当目标区域的边界被外来物体侵入时进行报警的防范方式。目前,在进行周界防范时,通常会在目标区域的边界部署多个监控设备,通过多个监控设备监控目标区域的边界是否有外来物体入侵。其中,每个监控设备负责监控目标区域的部分边界。
相关技术中,在目标区域的边界部署的监控设备通常为光成像设备,光成像设备是指利用光源进行成像的设备。每个光成像设备可以对自身覆盖的监控区域进行拍摄,得到光成像视频,并将光成像视频发送给处理设备。处理设备可以从光成像视频中获取视频帧,并调用目标网络模型,将获取的每个视频帧分别输入至目标网络模型,基于目标网络模型识别每个视频帧中是否存在检测目标,一旦识别出某个视频帧中存在检测目标,就发出报警信息,以提醒用户查看光成像视频,判断检测目标是否入侵了目标区域的边界。其中,目标网络模型用于识别任一光成像图像中是否存在检测目标,检测目标为人或车辆等。
相关技术中,为了保证检测的准确性,需要利用目标网络模型对获取的每个视频帧分别进行识别,处理效率较低,而且在阴天或夜晚等光照强度较低的环境下,识别准确度较差。
发明内容
本发明实施例提供了一种监控方法及装置,可以用于解决相关技术中存在的处理效率低,以及识别准确度差的问题。所述技术方案如下:
第一方面,提供了一种监控方法,所述方法包括:
从热成像视频中获取待检测的目标视频帧,所述热成像视频通过热成像设备对监控区域进行拍摄得到;
调用第一网络模型,将所述目标视频帧输入至所述第一网络模型中,输出至少一个检测目标的位置,所述第一网络模型用于确定任一视频帧中具有预设视觉特征的检测目标的位置;
根据所述至少一个检测目标的位置,确定待跟踪的跟踪目标在所述目标视频帧中的位置;
在所述目标视频帧之后的视频帧中,对所述跟踪目标进行跟踪,以确定所述跟踪目标在所述目标视频帧之后的视频帧中的位置。
可选地,所述根据所述至少一个检测目标的位置,确定待跟踪的跟踪目标在所述目标视频帧中的位置,包括:
调用前景检测模型,将所述目标视频帧输入至所述前景检测模型,输出前景目标的位置,所述前景检测模型用于确定所述监控区域的任一视频帧中除背景目标之外的前景目标的位置;
根据所述至少一个检测目标的位置和所述前景目标的位置,将所述至少一个检测目标中属于前景目标的检测目标确定为跟踪目标,确定所述跟踪目标在所述目标视频帧中的位置。
可选地,所述根据所述至少一个检测目标的位置和所述前景目标的位置,将所述至少一个检测目标中属于前景目标的检测目标确定为跟踪目标,包括:
将所述至少一个检测目标中位置与所述前景目标的位置存在交集的检测目标,确定为所述跟踪目标。
可选地,所述在所述目标视频帧之后的视频帧中,对所述跟踪目标进行跟踪,以确定所述跟踪目标在所述目标视频帧之后的视频帧中的位置,包括:
从所述目标视频帧开始,根据任两个相邻视频帧之间的差异信息以及所述跟踪目标在所述任两个相邻视频帧的第一个视频帧中的位置,确定所述跟踪目标在所述任两个相邻视频帧的第二个视频帧中的位置,所述差异信息用于表示所述跟踪目标在所述任两个相邻视频帧中的运动轨迹。
可选地,所述调用第一网络模型之前,还包括:
获取多个第一热成像图像和每个第一热成像图像中检测目标的位置;
根据所述多个第一热成像图像和每个第一热成像图像中检测目标的位置,对待训练第一网络模型进行训练,得到所述第一网络模型。
可选地,所述方法还包括:
当确定所述跟踪目标在任一视频帧中的位置属于所述监控区域的报警区域内时,发出报警信息。
可选地,所述发出报警信息之前,还包括:
调用第二网络模型,将所述跟踪目标输入至所述第二网络模型,基于所述第二网络模型确定所述跟踪目标是否属于预设报警目标,所述第二网络模型用于根据任一目标的热成像图像,识别所述目标是否属于所述预设报警目标;
当所述跟踪目标属于所述预设报警目标时,执行所述发出报警信息的步骤。
可选地,所述调用第二网络模型之前,还包括:
获取多个第二热成像图像和每个第二热成像图像的类别标签,所述类别标签用于表示对应第二热成像图像是否包含预设报警目标;
根据所述多个第二热成像图像和每个第二热成像图像的类别标签,对待训练第二网络模型进行训练,得到所述第二网络模型。
可选地,所述方法还包括:
在播放所述热成像视频的过程中,当播放至任一包含所述跟踪目标的视频帧时,对所述视频帧中的所述跟踪目标进行突出显示。
第二方面,提供了一种监控装置,所述装置包括:
第一获取模块,用于从热成像视频中获取待检测的目标视频帧,所述热成像视频通过热成像设备对监控区域进行拍摄得到;
第一调用模块,用于调用第一网络模型,将所述目标视频帧输入至所述第一网络模型中,输出至少一个检测目标的位置,所述第一网络模型用于确定任一视频帧中具有预设视觉特征的检测目标的位置;
确定模块,用于根据所述至少一个检测目标的位置,确定待跟踪的跟踪目标在所述目标视频帧中的位置;
跟踪模块,用于在所述目标视频帧之后的视频帧中,对所述跟踪目标进行跟踪,以确定所述跟踪目标在所述目标视频帧之后的视频帧中的位置。
可选地,所述确定模块包括:
调用单元,用于调用前景检测模型,将所述目标视频帧输入至所述前景检测模型,输出前景目标的位置,所述前景检测模型用于确定所述监控区域的任一视频帧中除背景目标之外的前景目标的位置;
确定单元,用于根据所述至少一个检测目标的位置和所述前景目标的位置,将所述至少一个检测目标中属于前景目标的检测目标确定为跟踪目标,确定所述跟踪目标在所述目标视频帧中的位置。
可选地,所述确定单元具体用于:
将所述至少一个检测目标中位置与所述前景目标的位置存在交集的检测目标,确定为所述跟踪目标。
可选地,所述跟踪模块具体用于:
从所述目标视频帧开始,根据任两个相邻视频帧之间的差异信息以及所述跟踪目标在所述任两个相邻视频帧的第一个视频帧中的位置,确定所述跟踪目标在所述任两个相邻视频帧的第二个视频帧中的位置,所述差异信息用于表示所述跟踪目标在所述任两个相邻视频帧中的运动轨迹。
可选地,所述装置还包括:
第二获取模块,用于获取多个第一热成像图像和每个第一热成像图像中检测目标的位置;
第一训练模块,用于根据所述多个第一热成像图像和每个第一热成像图像中检测目标的位置,对待训练第一网络模型进行训练,得到所述第一网络模型。
可选地,所述装置还包括:
报警模块,用于当确定所述跟踪目标在任一视频帧中的位置属于所述监控区域的报警区域内时,发出报警信息。
可选地,所述装置还包括:
第二调用模块,用于调用第二网络模型,将所述跟踪目标输入至所述第二网络模型,基于所述第二网络模型确定所述跟踪目标是否属于预设报警目标,所述第二网络模型用于根据任一目标的热成像图像,识别所述目标是否属于所述预设报警目标;
触发模块,用于当所述跟踪目标属于所述预设报警目标时,触发所述报警模块发出报警信息。
可选地,所述装置还包括:
第三获取模块,用于获取多个第二热成像图像和每个第二热成像图像的类别标签,所述类别标签用于表示对应第二热成像图像是否包含预设报警目标;
第二训练模块,用于根据所述多个第二热成像图像和每个第二热成像图像的类别标签,对待训练第二网络模型进行训练,得到所述第二网络模型。
可选地,所述装置还包括:
显示模块,用于在播放所述热成像视频的过程中,当播放至任一包含所述跟踪目标的视频帧时,对所述视频帧中的所述跟踪目标进行突出显示。
第三方面,提供了一种监控装置,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述任一项所述的监控方法的步骤。
第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,所述指令被处理器执行时实现上述任一项方法的监控方法的步骤。
本发明实施例提供的技术方案带来的有益效果是:
本发明实施例中,可以从热成像视频中获取待检测的目标视频帧,然后利用第一网络模型对目标视频帧进行识别,得到目标视频帧中至少一个检测目标的位置,由于热成像视频是通过热成像设备对监控区域进行拍摄得到,不受光照条件的限制,在阴天或夜晚等光照强度较低的环境下也能拍摄得到清晰的热成像视频,因此在光照强度较低的环境下也能对目标视频帧中的检测目标进行准确识别,提高了识别的准确度。之后,可以根据该至少一个检测目标的位置,确定待跟踪的跟踪目标在目标视频帧中的位置,对于在目标视频帧之后的视频帧中,通过对跟踪目标进行跟踪,即可确定跟踪目标在目标视频帧之后的视频帧中的位置,如此,仅需利用网络模型对热成像视频中的一个视频帧进行识别,之后可以利用目标跟踪方法,确定检测目标在目标视频帧之后的视频帧中的位置,以便及时判断检测目标是否入侵了监控区域的边界,从而可以在保证检测准确性的基础上,提高处理效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例涉及的一种实施环境的示意图;
图2是本发明实施例提供的一种周界防范***的示意图;
图3是本发明实施例提供的一种周界防范***的逻辑示意图;
图4是本发明实施例提供的一种监控方法的流程图;
图5是本发明实施例提供的一种监控装置的结构框图;
图6是本发明实施例提供的一种的电子设备600的结构框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
在对本发明实施例进行详细地解释说明之前,先对本发明实施例的应用场景予以说明。
本发明实施例提供的监控方法可以应用于周界防范场景中,也即是,可以利用热成像技术对一个目标区域的边界进行监控,并利用监控得到的热成像视频,检测目标区域的边界是否被外来物体侵入,以便在检测到目标区域的边界被外来物体侵入及时进行报警。实际应用中,典型的周界防范场景可以包括私人住宅、监狱、博物馆等重要场所的周界防范。
热成像技术是指利用热成像设备,将物体发出的不可见红外能量转变为可见的热成像图像的技术,且热成像图像中不同亮度或颜色代表物体表面的不同温度。也即是,热成像技术是根据物体发热现象实现的,借助热成像图像上的颜色我们可以看到温度的分布,比如,红色、粉红表示比较高的温度,蓝色、绿色表示较低的温度。
下面,对本发明实施例提供的监控方法涉及的实施环境进行介绍。
图1是本发明实施例涉及的一种实施环境的示意图,如图1所示,该实施环境包括热成像设备10。该热成像设备10可以对监控区域进行拍摄得到热成像视频,也即是,可以采集监控区域中待检测的检测目标的热成像图像。具体地,热成像设备10可以包括光学成像物镜、红外望远镜、红外探测器和图像视频***,拍摄过程中,光学成像物镜可以将红外望远镜接收的物体的热辐射图分解成热辐射信号,并聚焦到红外探测器上,红外探测器与图像视频***一起将热辐射信号放大并转换成视频信号,以生成热成像视频。实际应用中,热成像设备10可以为热成像探测器、热像仪或热成像相机等。
而且,本发明实施例中,该热成像设备10还可以集成本发明实施例提供的监控算法,并通过该监控算法对热成像视频中的检测目标进行识别和跟踪,以判断是否有检测目标是否侵入到监控区域的报警区域。
图2是本发明实施例提供的一种周界防范***的示意图,如图2所示,该周界防范***包括至少一个热成像设备21和处理设备22,每个热成像设备21可以通过有线网络或无线网络与处理设备22进行连接。
该至少一个热成像设备21部署于待防范的目标区域的边界,每个热成像设备21用于监控目标区域的部分边界区域,并将对监控区域进行拍摄得到热成像视频发送给处理设备22。例如,参见图2,每个热成像设备21用于监控目标区域的一角。实际应用中,热成像设备21可以为热成像探测器、热像仪或热成像相机等。
处理设备22集成本发明实施例提供的监控算法,可以通过该监控算法对接收到的热成像视频中的检测目标进行识别和跟踪,以判断是否有检测目标是否侵入到目标区域的报警区域。实际应用中,处理设备22可以为手机、平板电脑、计算机或其他电子设备。
需要说明的是,图2仅是以该周界防范***包括4个热成像设备22为例进行说明,而实际应用中,该周界防范***还可以包括更多或更少的热成像设备22,本发明实施例对此不做限定。
图3是本发明实施例提供的一种周界防范***的逻辑示意图,如图3所示,该周界防范***包括热成像采集单元31、智能分析单元32、图像显示单元33、报警单元34、人机交互单元35。
热成像采集单元31用于对监控区域进行拍摄得到热成像视频,并将热成像视频发送给智能分析单元32进行分析。具体地,热成像采集单元31可以为热成像设备。
智能分析单元32用于按照本发明实施例提供的监控方法,对热成像视频进行识别和跟踪处理,以判断检测目标是否侵入到待防范的目标区域的报警区域。具体地,智能分析单元32可以为处理器或处理芯片。
图像显示单元33用于显示热成像视频。可选地,图像显示单元33可以对热成像视频中的跟踪目标突出显示。具体地,图像显示单元33可以为显示器。
报警单元34用于在检测到跟踪目标侵入到目标区域的报警区域时,发出报警信息。具体地,报警单元34可以为扬声器、警示灯等。
人机交互单元35可以为用户提供的交互界面,用户可以通鼠标或键盘等外接设备输入配置参数,或者对交互界面显示的配置参数进行选择或更改,从而进行***配置。可选地,用户可以根据实际需要设置热成像设备的标定参数、不需要监控或不需要检测的屏蔽区域(也称安全区域)、报警规则、检测灵敏度、需要进行报警的目标类别、在利用前景检测模型进行检测时的背景更新速度、检测目标的最小尺寸、场景模式等。
接下来对本发明实施例提供的监控方法需要用到的第一网络模型、第二网络模型和前景检测模型进行介绍。
第一网络模型
第一网络模型用于确定任一视频帧中具有预设视觉特征的检测目标的位置,也即是,能够识别出任一视频帧中具有预设视觉特征的检测目标的所在位置。比如,若检测目标为人和车,则通过第一网络模型可以识别出任一视频帧中人和车的所在位置。需要说明的是,第一网络模型可以预先根据多个第一热成像图像和每个第一热成像图像中检测目标的位置进行训练得到。
第二网络模型
第二网络模型用于根据任一目标的热成像图像,识别该目标是否属于预设报警目标,也即是,能够识别任一目标是否属于预设报警目标。比如,若目标为通过第一网络模型识别出的检测目标,预设报警目标为人,则通过第二网络模型可以识别出检测目标是否为人。需要说明的是,第二网络模型可以预先根据多个热成像图像和每个热成像图像的类别标签进行训练得到,类别标签用于表示对应热成像图像是否包含预设报警目标。
前景检测模型
前景检测模型用于确定监控区域的任一视频帧中除背景目标之外的前景目标的位置,也即是,能够识别出不属于背景的前景目标。比如,监控区域的背景包括房子和树,则通过前景检测模型可以识别出不属于背景的行人和车辆。需要说明的是,前景检测模型可以通过对监控区域进行背景建模得到。
图4是本发明实施例提供的一种监控方法的流程图,该方法可以应用于上述图1中的热成像设备或图2所示的处理设备中,或应用于其他电子设备中,本发明实施例实施例将以应用于处理设备为例进行说明,如图4所示,该方法包括如下步骤:
步骤401:获取热成像视频,该热成像视频是通过热成像设备对监控区域进行拍摄得到。
其中,该热成像视频可以为监控区域的实时拍摄视频,也可以为预先拍摄后存储的视频。示例的,处理设备可以接收热成像设备发送的热成像视频,也即是,热成像设备可以对监控区域进行拍摄得到热成像视频,然后将该热成像视频发送给处理设备,由处理设备进行分析处理。
其中,该监控区域为该热成像设备能够拍摄到的区域,具体可以为待防范的目标区域的部分边界区域,如待防范的院落的围墙一角。
需要说明的是,相关技术中,通常采用光成像设备对监控区域进行拍摄,得到光成像视频,然后对光成像视频中的每个视频帧分别进行检测,以识别出每个视频帧中示出存在检测目标。但是由于光成像设备需要利用光源进行成像,因此在阴天或夜晚等光照强度较低的环境下将无法拍摄到清晰的图像,进而也就对图像检测带来了困难。
本发明实施例,为了解决光成像视频带来的检测困难,在监控区域部署了热成像设备,并利用热成像设备对监控区域进行拍摄得到热成像视频,由于热成像视频是通过热成像设备对监控区域进行拍摄得到,不受光照条件的限制,在阴天或夜晚等光照强度较低的环境下也能拍摄得到清晰的热成像视频,因此在光照强度较低的环境下也能对目标视频帧中的检测目标进行准确识别,提高了识别的准确度。而且,热成像设备的探测距离相对光成像设备较远,因此,还可以提高有效监控距离。
步骤402:从热成像视频中获取待检测的目标视频帧。
其中,目标视频帧可以为热成像视频中的任一视频帧,也即是,可以将任一视频帧作为待检测的目标视频帧。
步骤403:调用第一网络模型,将目标视频帧输入至第一网络模型中,输出至少一个检测目标的位置。
也即是,通过第一网络模型,可以识别出目标视频帧中是否存在待检测的检测目标,当存在时,可以确定出检测目标在目标视频帧中的位置。
其中,检测目标为具有预设视觉特征的目标,比如,可以为人和/或车辆等。检测目标的位置可以用检测目标的轮廓位置信息或检测目标的目标框位置信息表示,检测目标的目标框可以为矩形、圆形等形状。
其中,第一网络模型用于确定任一视频帧中具有预设视觉特征的检测目标的位置,且该第一网络模型可以根据多个第一热成像图像和每个第一热成像图像中检测目标的位置进行训练得到。第一网络模型为机器学习模型,具体可以为CNN(ConvolutionalNeural Networks,卷积神经网络)模型、RNN(Recurrent Neural Network,循环神经网络)模型或其他算法的机器学习模型。
具体地,第一网络模型的训练过程包括:获取多个第一热成像图像和每个第一热成像图像中检测目标的位置;根据所述多个第一热成像图像和每个第一热成像图像中检测目标的位置,对待训练第一网络模型进行训练,得到所述第一网络模型。
其中,该多个第一热成像图像为用于训练第一网络模型的样本图像,每个第一热成像图像中均包括有检测目标。该多个第一热成像图像可以从该监控区域的热成像视频中获取得到,也可以从热成像图像的图像数据库中获取得到,本发明实施例对此不做限定。而且,每个第一热成像图像预先标记有检测目标的位置,检测目标的位置可以用检测目标的轮廓位置信息或检测目标的目标框位置信息等表示。
在根据多个第一热成像图像和每个第一热成像图像中检测目标的位置,对待训练第一网络模型进行训练的过程中,待训练第一网络模型可以学习到各种第一热成像图像中检测目标的图像特征和位置特征,对待训练第一网络模型进行充分训练之后,即可得到能够根据检测目标的图像特征和位置特征,对任一热成像图像中的检测目标进行识别,即识别出任一热成像图像中是否存在检测目标,以及存在的检测目标的位置。
在一种可能的实施例中,可以将该多个第一热成像图像输入待训练第一网络模型,通过待训练第一网络模型输出每个第一热成像图像中检测目标的位置,然后待训练第一网络模型输出的位置与预先标记的位置进行比较,并根据比较结果,采用随机梯度下降法,对待训练第一网络模型的模型参数进行调整,以使得调整后的待训练第一网络模型输出的每个第一热成像图像中的检测目标的位置逐渐趋向于预先标记的位置,然后将参数调整后的待训练第一网络模型确定为该第一网络模型。
进一步地,得到至少一个检测目标的位置之后,还可以判断该至少一个检测目标的位置是否在监控区域的报警区域内,如果在监控区域的报警区域内,则发出报警信息。
步骤404:根据至少一个检测目标的位置,确定待跟踪的跟踪目标在目标视频帧中的位置。
其中,跟踪目标是指从目标视频帧中确定的有可能入侵监控区域的报警区域的可疑目标,如人或车辆等可疑目标,对于这些可疑目标,可以将其确定为待跟踪的跟踪目标,以便后续对这些跟踪目标进行跟踪处理。
具体地,根据至少一个检测目标的位置,确定待跟踪的跟踪目标在目标视频帧中的位置包括以下两种实现方式:
第一种实现方式:将至少一个检测目标确定为待跟踪的跟踪目标,并将至少一个检测目标的位置确定为待跟踪的跟踪目标的位置。
也即是,将至少一个检测目标中的每个检测目标均确定为待跟踪的跟踪目标,然后将每个检测目标的位置确定为待跟踪的跟踪目标的位置。比如,若检测目标为人和车辆,且通过第一网络模型识别出目标视频帧中包括一个人和一个车辆,则可以将人和车辆均确定为待跟踪的跟踪目标,并将人和车辆的位置确定为待跟踪的跟踪目标的位置。
该种实现方式中,通过直接将识别到的至少一个检测目标确定为后续待跟踪的跟踪目标,方式简单,提高了处理效率。
第二种实现方式:调用前景检测模型,将目标视频帧输入至前景检测模型,输出前景目标的位置;根据至少一个检测目标的位置和前景目标的位置,将至少一个检测目标中属于前景目标的检测目标确定为跟踪目标,确定跟踪目标在目标视频帧中的位置。
其中,前景目标是指除监控区域的背景目标之外的目标,通常为监控区域中的运动目标。比如,监控区域的背景包括房子和树,则前景目标可以为背景之外的行人和车辆等。前景目标的位置可以用前景目标在目标视频帧中的轮廓位置信息或目标框位置信息等表示。
考虑到有可能入侵防范区域的入侵目标通常为前景目标(运动目标),而背景目标(静止目标)由于不会发生运动,因此不可能产生入侵行为,因此,通过将至少一个检测目标中属于前景目标的检测目标确定为跟踪目标,也即是,将至少一个检测目标中的运动目标确定为待跟踪的跟踪目标,然后仅对运动目标进行跟踪,可以提高确定跟踪目标的准确度,减轻后续的跟踪处理负担。
其中,前景检测模型用于确定监控区域的任一视频帧中除背景目标之外的前景目标的位置,也即是,可以识别出任一视频帧中除监控区域的背景之外的前景目标,以及前景目标所在的位置。具体地,前景检测模型可以通过采用背景建模算法,对监控区域进行背景建模得到。
具体地,根据至少一个检测目标的位置和前景目标的位置,将至少一个检测目标中属于前景目标的检测目标确定为跟踪目标包括:将至少一个检测目标中位置与前景目标的位置存在交集的检测目标,确定为跟踪目标。
可选地,当前景目标的位置用前景目标的目标框位置信息表示时,可以将至少一个检测目标中目标框位置与前景目标的目标框位置存在交集的检测目标,确定为跟踪目标。当前景目标的位置用前景目标的轮廓位置信息表示时,可以将至少一个检测目标中轮廓内位置与前景目标的轮廓内位置存在交集的检测目标,确定为跟踪目标。
在一个实施例中,通过第一网络模型对目标视频帧进行识别,可以得到检测目标链表,该检测目标链表包括至少一个检测目标的位置,通过前景检测模型对目标视频帧进行检测,可以得到前景目标链表,该前景目标链表包括至少一个前景目标的位置,然后可以使用融合策略将检测目标链表和前景目标链表进行融合,得到至少一个待跟踪的跟踪目标,以及该至少一个待跟踪的跟踪目标的位置。其中,该融合策略用于将检测目标链表中属于前景目标链表的检测目标确定为待跟踪的跟踪目标。
步骤405:在目标视频帧之后的视频帧中,对跟踪目标进行跟踪,以确定跟踪目标在目标视频帧之后的视频帧中的位置。
也即是,可以确定在目标视频帧之后的每一个视频帧中,跟踪目标所在的位置,从而得到跟踪目标的运动轨迹,以便后续根据跟踪目标的运动轨迹,确定跟踪目标是否入侵会监控区域的报警区域。
具体地,可以使用特征点匹配算法对跟踪目标进行跟踪,该特征点匹配算法可以包括光流匹配算法或多目标跟踪算法等,本发明实施例对此不做限定。
具体地,在目标视频帧之后的视频帧中,对跟踪目标进行跟踪,以确定所述跟踪目标在所述目标视频帧之后的视频帧中的位置包括:从目标视频帧开始,根据任两个相邻视频帧之间的差异信息以及跟踪目标在任两个相邻视频帧的第一个视频帧中的位置,确定跟踪目标在该任两个相邻视频帧的第二个视频帧中的位置,该差异信息用于表示跟踪目标在该任两个相邻视频帧中的运动轨迹。
也即是,可以在目标视频帧中提取跟踪目标的特征点,对于目标视频帧之后任两个相邻视频帧,可以根据特征点在第一个视频帧中的位置,采用特征点匹配算法,对特征点的运动轨迹进行跟踪,确定特征点在第二个视频帧中的位置。其中,特征点匹配算法包括光流匹配算法、多目标跟踪算法等。
相关技术中,为了保证检测的准确性,需要利用目标网络模型对获取的每个视频帧分别进行识别,以识别每个视频帧中是否存在检测目标,处理效率较低,而本发明实施例中,仅需利用网络模型对热成像视频中的一个视频帧进行识别,之后可以利用目标跟踪方法,确定检测目标在目标视频帧之后的视频帧中的位置,以便及时判断检测目标是否入侵了监控区域的报警区域,从而可以在保证检测准确性的基础上,避免了对每个视频帧的目标检测,极大地提高了处理效率。
步骤406:当确定跟踪目标在任一视频帧中的位置属于监控区域的报警区域内时,发出报警信息。
其中,监控区域的报警区域为预先设置的当有可疑目标侵入该报警区域内时,需要报警的区域。具体地,监控区域的报警区域可以为监控区域中待防范的目标区域的边界以内的全部区域,也可以为目标区域的边界以内的部分区域,本发明实施例对此不做限定。实际应用中,报警区域可以由处理设备默认设置,也可以由用户设置,本发明实施例对此不做限定。
具体地,发出报警信息的方式可以包括以下方式中的至少一种:在该视频帧中对跟踪目标进行突出显示、显示指示有可疑目标入侵的报警信息、发出报警提示音、开启报警灯或向绑定的电子设备发送报警信息等,本发明实施例对此不做限定。示例的,可以通过控制蜂鸣器发出报警提示音,向安保人员进行提醒,并在该视频帧中用突出的颜色显示入侵报警区域的跟踪目标或跟踪目标的目标框,以向安保人员提示跟踪目标的所在位置。
进一步地,在发出报警信息之前,还可以调用第二网络模型,将跟踪目标输入至第二网络模型,基于第二网络模型确定跟踪目标是否属于预设报警目标。当跟踪目标属于预设报警目标时,执行发出报警信息的步骤。另外,当跟踪目标不属于预设报警目标时,则不发出报警信息,并继续对后续视频帧中的跟踪目标进行跟踪,确定跟踪目标的位置。
其中,预设报警目标为预先设置的需要进行报警的目标,例如,检测目标为人和车辆,预设报警目标为人。实际应用中,预设报警目标可以由处理设备默认设置,也可以由用户根据需要进行设置,本发明实施例对此不做限定。
其中,第二网络模型用于根据任一目标的热成像图像,识别目标是否属于预设报警目标,也即是,第二网络模型是一个分类模型,能够确定跟踪目标是否属于需要报警的预设报警目标。且,第二网络模型可以根据多个第二热成像图像和每个第二热成像图像的类别标签训练得到,类别标签用于表示对应第二热成像图像是否包含预设报警目标。第二网络模型为机器学习模型,具体可以为CNN、RNN或采用其他算法的机器学习模型。
具体地,第二网络模型的训练过程包括:获取多个第二热成像图像和每个第二热成像图像的类别标签;根据多个第二热成像图像和每个第二热成像图像的类别标签,对待训练第二网络模型进行训练,得到该第二网络模型。
其中,多个第二热成像图像为用于训练第二网络模型的样本图像,每个第二热成像图像可能包含预设报警目标,也可能不包含预设报警目标,具体是否报警预设报警可以通过标记的类别标签指示。比如,类别标签1指示对应第二热成像图像包含预设报警目标,类别标签0指示对应第二热成像图像不包含预设报警目标。这多个第二热成像图像可以从监控区域的热成像视频中获取得到,也可以从热成像图像的图像数据库中获取得到,本发明实施例对此不做限定。
在一种可能的实施例中,可以将该多个第二热成像图像输入待训练第二网络模型,通过待训练第二网络模型输出每个第二热成像图像中的类别标签,然后将待训练第二网络模型输出的类别标签与预先标记的类别标签进行比较,并根据比较结果,采用随机梯度下降法,对待训练第二网络模型的模型参数进行调整,以使得调整后的待训练第二网络模型输出的每个第二热成像图像的类别标签逐渐趋向于预先标记的类别标签,然后将参数调整后的待训练第二网络模型确定为该第二网络模型。
进一步地,本发明实施例中,还可以在播放该热成像视频的过程中,当播放至任一包含跟踪目标的视频帧时,对该视频帧中的跟踪目标进行突出显示,以向用户展示跟踪目标的所在位置和运动轨迹。
具体地,对跟踪目标进行突出显示的方式可以包括:在视频帧中用突出的颜色显示跟踪目标的轮廓或跟踪目标的目标框,用箭头指示跟踪目标等,本发明实施例对此不做限定。其中,突出的颜色为预先设置的颜色,具体可以为红色或绿色等。
本发明实施例中,可以从热成像视频中获取待检测的目标视频帧,然后利用第一网络模型对目标视频帧进行识别,得到目标视频帧中至少一个检测目标的位置,由于热成像视频是通过热成像设备对监控区域进行拍摄得到,不受光照条件的限制,在阴天或夜晚等光照强度较低的环境下也能拍摄得到清晰的热成像视频,因此在光照强度较低的环境下也能对目标视频帧中的检测目标进行准确识别,提高了识别的准确度。之后,可以根据该至少一个检测目标的位置,确定待跟踪的跟踪目标在目标视频帧中的位置,对于在目标视频帧之后的视频帧中,通过对跟踪目标进行跟踪,即可确定跟踪目标在目标视频帧之后的视频帧中的位置,如此,仅需利用网络模型对热成像视频中的一个视频帧进行识别,之后可以利用目标跟踪方法,确定检测目标在目标视频帧之后的视频帧中的位置,以便及时判断检测目标是否入侵了监控区域的边界,从而可以在保证检测准确性的基础上,提高处理效率。
图5是本发明实施例提供的一种监控装置的结构框图,如图5所示,该装置包括:获取模块501、第一调用模块502、确定模块503和跟踪模块504。
第一获取模块,用于从热成像视频中获取待检测的目标视频帧,该热成像视频通过热成像设备对监控区域进行拍摄得到;
第一调用模块,用于调用第一网络模型,将该目标视频帧输入至该第一网络模型中,输出至少一个检测目标的位置,该第一网络模型用于确定任一视频帧中具有预设视觉特征的检测目标的位置;
确定模块,用于根据该至少一个检测目标的位置,确定待跟踪的跟踪目标在该目标视频帧中的位置;
跟踪模块,用于在该目标视频帧之后的视频帧中,对该跟踪目标进行跟踪,以确定该跟踪目标在该目标视频帧之后的视频帧中的位置。
可选地,该确定模块包括:
调用单元,用于调用前景检测模型,将该目标视频帧输入至该前景检测模型,输出前景目标的位置,该前景检测模型用于确定该监控区域的任一视频帧中除背景目标之外的前景目标的位置;
确定单元,用于根据该至少一个检测目标的位置和该前景目标的位置,将该至少一个检测目标中属于前景目标的检测目标确定为跟踪目标,确定该跟踪目标在该目标视频帧中的位置。
可选地,该确定单元具体用于:
将该至少一个检测目标中位置与该前景目标的位置存在交集的检测目标,确定为该跟踪目标。
可选地,该跟踪模块具体用于:
从该目标视频帧开始,根据任两个相邻视频帧之间的差异信息以及该跟踪目标在该任两个相邻视频帧的第一个视频帧中的位置,确定该跟踪目标在该任两个相邻视频帧的第二个视频帧中的位置,该差异信息用于表示该跟踪目标在该任两个相邻视频帧中的运动轨迹。
可选地,该装置还包括:
第二获取模块,用于获取多个第一热成像图像和每个第一热成像图像中检测目标的位置;
第一训练模块,用于根据该多个第一热成像图像和每个第一热成像图像中检测目标的位置,对待训练第一网络模型进行训练,得到该第一网络模型。
可选地,该装置还包括:
报警模块,用于当确定该跟踪目标在任一视频帧中的位置属于该监控区域的报警区域内时,发出报警信息。
可选地,该装置还包括:
第二调用模块,用于调用第二网络模型,将该跟踪目标输入至该第二网络模型,基于该第二网络模型确定该跟踪目标是否属于预设报警目标,该第二网络模型用于根据任一目标的热成像图像,识别该目标是否属于该预设报警目标;
触发模块,用于当该跟踪目标属于该预设报警目标时,触发该报警模块发出报警信息。
可选地,该装置还包括:
第三获取模块,用于获取多个第二热成像图像和每个第二热成像图像的类别标签,该类别标签用于表示对应第二热成像图像是否包含预设报警目标;
第二训练模块,用于根据该多个第二热成像图像和每个第二热成像图像的类别标签,对待训练第二网络模型进行训练,得到该第二网络模型。
可选地,该装置还包括:
显示模块,用于在播放该热成像视频的过程中,当播放至任一包含该跟踪目标的视频帧时,对该视频帧中的该跟踪目标进行突出显示。
本发明实施例中,可以从热成像视频中获取待检测的目标视频帧,然后利用第一网络模型对目标视频帧进行识别,得到目标视频帧中至少一个检测目标的位置,由于热成像视频是通过热成像设备对监控区域进行拍摄得到,不受光照条件的限制,在阴天或夜晚等光照强度较低的环境下也能拍摄得到清晰的热成像视频,因此在光照强度较低的环境下也能对目标视频帧中的检测目标进行准确识别,提高了识别的准确度。之后,可以根据该至少一个检测目标的位置,确定待跟踪的跟踪目标在目标视频帧中的位置,对于在目标视频帧之后的视频帧中,通过对跟踪目标进行跟踪,即可确定跟踪目标在目标视频帧之后的视频帧中的位置,如此,仅需利用网络模型对热成像视频中的一个视频帧进行识别,之后可以利用目标跟踪方法,确定检测目标在目标视频帧之后的视频帧中的位置,以便及时判断检测目标是否入侵了监控区域的边界,从而可以在保证检测准确性的基础上,提高处理效率。
需要说明的是:上述实施例提供的监控装置在对监控区域进行监控时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的监控装置与监控方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图6是本发明实施例提供的一种的电子设备600的结构框图。该电子设备600可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。电子设备600还可能被称为用户设备、便携式电子设备、膝上型电子设备、台式电子设备等其他名称。
通常,电子设备600包括有:处理器601和存储器602。
处理器601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器601可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器601所执行以实现本申请中方法实施例提供的监控方法。
在一些实施例中,电子设备600还可选包括有:***设备接口603和至少一个***设备。处理器601、存储器602和***设备接口603之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口603相连。具体地,***设备包括:射频电路604、触摸显示屏605、摄像头606、音频电路607、定位组件608和电源609中的至少一种。
***设备接口603可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器601和存储器602。在一些实施例中,处理器601、存储器602和***设备接口603被集成在同一芯片或电路板上;在一些其他实施例中,处理器601、存储器602和***设备接口603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路604包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路604可以通过至少一种无线通信协议来与其它电子设备进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏605是触摸显示屏时,显示屏605还具有采集在显示屏605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器601进行处理。此时,显示屏605还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏605可以为一个,设置电子设备600的前面板;在另一些实施例中,显示屏605可以为至少两个,分别设置在电子设备600的不同表面或呈折叠设计;在再一些实施例中,显示屏605可以是柔性显示屏,设置在电子设备600的弯曲表面上或折叠面上。甚至,显示屏605还可以设置成非矩形的不规则图形,也即异形屏。显示屏605可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件606用于采集图像或视频。可选地,摄像头组件606包括前置摄像头和后置摄像头。通常,前置摄像头设置在电子设备的前面板,后置摄像头设置在电子设备的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器601进行处理,或者输入至射频电路604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器601或射频电路604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路607还可以包括耳机插孔。
定位组件608用于定位电子设备600的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件608可以是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***、俄罗斯的格雷纳斯***或欧盟的伽利略***的定位组件。
电源609用于为电子设备600中的各个组件进行供电。电源609可以是交流电、直流电、一次性电池或可充电电池。当电源609包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备600还包括有一个或多个传感器610。该一个或多个传感器610包括但不限于:加速度传感器611、陀螺仪传感器612、压力传感器613、指纹传感器614、光学传感器615以及接近传感器616。
加速度传感器611可以检测以电子设备600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器611可以用于检测重力加速度在三个坐标轴上的分量。处理器601可以根据加速度传感器611采集的重力加速度信号,控制触摸显示屏605以横向视图或纵向视图进行用户界面的显示。加速度传感器611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器612可以检测电子设备600的机体方向及转动角度,陀螺仪传感器612可以与加速度传感器611协同采集用户对电子设备600的3D动作。处理器601根据陀螺仪传感器612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器613可以设置在电子设备600的侧边框和/或触摸显示屏605的下层。当压力传感器613设置在电子设备600的侧边框时,可以检测用户对电子设备600的握持信号,由处理器601根据压力传感器613采集的握持信号进行左右手识别或快捷操作。当压力传感器613设置在触摸显示屏605的下层时,由处理器601根据用户对触摸显示屏605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器614用于采集用户的指纹,由处理器601根据指纹传感器614采集到的指纹识别用户的身份,或者,由指纹传感器614根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器614可以被设置电子设备600的正面、背面或侧面。当电子设备600上设置有物理按键或厂商Logo时,指纹传感器614可以与物理按键或厂商Logo集成在一起。
光学传感器615用于采集环境光强度。在一个实施例中,处理器601可以根据光学传感器615采集的环境光强度,控制触摸显示屏605的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏605的显示亮度;当环境光强度较低时,调低触摸显示屏605的显示亮度。在另一个实施例中,处理器601还可以根据光学传感器615采集的环境光强度,动态调整摄像头组件606的拍摄参数。
接近传感器616,也称距离传感器,通常设置在电子设备600的前面板。接近传感器616用于采集用户与电子设备600的正面之间的距离。在一个实施例中,当接近传感器616检测到用户与电子设备600的正面之间的距离逐渐变小时,由处理器601控制触摸显示屏605从亮屏状态切换为息屏状态;当接近传感器616检测到用户与电子设备600的正面之间的距离逐渐变大时,由处理器601控制触摸显示屏605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图6中示出的结构并不构成对电子设备600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在本实施例中,该电子设备还包括有一个或者一个以上的程序,这一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行,所述一个或者一个以上程序包含用于进行本发明实施例提供的监控方法的指令。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (16)
1.一种监控方法,其特征在于,所述方法包括:
从热成像视频中获取待检测的目标视频帧,所述热成像视频通过热成像设备对监控区域进行拍摄得到;
调用第一网络模型,将所述目标视频帧输入至所述第一网络模型中,输出至少一个检测目标的位置,所述第一网络模型用于确定任一视频帧中具有预设视觉特征的检测目标的位置;
根据所述至少一个检测目标的位置,确定待跟踪的跟踪目标在所述目标视频帧中的位置;
在所述目标视频帧之后的视频帧中,对所述跟踪目标进行跟踪,以确定所述跟踪目标在所述目标视频帧之后的视频帧中的位置。
2.如权利要求1所述的方法,其特征在于,所述根据所述至少一个检测目标的位置,确定待跟踪的跟踪目标在所述目标视频帧中的位置,包括:
调用前景检测模型,将所述目标视频帧输入至所述前景检测模型,输出前景目标的位置,所述前景检测模型用于确定所述监控区域的任一视频帧中除背景目标之外的前景目标的位置;
根据所述至少一个检测目标的位置和所述前景目标的位置,将所述至少一个检测目标中属于前景目标的检测目标确定为跟踪目标,确定所述跟踪目标在所述目标视频帧中的位置。
3.如权利要求2所述的方法,其特征在于,所述根据所述至少一个检测目标的位置和所述前景目标的位置,将所述至少一个检测目标中属于前景目标的检测目标确定为跟踪目标,包括:
将所述至少一个检测目标中位置与所述前景目标的位置存在交集的检测目标,确定为所述跟踪目标。
4.如权利要求1所述的方法,其特征在于,所述在所述目标视频帧之后的视频帧中,对所述跟踪目标进行跟踪,以确定所述跟踪目标在所述目标视频帧之后的视频帧中的位置,包括:
从所述目标视频帧开始,根据任两个相邻视频帧之间的差异信息以及所述跟踪目标在所述任两个相邻视频帧的第一个视频帧中的位置,确定所述跟踪目标在所述任两个相邻视频帧的第二个视频帧中的位置,所述差异信息用于表示所述跟踪目标在所述任两个相邻视频帧中的运动轨迹。
5.如权利要求1所述的方法,其特征在于,所述方法还包括:
当确定所述跟踪目标在任一视频帧中的位置属于所述监控区域的报警区域内时,发出报警信息。
6.如权利要求5所述的方法,其特征在于,所述发出报警信息之前,还包括:
调用第二网络模型,将所述跟踪目标输入至所述第二网络模型,基于所述第二网络模型确定所述跟踪目标是否属于预设报警目标,所述第二网络模型用于根据任一目标的热成像图像,识别所述目标是否属于所述预设报警目标;
当所述跟踪目标属于所述预设报警目标时,执行所述发出报警信息的步骤。
7.如权利要求1-6任一所述的方法,其特征在于,所述方法还包括:
在播放所述热成像视频的过程中,当播放至任一包含所述跟踪目标的视频帧时,对所述视频帧中的所述跟踪目标进行突出显示。
8.一种监控装置,其特征在于,所述装置包括:
获取模块,用于从热成像视频中获取待检测的目标视频帧,所述热成像视频通过热成像设备对监控区域进行拍摄得到;
第一调用模块,用于调用第一网络模型,将所述目标视频帧输入至所述第一网络模型中,输出至少一个检测目标的位置,所述第一网络模型用于确定任一视频帧中具有预设视觉特征的检测目标的位置;
确定模块,用于根据所述至少一个检测目标的位置,确定待跟踪的跟踪目标在所述目标视频帧中的位置;
跟踪模块,用于在所述目标视频帧之后的视频帧中,对所述跟踪目标进行跟踪,以确定所述跟踪目标在所述目标视频帧之后的视频帧中的位置。
9.如权利要求8所述的装置,其特征在于,所述确定模块包括:
调用单元,用于调用前景检测模型,将所述目标视频帧输入至所述前景检测模型,输出前景目标的位置,所述前景检测模型用于确定所述监控区域的任一视频帧中除背景目标之外的前景目标的位置;
确定单元,用于根据所述至少一个检测目标的位置和所述前景目标的位置,将所述至少一个检测目标中属于前景目标的检测目标确定为跟踪目标,确定所述跟踪目标在所述目标视频帧中的位置。
10.如权利要求9所述的装置,其特征在于,所述确定单元具体用于:
将所述至少一个检测目标中位置与所述前景目标的位置存在交集的检测目标,确定为所述跟踪目标。
11.如权利要求8所述的装置,其特征在于,所述跟踪模块具体用于:
从所述目标视频帧开始,根据任两个相邻视频帧之间的差异信息以及所述跟踪目标在所述任两个相邻视频帧的第一个视频帧中的位置,确定所述跟踪目标在所述任两个相邻视频帧的第二个视频帧中的位置,所述差异信息用于表示所述跟踪目标在所述任两个相邻视频帧中的运动轨迹。
12.如权利要求8所述的装置,其特征在于,所述装置还包括:
报警模块,用于当确定所述跟踪目标在任一视频帧中的位置属于所述监控区域的报警区域内时,发出报警信息。
13.如权利要求12所述的装置,其特征在于,所述装置还包括:
第二调用模块,用于调用第二网络模型,将所述跟踪目标输入至所述第二网络模型,基于所述第二网络模型确定所述跟踪目标是否属于预设报警目标,所述第二网络模型用于根据任一目标的热成像图像,识别所述目标是否属于所述预设报警目标;
触发模块,用于当所述跟踪目标属于所述预设报警目标时,触发所述报警模块发出报警信息。
14.如权利要求8-13任一所述的装置,其特征在于,所述装置还包括:
显示模块,用于在播放所述热成像视频的过程中,当播放至任一包含所述跟踪目标的视频帧时,对所述视频帧中的所述跟踪目标进行突出显示。
15.一种监控装置,其特征在于,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1-7所述的任一项方法的步骤。
16.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现权利要求1-7所述的任一项方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811012103.4A CN110874905A (zh) | 2018-08-31 | 2018-08-31 | 监控方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811012103.4A CN110874905A (zh) | 2018-08-31 | 2018-08-31 | 监控方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110874905A true CN110874905A (zh) | 2020-03-10 |
Family
ID=69715255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811012103.4A Pending CN110874905A (zh) | 2018-08-31 | 2018-08-31 | 监控方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110874905A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111612815A (zh) * | 2020-04-16 | 2020-09-01 | 深圳市讯美科技有限公司 | 一种红外热成像行为意图分析方法及*** |
CN112053382A (zh) * | 2020-08-04 | 2020-12-08 | 浙江大华技术股份有限公司 | 出入口监测方法、设备及计算机可读存储介质 |
CN112381053A (zh) * | 2020-12-01 | 2021-02-19 | 连云港豪瑞生物技术有限公司 | 具有图像跟踪功能的环保监测*** |
CN113163163A (zh) * | 2021-03-16 | 2021-07-23 | 西安天和防务技术股份有限公司 | 边海防监控方法、边缘设备、***及计算机可读存储介质 |
CN113409358A (zh) * | 2021-06-24 | 2021-09-17 | 浙江大华技术股份有限公司 | 图像跟踪方法、装置、存储介质及电子设备 |
CN113673399A (zh) * | 2021-08-12 | 2021-11-19 | 新疆爱华盈通信息技术有限公司 | 区域监测的方法、装置、电子设备及可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5675404A (en) * | 1994-06-15 | 1997-10-07 | Fujitsu Limited | Method and system for recognizing behavior of object |
CN101295405A (zh) * | 2008-06-13 | 2008-10-29 | 西北工业大学 | 人像与车辆识别报警跟踪方法 |
CN105208343A (zh) * | 2015-09-25 | 2015-12-30 | 珠海安联锐视科技股份有限公司 | 可用于视频监控设备的智能监控***和方法 |
CN105279898A (zh) * | 2015-10-28 | 2016-01-27 | 小米科技有限责任公司 | 报警方法及装置 |
CN108010063A (zh) * | 2017-12-27 | 2018-05-08 | 天津天地伟业投资管理有限公司 | 一种基于视频的运动目标进入或离开区域的检测方法 |
CN108154098A (zh) * | 2017-12-20 | 2018-06-12 | 歌尔股份有限公司 | 一种机器人的目标识别方法、装置和机器人 |
-
2018
- 2018-08-31 CN CN201811012103.4A patent/CN110874905A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5675404A (en) * | 1994-06-15 | 1997-10-07 | Fujitsu Limited | Method and system for recognizing behavior of object |
CN101295405A (zh) * | 2008-06-13 | 2008-10-29 | 西北工业大学 | 人像与车辆识别报警跟踪方法 |
CN105208343A (zh) * | 2015-09-25 | 2015-12-30 | 珠海安联锐视科技股份有限公司 | 可用于视频监控设备的智能监控***和方法 |
CN105279898A (zh) * | 2015-10-28 | 2016-01-27 | 小米科技有限责任公司 | 报警方法及装置 |
CN108154098A (zh) * | 2017-12-20 | 2018-06-12 | 歌尔股份有限公司 | 一种机器人的目标识别方法、装置和机器人 |
CN108010063A (zh) * | 2017-12-27 | 2018-05-08 | 天津天地伟业投资管理有限公司 | 一种基于视频的运动目标进入或离开区域的检测方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111612815A (zh) * | 2020-04-16 | 2020-09-01 | 深圳市讯美科技有限公司 | 一种红外热成像行为意图分析方法及*** |
CN112053382A (zh) * | 2020-08-04 | 2020-12-08 | 浙江大华技术股份有限公司 | 出入口监测方法、设备及计算机可读存储介质 |
CN112381053A (zh) * | 2020-12-01 | 2021-02-19 | 连云港豪瑞生物技术有限公司 | 具有图像跟踪功能的环保监测*** |
CN112381053B (zh) * | 2020-12-01 | 2021-11-19 | 连云港豪瑞生物技术有限公司 | 具有图像跟踪功能的环保监测*** |
CN113163163A (zh) * | 2021-03-16 | 2021-07-23 | 西安天和防务技术股份有限公司 | 边海防监控方法、边缘设备、***及计算机可读存储介质 |
CN113409358A (zh) * | 2021-06-24 | 2021-09-17 | 浙江大华技术股份有限公司 | 图像跟踪方法、装置、存储介质及电子设备 |
CN113673399A (zh) * | 2021-08-12 | 2021-11-19 | 新疆爱华盈通信息技术有限公司 | 区域监测的方法、装置、电子设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110895861B (zh) | 异常行为预警方法、装置、监控设备和存储介质 | |
CN110874905A (zh) | 监控方法及装置 | |
CN110839128B (zh) | 拍照行为检测方法、装置及存储介质 | |
CN111723602B (zh) | 驾驶员的行为识别方法、装置、设备及存储介质 | |
CN108363982B (zh) | 确定对象数量的方法及装置 | |
CN109886208B (zh) | 物体检测的方法、装置、计算机设备及存储介质 | |
CN111982305A (zh) | 温度测量方法、装置及计算机存储介质 | |
CN113627413B (zh) | 数据标注方法、图像比对方法及装置 | |
CN110570460A (zh) | 目标跟踪方法、装置、计算机设备及计算机可读存储介质 | |
CN111127509A (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
CN110659542A (zh) | 监控方法及装置 | |
CN111754386A (zh) | 图像区域屏蔽方法、装置、设备及存储介质 | |
CN111325701B (zh) | 图像处理方法、装置及存储介质 | |
CN112714294B (zh) | 报警预览方法、装置及计算机可读存储介质 | |
CN111931712B (zh) | 人脸识别方法、装置、抓拍机及*** | |
CN112241987B (zh) | 确定防区的***、方法、装置及存储介质 | |
CN112991439B (zh) | 定位目标物体的方法、装置、电子设备及介质 | |
CN111860064B (zh) | 基于视频的目标检测方法、装置、设备及存储介质 | |
CN111383243B (zh) | 一种跟踪目标对象的方法、装置、设备和存储介质 | |
CN111383251B (zh) | 一种跟踪目标对象的方法、装置、监控设备和存储介质 | |
CN111353513B (zh) | 一种目标人群筛选的方法、装置、终端和存储介质 | |
CN112446849A (zh) | 一种处理图片的方法及装置 | |
CN112395921A (zh) | 异常行为检测方法、装置及*** | |
CN113706807B (zh) | 发出报警信息的方法、装置、设备及存储介质 | |
CN112243083B (zh) | 抓拍方法、装置及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |