CN110706250A - 一种对象的跟踪方法、装置、***及存储介质 - Google Patents

一种对象的跟踪方法、装置、***及存储介质 Download PDF

Info

Publication number
CN110706250A
CN110706250A CN201910931691.XA CN201910931691A CN110706250A CN 110706250 A CN110706250 A CN 110706250A CN 201910931691 A CN201910931691 A CN 201910931691A CN 110706250 A CN110706250 A CN 110706250A
Authority
CN
China
Prior art keywords
image
tracking
preset
camera
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910931691.XA
Other languages
English (en)
Other versions
CN110706250B (zh
Inventor
叶汇贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Bozhilin Robot Co Ltd
Original Assignee
Guangdong Bozhilin Robot Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Bozhilin Robot Co Ltd filed Critical Guangdong Bozhilin Robot Co Ltd
Priority to CN201910931691.XA priority Critical patent/CN110706250B/zh
Publication of CN110706250A publication Critical patent/CN110706250A/zh
Application granted granted Critical
Publication of CN110706250B publication Critical patent/CN110706250B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种对象的跟踪方法、装置、***及存储介质。方法包括:在对监控区域内的对象进行跟踪的过程中,获取摄像组件拍摄的监控区域的图像;判断图像与对象的预设图像是否匹配;若不匹配,将摄像组件继续拍摄的监控区域的新图像直接与预设图像匹配。基于通过将继续拍摄的监控区域的新图像直接与该对象的预设图像匹配,一旦该对象的视野恢复,便可以直接恢复对该对象的跟踪。较于现有技术中重新将底库的各预设图像与拍摄的图片匹配的方式,其计算量小且效率高,实现通过少量计算便可高效的恢复对对象的跟踪。

Description

一种对象的跟踪方法、装置、***及存储介质
技术领域
本申请涉及目标物识别跟踪技术领域,具体而言,涉及一种对象的跟踪方法、装置、***及存储介质。
背景技术
目前,在对象的跟踪技术中,一般有两种跟踪方式,一种是泛跟踪,即不识别对象到底是谁,只是单纯的对其进行跟踪;另一种则是针对性跟踪,即先识别出对象是谁再对其进行跟踪。
在针对性跟踪的实现过程中,先将监控区域的图像与底库中各预设对象的预设图像匹配,以确定现在监控区域中的对象是哪一个预设对象,进而再将预设对象的预设图像与持续拍摄的图像匹配,实现对该预设对象的跟踪。但因为一些原因例如对象被暂时遮挡或者对象暂时离开监控区域后又再次回到监控区域,导致对象在监控区域内的视野丢失后又重新恢复,若要继续跟踪该对象,则需要重新将底库的各预设图像与拍摄的图片匹配。但重新将底库的各预设图像与拍摄的图片匹配的方式计算量大,效率低。
发明内容
本申请实施例的目的在于提供一种对象的跟踪方法、装置、***及存储介质,用以实现通过少量计算便可高效的恢复对对象的跟踪。
第一方面,本申请实施例提供了一种对象的跟踪方法,所述方法包括:
在对所述监控区域内的对象进行跟踪的过程中,获取摄像组件拍摄的所述监控区域的图像;
判断所述图像与所述对象的预设图像是否匹配;
若不匹配,将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配。
在本申请实施例中,若确定拍摄的监控区域的图像与该对象的预设图像不匹配,说明在对监控区域内的对象进行跟踪的过程丢失了该对象的视野。此时,通过将继续拍摄的监控区域的新图像直接与该对象的预设图像匹配,一旦该对象的视野恢复,便可以直接恢复对该对象的跟踪。较于现有技术中重新将底库的各预设图像与拍摄的图片匹配的方式,其计算量小且效率高,实现通过少量计算便可高效的恢复对对象的跟踪。
结合第一方面,在第一种可能的实现方式中,在确定所述图像与所述对象的预设图像不匹配之后,以及在将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配之前,所述方法还包括:
获得所述预设图像第一次出现不匹配的时刻到当前时刻的时长;
确定所述时长小于等于预设的阈值时长。
在本申请实施例中,在丢失对象的视野后,还可以获取对象的视野丢失的时长,以便为是否继续将拍摄的图像与对象的预设图像匹配提供依据。
结合第一方面的第一种可能的实现方式,在第二种可能的实现方式中,在将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配之后,所述方法还包括;
确定所述时长大于所述阈值时长,停止将所述摄像组件继续拍摄的所述监控区域的新的图像与所述预设图像匹配。
在本申请实施例中,对象的视野丢失的时长大于阈值时长说明对象基本彻底离开监控区域,故停止将拍摄的图像与对象的预设图像匹配可以避免设备不必要的负荷。
结合第一方面,在第三种可能的实现方式中,判断所述图像与所述对象的预设图像是否匹配,包括:
将所述监控区域的图像中设定区域对应的区域图像提取出,其中,所述区域图像中所有元素与所述摄像组件的距离在预设距离内;
判断所述区域图像与所述预设图像是否匹配。
在本申请实施例中,本申请实施例中,通过提取区域图像可以实现对指定距离内的对象进识别跟踪,以降低对象之间的跟随性。
结合第一方面的第三种可能的实现方式,在第四种可能的实现方式中,所述摄像组件为双目摄像头,在将所述监控区域的图像中设定区域对应的区域图像提取出之前,所述方法还包括:
获得所述双目摄像头同时拍摄的两张图像;
根据所述两张图像,以及根据所述预设距离,确定出所述设定区域。
本申请实施例中,由于通过双目成像确定区域图像原理是基于双目摄像头之间的视角差别。故即使摄像组件的机位调整,但由于视角差别仍然保持不变,其仍能够准确的提取出区域图像。
第二方面,本申请实施例提供了一种对象的跟踪装置,所述装置包括:
图像获取模块,用于在对所述监控区域内的对象进行跟踪的过程中,获取摄像组件拍摄的所述监控区域的图像;
对象跟踪模块,用于判断所述图像与所述对象的预设图像是否匹配;若不匹配,将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配。
结合第二方面,在第一种可能的实现方式中,所述对象跟踪模块在确定所述图像与所述对象的预设图像不匹配之后,以及所述对象跟踪模块在将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配之前,
所述对象跟踪模块,还用于获得所述预设图像第一次出现不匹配的时刻到当前时刻的时长;以及,确定所述时长小于等于预设的阈值时长。
结合第二方面的第一种可能的实现方式,在第二种可能的实现方式中,所述对象跟踪模块在将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配之后,
所述对象跟踪模块,还用于确定所述时长大于所述阈值时长,停止将所述摄像组件继续拍摄的所述监控区域的新的图像与所述预设图像匹配。
结合第二方面,在第三种可能的实现方式中,
所述对象跟踪模块,用于将所述监控区域的图像中设定区域对应的区域图像提取出,其中,所述区域图像中所有元素与所述摄像组件的距离在预设距离内;判断所述区域图像与所述预设图像是否匹配。
结合第二方面的第三种可能的实现方式,在第四种可能的实现方式中,所述摄像组件为双目摄像头,所述对象跟踪模块在将所述监控区域的图像中设定区域对应的区域图像提取出之前,
所述图像获取模块,用于获得所述双目摄像头同时拍摄的两张图像;
所述对象跟踪模块,用于根据所述两张图像,以及根据所述预设距离,确定出所述设定区域。
第三方面,本申请实施例提供了一种对象的跟踪***,包括:摄像组件,以及与所述摄像组件连接的服务器;
所述摄像组件,用于在所述服务器对所述监控区域内的对象进行跟踪的过程中,拍摄的所述监控区域的图像,并将所述图像发送给所述服务器;
所述服务器,用于根据所述图像,执行如第一方面或第一方面的任一种可能的实现方式所述的对象的跟踪方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述存储介质上存储有程序代码,当所述程序代码被所述计算机运行时,执行如第一方面或第一方面的任一种可能的实现方式所述的对象的跟踪方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种对象的跟踪***的结构框图;
图2为本申请实施例提供的一种对象的跟踪***的第一应用场景图;
图3为本申请实施例提供的一种对象的跟踪***的第二应用场景图;
图4为本申请实施例提供的一种对象的跟踪方法的流程图;
图5为本申请实施例提供的一种对象的跟踪方法的第一应用场景图;
图6为本申请实施例提供的一种对象的跟踪方法的第二应用场景图;
图7为本申请实施例提供的一种对象的跟踪装置的结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
请参阅图1,本申请实施例提供了一种对象的跟踪***10,根据实际应用场景的不同,该对象的跟踪***10可以部署到不同的场所,例如应用场景为对有嫌疑的人员进行跟踪监控,对象的跟踪***10可以部署在街道、广场或公园的等公共场所,又例如应用场景为对公司或单位内部的人员的出入进行跟踪,对象的跟踪***10可以部署公司、单位或园区的出入口处。
具体的,该对象的跟踪***10可以包括:摄像组件11,以及与摄像组件11连接的服务器12。
摄像组件11可以采用高清的RGB摄像头。本实施例中,根据应用场景的不同,摄像组件11的数量和设置方式需要根据实际应用场景进行选择。
例如图2所示,应用场景为对有嫌疑的人员进行跟踪监控,摄像组件11的数量可以根据监控区域的大小进行选择,各摄像组件11的拍摄区域111能够相交或部分重叠,以将监控区域覆盖,其中,图2中每个虚线框代表一个拍摄区域111。又例如图3所示,应用场景为对公司或单位内部的人员的出入进行跟踪,摄像组件11的数量根据出入口的闸机13数量进行选择,每个摄像组件11可以安装在对应的闸机13的上方并朝向对应闸机13的通道方向,以使每个摄像组件11的拍摄区域111能够将对应的至少一个闸机13的出入通道区域覆盖,以对该至少一个闸机的出入通道区域进行拍摄。
此外,根据实际应用场景的不同,本实施例中所述的对象的具体指代也有所不同。例如,应用场景为对出入公司的人员进行识别,那么所述的对象指代的可以是公司人员的人脸;又例如,应用场景为对出入园区的车辆进行识别,那么所述的对象指代的可以是车辆。
请继续参阅图1,服务器12可以采用数据库服务器、网络服务器、云服务器或由多个子服务器构成的服务器集群等。服务器12可以对摄像组件11拍摄到的图像进行处理,以对图像中的对象进行识别跟踪。
下文将对服务器12与摄像组件11配合实现对对象的识别跟踪进行详细说明。
请参阅图4,本申请的一些实施例提供了一种对象的跟踪方法,该对象的跟踪方法可以由摄像组件11和服务器12配合执行,以实现对出现在监控区域的对象进行识别和跟踪。
具体的,该对象的跟踪方法可以包括:步骤S100、步骤S200、步骤S300和步骤S400。
步骤S100:在对所述监控区域内的对象进行跟踪的过程中,摄像组件11拍摄的该监控区域的图像,并将该图像发送给服务器。
步骤S200:服务器获取摄像组件拍摄的该图像。
步骤S300:判断所述图像与所述对象的预设图像是否匹配。
步骤S400:若不匹配,将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配。
下面将结合上述方法的各流程,详细说明对对象进行识别跟踪的完整流程。
本实施例中,为降低摄像组件11的功耗,在监控区域中没有对象出现时,摄像组件11通常处于休眠状态。
进一步的,摄像组件11上设置有距离传感器例如设置有红外的距离传感器,且该距离传感器的检测方向可以朝向该摄像组件11拍摄的整个监控区域。这样,当对象第一次进入到监控区域时,其能够被距离传感器检测到。从而距离传感器可以向摄像组件11发送启动信号,以使摄像组件11从休眠状态调整为工作状态。进而摄像组件11能够朝向监控区域拍摄该监控区域的图像,并将拍摄的图像发送给服务器12处理,以使服务器12执行对对象的识别跟踪流程。
本实施例中,为实现对摄像组件11拍摄的图像中的对象进行识别和跟踪,在识别跟踪之前例如在对象的跟踪***10的部署或调试阶段,需要对服务器12上用于识别的对象识别模型,以及对服务器12上用于跟踪的对象跟踪模型也进行训练。下面将分别对对象识别模型和对象跟踪模型的训练进行说明。
针对对象识别模型:
服务器12可以采用包含对象的第一训练图像集,以及采用包含同一对象的第二训练图像,共同对第一深度神经网络例如CNN(Convolutional Neural Networks,卷积神经网络)网络进行训练。例如,训练图像A中包含对象a,训练图像B也包含对象a,服务器12可以将训练图像A和训练图像B同时输入到第一深度神经网络中进行相似度匹配。通过匹配,第一深度神经网络可以输出训练图像A中的对象a与训练图像B中的对象a的匹配分数例如为0.7。可以理解到,由于训练图像A和训练图像B均包含了同一对象a,故训练图像A和训练图像B的匹配的理论分数应该为1。这样,服务器12便可以利用理论分数为1与匹配分数为0.7之间的Loss为0.3对第一深度神经网络进行优化。通过第一训练图像集和第二训练图像集不断重复上述例举的训练优化过程,便可以获得能够准确识别出两张对象中是否为同一对象的对象识别模型。
针对对象跟踪模型:
服务器12可以采用包含对象的训练图像集对第二深度神经网络例如CNN网络进行训练。例如,训练图像C中包含对象b,服务器12可以将训练图像C输入到第二深度神经网络中进行对象的坐标识别。通过识别,第二深度神经网络会输出对象b在训练图像C中的坐标例如为(3.3)。这样,服务器12便可以利用对象b在训练图像C中的实际坐标(2.3)与(3.3)之间的Loss为(1.0)对第二深度神经网络进行优化,实现对第二深度神经网络的训练。这样,通过训练图像集不断重复上述例举的训练过程,对第二深度神经网络反复进行优化,便可以获得能够准确识别出图像中对象的坐标的对象跟踪模型。
可以理解的,基于确定出对象在图像中的坐标,服务器则可以通过记录坐标实现对对象的跟踪。
在完成对对象识别模型和对象跟踪模型的训练后,服务器12便可进行对摄像组件11拍摄的图像中的对象进行识别和跟踪。
进一步的,针对本次跟踪过程中第一次进入监控区域的对象,服务器12可以采用图像碰撞的匹配方法,将摄像组件11拍摄的图像和底库中各对象的预设图像依次输入对象识别模型,以使对象识别模型依次输出拍摄的图像与每张预设图像的匹配分数。服务器12可以从输出的所有匹配分数中选择出最高分数,并判断该最高分数是否大于预设的阈值分数。
若该第一次进入监控区域的对象不为底库中各预设图像中的对象,那么各匹配分数中的最高分数不会大于该阈值分数。因此,服务器12可以确定识别结果为未识别到监控区域中的对象,并终止后续流程的执行。
若该第一次进入监控区域的对象为底库中某一张预设图像中的对象,那么该拍摄的图像与该包含同一对象的预设图像的匹配分数为最高分数,且该最高分数大于阈值分数。因此,服务器12通过该最高分数大于阈值分数,可以确定第一次进入监控区域的对象为该最高分数对应的预设图像中的对象。
在识别到监控区域中的对象后,服务器12可以将拍摄的图像输入到对象跟踪模型中,以使对象跟踪模型输出该对象在拍摄的图像中的坐标。这样,服务器12通过记录该坐标便可以实现对该对象的跟踪。
可以理解到,由于服务器12在第一次识别中已经识别到了该对象,随着摄像组件11的继续拍摄,服务器12可以将后续拍摄的每张图像直接与该对象的预设图像匹配,并在匹配通过后再通过对象跟踪模型确定出该对象的坐标。通过不断重复这一流程,服务器12可以记录到该对象在监控区域中不同时刻的坐标,而将这些坐标按时间顺序连接则为该对象在监控区域中移动轨迹。
进一步的,随着该对象在监控区域内继续移动,若该对象移出了监控区域或者该对象移动到监控区域内的某一位置而被遮挡,摄像组件11执行步骤S100。
步骤S100:在对所述监控区域内的对象进行跟踪的过程中,摄像组件拍摄的该监控区域的图像,并将该图像发送给服务器。
可以理解到,在对该对象的跟踪的过程中,由于该对象已经移出了监控区域或者已经移动到监控区域内的某一位置而被遮挡,故摄像组件11拍摄监控区域的图像中不包含该对象。
相应的,服务器12可以继续执行步骤S200:服务器获取摄像组件11拍摄的该图像。而获取到图像后,服务器继续执行步骤S300。
步骤S300:判断所述图像与所述对象的预设图像是否匹配。
可以理解到,服务器还是会按照前述中识别对象的流程,通过对象识别模型,将该最新拍摄的图像直接与该对象的预设图像匹配,并判断该最新拍摄的图像与该对象的预设图像是否匹配。
步骤S400:若不匹配,将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配。
由于在拍摄时,如果对象已经移出监控区域或者被监控区域内的物体遮挡,则最新拍摄的图像中不包含该对象。由于不包含该对象,则对象识别模型输出的匹配分数小于阈值分数。因此,服务器12可以确定最新拍摄的图像与该对象的预设图像不匹配。
进一步的,由于之前跟踪过该对象,故服务器12可以确定本次不匹配的结果不是未识别到监控区域中的对象,而是已经识别到的对象的视野在监控区域中丢失。
本实施例中,为实现当该对象重新进入监控区域或者未被监控区域中的物体遮挡时,服务器12能够快速的重新恢复对该对象的跟踪。在确定该对象的视野丢失后,服务器12可以将摄像组件11继续拍摄的新图像直接与该对象的预设图像匹配,以便在对象视野恢复时,能够快速的匹配上,进而快速恢复对对象的跟踪。
本实施例中,若对象的视野丢失的时间比较长,其表示该对象可能彻底离开了监控区域。基于此原理,在将摄像组件11后续拍摄的新图像直接与预设图像匹配之前,服务器12可以先确定该对象的预设图像第一次出现不匹配的时刻到当前时刻的时长,并判断该时长是否大于等于预设的阈值时长。
若不大于等于该阈值时长,说明对象的视野丢失的时长还不算长,对象还有可能再次出现在监控区域中,故可以执行将摄像组件11后续拍摄的新图像直接与预设图像匹配。
若大于等于该阈值时长,说明对象的视野丢失的时长已经很长了,对象几乎不可能再次出现在监控区域中,因此服务器12可以停止执行将摄像组件11继续拍摄的监控区域的新的图像与该对象的预设图像匹配。如果还需要跟踪其他人员,那么就可以在拍摄到新图像时,再继续与底库中的图像匹配,以确定新的需要跟踪的人员。
此外,在本实施例中,为降低监控区域中各对象之间的跟随性,服务器12可以对摄像组件11拍摄的图片进行处理,以实现距离的感应。
作为实现距离感应的一种示例性方式,若摄像组件11为单目摄像头,那么服务器12可以按照预设的区域划分规则,在拍摄的图像中动态的确定出一个设定区域(为便于理解本方案,本实施例以至少两个对象位于设定区域中为例进行说明),将拍摄的图像中的设定区域对应的区域图像提取出,获得区域图像,其中,该区域图像中所有元素与摄像组件11的距离在预设距离内。进一步的,服务器12再通过对象识别模型处理该区域图像,则实现了对与摄像组件11的距离在预设距离内的对象进行识别,即实现了距离感应式的对象识别;反之,位于拍摄的图像中设定区域以外的区域的对象,则因为与摄像组件11的距离超出了预设距离而无法被服务器12识别。
可以理解到,在采用区域划分规则提取区域图像时,由于区域划分规则是基于摄像组件11的机位设置的。若摄像组件11的机位调整,拍摄的图像的视界也相应发生变化,故需要根据机位的调整对应调整区域划分规则才能够继续准确的提取出区域图像。
请参阅图5,下面通过一个示例来说明,如图5所示,服务器1213可以在图像P中确定出设定区域Q,然后提取出如图6所示的区域图像P1。
作为实现距离感应的另一种示例性方式,若摄像组件11为双目摄像头例如为两个RGB摄像头,那么服务器12可以根据两个RGB摄像头拍摄的两张图像之间的视角差别,利用双目成像原理,在其中一张图像中动态的确定出一个设定区域,并将该图像中的设定区域对应的区域图像提取出,获得区域图像,其中,该区域图像中的所有元素与摄像组件11的距离也在预设距离内。进一步的,服务器12再通过对象识别模型处理该区域图像,则实现了对与摄像组件11的距离在预设距离内的对象进行识别。
可以理解到,在双目成像原理提取区域图像时,由于双目成像原理是基于两个RGB摄像头拍摄的两张图像之间的视角差别。即使摄像组件11的机位调整,但由于视角差别仍然保持不变,服务器12仍能够准确的提取出区域图像。
请参阅图7,基于同一发明构思,本申请实施例中还提供了一种对象的跟踪装置200,应用于服务器12,该对象的控制装置200,包括:
图像获取模块210,用于在对所述监控区域内的对象进行跟踪的过程中,获取摄像组件11拍摄的所述监控区域的图像。
对象跟踪模块220,用于判断所述图像与所述对象的预设图像是否匹配;若不匹配,将所述摄像组件11继续拍摄的所述监控区域的新图像直接与所述预设图像匹配。
可选的,所述对象跟踪模块220在确定所述图像与所述对象的预设图像不匹配之后,以及所述对象跟踪模块220在将所述摄像组件11继续拍摄的所述监控区域的新图像直接与所述预设图像匹配之前,
所述对象跟踪模块220,还用于获得所述预设图像第一次出现不匹配的时刻到当前时刻的时长;以及,确定所述时长小于等于预设的阈值时长。
可选的,所述对象跟踪模块220在将所述摄像组件11继续拍摄的所述监控区域的新图像直接与所述预设图像匹配之后,
所述对象跟踪模块220,还用于确定所述时长大于所述阈值时长,停止将所述摄像组件11继续拍摄的所述监控区域的新的图像与所述预设图像匹配。
需要说明的是,由于所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请一些实施例还提供了一种计算机可执行的非易失的程序代码的计算机可读储存介质,该存储介质能够为通用的存储介质,如移动磁盘、硬盘等,该计算机可读存储介质上存储有程序代码,该程序代码被计算机运行时执行上述任一实施方式的对象的跟踪方法的步骤。
本申请实施例所提供的对象的跟踪方法的程序代码产品,包括存储了程序代码的计算机可读存储介质,程序代码包括的指令可用于执行前面方法实施例中的方法,具体实现可参见方法实施例,在此不再赘述。
综上所述,本申请实施例提供了一种对象的跟踪方法、装置、***及存储介质。若确定拍摄的监控区域的图像与该对象的预设图像不匹配,说明在对监控区域内的对象进行跟踪的过程丢失了该对象的视野。此时,通过将继续拍摄的监控区域的新图像直接与该对象的预设图像匹配,一旦该对象的视野恢复,便可以直接恢复对该对象的跟踪。较于现有技术中重新将底库的各预设图像与拍摄的图片匹配的方式,其计算量小且效率高,实现通过少量计算便可高效的恢复对对象的跟踪。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
再者,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种对象的跟踪方法,其特征在于,所述方法包括:
在对所述监控区域内的对象进行跟踪的过程中,获取摄像组件拍摄的所述监控区域的图像;
判断所述图像与所述对象的预设图像是否匹配;
若不匹配,将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配。
2.根据权利要求1所述的对象的跟踪方法,其特征在于,在确定所述图像与所述对象的预设图像不匹配之后,以及在将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配之前,所述方法还包括:
获得所述预设图像第一次出现不匹配的时刻到当前时刻的时长;
确定所述时长小于等于预设的阈值时长。
3.根据权利要求2所述的对象的跟踪方法,其特征在于,在将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配之后,所述方法还包括;
确定所述时长大于所述阈值时长,停止将所述摄像组件继续拍摄的所述监控区域的新的图像与所述预设图像匹配。
4.根据权利要求1所述的对象的跟踪方法,其特征在于,判断所述图像与所述对象的预设图像是否匹配,包括:
将所述监控区域的图像中设定区域对应的区域图像提取出,其中,所述区域图像中所有元素与所述摄像组件的距离在预设距离内;
判断所述区域图像与所述预设图像是否匹配。
5.根据权利要求4所述的对象的跟踪方法,其特征在于,所述摄像组件为双目摄像头,在将所述监控区域的图像中设定区域对应的区域图像提取出之前,所述方法还包括:
获得所述双目摄像头同时拍摄的两张图像;
根据所述两张图像,以及根据所述预设距离,确定出所述设定区域。
6.一种对象的跟踪装置,其特征在于,所述装置包括:
图像获取模块,用于在对所述监控区域内的对象进行跟踪的过程中,获取摄像组件拍摄的所述监控区域的图像;
对象跟踪模块,用于判断所述图像与所述对象的预设图像是否匹配;若不匹配,将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配。
7.根据权利要求6所述的对象的跟踪装置,其特征在于,所述对象跟踪模块在确定所述图像与所述对象的预设图像不匹配之后,以及所述对象跟踪模块在将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配之前,
所述对象跟踪模块,还用于获得所述预设图像第一次出现不匹配的时刻到当前时刻的时长;以及,确定所述时长小于等于预设的阈值时长。
8.根据权利要求7所述的对象的跟踪装置,其特征在于,所述对象跟踪模块在将所述摄像组件继续拍摄的所述监控区域的新图像直接与所述预设图像匹配之后,
所述对象跟踪模块,还用于确定所述时长大于所述阈值时长,停止将所述摄像组件继续拍摄的所述监控区域的新的图像与所述预设图像匹配。
9.一种对象的跟踪***,其特征在于,包括:摄像组件,以及与所述摄像组件连接的服务器;
所述摄像组件,用于在所述服务器对所述监控区域内的对象进行跟踪的过程中,拍摄的所述监控区域的图像,并将所述图像发送给所述服务器;
所述服务器,用于根据所述图像,执行如权利要求1-5任一权项所述的对象的跟踪方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质上存储有程序代码,当所述程序代码被所述计算机运行时,执行如权利要求1-5任一权项所述的对象的跟踪方法。
CN201910931691.XA 2019-09-27 2019-09-27 一种对象的跟踪方法、装置、***及存储介质 Active CN110706250B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910931691.XA CN110706250B (zh) 2019-09-27 2019-09-27 一种对象的跟踪方法、装置、***及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910931691.XA CN110706250B (zh) 2019-09-27 2019-09-27 一种对象的跟踪方法、装置、***及存储介质

Publications (2)

Publication Number Publication Date
CN110706250A true CN110706250A (zh) 2020-01-17
CN110706250B CN110706250B (zh) 2022-04-01

Family

ID=69197873

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910931691.XA Active CN110706250B (zh) 2019-09-27 2019-09-27 一种对象的跟踪方法、装置、***及存储介质

Country Status (1)

Country Link
CN (1) CN110706250B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012190A (zh) * 2021-02-01 2021-06-22 河南省肿瘤医院 手卫生合规监测方法、装置、设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106659A (zh) * 2013-01-28 2013-05-15 中国科学院上海微***与信息技术研究所 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法
US20140241574A1 (en) * 2011-04-11 2014-08-28 Tao Wang Tracking and recognition of faces using selected region classification
CN104268519A (zh) * 2014-09-19 2015-01-07 袁荣辉 基于模式匹配的图像识别终端及其识别方法
CN106295598A (zh) * 2016-08-17 2017-01-04 北京大学 一种跨摄像头目标跟踪方法及装置
CN107240124A (zh) * 2017-05-19 2017-10-10 清华大学 基于时空约束的跨镜头多目标跟踪方法及装置
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN108985162A (zh) * 2018-06-11 2018-12-11 平安科技(深圳)有限公司 目标实时跟踪方法、装置、计算机设备及存储介质
CN109325964A (zh) * 2018-08-17 2019-02-12 深圳市中电数通智慧安全科技股份有限公司 一种人脸追踪方法、装置及终端
CN109815829A (zh) * 2018-12-28 2019-05-28 上海依图网络科技有限公司 一种确定路人轨迹的方法及装置
CN109977823A (zh) * 2019-03-15 2019-07-05 百度在线网络技术(北京)有限公司 行人识别跟踪方法、装置、计算机设备和存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140241574A1 (en) * 2011-04-11 2014-08-28 Tao Wang Tracking and recognition of faces using selected region classification
CN103106659A (zh) * 2013-01-28 2013-05-15 中国科学院上海微***与信息技术研究所 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法
CN104268519A (zh) * 2014-09-19 2015-01-07 袁荣辉 基于模式匹配的图像识别终端及其识别方法
CN106295598A (zh) * 2016-08-17 2017-01-04 北京大学 一种跨摄像头目标跟踪方法及装置
CN107240124A (zh) * 2017-05-19 2017-10-10 清华大学 基于时空约束的跨镜头多目标跟踪方法及装置
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN108985162A (zh) * 2018-06-11 2018-12-11 平安科技(深圳)有限公司 目标实时跟踪方法、装置、计算机设备及存储介质
CN109325964A (zh) * 2018-08-17 2019-02-12 深圳市中电数通智慧安全科技股份有限公司 一种人脸追踪方法、装置及终端
CN109815829A (zh) * 2018-12-28 2019-05-28 上海依图网络科技有限公司 一种确定路人轨迹的方法及装置
CN109977823A (zh) * 2019-03-15 2019-07-05 百度在线网络技术(北京)有限公司 行人识别跟踪方法、装置、计算机设备和存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012190A (zh) * 2021-02-01 2021-06-22 河南省肿瘤医院 手卫生合规监测方法、装置、设备及存储介质
CN113012190B (zh) * 2021-02-01 2024-02-06 河南省肿瘤医院 手卫生合规监测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110706250B (zh) 2022-04-01

Similar Documents

Publication Publication Date Title
CN107305627B (zh) 一种车辆视频监控方法、服务器及***
CN109819208B (zh) 一种基于人工智能动态监控的密集人群安防监控管理方法
KR101172747B1 (ko) 열화상 좌표를 이용한 보안용 카메라 추적 감시 시스템 및 방법
KR101645722B1 (ko) 자동추적 기능을 갖는 무인항공기 및 그 제어방법
JP4700477B2 (ja) 移動体監視システムおよび移動体特徴量算出装置
CN110969118B (zh) 轨迹监控***和方法
Wheeler et al. Face recognition at a distance system for surveillance applications
US9697420B2 (en) Information processing system, information processing method, and computer-readable recording medium
US20190347486A1 (en) Method and apparatus for detecting a garbage dumping action in real time on video surveillance system
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
US11023717B2 (en) Method, apparatus, device and system for processing commodity identification and storage medium
CN108875507B (zh) 行人跟踪方法、设备、***和计算机可读存储介质
CN110675426B (zh) 人体跟踪方法、装置、设备及存储介质
KR20170022872A (ko) 자동추적 기능을 갖는 무인항공기
Li et al. Robust multiperson detection and tracking for mobile service and social robots
JP7484985B2 (ja) 認証システム、認証方法、及び、プログラム
KR20220078893A (ko) 영상 속 사람의 행동 인식 장치 및 방법
CN110633648A (zh) 一种自然行走状态下的人脸识别方法和***
CN111429476A (zh) 确定目标人物行动轨迹的方法和装置
CN110674775A (zh) 一种闸机的控制方法、装置、***及存储介质
CN110706250B (zh) 一种对象的跟踪方法、装置、***及存储介质
KR20150071920A (ko) 얼굴 식별을 이용한 사람 수 카운팅 장치 및 방법
WO2022134916A1 (zh) 身份特征生成方法、设备及存储介质
JP6548306B2 (ja) カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法
KR101656519B1 (ko) 확장칼만필터를 이용하여 추적성능을 높인 자동추적 기능을 갖는 무인항공기

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant