CN111601013A - 用于处理视频帧的方法和装置 - Google Patents
用于处理视频帧的方法和装置 Download PDFInfo
- Publication number
- CN111601013A CN111601013A CN202010472966.0A CN202010472966A CN111601013A CN 111601013 A CN111601013 A CN 111601013A CN 202010472966 A CN202010472966 A CN 202010472966A CN 111601013 A CN111601013 A CN 111601013A
- Authority
- CN
- China
- Prior art keywords
- frame
- target
- detection
- video frame
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000001514 detection method Methods 0.000 claims abstract description 199
- 230000004044 response Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 7
- 230000008447 perception Effects 0.000 abstract description 3
- 230000015654 memory Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了用于处理视频帧的方法和装置,涉及智能交通技术领域。具体实施方式包括:对视频帧序列的各个视频帧中的目标对象进行检测,并根据各个视频帧中检测框的位置,获得目标对象的检测框位置集合;在检测框位置集合中,获取视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置;确定第一目标位置和第二目标位置之间的距离;基于该距离,确定目标对象的状态。本申请可以利用检测框位置集合,针对目标对象全面地收集到各个视频帧中检测框的位置。并利用视频帧序列中在先视频帧和在后视频帧中分别检测到的位置,准确地确定出目标对象的状态,提高车路协同中路侧或车端感知的准确性。
Description
技术领域
本申请实施例涉及智能交通技术领域,尤其涉及用于处理视频帧的方法和装置。
背景技术
在路侧感知、智能交通等领域,均可以采用摄像头拍摄实景,从而获取到实景图片进行分析处理。具体地,可以将摄像头安装在路灯杆处获取图片,或直接采用城市监控摄像头拍摄的图片。
在很多应用场景中,都需要判断在摄像头拍摄到的图片中,检测到的物体是静止还是运动的,比如僵尸车检测,排队车辆判断,排队数目判断等。然而目前针对图像的检测算法,由于每一帧图像都在变化,比如车辆在移动,光照在变化等等,对同一个静止物体的检测结果是不稳定的,这就对物体状态的判断带来了影响,从而提升了判断的难度。
发明内容
提供了一种用于处理视频帧的方法、装置、电子设备以及存储介质。
根据第一方面,提供了一种用于处理视频帧的方法,包括:将在视频帧序列的各个视频帧中对目标对象检测到的检测框的位置,存入目标对象的检测框位置集合;在检测框位置集合中,获取视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置;确定第一目标位置和第二目标位置之间的距离;基于距离,确定目标对象的状态,其中,状态包括运动或静止。
根据第二方面,提供了一种用于处理视频帧的装置,包括:检测单元,被配置成将对视频帧序列的各个视频帧中的目标对象进行检测,得到各个视频帧中检测框的位置;集合获得单元,被配置成根据各个视频帧中检测框的位置,获得目标对象的检测框位置集合;获取单元,被配置成在检测框位置集合中,获取视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置;距离确定单元,被配置成确定第一目标位置和第二目标位置之间的距离;状态确定单元,被配置成基于距离,确定目标对象的状态,其中,状态包括运动或静止。
根据第三方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如用于处理视频帧的方法中任一实施例的方法。
根据第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如用于处理视频帧的方法中任一实施例的方法。
根据本申请的方案,可以利用检测框位置集合,针对目标对象全面地收集到各个视频帧中检测框的位置。并利用视频帧序列中在先视频帧和在后视频帧中分别检测到的位置,准确地确定出目标对象的状态。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请一些实施例可以应用于其中的示例性***架构图;
图2是根据本申请的用于处理视频帧的方法的一个实施例的流程图;
图3是根据本申请的用于处理视频帧的方法的一个应用场景的示意图;
图4是根据本申请的用于处理视频帧的方法的又一个实施例的流程图;
图5是根据本申请的用于处理视频帧的装置的一个实施例的结构示意图;
图6是用来实现本申请实施例的用于处理视频帧的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于处理视频帧的方法或用于处理视频帧的装置的实施例的示例性***架构100。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频类应用、直播应用、即时通信工具、邮箱客户端、社交平台软件等。
这里的终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对接收到的视频帧序列等数据进行分析等处理,并将处理结果(例如目标对象的状态)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于处理视频帧的方法可以由服务器105或者终端设备101、102、103执行,相应地,用于处理视频帧的装置可以设置于服务器105或者终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于处理视频帧的方法的一个实施例的流程200。该用于处理视频帧的方法,包括以下步骤:
步骤201,对视频帧序列的各个视频帧中的目标对象进行检测,得到各个视频帧中检测框的位置。
在本实施例中,用于处理视频帧的方法运行于其上的执行主体(例如图1所示的服务器或终端设备)可以对视频帧序列中各个视频帧所包括的目标对象进行检测,从而得到检测到的检测框的位置。具体地,检测到目标对象,也即检测到目标对象的检测框(bounding box)的位置。这里的视频帧序列可以是每一帧都包括目标对象,也可以是部分视频帧包括目标对象。
该检测框的位置指示了目标对象的位置。具体地,检测框的位置可以是(x,y,w,h),其中的x和y分别为检测框的指定点的横坐标和纵坐标,这里的指定点可以是检测框的中心点或者左上角顶点等等。其中的w和h可以是检测框的宽和高。此外,检测框的位置还可以由检测框的四个角的顶点的坐标或者对角线的顶点的坐标来表示。
这里的目标对象可以是各种物体,也可以是障碍物。比如,这里的障碍物可以是人、车、动物等等。
步骤202,根据各个视频帧中检测框的位置,获得目标对象的检测框位置集合。
在本实施例中,上述执行主体可以根据将在视频帧中检测到的检测框位置,获得目标对象的检测框位置集合。具体地,上述执行主体可以采用各种方式获得上述集合。举例来说,上述执行主体可以将检测到的检测框的位置,存入目标对象的检测框位置集合,将存入后的检测框位置集合作为所获得的集合。所存入的检测框位置集合是针对该目标对象建立的集合。此外,上述执行主体还可以在检测到的检测框的位置中,选取部分检测框的位置,比如选取在视频帧序列的每隔一帧中检测到的检测框的位置,并将选取的位置组成检测框位置集合。
步骤203,在检测框位置集合中,获取视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置。
在本实施例中,上述执行主体可以在检测框位置集合中,获取在先视频帧的检测框的位置以及在后视频帧的检测框的位置。具体地,这里的在先视频帧和在后视频帧均是视频帧序列中的视频帧。在视频帧序列中,上述在先视频帧是先于在后视频帧的视频帧。在实践中,在先视频帧和在后视频帧可以是各种视频帧。比如,(在检测框位置集合中检测框的位置的数量未达到目标数量的情况下)在先视频帧和在后视频帧可以是视频帧序列中最先的视频帧和最后的视频帧。此外,在先视频帧和在后视频帧还可以是视频帧序列中位于中间的视频帧比如第2帧和第10帧。
步骤204,确定第一目标位置和第二目标位置之间的距离。
在本实施例中,上述执行主体可以确定上述的第一目标位置和第二目标位置之间的距离,也即,确定两个检测框的位置之间的距离。在实践中,两个检测框的位置之间的距离可以是这两个检测框的指定点之间的距离。
步骤205,基于距离,确定目标对象的状态,其中,状态包括运动或静止。
在本实施例中,上述执行主体可以基于上述距离,确定目标对象的状态,也即,确定出在拍摄到上述视频帧序列中,目标对象是运动的还是静止的。
在实践中,上述执行主体可以采用各种方式确定出目标对象的状态。举例来说,上述执行主体直接可以将上述距离和预设距离阈值进行比较,从而得到目标对象的状态。比如,上述执行主体可以在上述距离达到预设距离阈值的情况下,确定目标对象运动,并在上述距离未达到预设距离阈值的情况下,确定目标对象静止。
本申请的上述实施例提供的方法可以利用检测框位置集合,针对目标对象全面地收集到各个视频帧中检测框的位置。并利用视频帧序列中在先视频帧和在后视频帧中分别检测到的位置,准确地确定出目标对象的状态,提高车路协同中路侧或车端感知的准确性。
在本实施例的一些可选的实现方式中,步骤203可以包括:响应于检测框位置集合中检测框的位置的数量达到目标数量,执行以下步骤:在检测框位置集合中获取目标对象分别在至少两个在先视频帧中的检测框的位置并确定平均值,得到第一位置平均值,以及将第一位置平均值作为第一目标位置;在检测框位置集合中获取目标对象分别在至少两个在后视频帧中的检测框的位置并确定平均值,得到第二位置平均值,以及将第二位置平均值作为第二目标位置;其中,在视频帧序列中,在先视频帧与在后视频帧之间间隔的视频帧的数量大于第二数量阈值。
在这些可选的实现方式中,上述的在先视频帧的数量和在后视频帧的数量均可以为至少两个。这里的至少两个在先视频帧和至少两个在后视频帧中,各个视频帧是不同的视频帧。上述执行主体可以分别确定在各个在先视频帧中检测到的检测框的位置的平均值,并将该平均值作为第一目标位置。并且,上述执行主体可以确定在各个在后视频帧中检测到的检测框的位置的平均值,并将该平均值作为第二目标位置。
上述执行主体可以仅在上述检测框位置集合中检测框的位置的数量达到目标数量的情况下,才执行该确定平均值作为第一目标位置和第二目标位置的步骤。
在实践中,上述的至少两个在先视频帧和至少两个在后视频帧之间可以相隔较多数量的视频帧。比如,至少两个在先视频帧可以是视频帧序列中包括第一帧的指定数量的视频帧,比如第一帧至第五帧。至少两个在后视频帧可以是视频帧序列中包括最后一帧的指定数量的视频帧,比如最后一帧至倒数第五帧。在本申请中至少两个在先视频帧和至少两个在后视频帧均可以是连续的视频帧。
这些可选的实现方式可以在检测框位置集合中检测框的位置的数量达到目标数量的情况下,利用至少两个在先视频帧的检测框的位置的平均值,以及至少两个在后视频帧的检测框的位置的平均值,在一定程度上消除视频中画面抖动带来的状态确定不准确的问题。并且可以利用相隔较远的在先视频帧和在后视频帧,得到更加准确的状态确定结果。
在本实施例的一些可选的实现方式中,检测框位置集合为由检测框的位置组成的队列,队列中的检测框的位置的数量不超过预设数量,队列中检测框的位置按照该检测框对应的视频帧在视频帧序列中的先后顺序排列。
在这些可选的实现方式中,这里的队列可以是各种队列,比如先入先出队列。队列中包括的检测框的位置的数量存在上限,也即预设数量,比如20。当队列中的位置的数量达到该预设数量的情况下,若对目标对象检测出了新的位置,则不仅需要将该位置存入该队列,且需要将队列中最先存入的检测框的位置(比如第一目标视频帧中目标对象的检测框的位置)从队列中移出。在视频帧序列中,视频帧按照怎样的先后顺序排列,在这些视频帧中对目标对象检测到的检测框的位置,则按照该先后顺序排列。检测框对应的视频帧指在该视频帧中检测到了该检测框,并检测到该检测框的位置。
这些可选的实现方式可以采用队列,按照视频帧的顺序准确地排列各个检测框的位置,并限制队列包括的位置的数量,以确保队列中的位置的实时性,进而提高确定目标对象的状态的准确度。
在这些实现方式的一些可选的应用场景中,视频帧序列包括第一目标视频帧和在第一目标视频帧之后的第二目标视频帧。方法还可以包括:响应于在第一目标视频帧中检测到先于第一目标视频帧的视频帧中未检测到的新对象,将新对象作为目标对象,以及建立目标对象的检测框的位置的队列;步骤202可以包括:将第一目标视频帧中目标对象的检测框的位置,存入队列;响应于在第二目标视频帧中检测到目标对象,将第二目标视频帧中目标对象的检测框的位置,存入队列。
在这些可选的应用场景中,上述执行主体若检测到新的对象,则可以建立该新对象对应的队列,该队列用于存储在各视频帧中对该新对象检测到的检测框的位置。并且上述执行主体可以将在第一目标视频帧中检测到的目标对象的位置也即检测框的位置存入上述队列,作为队列中排列在最先的检测框的位置。
上述执行主体若在第二目标视频帧中检测到目标对象,则可以继续将检测到的该目标对象的检测框的位置,存入队列。若在第一目标视频帧中检测到的检测框的位置和在第二目标视频帧中检测到的检测框的位置同时存在于队列中,则前者的排列顺序先于后者。
这些应用场景可以对各个新对象均建立队列,从而准确地记录不同对象的检测框的位置,有助于得到更加准确的目标对象的状态。
继续参见图3,图3是根据本实施例的用于处理视频帧的方法的应用场景的一个示意图。在图3的应用场景中,执行主体301对视频帧序列的各个视频帧中的一辆红色汽车A进行检测,得到各个视频帧中检测框的位置,并存入红色汽车A的检测框位置集合302。执行主体301在检测框位置集合中,获取视频帧序列中最先视频帧中的检测框的位置和最后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置303。执行主体301确定第一目标位置和第二目标位置之间的距离304。执行主体301基于距离304,确定红色汽车A的状态305,其中,状态305包括运动或静止。
进一步参考图4,其示出了用于处理视频帧的方法的又一个实施例的流程400。该流程400,可以包括以下步骤:
步骤401,对视频帧序列的各个视频帧中的目标对象进行检测,得到各个视频帧中检测框的位置。
在本实施例中,用于处理视频帧的方法运行于其上的执行主体(例如图1所示的服务器或终端设备)可以对视频帧序列中各个视频帧所包括的目标对象进行检测,从而得到检测到的检测框的位置。具体地,检测到目标对象,也即检测到目标对象的检测框的位置。这里的视频帧序列可以是每一帧都包括目标对象,也可以是部分视频帧包括目标对象。
步骤402,根据各个视频帧中检测框的位置,获得目标对象的检测框位置集合。
在本实施例中,上述执行主体可以根据将在视频帧中检测到的检测框位置,获得目标对象的检测框位置集合。具体地,上述执行主体可以采用各种方式获得上述集合。举例来说,上述执行主体可以将检测到的检测框的位置,存入目标对象的检测框位置集合,将存入后的检测框位置集合作为所获得的集合。
步骤403,在检测框位置集合中,获取视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置。
在本实施例中,上述执行主体可以在检测框位置集合中,获取在先视频帧的检测框的位置以及在后视频帧的检测框的位置。具体地,这里的在先视频帧和在后视频帧均是视频帧序列中的视频帧。在视频帧序列中,上述在先视频帧是先于在后视频帧的视频帧。在实践中,在先视频帧和在后视频帧可以是各种视频帧。
步骤404,确定第一目标位置和第二目标位置之间的距离。
在本实施例中,上述执行主体可以确定上述的第一目标位置和第二目标位置之间的距离,也即,确定两个检测框的位置之间的距离。
步骤405,根据以下两者的商确定目标数值:距离,以及视频帧序列中指定在后视频帧中目标对象的检测框的高度,其中,指定在后视频帧与视频帧序列中最后的视频帧之间间隔的视频帧的数量小于第一数量阈值。
在本实施例中,用于处理视频帧的方法运行于其上的执行主体(例如图1所示的服务器或终端设备)可以根据两者的商确定目标数值。这里的两者分别是上述第一目标位置和第二目标位置之间的距离,以及视频帧序列中指定在后视频帧中目标对象的检测框的高度。这里的指定在后视频帧可以是上述第二目标位置对应的在后视频帧,也可以是该在后视频帧的其中一个,还可以是该在后视频帧以外的、非视频帧序列中第一帧的其它视频帧。在实践中,上述指定在后视频帧与视频帧序列中最后的视频帧之间间隔的视频帧的数量可以小于第一数量阈值,比如间隔的数量可以是0,也即指定在后视频帧可以是视频帧序列中最后的视频帧。
在实践中,上述执行主体可以采用各种方式根据以下两者的商确定目标数值,比如直接确定两者的商作为目标数值。此外,上述执行主体还可以对两者的商进行预设处理,比如输入预设模型或者利用预设算法进行处理,并将处理结果作为目标数值。
步骤406,基于目标数值与预设数值阈值,确定目标对象的状态。
在本实施例中,上述执行主体可以采用各种方式基于目标数值和预设数值阈值,确定目标对象的状态。比如,上述执行主体可以直接比较目标数值与预设数值阈值的大小关系,并做出以下判断:在目标数值不小于预设数值阈值的情况下,确定目标对象的状态为运动,并在目标数值小于预设数值阈值的情况下,确定目标对象的状态为静止。此外,上述执行主体还可以首先对目标数值进行更新,比如将目标数值输入预设模型或者乘以预设系数以进行更新,并比较目标数值的更新结果与预设数值阈值的大小关系,并利用上述根据目标数值与预设数值阈值做出判断的方式,确定目标对象的状态。
本实施例可以通过确定距离以及较新的视频帧中检测框高度的商,去除视频帧中对象近大远小对确定状态的影响,以使确定的目标对象的状态更加准确。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于处理视频帧的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图2所示的方法实施例相同或相应的特征或效果。该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于处理视频帧的装置500包括:检测单元501、集合获得单元502、获取单元503、距离确定单元504和状态确定单元505。其中,检测单元501,被配置成将对视频帧序列的各个视频帧中的目标对象进行检测,得到各个视频帧中检测框的位置;集合获得单元502,被配置成根据各个视频帧中检测框的位置,获得目标对象的检测框位置集合;获取单元503,被配置成在检测框位置集合中,获取视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置;距离确定单元504,被配置成确定第一目标位置和第二目标位置之间的距离;状态确定单元505,被配置成基于距离,确定目标对象的状态,其中,状态包括运动或静止。
在本实施例中,用于处理视频帧的装置500的检测单元501、集合获得单元502、获取单元503、距离确定单元504和状态确定单元505的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203、步骤204和步骤205的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,状态确定单元,进一步被配置成按照如下方式执行基于距离,确定目标对象的状态:根据以下两者的商确定目标数值:距离,以及视频帧序列中指定在后视频帧中目标对象的检测框的高度,其中,指定在后视频帧与视频帧序列中最后的视频帧之间间隔的视频帧的数量小于第一数量阈值;基于目标数值与预设数值阈值,确定目标对象的状态。
在本实施例的一些可选的实现方式中,获取单元,进一步被配置成按照如下方式执行在检测框位置集合中,获取视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置:响应于检测框位置集合中检测框的位置的数量达到目标数量,执行以下步骤:在检测框位置集合中获取目标对象分别在至少两个在先视频帧中的检测框的位置并确定平均值,得到第一位置平均值,以及将第一位置平均值作为第一目标位置;在检测框位置集合中获取目标对象分别在至少两个在后视频帧中的检测框的位置并确定平均值,得到第二位置平均值,以及将第二位置平均值作为第二目标位置;其中,在视频帧序列中,在先视频帧与在后视频帧之间间隔的视频帧的数量大于第二数量阈值。
在本实施例的一些可选的实现方式中,检测框位置集合为由检测框的位置组成的队列,队列中的检测框的位置的数量不超过预设数量,队列中检测框的位置按照该检测框对应的视频帧在视频帧序列中的先后顺序排列。
在本实施例的一些可选的实现方式中,视频帧序列包括第一目标视频帧和在第一目标视频帧之后的第二目标视频帧;装置还包括:建立单元,被配置成响应于在第一目标视频帧中检测到先于第一目标视频帧的视频帧中未检测到的新对象,将新对象作为目标对象,以及建立目标对象的检测框的位置的队列;以及集合获得单元,进一步被配置成按照如下方式执行根据各个视频帧中检测框的位置,获得目标对象的检测框位置集合:将第一目标视频帧中目标对象的检测框的位置,存入队列;响应于在第二目标视频帧中检测到目标对象,将第二目标视频帧中目标对象的检测框的位置,存入队列。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的用于处理视频帧的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器***)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的用于处理视频帧的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的用于处理视频帧的方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的用于处理视频帧的方法对应的程序指令/模块(例如,附图5所示的检测单元501、集合获得单元502、获取单元503、距离确定单元504和状态确定单元505)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的用于处理视频帧的方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据用于处理视频帧的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至用于处理视频帧的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
用于处理视频帧的方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与用于处理视频帧的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括检测单元、集合获得单元、获取单元、距离确定单元和状态确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,状态确定单元还可以被描述为“基于距离,确定目标对象的状态的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:对视频帧序列的各个视频帧中的目标对象进行检测,得到各个视频帧中检测框的位置;根据各个视频帧中检测框的位置,获得目标对象的检测框位置集合;在检测框位置集合中,获取视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置;确定第一目标位置和第二目标位置之间的距离;基于距离,确定目标对象的状态,其中,状态包括运动或静止。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (12)
1.一种用于处理视频帧的方法,所述方法包括:
对视频帧序列的各个视频帧中的目标对象进行检测,得到所述各个视频帧中检测框的位置;
根据所述各个视频帧中检测框的位置,获得所述目标对象的检测框位置集合;
在所述检测框位置集合中,获取所述视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置;
确定所述第一目标位置和所述第二目标位置之间的距离;
基于所述距离,确定所述目标对象的状态,其中,所述状态包括运动或静止。
2.根据权利要求1所述的方法,其中,所述基于所述距离,确定所述目标对象的状态,包括:
根据以下两者的商确定目标数值:所述距离,以及所述视频帧序列中指定在后视频帧中所述目标对象的检测框的高度,其中,所述指定在后视频帧与所述视频帧序列中最后的视频帧之间间隔的视频帧的数量小于第一数量阈值;
基于所述目标数值与预设数值阈值,确定所述目标对象的状态。
3.根据权利要求1所述的方法,其中,所述在所述检测框位置集合中,获取所述视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置,包括:
响应于所述检测框位置集合中检测框的位置的数量达到目标数量,执行以下步骤:
在所述检测框位置集合中获取所述目标对象分别在至少两个在先视频帧中的检测框的位置并确定平均值,得到第一位置平均值,以及将所述第一位置平均值作为第一目标位置;
在所述检测框位置集合中获取所述目标对象分别在至少两个在后视频帧中的检测框的位置并确定平均值,得到第二位置平均值,以及将所述第二位置平均值作为第二目标位置;
其中,在所述视频帧序列中,所述在先视频帧与所述在后视频帧之间间隔的视频帧的数量大于第二数量阈值。
4.根据权利要求1-3之一所述的方法,其中,所述检测框位置集合为由检测框的位置组成的队列,所述队列中的检测框的位置的数量不超过预设数量,所述队列中检测框的位置按照该检测框对应的视频帧在所述视频帧序列中的先后顺序排列。
5.根据权利要求4所述的方法,其中,所述视频帧序列包括第一目标视频帧和在所述第一目标视频帧之后的第二目标视频帧;
所述方法还包括:
响应于在所述第一目标视频帧中检测到先于所述第一目标视频帧的视频帧中未检测到的新对象,将所述新对象作为目标对象,以及建立所述目标对象的检测框的位置的队列;以及
所述根据所述各个视频帧中检测框的位置,获得所述目标对象的检测框位置集合,包括:
将所述第一目标视频帧中所述目标对象的检测框的位置,存入所述队列;
响应于在所述第二目标视频帧中检测到所述目标对象,将所述第二目标视频帧中所述目标对象的检测框的位置,存入所述队列。
6.一种用于处理视频帧的装置,所述装置包括:
检测单元,被配置成将对视频帧序列的各个视频帧中的目标对象进行检测,得到所述各个视频帧中检测框的位置;
集合获得单元,被配置成根据所述各个视频帧中检测框的位置,获得所述目标对象的检测框位置集合;
获取单元,被配置成在所述检测框位置集合中,获取所述视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置;
距离确定单元,被配置成确定所述第一目标位置和所述第二目标位置之间的距离;
状态确定单元,被配置成基于所述距离,确定所述目标对象的状态,其中,所述状态包括运动或静止。
7.根据权利要求6所述的装置,其中,所述状态确定单元,进一步被配置成按照如下方式执行所述基于所述距离,确定所述目标对象的状态:
根据以下两者的商确定目标数值:所述距离,以及所述视频帧序列中指定在后视频帧中所述目标对象的检测框的高度,其中,所述指定在后视频帧与所述视频帧序列中最后的视频帧之间间隔的视频帧的数量小于第一数量阈值;
基于所述目标数值与预设数值阈值,确定所述目标对象的状态。
8.根据权利要求6所述的装置,其中,所述获取单元,进一步被配置成按照如下方式执行所述在所述检测框位置集合中,获取所述视频帧序列中在先视频帧中的检测框的位置和在后视频帧中的检测框的位置,分别作为第一目标位置和第二目标位置:
响应于所述检测框位置集合中检测框的位置的数量达到目标数量,执行以下步骤:
在所述检测框位置集合中获取所述目标对象分别在至少两个在先视频帧中的检测框的位置并确定平均值,得到第一位置平均值,以及将所述第一位置平均值作为第一目标位置;
在所述检测框位置集合中获取所述目标对象分别在至少两个在后视频帧中的检测框的位置并确定平均值,得到第二位置平均值,以及将所述第二位置平均值作为第二目标位置;
其中,在所述视频帧序列中,所述在先视频帧与所述在后视频帧之间间隔的视频帧的数量大于第二数量阈值。
9.根据权利要求6-8之一所述的装置,其中,所述检测框位置集合为由检测框的位置组成的队列,所述队列中的检测框的位置的数量不超过预设数量,所述队列中检测框的位置按照该检测框对应的视频帧在所述视频帧序列中的先后顺序排列。
10.根据权利要求9所述的装置,其中,所述视频帧序列包括第一目标视频帧和在所述第一目标视频帧之后的第二目标视频帧;
所述装置还包括:
建立单元,被配置成响应于在所述第一目标视频帧中检测到先于所述第一目标视频帧的视频帧中未检测到的新对象,将所述新对象作为目标对象,以及建立所述目标对象的检测框的位置的队列;以及
所述集合获得单元,进一步被配置成按照如下方式执行所述根据所述各个视频帧中检测框的位置,获得所述目标对象的检测框位置集合:
将所述第一目标视频帧中所述目标对象的检测框的位置,存入所述队列;
响应于在所述第二目标视频帧中检测到所述目标对象,将所述第二目标视频帧中所述目标对象的检测框的位置,存入所述队列。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010472966.0A CN111601013B (zh) | 2020-05-29 | 2020-05-29 | 用于处理视频帧的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010472966.0A CN111601013B (zh) | 2020-05-29 | 2020-05-29 | 用于处理视频帧的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111601013A true CN111601013A (zh) | 2020-08-28 |
CN111601013B CN111601013B (zh) | 2023-03-31 |
Family
ID=72189627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010472966.0A Active CN111601013B (zh) | 2020-05-29 | 2020-05-29 | 用于处理视频帧的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111601013B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560726A (zh) * | 2020-12-22 | 2021-03-26 | 北京百度网讯科技有限公司 | 目标检测置信度确定方法、路侧设备及云控平台 |
WO2022213857A1 (zh) * | 2021-04-09 | 2022-10-13 | 京东科技控股股份有限公司 | 动作识别方法和装置 |
WO2023169282A1 (zh) * | 2022-03-08 | 2023-09-14 | 影石创新科技股份有限公司 | 确定交互手势的方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150085114A1 (en) * | 2012-05-15 | 2015-03-26 | Obshestvo S Ogranichennoy Otvetstvennostyu Sinezis | Method for Displaying Video Data on a Personal Device |
US20170278544A1 (en) * | 2016-03-22 | 2017-09-28 | Nec Laboratories America, Inc. | Efficient video annotation with optical flow based estimation and suggestion |
CN108596949A (zh) * | 2018-03-23 | 2018-09-28 | 云南大学 | 视频目标跟踪状态分析方法、装置和实现装置 |
CN111010590A (zh) * | 2018-10-08 | 2020-04-14 | 传线网络科技(上海)有限公司 | 一种视频裁剪方法及装置 |
-
2020
- 2020-05-29 CN CN202010472966.0A patent/CN111601013B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150085114A1 (en) * | 2012-05-15 | 2015-03-26 | Obshestvo S Ogranichennoy Otvetstvennostyu Sinezis | Method for Displaying Video Data on a Personal Device |
US20170278544A1 (en) * | 2016-03-22 | 2017-09-28 | Nec Laboratories America, Inc. | Efficient video annotation with optical flow based estimation and suggestion |
CN108596949A (zh) * | 2018-03-23 | 2018-09-28 | 云南大学 | 视频目标跟踪状态分析方法、装置和实现装置 |
CN111010590A (zh) * | 2018-10-08 | 2020-04-14 | 传线网络科技(上海)有限公司 | 一种视频裁剪方法及装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560726A (zh) * | 2020-12-22 | 2021-03-26 | 北京百度网讯科技有限公司 | 目标检测置信度确定方法、路侧设备及云控平台 |
CN112560726B (zh) * | 2020-12-22 | 2023-08-29 | 阿波罗智联(北京)科技有限公司 | 目标检测置信度确定方法、路侧设备及云控平台 |
WO2022213857A1 (zh) * | 2021-04-09 | 2022-10-13 | 京东科技控股股份有限公司 | 动作识别方法和装置 |
WO2023169282A1 (zh) * | 2022-03-08 | 2023-09-14 | 影石创新科技股份有限公司 | 确定交互手势的方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111601013B (zh) | 2023-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111601013B (zh) | 用于处理视频帧的方法和装置 | |
CN111722245B (zh) | 定位方法、定位装置和电子设备 | |
CN110659600B (zh) | 物体检测方法、装置及设备 | |
US9830736B2 (en) | Segmenting objects in multimedia data | |
US9373174B2 (en) | Cloud based video detection and tracking system | |
EP3826309A2 (en) | Method and apparatus for processing video | |
CN110675635B (zh) | 相机外参的获取方法、装置、电子设备及存储介质 | |
CN111553282A (zh) | 用于检测车辆的方法和装置 | |
CN111524166A (zh) | 视频帧的处理方法和装置 | |
US20220036731A1 (en) | Method for detecting vehicle lane change, roadside device, and cloud control platform | |
CN111767853A (zh) | 车道线检测方法和装置 | |
US10861169B2 (en) | Method, storage medium and electronic device for generating environment model | |
CN111563541B (zh) | 图像检测模型的训练方法和装置 | |
CN112184837A (zh) | 一种图像检测方法、装置、电子设备及存储介质 | |
CN111524165A (zh) | 目标跟踪方法和装置 | |
CN111191619A (zh) | 车道线虚线段的检测方法、装置、设备和可读存储介质 | |
CN111507924A (zh) | 视频帧的处理方法和装置 | |
CN110798681B (zh) | 成像设备的监测方法、装置和计算机设备 | |
CN112561059A (zh) | 用于模型蒸馏的方法和装置 | |
CN111696134A (zh) | 一种目标检测方法、装置以及电子设备 | |
CN112270303A (zh) | 图像识别方法、装置以及电子设备 | |
CN111401248A (zh) | 一种天空区域的识别方法、装置、电子设备及存储介质 | |
JPWO2018179119A1 (ja) | 映像解析装置、映像解析方法およびプログラム | |
CN109145681B (zh) | 用于判断目标旋转方向的方法及装置 | |
CN111814634B (zh) | 一种实时距离确定方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211011 Address after: 100176 101, floor 1, building 1, yard 7, Ruihe West 2nd Road, Beijing Economic and Technological Development Zone, Daxing District, Beijing Applicant after: Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. Address before: 2 / F, *** building, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |