CN112084886B - 提升检测神经网络目标检测性能的方法及装置 - Google Patents

提升检测神经网络目标检测性能的方法及装置 Download PDF

Info

Publication number
CN112084886B
CN112084886B CN202010835666.4A CN202010835666A CN112084886B CN 112084886 B CN112084886 B CN 112084886B CN 202010835666 A CN202010835666 A CN 202010835666A CN 112084886 B CN112084886 B CN 112084886B
Authority
CN
China
Prior art keywords
detection
sliding window
sub
map
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010835666.4A
Other languages
English (en)
Other versions
CN112084886A (zh
Inventor
韦虎
涂治国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mouxin Technology Shanghai Co ltd
Original Assignee
Mouxin Technology Shanghai Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mouxin Technology Shanghai Co ltd filed Critical Mouxin Technology Shanghai Co ltd
Priority to CN202010835666.4A priority Critical patent/CN112084886B/zh
Publication of CN112084886A publication Critical patent/CN112084886A/zh
Application granted granted Critical
Publication of CN112084886B publication Critical patent/CN112084886B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了提升检测神经网络目标检测性能的方法及装置,涉及数字图像处理技术领域。所述方法包括步骤:根据目标检测神经网络算法的输入尺寸和原始输入图像尺寸确定扫描用的多个矩形滑动窗的尺寸;每帧检测时,将各矩形滑动窗中的滑动窗子图按预设角度旋转并进行缩放处理以生成滑动窗旋转映射子图,将原始输入图像进行缩放处理以生成全图映射子图;将全图映射子图和各滑动窗旋转映射子图组合拼接形成检测输入图像;通过对应输入尺度的目标检测神经网络算法对前述检测输入图像进行检测。本发明降低了监控边缘计算设备上目标检测算法的算力和带宽需求,优化了目标检测距离和检测准确率。

Description

提升检测神经网络目标检测性能的方法及装置
技术领域
本发明涉及数字图像处理技术领域,尤其涉及一种提升检测神经网络目标检测性能的方法及装置。
背景技术
随着人工智能和深度学习技术的快速发展,在监控领域,基于卷积神经网络(CNN)算法的目标检测方法得到了广泛应用,常用的目标检测流程是从左到右、从上到下滑动窗口,利用分类识别目标。为了在不同观察距离处检测不同的目标类型,我们可以使用不同大小和宽高比的窗口(滑动窗)。目标检测算法中,常用的比如RCNN、Fast RCNN和Faster RCNN等是基于候选区域和深度学习分类的方法,从RCNN到Fast RCNN,再到Faster RCNN,不断刷新mAP(mean Average Precision);而YOLO、SSD、DenseBox等方法是基于深度学习的回归方法,将性能提高到一个非常高的帧率。在监控的边缘计算应用场景,如IPC、NVR、DVR等设备上,当前设备的算力和带宽都非常有限。为了满足实时目标检测的帧率要求,在这些设备上往往采用了算力要求较低的SSD、YOLO、MobileNet_SSD、MTCNN、DensNet等神经网络算法。然而,即使是这些相对低复杂度的算法,在常用的视频图像分辨率下(如1080P),其实时检测算力和带宽的要求仍然超过了当前大部分硬件的能力。
一方面,为了解决算力和带宽不足的技术问题,现有技术中提供了以下几种方法:第一种方法,也是最常见的方法,是对算法采用的神经网络进行简化(剪枝和低比特量化)。然而,由于剪枝和低比特量化后的神经网络其目标检测的准确率往往有显著下降,漏检误检率明显上升,并且低比特量化还受限于硬件对量化比特(bit)的支持程度。第二种方法,是降低目标检测的实际帧率,只检测关键帧,在非关键帧则采用低复杂度的目标跟踪算法来弥补检测帧率不够的问题。但是,这种方法碰到物体运动较快时,可能会碰到漏检和跟踪出错的问题。第三种方法,是牺牲算法的检测距离。比如删去SSD等网络的最后的小尺度特征卷积层,这样算力和带宽需求能减小,但会降低能检出目标的最大尺度,使得贴近摄像头的人脸或人形就无法检出。第四种方法,是对输入图像进行缩小,采用小输入尺寸的神经网络算法。但这样会导致输入图像的分辨率下降,限制了能检出目标的最小尺度,使得远处的人脸和人形等因为像素过少而无法检出。
另一方面,为了检测不同距离的目标,现有技术中常用的方法是:对原始输入图像进行多尺度缩放,生成多尺度金字塔图像组,然后对不同尺度的输入图分别检测。检测近处大尺寸目标时,在缩小的图像上检测;检测远处目标时,在高分辨率的大尺寸图像上检测。然而,上述方法设计复杂,需要为每级图像尺度设计训练神经网络,对设备的算力和带宽提出了较高需求。
再一方面,为提升目标检测率,现有的目标监测神经网络所采用的训练的目标通常会包括多种姿态或视角,以人作为检测目标为例,比如包括站立和坐姿的人形、倾斜和转动的人脸等。然而,在少数特殊的监控场合,会出现90度、180度或270度旋转的非正常态目标,比如游泳池场景有横立(趴着或躺着)的人体,健身房场景有倒立的人体(人脸)等,现有的目标检测算法对上述目标的漏检率较高。这是因为训练的目标大都是正立着的,导致训练出来的检测算法对横立(包括躺着和趴着)、倒立的目标的检测性能不甚理想。为解决上述问题,现有技术中的常规做法是对监控输入图像做90度、180度和270度旋转后再重新检测,以此来提升这些目标的检测率,但是采用上述方案后需要处理的数据量会比原来提高4倍以上,对设备的算力和带宽提出了更高需求。
综上所述,已有的低复杂度优化方法,无法在检测准确率、帧率、最远和最近检测距离等方面实现面面俱到。而实际的监控应用场景复杂,监控设备既需要满足较高的目标检测准确率,又需要足够的帧率以检测快速经过的目标,还需要对近处的大尺度目标和远处的小尺度目标都能被检测到(在目标贴近摄像头或在远处经过时都能被检测到),尤其对于非正常态目标的检测。如何降低监控边缘计算设备上目标检测算法的算力和带宽需求、提升目标检测率、优化目标检测距离是当前亟需解决的技术问题。
发明内容
本发明的目的在于:克服现有技术的不足,提供了一种提升检测神经网络目标检测性能的方法及装置。本发明利用监控视频图像中检测目标在远处和近处的运动向量大小不同的特点,将远处小目标低帧率检测和近处目标高帧率检测相结合,并根据检测目标特征调整检测输入图像角度,同时利用拼接图像适配固定输入尺度的检测神经网络的特点,降低了监控边缘计算设备上目标检测算法的算力和带宽需求,优化了目标检测距离和检测准确率。
为实现上述目标,本发明提供了如下技术方案:
一种提升检测神经网络目标检测性能的方法,包括步骤:
根据目标检测神经网络算法的输入尺寸和原始输入图像尺寸确定扫描用的多个矩形滑动窗的尺寸,所述矩形滑动窗能够按照预设的扫描规则按帧在原始输入图像上移动到不同的位置;
每帧检测时,获取各矩形滑动窗中的滑动窗子图,将滑动窗子图按预设角度旋转并进行缩放处理以生成滑动窗旋转映射子图,将原始输入图像进行缩放处理以生成全图映射子图,所述全图映射子图的分辨率低于滑动窗旋转映射子图的分辨率;
将所述全图映射子图和各矩形滑动窗对应的滑动窗旋转映射子图组合拼接成矩形输入图像并作为检测输入图像;
通过对应输入尺度的目标检测神经网络算法对前述检测输入图像进行检测。
进一步,还包括步骤:将各子图的检测结果合并映射到原始输入图像上。
进一步,检测目标为横立或倒立的目标时,将所述滑动窗子图分别按90度或180度或270度的角度旋转;所述矩形滑动窗的长宽比与前述检测目标的尺寸适配。
进一步,根据目标检测神经网络算法的输入尺寸和原始输入图像尺寸确定扫描用的多个矩形滑动窗的尺寸的步骤为:
步骤110,根据当前设备算力确定所采用的目标检测神经网络算法的输入尺寸,以及对应输入尺寸下算法能检测到目标的最小检测尺寸和最大检测尺寸;
步骤120,按照前述输入尺寸,将检测神经网络算法输入矩形分割成多个矩形子图区,每个矩形子图区大于等于算法能检测的最小检测尺寸;所述矩形子图区包括全图映射子图区和滑动窗映射子图区,所述全图映射子图区的长宽比与原始输入图像的长宽比相同用于显示全图映射子图,所述滑动窗映射子图区用于显示对应的滑动窗旋转映射子图;
其中,各矩形子图区的分割步骤如下,
步骤121,在检测神经网络算法输入矩形上确定所述全图映射子图区的大小:根据最近检测距离L0的目标在原始输入图像上的大小,选择一个初始缩放比例,使得所述原始输入图像上的最近目标缩放后小于等于算法能检测的最大检测尺寸,以便在全图映射子图区上检测到最近距离目标,同时给各滑动窗映射子图区留下足够空间,所述原始输入图像到全图映射子图区的缩放比例确定后,也确定了全图映射子图区上能检测到的最远检测距离L1;
步骤122,在剩下的空间上,选择一个矩形大小区域作为一个滑动窗映射子图区,使得所述原始输入图像上距离L1的目标按预设角度旋转并缩小后能够落在所述滑动窗映射子图区内,并且能够被检测算法检测到;调整缩放比例,使得原始输入图像上最远检测距离L2的目标能被检测到;
步骤123,重复步骤122以确定其他滑动窗映射子图区的大小,将最远检测距离逐步扩大,直到没有合适的空间用来设置为滑动窗映射子图区;
步骤124,重复执行步骤121至步骤123以调整各矩形子图区大小和对应的缩放比例,使得检测距离最远。
进一步,步骤122中,原始输入图像上最远检测距离L2的目标在原始图像上停留所用时间长于滑动窗的一轮扫描时间。
进一步,所述多个矩形滑动窗的大小和/或长宽比不同;
所述预设的扫描规则为从左往右从上往下顺序匀速扫描全图,或者按照随机移动规则扫描全图,或者按照用户制定的顺序扫描全图。
进一步,获取各滑动窗子图的检测结果,根据前述检测结果自适应调整矩形滑动窗扫描时的移动速度和/或停留时间。
本发明还提供了一种提升检测神经网络目标检测性能的装置,包括如下结构:
滑动窗设置模块,用于根据目标检测神经网络算法的输入尺寸和原始输入图像尺寸确定扫描用的多个矩形滑动窗的尺寸,所述矩形滑动窗能够按照预设的扫描规则按帧在原始输入图像上移动到不同的位置;
图像预处理模块,与滑动窗设置模块连接,用于每帧检测时,获取各矩形滑动窗中的滑动窗子图,将滑动窗子图按预设角度旋转并进行缩放处理以生成滑动窗旋转映射子图,将原始输入图像进行缩放处理以生成全图映射子图,所述全图映射子图的分辨率低于滑动窗旋转映射子图的分辨率;以及,将所述全图映射子图和各矩形滑动窗对应的滑动窗旋转映射子图组合拼接成矩形输入图像并作为检测输入图像;
目标检测模块,与滑动窗设置模块和图像预处理模块连接,用于采用对应输入尺度的目标检测神经网络算法对前述检测输入图像进行检测。
进一步,还包括结果显示模块,用于将各子图的检测结果合并映射到原始输入图像上显示输出。
进一步,所述滑动窗设置模块包括输入尺寸确定单元和矩形子图区分割单元;
所述输入尺寸确定单元被配置为:根据当前设备算力确定所采用的目标检测神经网络算法的输入尺寸,以及对应输入尺寸下算法能检测到目标的最小检测尺寸和最大检测尺寸;
所述矩形子图区分割单元被配置为:按照前述输入尺寸,将检测神经网络算法输入矩形分割成多个矩形子图区,每个矩形子图区大于等于算法能检测的最小检测尺寸;所述矩形子图区包括全图映射子图区和滑动窗映射子图区,所述全图映射子图区的长宽比与原始输入图像的长宽比相同用于显示全图映射子图,所述滑动窗映射子图区用于显示对应的滑动窗旋转映射子图;
其中,各矩形子图区的分割步骤如下,
步骤121,在检测神经网络算法输入矩形上确定所述全图映射子图区的大小:根据最近检测距离L0的目标在原始输入图像上的大小,选择一个初始缩放比例,使得所述原始输入图像上的最近目标缩放后小于等于算法能检测的最大检测尺寸,以便在全图映射子图区上检测到最近距离目标,同时给各滑动窗映射子图区留下足够空间,所述原始输入图像到全图映射子图区的缩放比例确定后,也确定了全图映射子图区上能检测到的最远检测距离L1;
步骤122,在剩下的空间上,选择一个矩形大小区域作为一个滑动窗映射子图区,使得所述原始输入图像上距离L1的目标按预设角度旋转并缩小后能够落在所述滑动窗映射子图区内,并且能够被检测算法检测到;调整缩放比例,使得原始输入图像上最远检测距离L2的目标能被检测到;
步骤123,重复步骤122以确定其他滑动窗映射子图区的大小,将最远检测距离逐步扩大,直到没有合适的空间用来设置为滑动窗映射子图区;
步骤124,重复执行步骤121至步骤123以调整各矩形子图区大小和对应的缩放比例,使得检测距离最远。
本发明由于采用以上技术方案,与现有技术相比,作为举例,具有以下的优点和积极效果:用监控视频图像中检测目标在远处和近处的运动向量大小不同的特点,将远处小目标低帧率检测和近处目标高帧率检测相结合,并可以根据检测目标特征调整检测输入图像角度,同时利用拼接图像适配固定输入尺度的检测神经网络的特点,降低了监控边缘计算设备上目标检测算法的算力和带宽需求,优化了目标检测距离和检测准确率。本发明尤其适用于提升多方向(比如倒立、横立)目标检测或不同景深模糊程度下的目标检测性能。
相比于现有的多尺度目标检测方法,一方面,多尺度目标检测方法往往需要检测从高到低多级分辨率的输入图,计算所需的算力和带宽都较大,而本发明可以仅采用于小输入尺寸目标检测算法而达到近似的检测距离,尤其适合于算力和带宽受限制的监控边缘计算应用场景。另一方面,常用的基于神经网络的多尺度检测方法需要为每个输入尺度设计相应的网络,设计和训练网络的复杂度更大,而本发明可仅采用固定的输入尺度,显著简化了神经网络训练和设计复杂度;再一方面,当原始输入图像和神经网络输入尺寸长宽比不一致时,现有的添加黑边的方法会浪费算力和带宽,而本发明提出的方法可以充分利用硬件性能,在提升目标检测设备的检测能力的同时提高了设备算力的利用效率。
附图说明
图1为本发明提供的目标在输入图像上的尺寸与距离的关系示例图。
图2为现有技术提供的对检测算法输入图像补黑边的示例图。
图3为本发明实施例提供的提升检测神经网络目标检测性能的方法的流程图。
图4为本发明实施例提供的生成滑动窗旋转映射子图的旋转处理示例图。
图5为本发明实施例提供的拼接生成检测输入图像的操作示例图。
附图标记说明:
大尺寸人脸10,中等尺寸人脸20,小尺寸人脸30;
原始输入图像100,检测输入图像200,黑边300。
具体实施方式
以下结合附图和具体实施例对本发明公开的提升检测神经网络目标检测性能的方法及装置作进一步详细说明。应当注意的是,下述实施例中描述的技术特征或者技术特征的组合不应当被认为是孤立的,它们可以被相互组合从而达到更好的技术效果。在下述实施例的附图中,各附图所出现的相同标号代表相同的特征或者部件,可应用于不同实施例中。因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
需说明的是,本说明书所附图中所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定发明可实施的限定条件,任何结构的修饰、比例关系的改变或大小的调整,在不影响发明所能产生的功效及所能达成的目的下,均应落在发明所揭示的技术内容所能涵盖的范围内。本发明的优选实施方式的范围包括另外的实现,其中可以不按所述的或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
实施例
参见图1所示,在监控视频中,处于近处的检测目标尺寸较大,在视频中其运动向量也相对较大,目标在画面上移动速度较快,需要较高的检测帧率才能避免漏检;而远处的检测目标在图像中尺寸相对较小,其运动向量也相对较小,在画面上移动速度较慢,可以采用较低的检测帧率进行检测。
所述检测目标,作为举例而非限制,可以是人脸、人形、车型等。图1中示例了采用人脸作为检测目标的方式,在监控输入图像中显示有3个检测目标,分别为距离为L0的大尺寸人脸10,距离为L1的中等尺寸人脸20和距离为L2的小尺寸人脸30,三者距离摄像头的距离依次增大。
另一方面,基于神经网络的检测算法,其参数、网络结构常常对应指定的输入尺寸,检测输入图像尺寸不能随意调整,每改变一次输入尺寸都可能需要重新进行网络设计和训练。而大多数情况下,原始输入图像和检测输入尺寸并不匹配,如果强行改变图像的长宽比进行缩放可能会降低目标检测的准确率,因此这时候往往需要将原始输入图像扩展黑边生成检测输入图(也可称为检测算法输入图),以适配检测网络的输入长宽比尺寸要求,参见图2所示,图2中原始输入图像100的尺寸为1920*1080(长*宽),检测输入图像200的尺寸为320*240(长*宽),所述检测输入图像200的下方为黑边300。这些黑边区图像参与计算实际浪费了算力和带宽,如果将黑边区用图像内容替代,可以充分利用算力提高检测性能。
基于以上原理,本发明提供了一种提升检测神经网络目标检测性能的方法。参见图3所示,所述方法包括如下步骤:
S100,根据目标检测神经网络算法的输入尺寸和原始输入图像尺寸确定扫描用的多个矩形滑动窗的尺寸,所述矩形滑动窗能够按照预设的扫描规则按帧在原始输入图像上移动到不同的位置。
S200,每帧检测时,获取各矩形滑动窗中的滑动窗子图,将滑动窗子图按预设角度旋转并进行缩放处理以生成滑动窗旋转映射子图,将原始输入图像进行缩放处理以生成全图映射子图,所述全图映射子图的分辨率低于滑动窗旋转映射子图的分辨率。
所述预设角度,可以是用户根据目标检测需要设置的特定角度,比如用户在对泳池监控视频进行人脸检测时,将需要旋转的预设角度设置为90度以提高人脸检测率;也可以是***自动设置的角度,作为举例,比如检测***可以根据前一次目标检测中用户使用的旋转角度来设置当前目标检测中需要旋转的预设角度。
S300,将所述全图映射子图和各矩形滑动窗对应的滑动窗旋转映射子图组合拼接成矩形输入图像并作为检测输入图像。
S400,通过对应输入尺度的目标检测神经网络算法对前述检测输入图像进行检测。
所述S400之后还可以包括步骤:将全图映射子图和滑动窗旋转映射子图的检测结果合并映射到原始输入图像上显示输出。
优选的,当检测目标为横立或倒立的目标时,将所述滑动窗子图分别按90度或180度或270度的角度旋转;所述矩形滑动窗的长宽比与前述检测目标的尺寸适配。由于这些横立或倒立的目标在视频中一般不移动或移动较慢,适用于较低的检测帧率来检测。如此,可以在较低的算力下,增加对近似横立和倒立的目标的检测率。
本发明提供的上述技术方案,通过预先设定多种不同大小或长宽比的矩形滑动窗,所述矩形滑动窗能够按照设定的规则按帧在原始输入图像上移动到不同的位置。对每帧图像进行检测时,先将这些矩形滑动窗在原始图像上选中的区域(滑动窗子图)根据预设角度进行旋转——比如旋转90度或180度或270度,再进行缩放处理生成对应的滑动窗旋转映射子图,参见图4所示;然后将原始输入图像缩小成较低分辨率的全图映射子图;最后将全图映射子图和各滑动窗旋转映射子图拼接成一张尺寸小于原始输入图像的矩形输入图像后作为检测输入图像;最后,采用对应输入尺度的神经网络目标检测算法对检测输入图像进行检测,并将各子图检测结果合并映射到原始输入图上。上述技术方案使得采用较小输入尺寸的检测神经网络算法,也能实现对监控极远和极近目标的实时检测。尤其的,能够提升检测神经网络横立和倒立目标的检测率,从而提升监控边缘计算设备上目标检测功能的准确率、检测远近距离、帧率性能等要求,降低漏检和误检率。
本实施例中,优选的,根据目标检测神经网络算法的输入尺寸和原始输入图像尺寸确定扫描用的多个矩形滑动窗的尺寸的步骤为:
步骤110,根据当前设备算力确定所采用的目标检测神经网络算法的输入尺寸,以及对应输入尺寸下算法能检测到目标的最小检测尺寸和最大检测尺寸。
步骤120,按照前述输入尺寸,将检测神经网络算法输入矩形分割成多个矩形子图区,每个矩形子图区大于等于算法能检测的最小检测尺寸;所述矩形子图区包括全图映射子图区和滑动窗映射子图区,所述全图映射子图区的长宽比与原始输入图像的长宽比相同,其用于显示缩小到低分辨率的原始输入图像,即全图映射子图;所述滑动窗映射子图区用于显示对应的滑动窗旋转映射子图。
其中,各矩形子图区的分割步骤如下,
步骤121,在检测神经网络算法输入矩形上确定所述全图映射子图区的大小:根据最近检测距离L0的目标在原始输入图像上的大小,选择一个初始缩放比例,使得所述原始输入图像上的最近目标缩放后小于等于算法能检测的最大检测尺寸,以便在全图映射子图区上检测到最近距离目标,同时给各滑动窗映射子图区留下足够空间,所述原始输入图像到全图映射子图区的缩放比例确定后,也确定了全图映射子图区上能检测到的最远检测距离L1。
步骤122,在剩下的空间上,选择一个矩形大小区域作为一个滑动窗映射子图区,使得所述原始输入图像上距离L1的目标按预设角度旋转并缩小后能够落在所述滑动窗映射子图区内,并且能够被检测算法检测到;调整缩放比例,使得原始输入图像上最远检测距离L2的目标能被检测到。其中,原始输入图像上最远检测距离L2的目标在原始输入图像上停留所用时间长于滑动窗的一轮扫描时间。
步骤123,重复步骤122以确定其他滑动窗映射子图区的大小,将最远检测距离逐步扩大,直到没有合适的空间用来设置为滑动窗映射子图区。
步骤124,重复执行步骤121至步骤123以调整各矩形子图区大小和对应的缩放比例,使得检测距离最远。
本发明提出的矩形子图区分割方法,由近至远,根据原始输入图像上目标大小和距离的对应关系,以及目标在图像内停留时间与滑动窗扫描周期的制约关系,逐步确定各段距离范围内目标对应的子图大小和缩放比例。
本实施例中,所述多个矩形滑动窗的大小和/或长宽比不同。
扫描规则可以由***默认设置,也可以由用户根据需要个性化设置。优选的,所述预设的扫描规则为从左往右从上往下顺序匀速扫描全图,或者按照随机移动规则扫描全图,或者按照用户制定的顺序扫描全图。进一步,还可以获取各滑动窗子图的检测结果,根据前述检测结果自适应调整矩形滑动窗扫描时的移动速度和/或停留时间。
下面以设置2个矩形滑动窗为例,结合图4和图5详细描述本发明的实施步骤。
步骤1,根据当前设备算力确定所采用的目标检测神经网络算法的输入尺寸,以及对应输入尺寸下算法能检测到目标的最小检测尺寸和最大检测尺寸。
步骤2,按给定检测神经网络的输入尺寸,将检测网络输入矩形分割成若干矩形子图区,参见图4所示,示例了分成3个矩形子图区,每个矩形子图都应大于等于算法能检测的最小检测尺寸。其中1个子图区的长宽比保持与原始输入图像的长宽比相同,为全图映射子图区,用于显示全图映射子图;剩下的2个矩形子图称为滑动窗映射子图区,用于显示滑动窗子图旋转缩放后对应的滑动窗旋转映射子图,由滑动窗子图生成对应的滑动窗旋转映射子图的过程参见图4所示过程。
所述全图映射子图区的大小,对应原始输入图像的某一缩小比例。因此全图映射子图区的大小对应了原始输入图像上目标能被检测到的某一大小范围,也就是对应了离摄像头某段距离范围的目标。
其中,对各矩形子图区的分割步骤如下:
步骤21,先在检测算法输入矩形上确定全图映射子图区的大小。根据最近检测距离L0的目标在原始输入图像上的大小,选择一个合适的初始缩放比例,使得原始输入图像上的最近目标缩放后小于等于算法能检测的最大目标尺寸,以便在全图映射子图区上检测到最近距离目标,同时给各滑动窗映射子图区留下足够空间。原始输入图像到全图映射子图区的缩放比例确定后,同时也确定了全图映射子图区上能检测到的最远检测距离L1,即全图映射子图区上最小检测尺寸在原始输入图像上对应的目标大小。
步骤22,接着,在剩下的空间上,选择一个合适的矩形大小区域分割为一个滑动窗映射子图区,使得所述原始输入图像上距离L1的目标按预设角度旋转并缩小后,可以落在滑动窗映射子图区内,并且能够被检测算法检测到,即大于等于最小检测尺寸。按照缩放比例,这一滑动窗映射子图区对应原始输入图像上一定大小的滑动窗区域。滑动窗每帧按照设定的规则移动,在一定周期内扫描完原始输入图像全图。调整缩放比例,使得原始输入图像上最远检测距离L2的目标能被检测到,即距离L2的目标缩小后大于等于最小检测尺寸,并且距离L2的目标在原始输入图像上停留所用时间长于滑动窗的一轮扫描时间。
滑动窗移动的规则(即扫描规则),可以是从左往右从上往下顺序匀速扫描全图,也可以按照特定的顺序扫描全图,也可以是按随机移动规则扫描全图。进一步,还可以根据检测结果自适应调整滑动窗移动速度或停留时间。
步骤23,依次确定其他滑动窗映射子图区大小。重复前述步骤22,将最远检测距离逐步扩展,直到没有合适空间用来设置为滑动窗映射子图。
步骤24,调整各子图区大小和对应缩放比例,使得检测距离最远。回归步骤21至步骤23的过程,调整各子图区的大小和缩放比例,使得检测距离最远。
步骤3,每帧检测时,获取各矩形滑动窗中的滑动窗子图,将滑动窗子图按预设角度旋转后进行缩放处理以生成滑动窗旋转映射子图,并将原始输入图像进行缩放处理以生成全图映射子图。将所述全图映射子图和各矩形滑动窗对应的滑动窗旋转映射子图组合拼接成矩形输入图像并作为检测输入图像,参见图5所示。
步骤4,最后,采用对应神经网络目标检测算法对检测输入图像进行检测,并将各子图检测结果合并映射到原始输入图上。
上述方法使得原始输入图像缩小成较低分辨率的全图映射子图,采用高帧率来检测近处目标,而各滑动窗子图保持了较高分辨率,采用较低帧率来检测远处小目标。从而使得监控边缘计算设备在使用小输入尺寸的神经网络目标检测算法时,能尽可能的检测到近处和远处的目标。尤其的,可以用于由原始输入图像局部区域经旋转缩放或者其他颜色处理后生成滑动窗子图的应用场景,能够显著提升多方向(比如倒立、横立)目标检测或不同景深模糊程度下的目标检测性能。
本发明的另一实施例,还提供了一种提升检测神经网络目标检测性能的装置。
所述装置包括滑动窗设置模块,图像预处理模块和目标检测模块。
所述滑动窗设置模块,用于根据目标检测神经网络算法的输入尺寸和原始输入图像尺寸确定扫描用的多个矩形滑动窗的尺寸,所述矩形滑动窗能够按照预设的扫描规则按帧在原始输入图像上移动到不同的位置。
所述图像预处理模块,与滑动窗设置模块连接,用于每帧检测时,获取各矩形滑动窗中的滑动窗子图,将滑动窗子图按预设角度旋转并进行缩放处理以生成滑动窗旋转映射子图,将原始输入图像进行缩放处理以生成全图映射子图,所述全图映射子图的分辨率低于滑动窗旋转映射子图的分辨率;以及,将所述全图映射子图和各矩形滑动窗对应的滑动窗旋转映射子图组合拼接成矩形输入图像并作为检测输入图像。
所述目标检测模块,与滑动窗设置模块和图像预处理模块连接,用于采用对应输入尺度的目标检测神经网络算法对前述检测输入图像进行检测。
进一步,所述装置还可以包括还包括结果显示模块,用于将各子图的检测结果合并映射到原始输入图像上显示输出。
本实施例中,所述滑动窗设置模块可以包括输入尺寸确定单元和矩形子图区分割单元。
所述输入尺寸确定单元被配置为:根据当前设备算力确定所采用的目标检测神经网络算法的输入尺寸,以及对应输入尺寸下算法能检测到目标的最小检测尺寸和最大检测尺寸。
所述矩形子图区分割单元被配置为:按照前述输入尺寸,将检测神经网络算法输入矩形分割成多个矩形子图区,每个矩形子图区大于等于算法能检测的最小检测尺寸;所述矩形子图区包括全图映射子图区和滑动窗映射子图区,所述全图映射子图区的长宽比与原始输入图像的长宽比相同用于显示全图映射子图,所述滑动窗映射子图区用于显示对应的滑动窗旋转映射子图。
其中,各矩形子图区的分割步骤如下,
步骤121,在检测神经网络算法输入矩形上确定所述全图映射子图区的大小:根据最近检测距离L0的目标在原始输入图像上的大小,选择一个初始缩放比例,使得所述原始输入图像上的最近目标缩放后小于等于算法能检测的最大检测尺寸,以便在全图映射子图区上检测到最近距离目标,同时给各滑动窗映射子图区留下足够空间,所述原始输入图像到全图映射子图区的缩放比例确定后,也确定了全图映射子图区上能检测到的最远检测距离L1。
步骤122,在剩下的空间上,选择一个矩形大小区域作为一个滑动窗映射子图区,使得所述原始输入图像上距离L1的目标按预设角度旋转并缩小后能够落在所述滑动窗映射子图区内,并且能够被检测算法检测到;调整缩放比例,使得原始输入图像上最远检测距离L2的目标能被检测到。
步骤123,重复步骤122以确定其他滑动窗映射子图区的大小,将最远检测距离逐步扩大,直到没有合适的空间用来设置为滑动窗映射子图区。
步骤124,重复执行步骤121至步骤123以调整各矩形子图区大小和对应的缩放比例,使得检测距离最远。
本实施例中,所述多个矩形滑动窗的大小和/或长宽比不同。
所述预设的扫描规则可以为从左往右从上往下顺序匀速扫描全图,或者按照随机移动规则扫描全图,或者按照用户制定的顺序扫描全图。
其它技术特征参见在前实施例的描述,在此不再赘述。
在上面的描述中,本发明的公开内容并不旨在将其自身限于这些方面。而是,在本公开内容的目标保护范围内,各组件可以以任意数目选择性地且操作性地进行合并。另外,像“包括”、“囊括”以及“具有”的术语应当默认被解释为包括性的或开放性的,而不是排他性的或封闭性,除非其被明确限定为相反的含义。所有技术、科技或其他方面的术语都符合本领域技术人员所理解的含义,除非其被限定为相反的含义。在词典里找到的公共术语应当在相关技术文档的背景下不被太理想化或太不实际地解释,除非本公开内容明确将其限定成那样。本发明领域的普通技术人员根据上述揭示内容做的任何变更、修饰,均属于权利要求书的保护范围。

Claims (8)

1.一种提升检测神经网络目标检测性能的方法,其特征在于包括步骤:
根据目标检测神经网络算法的输入尺寸和原始输入图像尺寸确定扫描用的多个矩形滑动窗的尺寸,所述矩形滑动窗能够按照预设的扫描规则按帧在原始输入图像上移动到不同的位置;
每帧检测时,获取各矩形滑动窗中的滑动窗子图,将滑动窗子图按预设角度旋转并进行缩放处理以生成滑动窗旋转映射子图,将原始输入图像进行缩放处理以生成全图映射子图,所述全图映射子图的分辨率低于滑动窗旋转映射子图的分辨率;
将所述全图映射子图和各矩形滑动窗对应的滑动窗旋转映射子图组合拼接成矩形输入图像并作为检测输入图像;
通过对应输入尺度的目标检测神经网络算法对前述检测输入图像进行检测;
其中,确定扫描用的多个矩形滑动窗的尺寸的步骤为:
步骤110,根据当前设备算力确定所采用的目标检测神经网络算法的输入尺寸,以及对应输入尺寸下算法能检测到目标的最小检测尺寸和最大检测尺寸;
步骤120,按照前述输入尺寸,将检测神经网络算法输入矩形分割成多个矩形子图区,每个矩形子图区大于等于算法能检测的最小检测尺寸;所述矩形子图区包括全图映射子图区和滑动窗映射子图区,所述全图映射子图区的长宽比与原始输入图像的长宽比相同用于显示全图映射子图,所述滑动窗映射子图区用于显示对应的滑动窗旋转映射子图;
其中,各矩形子图区的分割步骤如下,
步骤121,在检测神经网络算法输入矩形上确定所述全图映射子图区的大小:根据最近检测距离L0的目标在原始输入图像上的大小,选择一个初始缩放比例,使得所述原始输入图像上的最近目标缩放后小于等于算法能检测的最大检测尺寸,以便在全图映射子图区上检测到最近距离目标,同时给各滑动窗映射子图区留下足够空间,所述原始输入图像到全图映射子图区的缩放比例确定后,也确定了全图映射子图区上能检测到的最远检测距离L1;
步骤122,在剩下的空间上,选择一个矩形大小区域作为一个滑动窗映射子图区,使得所述原始输入图像上距离L1的目标按预设角度旋转并缩小后能够落在所述滑动窗映射子图区内,并且能够被检测算法检测到;调整缩放比例,使得原始输入图像上最远检测距离L2的目标能被检测到;
步骤123,重复步骤122以确定其他滑动窗映射子图区的大小,将最远检测距离逐步扩大,直到没有合适的空间用来设置为滑动窗映射子图区;
步骤124,重复执行步骤121至步骤123以调整各矩形子图区大小和对应的缩放比例,使得检测距离最远。
2.根据权利要求1所述的方法,其特征在于还包括步骤:将各子图的检测结果合并映射到原始输入图像上。
3.根据权利要求1或2所述的方法,其特征在于:检测目标为横立或倒立的目标时,将所述滑动窗子图分别按90度或180度或270度的角度旋转;所述矩形滑动窗的长宽比与前述检测目标的尺寸适配。
4.根据权利要求1所述的方法,其特征在于:步骤122中,原始输入图像上最远检测距离L2的目标在原始图像上停留所用时间长于滑动窗的一轮扫描时间。
5.根据权利要求4所述的方法,其特征在于:所述多个矩形滑动窗的大小和/或长宽比不同;
所述预设的扫描规则为从左往右从上往下顺序匀速扫描全图,或者按照随机移动规则扫描全图,或者按照用户制定的顺序扫描全图。
6.根据权利要求5所述的方法,其特征在于:获取各滑动窗子图的检测结果,根据前述检测结果自适应调整矩形滑动窗扫描时的移动速度和/或停留时间。
7.一种提升检测神经网络目标检测性能的装置,其特征在于包括:
滑动窗设置模块,用于根据目标检测神经网络算法的输入尺寸和原始输入图像尺寸确定扫描用的多个矩形滑动窗的尺寸,所述矩形滑动窗能够按照预设的扫描规则按帧在原始输入图像上移动到不同的位置;
图像预处理模块,与滑动窗设置模块连接,用于每帧检测时,获取各矩形滑动窗中的滑动窗子图,将滑动窗子图按预设角度旋转并进行缩放处理以生成滑动窗旋转映射子图,将原始输入图像进行缩放处理以生成全图映射子图,所述全图映射子图的分辨率低于滑动窗旋转映射子图的分辨率;以及,将所述全图映射子图和各矩形滑动窗对应的滑动窗旋转映射子图组合拼接成矩形输入图像并作为检测输入图像;
目标检测模块,与滑动窗设置模块和图像预处理模块连接,用于采用对应输入尺度的目标检测神经网络算法对前述检测输入图像进行检测;
其中,所述滑动窗设置模块包括输入尺寸确定单元和矩形子图区分割单元;
所述输入尺寸确定单元被配置为:根据当前设备算力确定所采用的目标检测神经网络算法的输入尺寸,以及对应输入尺寸下算法能检测到目标的最小检测尺寸和最大检测尺寸;
所述矩形子图区分割单元被配置为:按照前述输入尺寸,将检测神经网络算法输入矩形分割成多个矩形子图区,每个矩形子图区大于等于算法能检测的最小检测尺寸;所述矩形子图区包括全图映射子图区和滑动窗映射子图区,所述全图映射子图区的长宽比与原始输入图像的长宽比相同用于显示全图映射子图,所述滑动窗映射子图区用于显示对应的滑动窗旋转映射子图;
其中,各矩形子图区的分割步骤如下,
步骤121,在检测神经网络算法输入矩形上确定所述全图映射子图区的大小:根据最近检测距离L0的目标在原始输入图像上的大小,选择一个初始缩放比例,使得所述原始输入图像上的最近目标缩放后小于等于算法能检测的最大检测尺寸,以便在全图映射子图区上检测到最近距离目标,同时给各滑动窗映射子图区留下足够空间,所述原始输入图像到全图映射子图区的缩放比例确定后,也确定了全图映射子图区上能检测到的最远检测距离L1;
步骤122,在剩下的空间上,选择一个矩形大小区域作为一个滑动窗映射子图区,使得所述原始输入图像上距离L1的目标按预设角度旋转并缩小后能够落在所述滑动窗映射子图区内,并且能够被检测算法检测到;调整缩放比例,使得原始输入图像上最远检测距离L2的目标能被检测到;
步骤123,重复步骤122以确定其他滑动窗映射子图区的大小,将最远检测距离逐步扩大,直到没有合适的空间用来设置为滑动窗映射子图区;
步骤124,重复执行步骤121至步骤123以调整各矩形子图区大小和对应的缩放比例,使得检测距离最远。
8.根据权利要求7所述的装置,其特征在于:还包括结果显示模块,用于将各子图的检测结果合并映射到原始输入图像上显示输出。
CN202010835666.4A 2020-08-18 2020-08-18 提升检测神经网络目标检测性能的方法及装置 Active CN112084886B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010835666.4A CN112084886B (zh) 2020-08-18 2020-08-18 提升检测神经网络目标检测性能的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010835666.4A CN112084886B (zh) 2020-08-18 2020-08-18 提升检测神经网络目标检测性能的方法及装置

Publications (2)

Publication Number Publication Date
CN112084886A CN112084886A (zh) 2020-12-15
CN112084886B true CN112084886B (zh) 2022-03-15

Family

ID=73727913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010835666.4A Active CN112084886B (zh) 2020-08-18 2020-08-18 提升检测神经网络目标检测性能的方法及装置

Country Status (1)

Country Link
CN (1) CN112084886B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709407B (zh) * 2020-08-18 2020-11-13 眸芯科技(上海)有限公司 监控边缘计算中提升视频目标检测性能的方法及装置
CN112613570B (zh) * 2020-12-29 2024-06-11 深圳云天励飞技术股份有限公司 一种图像检测方法、图像检测装置、设备及存储介质
TWI779626B (zh) * 2021-05-25 2022-10-01 宏碁股份有限公司 載入人工智慧模組的方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894375A (zh) * 2009-05-21 2010-11-24 富士胶片株式会社 人物跟踪方法和人物跟踪装置
CN106127204A (zh) * 2016-06-30 2016-11-16 华南理工大学 一种全卷积神经网络的多方向水表读数区域检测算法
WO2017219263A1 (zh) * 2016-06-22 2017-12-28 中国科学院自动化研究所 基于双向递归卷积神经网络的图像超分辨率增强方法
WO2018003212A1 (ja) * 2016-06-30 2018-01-04 クラリオン株式会社 物体検出装置及び物体検出方法
CN107590456A (zh) * 2017-09-06 2018-01-16 张栖瀚 一种高空视频监控中小微目标的检测方法
CN109671058A (zh) * 2018-12-05 2019-04-23 武汉精立电子技术有限公司 一种大分辨率图像的缺陷检测方法及***
CN110348312A (zh) * 2019-06-14 2019-10-18 武汉大学 一种区域视频人体动作行为实时识别方法
CN111413702A (zh) * 2020-05-13 2020-07-14 中国水产科学研究院渔业机械仪器研究所 用于宽带探鱼仪的高效目标分割方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104361589A (zh) * 2014-11-12 2015-02-18 河海大学 一种基于尺度间映射的高分辨率遥感影像分割方法
CN108229281B (zh) * 2017-04-25 2020-07-17 北京市商汤科技开发有限公司 神经网络的生成方法和人脸检测方法、装置及电子设备
CN107679250B (zh) * 2017-11-01 2020-12-01 浙江工业大学 一种基于深度自编码卷积神经网络的多任务分层图像检索方法
CN108830285B (zh) * 2018-03-14 2021-09-21 江南大学 一种基于Faster-RCNN的加强学习的目标检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894375A (zh) * 2009-05-21 2010-11-24 富士胶片株式会社 人物跟踪方法和人物跟踪装置
WO2017219263A1 (zh) * 2016-06-22 2017-12-28 中国科学院自动化研究所 基于双向递归卷积神经网络的图像超分辨率增强方法
CN106127204A (zh) * 2016-06-30 2016-11-16 华南理工大学 一种全卷积神经网络的多方向水表读数区域检测算法
WO2018003212A1 (ja) * 2016-06-30 2018-01-04 クラリオン株式会社 物体検出装置及び物体検出方法
CN107590456A (zh) * 2017-09-06 2018-01-16 张栖瀚 一种高空视频监控中小微目标的检测方法
CN109671058A (zh) * 2018-12-05 2019-04-23 武汉精立电子技术有限公司 一种大分辨率图像的缺陷检测方法及***
CN110348312A (zh) * 2019-06-14 2019-10-18 武汉大学 一种区域视频人体动作行为实时识别方法
CN111413702A (zh) * 2020-05-13 2020-07-14 中国水产科学研究院渔业机械仪器研究所 用于宽带探鱼仪的高效目标分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
X-LineNet: Detecting Aircraft in Remote Sensing Images by a pair of Intersecting Line Segments;Haoran Wei 等;《arXiv:1907.12474v3》;20191231;第1-12页 *
卷积神经网络在目标检测中的应用综述;于进勇 等;《计算机科学》;20181130;第45卷(第11A期);第17-26页 *
基于卷积神经网络的高分辨率SAR图像飞机目标检测方法;王思雨 等;《雷达学报》;20170430;第6卷(第2期);第195-203页 *
深度学习在视频目标跟踪中的应用进展与展望;管皓 等;《自动化学报》;20160630;第42卷(第6期);第834-847页 *

Also Published As

Publication number Publication date
CN112084886A (zh) 2020-12-15

Similar Documents

Publication Publication Date Title
CN111709407B (zh) 监控边缘计算中提升视频目标检测性能的方法及装置
CN112084886B (zh) 提升检测神经网络目标检测性能的方法及装置
US20220222776A1 (en) Multi-Stage Multi-Reference Bootstrapping for Video Super-Resolution
US20240078646A1 (en) Image processing method, image processing apparatus, and non-transitory storage medium
TWI709107B (zh) 影像特徵提取方法及包含其顯著物體預測方法
US10977802B2 (en) Motion assisted image segmentation
US20220417590A1 (en) Electronic device, contents searching system and searching method thereof
US20220222786A1 (en) Image processing method, smart device, and computer readable storage medium
US9615039B2 (en) Systems and methods for reducing noise in video streams
US10121229B2 (en) Self-portrait enhancement techniques
US10708525B2 (en) Systems and methods for processing low light images
EP3576017A1 (en) Method, apparatus, and device for determining pose of object in image, and storage medium
US9019426B2 (en) Method of generating image data by an image device including a plurality of lenses and apparatus for generating image data
CN112150493B (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
WO2019074601A1 (en) TRACKING OBJECTS FOR NEURONAL NETWORK SYSTEMS
WO2020253618A1 (zh) 一种视频抖动的检测方法及装置
CN111507333B (zh) 一种图像矫正方法、装置、电子设备和存储介质
CN107945111B (zh) 一种基于surf特征提取结合cs-lbp描述符的图像拼接方法
CN111898668A (zh) 一种基于深度学习的小目标物体检测方法
CN110503002B (zh) 一种人脸检测方法和存储介质
CN116740375A (zh) 一种图像特征提取方法、***及介质
CN102843479A (zh) 文件扫描方法、文件扫描装置及便携式电子装置
WO2022193132A1 (zh) 图像检测方法、装置和电子设备
US11734855B2 (en) Rotation equivariant orientation estimation for omnidirectional localization
Zi et al. A Perception‐Driven Transcale Display Scheme for Space Image Sequences

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 201210 8th floor, building 1, 298 Xiangke Road, Pudong New Area, Shanghai

Applicant after: MOUXIN TECHNOLOGY (SHANGHAI) Co.,Ltd.

Address before: Room 507, building 1, No. 800, Naxian Road, pilot Free Trade Zone, Pudong New Area, Shanghai 201210

Applicant before: MOUXIN TECHNOLOGY (SHANGHAI) Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant