CN111932629A - 一种基于深度神经网络的目标定位方法及*** - Google Patents

一种基于深度神经网络的目标定位方法及*** Download PDF

Info

Publication number
CN111932629A
CN111932629A CN202011099612.2A CN202011099612A CN111932629A CN 111932629 A CN111932629 A CN 111932629A CN 202011099612 A CN202011099612 A CN 202011099612A CN 111932629 A CN111932629 A CN 111932629A
Authority
CN
China
Prior art keywords
target
image
visible light
infrared
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011099612.2A
Other languages
English (en)
Inventor
李辉
鲁金铭
余江勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Fengxing Technology Co ltd
Original Assignee
Nanjing Fengxing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Fengxing Technology Co ltd filed Critical Nanjing Fengxing Technology Co ltd
Priority to CN202011099612.2A priority Critical patent/CN111932629A/zh
Publication of CN111932629A publication Critical patent/CN111932629A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了基于深度神经网络的目标定位方法,包括以下步骤:获取被检测目标的红外图像和可见光图像,对所述被检测目标的红外图像和可见光图像进行预处理,构建目标定位模型,通过深度神经网络对所述目标定位模型进行训练,得到红外和可见光目标定位输出结果,优化所述红外和可见光目标定位输出结果,生成目标信息,所述目标信息包括目标位置信息和目标类别信息。本申请通过结合双波段图像的优良特性,借助于深度神经网络的特征提取和表示能力,实现了在多种检测条件下,对目标进行有效检测。

Description

一种基于深度神经网络的目标定位方法及***
技术领域
本申请涉及图像识别及定位技术领域,尤其涉及一种基于深度神经网络的目标定位方法及***。
背景技术
现有的目标定位方法只单独对被检测目标的可见光图像或红外图像进行检测,深度神经网络模型首先根据先验信息(锚点)对每个单元格预测多个边界框及其置信度,然后根据置信度阈值筛选无效预测结果,再利用非极大值抑制算法消除冗余重叠的边界框,最终获得图像中的目标的位置及其类别。
然而现有的定位方法存在许多不足,在光照条件不足的检测条件下,基于可见光图像的定位方法不能对目标进行有效检测,同时,基于红外图像的定位方法不能很好对被检测目标的颜色,纹理等反射特性进行有效识别。
因此,需要一种基于深度神经网络的红外图像检测与可见光图像检测相融合的目标定位方法,结合双波段图像的优良特性,借助于深度神经网络的特征提取和表示能力,实现在多种检测条件下,对目标进行有效检测。
发明内容
本申请提供了一种基于深度神经网络的目标定位方法及***,以解决现有定位方法中,无法实现在多种检测条件下,对目标进行有效检测的问题。
一方面,本申请公开了一种基于深度神经网络的目标定位方法,包括以下步骤:
获取被检测目标的红外图像和可见光图像;
对所述被检测目标的红外图像和可见光图像进行预处理,构建目标定位模型;
通过深度神经网络对所述目标定位模型进行训练,得到红外和可见光目标定位输出结果;
优化所述红外和可见光目标定位输出结果,生成目标信息;
所述目标信息包括目标位置信息和目标类别信息。
对所述被检测目标的红外图像和可见光图像进行预处理,包括以下步骤:
将所述被检测目标的红外图像和可见光图像分割成若干个互不重合的子图像;
根据所述子图像通过卷积生成若干个尺寸为26*26像素的第一特征图像;
根据所述第一特征图像通过卷积生成若干个尺寸为13*13像素的第二特征图像。
所述通过深度神经网络对所述目标定位模型进行训练,包括以下步骤:
对每个子图像、所述第一特征图像和第二特征图像分别进行锚框,生成若干个预测边界框,所述预测边界框包括中心坐标(x,y)、宽度w、高度h、预测类别以及置信度;
根据预设置信度阈值,消除置信度低于置信度阈值的所述预测边界框;
通过非极大值抑制算法,消除冗余所述预测边界框,得到红外目标定位输出结果和可见光目标定位输出结果。
优化所述红外和可见光目标定位输出结果,生成目标信息,包括以下步骤:
逐一比较所述红外目标定位输出结果和所述可见光目标定位输出结果中中心坐标(x,y)相同的预测边界框的置信度;
保留置信度高的所述预测边界框;
根据所述置信度高的预测边界框,生成目标信息,所述目标信息包括位置信息和类别信息。
还包括:构建深度神经网络。
所述构建深度神经网络,包括以下步骤:
获取红外图像和可见光图像数据集;
定义损失函数。
另一方面,本申请公开了一种基于深度神经网络的目标定位***,包括:
图像获取单元:获取被检测目标的红外图像和可见光图像;
模型构建单元:对所述被检测目标的红外图像和可见光图像进行预处理,构建目标定位模型;
模型训练单元:通过深度神经网络对所述目标定位模型进行训练,得到红外和可见光目标定位输出结果;
结果优化单元:优化所述红外和可见光目标定位输出结果,生成目标信息,所述目标信息包括目标位置信息和目标类别信息。
所述模型构建单元包括:
图像分割单元:将所述被检测目标的红外图像和可见光图像分割成若干个互不重合的子图像;
特征图像生成单元:根据所述子图像通过卷积生成若干个尺寸为26*26像素的第一特征图像;根据所述所述第一特征图像通过卷积生成若干个尺寸为13*13像素的第二特征图像。
所述模型训练单元包括:
预测边界框生成单元:对每个子图像、所述第一特征图像和第二特征图像分别进行锚框,生成若干个预测边界框,所述预测边界框包括中心坐标(x,y)、宽度w、高度h、预测类别以及置信度;
无效结果消除单元:根据预设置信度阈值,消除置信度低于置信度阈值的所述预测边界框;
冗余结果消除单元:通过非极大值抑制算法,消除冗余所述预测边界框,得到红外目标定位输出结果和可见光目标定位输出结果。
所述结果优化单元包括:
结果比较单元:逐一比较所述红外目标定位输出结果和所述可见光目标定位输出结果中中心坐标(x,y)相同的预测边界框的置信度,保留置信度高的所述预测边界框;
结果生成单元:根据所述置信度高的预测边界框,生成目标信息,所述目标信息包括位置信息和类别信息。
由以上技术方案可知,本申请提供了一种基于深度神经网络的目标定位***,通过获取被检测目标的红外图像和可见光图像,对所述被检测目标的红外图像和可见光图像进行预处理,构建目标定位模型,通过深度神经网络对所述目标定位模型进行训练,得到红外和可见光目标定位输出结果,优化所述红外和可见光目标定位输出结果,生成目标信息,所述目标信息包括目标位置信息和目标类别信息。本申请通过对红外图像和可见光图像进行分析,优化输出结果,结合双波段图像的优良特性,借助于深度神经网络的特征提取和表示能力,实现在多种检测条件下,对目标进行有效检测。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请的基于深度神经网络的目标定位方法的应用场景图;
图2为本申请的基于深度神经网络的目标定位方法的流程示意图。
具体实施方式
下面将详细地对实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下实施例中描述的实施方式并不代表与本申请相一致的所有实施方式。仅是与权利要求书中所详述的、本申请的一些方面相一致的***和方法的示例。
如图1所示,为本申请的基于深度神经网络的目标定位方法的应用场景图,通过获取被检测目标的可见光图像和红外图像,通过深度神经网络进行定位,对结果进行优化后,即可获得被检测目标的目标信息。
如图2所示,为一种基于深度神经网络的目标定位方法的流程示意图,包括以下步骤:
S1:获取被检测目标的红外图像和可见光图像;
更为具体的是,所述红外图像和可见光图像分别通过红外摄像头和可见光摄像头进行获取,所述红外摄像头和可见光摄像头设置于一处,避免由于所述红外摄像头和可见光摄像头的空间位置差异,导致图像差异过大,影响最终定位结果。
S2:对所述被检测目标的红外图像和可见光图像进行预处理,构建目标定位模型;
更为具体的是将所述被检测目标的红外图像和可见光图像分割成若干个互不重合的子图像,根据所述子图像通过卷积生成若干个尺寸为26*26像素的第一特征图像,根据所述第一特征图像通过卷积生成若干个尺寸为13*13像素的第二特征图像。所述的特征图像尺寸可根据实际需求进行实时调整。
S3:通过深度神经网络对所述目标定位模型进行训练,得到红外和可见光目标定位输出结果;
对每个子图像、所述第一特征图像和第二特征图像分别进行锚框,生成若干个预测边界框,所述预测边界框包括中心坐标(x,y)、宽度w、高度h、预测类别以及置信度,根据预设置信度阈值,消除置信度低于置信度阈值的所述预测边界框,通过非极大值抑制算法,消除冗余所述预测边界框,得到红外目标定位输出结果和可见光目标定位输出结果。
S4:优化所述红外和可见光目标定位输出结果,生成目标信息;
所述目标信息包括目标位置信息和目标类别信息。
更为具体的是,逐一比较所述红外目标定位输出结果和所述可见光目标定位输出结果中中心坐标(x,y)相同的预测边界框的置信度,对置信度高的所述预测边界框进行保留,同时,根据所述置信度高的预测边界框,生成目标信息,所述目标信息包括位置信息和类别信息。
对所述被检测目标的红外图像和可见光图像进行预处理,包括以下步骤:
将所述被检测目标的红外图像和可见光图像分割成若干个互不重合的子图像;
根据所述子图像通过卷积生成若干个尺寸为26*26像素的第一特征图像;
根据所述第一特征图像通过卷积生成若干个尺寸为13*13像素的第二特征图像。
所述通过深度神经网络对所述目标定位模型进行训练,包括以下步骤:
对每个子图像、所述第一特征图像和第二特征图像分别进行锚框,生成若干个预测边界框,所述预测边界框包括中心坐标(x,y)、宽度w、高度h、预测类别以及置信度;
根据预设置信度阈值,消除置信度低于置信度阈值的所述预测边界框;
通过非极大值抑制算法,消除冗余所述预测边界框,得到红外目标定位输出结果和可见光目标定位输出结果。
优化所述红外和可见光目标定位输出结果,生成目标信息,包括以下步骤:
逐一比较所述红外目标定位输出结果和所述可见光目标定位输出结果中中心坐标(x,y)相同的预测边界框的置信度;
保留置信度高的所述预测边界框;
根据所述置信度高的预测边界框,生成目标信息,所述目标信息包括位置信息和类别信息。
还包括:构建深度神经网络。
所述构建深度神经网络,包括以下步骤:
获取红外图像和可见光图像数据集;
更为具体的是,根据实际使用需求获取公开的不同的红外图像数据集和可见光图像数据集。
定义损失函数。
更为具体的是,所述损失函数包括:
边界框的真实置信度的损失值;
边界框的位置损失值与尺寸损失值;
根据框中的预测类别与真实类别,计算分类损失值。
另一方面,本申请公开了一种基于深度神经网络的目标定位***,包括:
图像获取单元:获取被检测目标的红外图像和可见光图像;
模型构建单元:对所述被检测目标的红外图像和可见光图像进行预处理,构建目标定位模型;
模型训练单元:通过深度神经网络对所述目标定位模型进行训练,得到红外和可见光目标定位输出结果;
结果优化单元:优化所述红外和可见光目标定位输出结果,生成目标信息,所述目标信息包括目标位置信息和目标类别信息。
所述模型构建单元包括:
图像分割单元:将所述被检测目标的红外图像和可见光图像分割成若干个互不重合的子图像;
特征图像生成单元:根据所述子图像通过卷积生成若干个尺寸为26*26像素的第一特征图像;根据所述所述第一特征图像通过卷积生成若干个尺寸为13*13像素的第二特征图像。
所述模型训练单元包括:
预测边界框生成单元:对每个子图像、所述第一特征图像和第二特征图像分别进行锚框,生成若干个预测边界框,所述预测边界框包括中心坐标(x,y)、宽度w、高度h、预测类别以及置信度;
无效结果消除单元:根据预设置信度阈值,消除置信度低于置信度阈值的所述预测边界框;
冗余结果消除单元:通过非极大值抑制算法,消除冗余所述预测边界框,得到红外目标定位输出结果和可见光目标定位输出结果。
所述结果优化单元包括:
结果比较单元:逐一比较所述红外目标定位输出结果和所述可见光目标定位输出结果中中心坐标(x,y)相同的预测边界框的置信度,保留置信度高的所述预测边界框;
结果生成单元:根据所述置信度高的预测边界框,生成目标信息,所述目标信息包括位置信息和类别信息。
本实施例中的***在执行上述方法时可参见方法实施例中的描述,在此不再赘述。
由以上技术方案可知,本申请提供了一种基于深度神经网络的目标定位***,通过获取被检测目标的红外图像和可见光图像,对所述被检测目标的红外图像和可见光图像进行预处理,构建目标定位模型,通过深度神经网络对所述目标定位模型进行训练,得到红外和可见光目标定位输出结果,优化所述红外和可见光目标定位输出结果,生成目标信息,所述目标信息包括目标位置信息和目标类别信息。本申请通过对红外图像和可见光图像进行分析,优化输出结果,结合双波段图像的优良特性,借助于深度神经网络的特征提取和表示能力,实现在多种检测条件下,对目标进行有效检测。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种基于深度神经网络的目标定位方法,其特征在于,包括以下步骤:
获取被检测目标的红外图像和可见光图像;
对所述被检测目标的红外图像和可见光图像进行预处理,构建目标定位模型;
通过深度神经网络对所述目标定位模型进行训练,得到红外和可见光目标定位输出结果;
优化所述红外和可见光目标定位输出结果,生成目标信息;
所述目标信息包括目标位置信息和目标类别信息。
2.根据权利要求1所述的基于深度神经网络的目标定位方法,其特征在于,对所述被检测目标的红外图像和可见光图像进行预处理,包括以下步骤:
将所述被检测目标的红外图像和可见光图像分割成若干个互不重合的子图像;
根据所述子图像通过卷积生成若干个尺寸为26*26像素的第一特征图像;
根据所述第一特征图像通过卷积生成若干个尺寸为13*13像素的第二特征图像。
3.根据权利要求1所述的基于深度神经网络的目标定位方法,其特征在于,所述通过深度神经网络对所述目标定位模型进行训练,得到红外和可见光目标定位输出结果,包括以下步骤:
对每个子图像、所述第一特征图像和第二特征图像分别进行锚框,生成若干个预测边界框,所述预测边界框包括中心坐标(x,y)、宽度w、高度h、预测类别以及置信度;
根据预设置信度阈值,消除置信度低于置信度阈值的所述预测边界框;
通过非极大值抑制算法,消除冗余所述预测边界框,得到红外目标定位输出结果和可见光目标定位输出结果。
4.根据权利要求1所述的基于深度神经网络的目标定位方法,其特征在于,优化所述红外和可见光目标定位输出结果,生成目标信息,包括以下步骤:
逐一比较所述红外和可见光目标定位输出结果中中心坐标(x,y)相同的预测边界框的置信度;
保留置信度高的所述预测边界框;
根据所述置信度高的预测边界框,生成目标信息,所述目标信息包括位置信息和类别信息。
5.根据权利要求1所述的基于深度神经网络的目标定位方法,其特征在于,还包括:构建深度神经网络。
6.根据权利要求5所述的基于深度神经网络的目标定位方法,其特征在于,所述构建深度神经网络,包括以下步骤:
获取红外图像和可见光图像数据集;
定义损失函数。
7.一种基于深度神经网络的目标定位***,其特征在于,包括:
图像获取单元:获取被检测目标的红外图像和可见光图像;
模型构建单元:对所述被检测目标的红外图像和可见光图像进行预处理,构建目标定位模型;
模型训练单元:通过深度神经网络对所述目标定位模型进行训练,得到红外和可见光目标定位输出结果;
结果优化单元:优化所述红外和可见光目标定位输出结果,生成目标信息,所述目标信息包括目标位置信息和目标类别信息。
8.根据权利要求7所述的基于深度神经网络的目标定位***,其特征在于,所述模型构建单元包括:
图像分割单元:将所述被检测目标的红外图像和可见光图像分割成若干个互不重合的子图像;
特征图像生成单元:根据所述子图像通过卷积生成若干个尺寸为26*26像素的第一特征图像;根据所述所述第一特征图像通过卷积生成若干个尺寸为13*13像素的第二特征图像。
9.根据权利要求7所述的基于深度神经网络的目标定位***,其特征在于,所述模型训练单元包括:
预测边界框生成单元:对每个子图像、所述第一特征图像和第二特征图像分别进行锚框,生成若干个预测边界框,所述预测边界框包括中心坐标(x,y)、宽度w、高度h、预测类别以及置信度;
无效结果消除单元:根据预设置信度阈值,消除置信度低于置信度阈值的所述预测边界框;
冗余结果消除单元:通过非极大值抑制算法,消除冗余所述预测边界框,得到红外目标定位输出结果和可见光目标定位输出结果。
10.根据权利要求7所述的基于深度神经网络的目标定位***,其特征在于,所述结果优化单元包括:
结果比较单元:逐一比较所述红外目标定位输出结果和所述可见光目标定位输出结果中中心坐标(x,y)相同的预测边界框的置信度,保留置信度高的所述预测边界框;
结果生成单元:根据所述置信度高的预测边界框,生成目标信息,所述目标信息包括位置信息和类别信息。
CN202011099612.2A 2020-10-15 2020-10-15 一种基于深度神经网络的目标定位方法及*** Pending CN111932629A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011099612.2A CN111932629A (zh) 2020-10-15 2020-10-15 一种基于深度神经网络的目标定位方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011099612.2A CN111932629A (zh) 2020-10-15 2020-10-15 一种基于深度神经网络的目标定位方法及***

Publications (1)

Publication Number Publication Date
CN111932629A true CN111932629A (zh) 2020-11-13

Family

ID=73334778

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011099612.2A Pending CN111932629A (zh) 2020-10-15 2020-10-15 一种基于深度神经网络的目标定位方法及***

Country Status (1)

Country Link
CN (1) CN111932629A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446828A (zh) * 2021-01-29 2021-03-05 成都东方天呈智能科技有限公司 一种融合可见光图像梯度信息的热成像超分辨率重建方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150302238A1 (en) * 2011-09-16 2015-10-22 Emerson Electric Co. Method and Apparatus for Surveying with a Feature Location
CN108875669A (zh) * 2018-06-28 2018-11-23 武汉市哈哈便利科技有限公司 一种基于可见光与红外图像融合的商品识别技术
CN110111581A (zh) * 2019-05-21 2019-08-09 哈工大机器人(山东)智能装备研究院 目标识别方法、装置、计算机设备及存储介质
CN110889324A (zh) * 2019-10-12 2020-03-17 南京航空航天大学 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN111767882A (zh) * 2020-07-06 2020-10-13 江南大学 一种基于改进yolo模型的多模态行人检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150302238A1 (en) * 2011-09-16 2015-10-22 Emerson Electric Co. Method and Apparatus for Surveying with a Feature Location
CN108875669A (zh) * 2018-06-28 2018-11-23 武汉市哈哈便利科技有限公司 一种基于可见光与红外图像融合的商品识别技术
CN110111581A (zh) * 2019-05-21 2019-08-09 哈工大机器人(山东)智能装备研究院 目标识别方法、装置、计算机设备及存储介质
CN110889324A (zh) * 2019-10-12 2020-03-17 南京航空航天大学 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN111767882A (zh) * 2020-07-06 2020-10-13 江南大学 一种基于改进yolo模型的多模态行人检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446828A (zh) * 2021-01-29 2021-03-05 成都东方天呈智能科技有限公司 一种融合可见光图像梯度信息的热成像超分辨率重建方法
CN112446828B (zh) * 2021-01-29 2021-04-13 成都东方天呈智能科技有限公司 一种融合可见光图像梯度信息的热成像超分辨率重建方法

Similar Documents

Publication Publication Date Title
WO2021088300A1 (zh) 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN110598610B (zh) 一种基于神经选择注意的目标显著性检测方法
US10217195B1 (en) Generation of semantic depth of field effect
CN110378997B (zh) 一种基于orb-slam2的动态场景建图与定位方法
US8264542B2 (en) Methods and systems for image processing in a multiview video system
US20120269384A1 (en) Object Detection in Depth Images
WO2020134528A1 (zh) 目标检测方法及相关产品
CN114022830A (zh) 一种目标确定方法以及目标确定装置
Delibaltov et al. Parking lot occupancy determination from lamp-post camera images
CN107403451B (zh) 自适应二值特征单目视觉里程计方法及计算机、机器人
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN114399734A (zh) 一种基于视觉信息的森林火灾预警方法
JP7092615B2 (ja) 影検出装置、影検出方法、影検出プログラム、学習装置、学習方法、及び学習プログラム
CN115829915A (zh) 图像质量检测方法、电子设备、存储介质及程序产品
CN113724379A (zh) 三维重建方法、装置、设备及存储介质
CN113538704A (zh) 一种基于光源位置绘制虚拟对象光影的方法及设备
CN111932629A (zh) 一种基于深度神经网络的目标定位方法及***
CN113158963A (zh) 一种高空抛物的检测方法及装置
US7440636B2 (en) Method and apparatus for image processing
WO2022045877A1 (en) A system and method for identifying occupancy of parking lots
CN112070035A (zh) 基于视频流的目标跟踪方法、装置及存储介质
US12026929B2 (en) Method for using target pixels to remove objects from texture
CN114998794A (zh) 高空抛物识别方法、***、装置及存储介质
CN114972732A (zh) 一种烟火检测方法、装置、设备及计算机可读存储介质
KR101299238B1 (ko) 감시 물체 식별 방법 및 그 감시 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20201113

RJ01 Rejection of invention patent application after publication