CN112132816B - 一种基于多任务与感兴趣区域分割引导的目标检测方法 - Google Patents
一种基于多任务与感兴趣区域分割引导的目标检测方法 Download PDFInfo
- Publication number
- CN112132816B CN112132816B CN202011032728.4A CN202011032728A CN112132816B CN 112132816 B CN112132816 B CN 112132816B CN 202011032728 A CN202011032728 A CN 202011032728A CN 112132816 B CN112132816 B CN 112132816B
- Authority
- CN
- China
- Prior art keywords
- feature
- target
- detection
- segmentation
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
- G06T2207/30064—Lung nodule
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/032—Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于多任务与感兴趣区域分割引导的目标检测方法,属于计算机视觉及目标检测技术领域。本方法基于全新设计的多任务与感兴趣区域分割引导检测的单一卷积神经网络模型,命名为SDNet,SDNet融合了多任务学习,利用感兴趣区域分割引导检测,设计了基于金字塔式的空洞卷积结构,利于前景目标区域的分割,运用中心点分类和尺度回归进行目标检测,能够有效提高目标检测精度和检测准确率。本方法能够在各种实际应用场景下获得快速、高精度、高可靠的目标检测效果,解决目标中误检率较高的问题,同时保证了召回率。
Description
技术领域
本发明涉及一种目标检测方法,尤其涉及一种基于多任务与感兴趣区域分割引导的目标检测方法,属于计算机视觉及目标检测技术领域。
背景技术
目标检测,是指在图像中找出所有感兴趣目标的具***置和大小等定位信息,是计算机视觉、模式识别等领域中的基础问题之一,在汽车自动驾驶、视频监控及分析、人脸识别及其医学CT图像的结节或肿瘤检测等应用中得到广泛使用。
现有的目标检测方法主要分为两类。
一类是传统目标检测方法。传统目标检测一般采用滑动窗口的框架,主要包括图像空间分割、特征设计和提取、分类识别等步骤,它需要在尺度和位置等几个维度空间内进行搜索,待处理的窗口数量巨大,使得计算量过大,且手工设计的特征对多样性目标的鲁棒性不强,很难设计出高效的特征,检测精度较低。
传统目标检测方法尽管实施简单,但由于图像中的目标往往在姿态、尺度、灰度空间等方面呈现多样性,检测精度往往达不到实际应用的要求。
另一类是基于卷积神经网络的目标检测方法,包括:两阶段方法,其中包括第一阶段的候选区域提取,第二阶段对区域进行卷积特征提取和分类,比如R-CNN,Faster R-CNN等。端到端的检测方法,如Yolo,SSD等,这类方法只需要一个卷积神经网络,直接输出所有的检测结果。但是,已有的基于卷积神经网络的目标检测方法由于采用了复杂的神经网络结构,尽管检测精度优于传统方法,即便是单阶段的端对端的单网络结构,其误检难以控制。两阶段的网络,尽管其误检率降低,但其流程更加复杂,这使得在具体目标的检测上,其召回率和准确率不能达到良好的效果。
发明内容
本发明的目的是针对现有目标检测方法存在可靠性低、误检率高的技术缺陷,为了更加有效地实现目标检测,创造性的提出一种基于多任务与感兴趣区域分割引导的目标检测方法。本方法基于全新设计的多任务与感兴趣区域分割引导检测的单一卷积神经网络模型,命名为SDNet,SDNet融合了多任务学习,利用感兴趣区域分割引导检测,能够有效提高目标检测精度和检测准确率。
本方法创新点在于:第一,采用感兴趣分割引导检测;第二,设计基于金字塔式的空洞卷积结构,利于前景目标区域的分割;第三,设计的新的检测方式,运用中心点分类和尺度回归进行目标检测。
本发明方法,采用以下技术方案实现。
一种基于多任务与感兴趣区域分割引导的目标检测方法,包括以下步骤:
步骤1:建立基于同时进行感兴趣区域分割和目标检测的、并利用感兴趣区域分割指导目标检测的卷积神经网络模型SDNet。
其中,SDNet包括特征提取模块、分割模块和检测模块。
所述特征提取模块采用U-Net进行特征提取,包括特征压缩模块和特征放大模块。
分割模块,设计了金字塔的空洞卷积结构,用于表达大的目标分割区域。特征首先由金字塔式的空洞卷积组成的操作进行处理,使得此路径能获得更大的视野域能表示前景区域,同时可以降低空洞卷积的棋格问题;对分割结果,通过相乘操作把其作用到特征模块的输出上,强化感兴趣的目标特征区域,并引导检测模块。
检测模块,包括并行的中心点预测和尺度预测两个路径,其输入是融合了分割结果的特征图。
中心点预测使用多个卷积模块,尺度预测也具有类似的结构。这种检测结构有着更少的参数和只需简单的超参设置。
步骤2:训练阶段。
该阶段采用两阶段迁移学习策略,实现步骤如下:
步骤2.1:数据增强和数据预处理。基于数据划分、数据增强以及预处理,从带标记的原始数据中,产生第一阶段训练的分类器训练集、第二阶段训练的检测训练集和测试集。其中,数据增强是为了解决了小样本的学习问题。
步骤2.2:基于步骤2.1生成的第一阶段训练所需的训练集,进行第一阶段训练。其中,第一阶段训练在二分类网络中进行。二分类网络由SDNet模型中的特征提取模块和average pooling层以及softmax层相连接组成。
步骤2.3:基于步骤2.1的数据增强方式,生成第二阶段训练所需的检测训练集进行第二阶段训练,得到训练后的SDNet网络.其中,第二阶段训练在SDNet网络中进行,且SDNet网络中的特征提取模块来自步骤2.2中训练好的特征提取模块。
步骤3:利用训练好的SDNet网络,进行目标精确检测。包括以下步骤:
步骤3.1:将待进行目标检测的图像输入到步骤2.3训练得到的SDNet网络中,输出目标的分割结果、目标的位置中心和尺度结果;
步骤3.2:将步骤3.1中的目标中心和尺度结果组成目标区域并输出。
有益效果
本发明方法,与现有目标检测方法相比,具有如下优点:
1.本方法设计的目标检测网络SDNet,适用面广泛,且具有很高的鲁棒性;SDNet的分割模块,其结果类似为注意力机制的方式融入到特征模块中,强化了感兴趣的目标区域,而后的目标检测模块,根据其强化特征,能保证检测的误检率和漏检率降低到合理的要求,保证了目标检测的精度要求。设计的金字塔式空间卷积结构能充分获取前景目标区域且能解决棋格问题。设计的基于中心点识别和尺度预测的目标检测方法,能减少模型的参数和简化超参设置。
2.本方法能够在各种实际应用场景下获得快速、高精度、高可靠的目标检测效果,解决目标中误检率较高的问题,同时保证了召回率。在3D CT图像的肺结节检测中的应用已表明:即便是包括肺壁旁边的多个结节,和多种尺度的结节进行检测,检测准确率达到99%以上。
附图说明
图1为本发明方法的流程图。
图2为本发明方法实施例的SDNet框架图。
图3为基于金字塔的空洞卷积结构,应用于分割模块中。
图4为方法SDNet网络所使用的原始输入CT图像。
图5为本发明方法SDNet网络检测结果(感兴趣区域分割和目标检测结果)示例。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细说明。
一种基于多任务与感兴趣区域分割引导的目标检测方法,如图1所示,包括以下步骤:
步骤1:建立基于同时感兴趣区域分割和目标检测的、并利用分割指导检测的卷积神经网络模型SDNet。
其中,SDNet包括特征提取模块、分割模块和检测模块。
所述特征提取模块,包括特征压缩模块和特征放大模块。其中,特征压缩模块包括N个卷积块,沿着一条融合源连接输入的特征压缩路径展开;特征放大模块包括M个反卷积块,沿着一条融合跳跃连接的特征放大路径展开。
特征压缩路径上的每个卷积块包含一次卷积、BN、激活和Pooling操作,对输入图像进行特征提取得到特征图。
从特征压缩路径上的第一个卷积块开始,每一层输出的特征图和相应尺度的源图像拼接构成下一层卷积操作的输入;特征放大路径上的每个卷积块包含一次Unpooling、反卷积、BN和激活操作,对特征压缩路径输出的特征图进行特征放大。
从特征放大路径上的第一个反卷积块开始,每一层输出的特征图和来自特征压缩路径的特征图拼接构成下一层反卷积操作的输入,使得压缩路径上具有的目标细节信息能够传输到具有高层语义信息的放大特征层路径上。
所述分割预测模块,包括前景分割模块,其由金字塔式的空洞卷积组成,使得此路径能获得更大的视野域表示前景区域,同时可降低空洞卷积的棋格问题。对分割结果,通过相乘操作把其作用到特征模块的输出上,强化感兴趣的目标特征区域,并后续引导检测模块的学习。
所述检测模块,由并行的中心点预测路径和尺度预测路径组成。其输入是融合了分割结果的特征图。中心点预测使用多个卷积模块,尺度预测也具有类似的结构。通过同时预测中心点和尺度,输出目标区域信息。
步骤2:训练阶段。该阶段采用两阶段迁移学习策略,实现步骤如下:
步骤2.1:数据增强和数据预处理。
基于数据划分、数据增强以及预处理从带标记的原始数据中产生第一阶段训练的训练集、第二阶段训练的训练集和测试集。
其中,数据增强是为了解决了小样本的学习问题;
具体地,步骤2.1包括以下步骤:
步骤2.1.1:将带标记的原始数据划分为带有检测目标的正样本训练集、不带有检测目标的负样本训练集以及测试集;
步骤2.1.2:采用数据增强手段处理正样本训练集,再与正样本训练集一起构成新的正样本训练集;
其中,数据增强手段包括旋转、缩放和平移操作;
其中,新训练集补充了带有检测目标的正样本训练集。其原因是:带标记的原始数据的数量较少不足以完成SDNet网络模型的训练;
步骤2.1.3:对步骤2.1.2构成的新的正样本训练集和步骤2.1.1输出的负样本训练集以及测试集中的每一幅图像,进行灰度归一化和去均值的预处理,分别得到正样本训练集和负样本训练集组成的训练集以及测试集;
步骤2.2:基于步骤2.1生成的第一阶段训练所需的训练集,进行第一阶段训练。
其中,第一阶段训练在二分类网络中进行。二分类网络由SDNet模型中的特征提取模块和average pooling层以及softmax层相连接组成。
步骤2.2训练过程包括:
将步骤2.1.3获得的用于第一阶段训练的训练集输入二分类网络,采用随机梯度下降算法优化softmax损失函数,得到训练后的二分类网络。此训练后的二分类网络中包括训练好的特征提取模块。
由于该分类网络只处理二分类问题,而且训练集中仅包含小尺寸图像,所以在第一阶段训练中仅需很小的计算代价便可获得较好的初始化特征提取模块;
步骤2.3:基于步骤2.1的数据增强手段对少量检测标注数据进行增强,生成的第二阶段训练所需的训练集进行第二阶段训练,得到训练后的SDNet网络。
其中,第二阶段训练在SDNet网络中进行,且SDNet网络中的特征提取模块来自步骤2.2中训练好的特征提取模块。
具体地,步骤2.3包括以下步骤:
步骤2.3.1:将步骤2.2.1训练得到的训练好的特征提取模块载入到SDNet网络中;
步骤2.3.2:将步骤2.1.3获得的用于第二阶段训练的训练集输入到SDNet网络,通过特征提取模块中的放大特征路径获得不同尺度的特征图;
步骤2.3.3:对步骤2.3.2输出的最后的大尺度特征图进行分割和检测的多任务预测;
步骤2.3.4:将步骤2.3.3中特征模块,并行进行目标分割预测和根据分割结果融合到特征模块中,同时对目标中心点和尺度进行,输出目标的位置中心和尺度大小,采用随机梯度下降算法优化多任务损失函数,得到训练后的SDNet网络;
步骤3:利用训练好的SDNet网络,进行目标精确检测。包括以下步骤:
步骤3.1将步骤2.1.3获得的测试集输入到步骤2.3.4训练得到的SDNet网络中,通过分割模块输出目标的分割结果,通过检测模块获得目标的位置中心和尺度结果;
步骤3.2:将步骤3.1中的目标中心和尺度结果组成目标区域并输出。
实施例
使用本发明方法,对CT图像进行肺结节检测,其对应的SDNet网络结构如图2所示。
步骤1:数据预处理;
对原始图像进行去均值和灰度归一化的预处理得到预处理后的图像。其中原始CT输入图像如图3所示;
步骤2:将步骤1输出的预处理后的图像输入SDNet网络;
步骤2包括如下步骤:
步骤2.1:输入图像经过特征提取模块得到特征图。
步骤2.2:特征图输入到分割路径,得到分给分割图。
步骤2.3:从分割路径的分割图和步骤2.1的特征图进行融合相乘,最终得到强化后的特征图。
步骤2.3:步骤2.3输出的特征图并行的多个卷积层,获得目标中心预测和目标尺度特征图。
步骤3:将步骤2.3输出,通过1x1的卷积,获得中心预测图和尺度预测图。如图4所示。
步骤3通过首先去最大的中心位置,结合对应的尺度信息,获得最终目标中心和尺度的结果信息。图5显示了一些最终的最优检测结节例子。其中白色的框是标签,灰色的框为检测结果。可以看出,利用SDNet网络进行检测,不仅能检测出不典型不规则的结节,而且还能检测出肺壁旁边的结节。
Claims (6)
1.一种基于多任务与感兴趣区域分割引导的目标检测方法,其特征在于,包括以下步骤:
步骤1:建立基于同时感兴趣区域分割和目标检测的、并利用分割指导检测的卷积神经网络模型SDNet;其中,SDNet包括特征提取模块、分割模块和检测模块;
所述特征提取模块,包括特征压缩模块和特征放大模块;其中,特征压缩模块包括N个卷积块,沿着一条融合源连接输入的特征压缩路径展开;特征放大模块包括M个反卷积块,沿着一条融合跳跃连接的特征放大路径展开;
从特征压缩路径上的第一个卷积块开始,每一层输出的特征图和相应尺度的源图像拼接构成下一层卷积操作的输入;
从特征放大路径上的第一个反卷积块开始,每一层输出的特征图和来自特征压缩路径的特征图拼接构成下一层反卷积操作的输入,使得特征压缩路径上具有的目标细节信息能够传输到具有高层语义信息的特征放大路径上;
所述分割模块,包括前景分割模块,其由金字塔式的空洞卷积组成,使得特征压缩路径能获得更大的视野域表示前景区域,同时可降低空洞卷积的棋格问题;对分割结果,通过相乘操作把其作用到特征模块的输出上,强化感兴趣的目标特征区域,并后续引导检测模块的学习;
所述检测模块,由并行的中心点预测路径和尺度预测路径组成,其输入是融合了分割结果的特征图;
中心点预测使用多个卷积模块;尺度预测也具有类似结构,即使用多个卷积模块;通过同时预测中心点和尺度,输出目标区域信息;
步骤2:训练阶段;
该阶段采用两阶段迁移学习策略,实现步骤如下:
步骤2.1:数据增强和数据预处理;
基于数据划分、数据增强以及预处理从带标记的原始数据中产生第一阶段训练的训练集、第二阶段训练的训练集和测试集;
其中,数据增强手段包括旋转、缩放和平移操作;
步骤2.2:将步骤2.1获得的用于第一阶段训练的训练集输入二分类网络,采用随机梯度下降算法优化softmax损失函数,得到训练后的二分类网络;此训练后的二分类网络中,包括训练好的特征提取模块;
步骤2.3:基于步骤2.1的数据增强手段对少量检测标注数据进行增强,生成的第二阶段训练所需的训练集进行第二阶段训练,得到训练后的SDNet网络;
其中,第二阶段训练在SDNet网络中进行,且SDNet网络中的特征提取模块来自步骤2.2中训练好的特征提取模块;
步骤3:利用训练好的SDNet网络,进行目标精确检测。
2.如权利要求1所述的一种基于多任务与感兴趣区域分割引导的目标检测方法,其特征在于,在特征提取模块中,特征压缩路径上的每个卷积块包含一次卷积、BN、激活和Pooling操作,对输入图像进行特征提取得到特征图。
3.如权利要求1所述的一种基于多任务与感兴趣区域分割引导的目标检测方法,其特征在于,在特征提取模块中,特征放大路径上的每个卷积块包含一次Unpooling、反卷积、BN和激活操作,对特征压缩路径输出的特征图进行特征放大。
4.如权利要求1所述的一种基于多任务与感兴趣区域分割引导的目标检测方法,其特征在于,步骤2.1包括以下步骤:
步骤2.1.1:将带标记的原始数据划分为带有检测目标的正样本训练集、不带有检测目标的负样本训练集以及测试集;
步骤2.1.2:采用数据增强手段处理正样本训练集,再与正样本训练集一起构成新的正样本训练集;其中,新训练集补充了带有检测目标的正样本训练集;
步骤2.1.3:对步骤2.1.2构成的新的正样本训练集和步骤2.1.1输出的负样本训练集以及测试集中的每一幅图像,进行灰度归一化和去均值的预处理,分别得到正样本训练集和负样本训练集组成的训练集以及测试集。
5.如权利要求1所述的一种基于多任务与感兴趣区域分割引导的目标检测方法,其特征在于,步骤2.3包括以下步骤:
步骤2.3.1:将步骤2.2训练得到的训练好的特征提取模块载入到SDNet网络中;
步骤2.3.2:将步骤2.1获得的用于第二阶段训练的训练集输入到SDNet网络,通过特征提取模块中的特征放大路径获得不同尺度的特征图;
步骤2.3.3:对步骤2.3.2输出的最后的大尺度特征图进行分割和检测的多任务预测;
步骤2.3.4:将步骤2.3.3中特征模块,并行进行目标分割预测和根据分割结果融合到特征模块中,同时对目标中心点和尺度进行预测,输出目标的位置中心和尺度大小,采用随机梯度下降算法优化多任务损失函数,得到训练后的SDNet网络。
6.如权利要求1所述的一种基于多任务与感兴趣区域分割引导的目标检测方法,其特征在于,步骤3包括以下步骤:
步骤3.1:将步骤2获得的测试集输入到训练得到的SDNet网络中,通过分割模块输出目标的分割结果,通过检测模块获得目标的位置中心和尺度结果;
步骤3.2:将步骤3.1中的目标的位置中心和尺度结果组成目标区域并输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011032728.4A CN112132816B (zh) | 2020-09-27 | 2020-09-27 | 一种基于多任务与感兴趣区域分割引导的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011032728.4A CN112132816B (zh) | 2020-09-27 | 2020-09-27 | 一种基于多任务与感兴趣区域分割引导的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112132816A CN112132816A (zh) | 2020-12-25 |
CN112132816B true CN112132816B (zh) | 2022-12-30 |
Family
ID=73840720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011032728.4A Active CN112132816B (zh) | 2020-09-27 | 2020-09-27 | 一种基于多任务与感兴趣区域分割引导的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112132816B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115330808B (zh) * | 2022-07-18 | 2023-06-20 | 广州医科大学 | 一种分割引导的磁共振图像脊柱关键参数自动测量方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886117A (zh) * | 2017-10-30 | 2018-04-06 | 国家新闻出版广电总局广播科学研究院 | 基于多特征提取和多任务融合的目标检测算法 |
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
CN109615016A (zh) * | 2018-12-20 | 2019-04-12 | 北京理工大学 | 一种基于金字塔输入增益的卷积神经网络的目标检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10657424B2 (en) * | 2016-12-07 | 2020-05-19 | Samsung Electronics Co., Ltd. | Target detection method and apparatus |
-
2020
- 2020-09-27 CN CN202011032728.4A patent/CN112132816B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886117A (zh) * | 2017-10-30 | 2018-04-06 | 国家新闻出版广电总局广播科学研究院 | 基于多特征提取和多任务融合的目标检测算法 |
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
CN109615016A (zh) * | 2018-12-20 | 2019-04-12 | 北京理工大学 | 一种基于金字塔输入增益的卷积神经网络的目标检测方法 |
Non-Patent Citations (1)
Title |
---|
自动驾驶场景下小且密集的交通标志检测;葛园园 等;《智能***学报》;20180630;第366-372页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112132816A (zh) | 2020-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109615016B (zh) | 一种基于金字塔输入增益的卷积神经网络的目标检测方法 | |
CN109190752B (zh) | 基于深度学习的全局特征和局部特征的图像语义分割方法 | |
CN106875381B (zh) | 一种基于深度学习的手机外壳缺陷检测方法 | |
CN109447979B (zh) | 基于深度学习和图像处理算法的目标检测方法 | |
CN111932511B (zh) | 一种基于深度学习的电子元器件质量检测方法与*** | |
CN110852316A (zh) | 一种采用密集结构卷积网络的图像篡改检测和定位方法 | |
CN110929696A (zh) | 一种基于多模态注意与自适应融合的遥感图像语义分割方法 | |
CN114495029B (zh) | 一种基于改进YOLOv4的交通目标检测方法及*** | |
CN110751232A (zh) | 一种中文复杂场景文本检测与识别方法 | |
Cepni et al. | Vehicle detection using different deep learning algorithms from image sequence | |
Chen et al. | PCB defect detection method based on transformer-YOLO | |
CN115131760B (zh) | 一种基于改进特征匹配策略的轻量级车辆追踪方法 | |
Hu et al. | LE–MSFE–DDNet: a defect detection network based on low-light enhancement and multi-scale feature extraction | |
CN114511710A (zh) | 一种基于卷积神经网络的图像目标检测方法 | |
CN112052730A (zh) | 一种3d动态人像识别监控设备及方法 | |
CN112132816B (zh) | 一种基于多任务与感兴趣区域分割引导的目标检测方法 | |
Tang et al. | An improved mineral image recognition method based on deep learning | |
CN114170422A (zh) | 一种煤矿井下图像语义分割方法 | |
Wang et al. | Summary of object detection based on convolutional neural network | |
CN114494703B (zh) | 一种智能车间场景目标轻量级语义分割方法 | |
CN114937239A (zh) | 行人多目标跟踪识别方法及跟踪识别装置 | |
CN113435542A (zh) | 一种基于深度学习的煤矸实时检测方法 | |
Shen et al. | Human fall detection based on re-parameterization and feature enhancement | |
CN111882545A (zh) | 基于双向信息传递及特征融合的织物疵点检测方法 | |
CN111797782A (zh) | 基于图像特征的车辆检测方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |