CN106897673B - 一种基于retinex算法和卷积神经网络的行人再识别方法 - Google Patents
一种基于retinex算法和卷积神经网络的行人再识别方法 Download PDFInfo
- Publication number
- CN106897673B CN106897673B CN201710044905.2A CN201710044905A CN106897673B CN 106897673 B CN106897673 B CN 106897673B CN 201710044905 A CN201710044905 A CN 201710044905A CN 106897673 B CN106897673 B CN 106897673B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- layer
- neural network
- image
- multiplied
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于retinex算法和卷积神经网络的行人再识别方法,首先提取视频数据库中的视频帧序列,构建卷积神经网络并训练出行人网络模型,利用训练好的网络模型将行人从视频帧序列中检测出来,用retinex算法将检测出的行人进行图像增强,最后将增强后的行人输入卷积神经网络中提取行人不同层次的深度特征,通过卷积神经网络最后一层的softmax分类器进行分类,得到最终匹配相似度。本发明充分考虑了现实场景中光照变化,阴影覆盖等问题,在识别之前引入retinex增强算法,模仿人类视觉***,使图像更接近于人眼所看到的样子,有效地提高了识别效果。采用端到端的行人再识别方法,用同一个卷积神经网络将行人检测与行人识别结合在一起,解决了行人标签的对齐问题。
Description
技术领域
本发明属于模式识技术领域,具体涉及一种基于retinex算法和卷积神经网络的行人再识别方法。
背景技术
行人再识别是计算机视觉领域最近几年研究的热点内容,传统的行人再识别将行人检测和行人识别分开,先使用DPM或ACF算法检测出行人,对检测出的行人包围框加以裁剪用于之后的行人识别,这种方法难以投入现实场景的使用,并且行人检测区域和行人识别区域难以实现完全对齐,导致行人识别低下。
行人识别现在一种流行的做法是使用卷积神经网络提取行人对的图片特征进行特征匹配,它采用反向传播算法从大量的数据样本中获得一定的规律,模仿人脑的神经网络,对未知事物做出预测。传统的神经网络具有很强的非线性拟合能力,可以映射任意复杂的非线性关系,具有很强的鲁棒性和记忆能力,利用神经网络提取的低层特征,如颜色纹理空结构特征等,这些特征易于计算并且相对可靠,但是这些底层特征没有较好的语义表达能力,跟行人的外观的关系并不紧密。当出现光照变化以及行人旋转角度变化时,这些特征往往不能很好的表达出行人的特征,从而造成识别时出现偏差。
发明内容
本发明针对现有技术的不足,提出一种基于retinex算法和卷积神经网络的行人再识别方法,简化了行人识别操作的复杂性,更利于现实场景应用,并且很好地克服了光照视角等多种的因素的影响,大大提高了行人的识别率。
为达到上述目的,本发明的具体技术方案为一种基于retinex算法和卷积神经网络的行人再识别方法,具体包括以下步骤:
步骤101,采集视频图像,截取视频帧;
步骤102,训练CNN网络模型,进行行人的检测;
步骤103,利用retinex算法对检测出的行人包围框进行图像增强,对图像的Intensity数据进行Retinex处理,然后再把数据根据原始的RGB的比例映射到每个通道,最大程度地减少光照和行人表面反射光的影响;
步骤104,提取卷积特征,经过多次卷积和降采样,提取fc6层的特征;
步骤105,将从两台摄像机得到的行人特征进行特征匹配,并得出识别率。
进一步,上述CNN神经网络中含有两个softMax层,一层用于行人检测时候选区域的预测分类,另一层用于对不同行人进行识别。
上述步骤103中,利用retinex算法对检测出的行人进行图像增强,具体包含以下步骤:
步骤201,计算输入行人图像的模糊半径I(x,y);
步骤201,计算行人图像按某种尺度进行高斯模糊的图像数据L(x,y);
步骤203,将以上两个步骤得到的值的对数值相减,得到图像排除光照阴影和反射光后的数据logR(x,y);
步骤204,将logR(x,y)量化到0-255的像素值,输出经过增强后的行人图像。
上述步骤102和104中,所用的检测和行人特征的提取使用同一个卷积神经网络,用同一个神经网络进行行人的检测与识别,具体为:
行人检测部分,所用神经网络采用VGG16模型的前四层卷积层:
第一层卷积层C1:设定64个特征平面,卷积核大小为3×3;
第一层下采样层S1:设定64个特征平面,池化窗口大小为2×2;
第二层卷积层C2:设定128个特征平面,卷积核大小为3×3;
第二层下采样层S2:设定128个特征平面,池化窗口大小为2×2;
第三层卷积层C3:设定256个特征平面,卷积核大小为3×3;
第三层下采样层S3:设定256个特征平面,池化窗口大小为2×2;
第四层卷积层C4:设定16个特征平面,卷积核大小为3×3;
第四层下采样层S4:设定16个特征平面,池化窗口大小为2×2;
Fc5和fc6用于行人识别:
Fc5设定4096个特征平面,fc6设定256个特征平面方便进行特征的匹配。
上述神经网络使用ROI池化技术进行行人目标的检测,经过神经网络的前四层的卷积和池化之后,将场景图像的特征输入ROI pooling层,获得行人框中的图像特征。
上述获得行人框中的图像特征具体包含以下步骤:
(1)使用选择性搜索方法获取一帧场景图像中大约2000个候选区域,并自动将这些区域裁剪到227×227,得到统一分辨率的2000个候选区域之后,将2000个候选区域输入到一个预训练的CNN模型,从最后一个全连接层输出4096*1的向量特征;
(2)对所有的上述候选区域进行严格的标定,当且仅当一个候选框完全包含参考标准区域且不属于参考标准部分不超过候选框区域的5%时,认为该候选框标定结果为目标,否则为背景;
(3)将提取得到的2000个候选区域经过regression回归层特征提取后输入到softmax层中,可以给出特定类别评分结果,得到softmax层对于所有候选区域的评分结果;
(4)将一些分数较低的候选区域去掉后,剩下的候选区域中会出现候选框相交的情况,采用非极大值抑制技术,对于相交的两个框或若干个框,找到最能代表最终检测结果的候选框。
与现有技术相比,本发明的有益效果:
1,本发明采用端到端的行人再识别方法,将行人检测与行人的识别结合到一起,从而解决了大量的行人图像的标注问题,并且更具有现实意义。对于先进行检测再进行识别而产生的行人目标框对齐的问题也可以有效地避免,因此本发明的行人识别率得到了很大的提升。
2,本发明在行人检测之后引入retinex算法对行人包围框进行行人图像的特征加强,提高了行人特征的语义表达能力,在光照视角变化等因素的影响下体现出较高的识别率。
附图说明
图1是本发明的基于retinex算法和卷积神经网络的行人再识别方法流程图。
具体实施方式
现结合附图对本发明作进一步的详细说明。
本发明中,神经网络使用ROI池化技术进行行人目标的检测,经过神经网络的前四层的卷积和池化之后,将场景图像的特征输入ROI pooling层,获得行人框中统一的图像特征。具体为:使用选择性搜索(selective search)方法获取一帧场景图像中大约2000个候选区域,并自动将这些区域裁剪到227×227。得到统一分辨率的的2000个候选区域之后,将2000个候选区域输入一个预训练的CNN(Convolution Neural Network)模型,从最后一个全连接层输出4096*1的向量特征。对所有的候选区域进行严格的标定,当且仅当一个候选框完全包含ground truth区域且不属于ground truth部分不超过候选框区域的5%时认为该候选框标定结果为目标,否则位背景。将提取得到的2000个候选区域经过regression回归层特征提取后输入到softmax层中,可以给出特定类别评分结果。得到softmax层对于所有候选区域的评分结果,将一些分数较低的候选区域去掉后,剩下的候选区域中会出现候选框相交的情况。采用非极大值抑制技术,对于相交的两个框或若干个框,找到最能代表最终检测结果的候选框。
本发明的流程图如图1所示,以下为一个具体的实施例,其具体步骤依次为:
步骤101,采集视频图像,截取视频帧。
步骤102,训练CNN网络模型,进行行人的检测。
步骤103,利用retinex算法对检测出的行人包围框进行图像增强,对图像的Intensity数据进行Retinex处理,然后再把数据根据原始的RGB的比例映射到每个通道。
步骤104,提取卷积特征,经过多次卷积和降采样,提取fc6层的特征。
步骤105,将两个摄像机得到的行人特征输入softmax层进行分类,并的出识别率。
其中,步骤1中,利用opencv中的cvGrabFrame函数,获取视频中的每一帧,并将其保存。
其中,步骤102中,所用神经网络为VGG16网络模型的前四层卷积层,具体为:
第一层卷积层C1:设定64个特征平面,卷积核大小为3×3;
第一层下采样层S1:设定64个特征平面,池化窗口大小为2×2;
第二层卷积层C2:设定128个特征平面,卷积核大小为3×3;
第二层下采样层S2:设定128个特征平面,池化窗口大小为2×2;
第三层卷积层C3:设定256个特征平面,卷积核大小为3×3;
第三层下采样层S3:设定256个特征平面,池化窗口大小为2×2;
第四层卷积层C4:设定512个特征平面,卷积核大小为3×3;
第四层下采样层S4:设定512个特征平面,池化窗口大小为2×2;
对于opencv保存下来的每一帧图像,输入一幅图像和候选框提取选择性搜索(Selective Search)方法生成的一系列候选区域,通过一系列卷积层和Pooling层生成特征映射,然后用RoI Pooling层处理最后一个卷积层得到的特征映射为每一个候选区域生成一个定长的特征向量。这些特征向量接着输入到全连接层产生最终用于多任务学习的特征并用于计算多任务Loss。全连接输出包括两个分支:1.SoftMax Loss:计算K+1类的分类Loss函数,其中K表示K个目标类别,1表示背景;2.Regression Loss:即K+1的分类结果相应的候选区域的包围框的四个角点坐标值。最终将所有结果通过非极大抑制处理,当且仅当一个候选框完全包含参考标准区域且不属于参考标准部分不超过候选框区域的5%时认为该候选框标定结果为目标,否则位背景,最终产生最终的目标包围框,即行人检测的目标。
其中,步骤103中,利用retinex对检测出的行人包围框中的行人进行图像增强。具体为:
步骤201,计算输入行人图像的模糊半径I(x,y);
步骤201,计算行人图像按某种尺度进行高斯模糊的图像数据L(x,y);
步骤203,将以上两个步骤得到的值的对数值相减,得到图像排除光照阴影和反射光后的数据logR(x,y);
步骤204,将logR(x,y)量化到0-255的像素值,输出经过增强后的行人图像。
其中,步骤104中,提取卷积特征,经过多次卷积和降采样,提取fc6层的特征。具体为:经过检测的行人包围框的图像特征经过retinex层的处理得到增强后的图像特征,在经过两个全连接层的学***面,卷积核大小为3×3;第五层下采样层S5:设定4096个特征平面,池化窗口大小为2×2;
为了增加特征向量的比较速度,将第六层卷积层和第六层的下采样层的特征平面设定为256个。在训练的过程前,设置训练迭代次数为10000,学习率设置为0.01.。本发明的神经网络的每两层采用反卷积方法,利用逐层最小化重建误差法进行网络权值的更新。卷积神经网络中的卷积核选取Roberts算子和Prewitt算子。经过对比试验,我们发明的卷积神经网络对行人具有很强的泛化能力和识别能力,能有效的提高行人识别率。
其中,得到行人候选区域并对其特征增强之后提取行人的优选特征的步骤如下:
步骤301,经过C1到C4层的卷积以及ROI pooling的降采样得到行人候选区域,并经过retinex层的行人候选区域特征增强得到增强后的行人候选区域特征,此步已在上文中提出。
步骤302,图像特征经过第五层卷积层C5,通过3×3大小的卷积核的卷积操作,输出4096个特征平面;
步骤303,将C5层的4096个输出特征平面作为第一层次抽样层S5的输入,通过2×2大小的,池化窗口进行次抽样操作,输出4096个特征平面;
步骤304,将S5层得到的4096个特征平面作为C6层的输入,同样通过3×3大小的卷积核的卷积操作,输出256个特征平面;
步骤305,将C6层的256个输出特征平面作为抽样层S6的输入,通过2×2大小的池化窗口进行次抽样操作,输出256个特征平面;
步骤306,将这256个特征平面作为行人的优选特征进行行人识别。
其中步骤105,将步骤104中得到的行人的优选特征输入最后的softmax层进行行人的分类,得出最后的识别率。具体为:使用softmax层计算网络的损失,假设行人类别有C+1个,其中前C类为行人类别,最后一类为行人的背景。同时假设softmax层的输出为{x,t},其中x为softmax的分类得分,t是一个1到C+1之间的二维数组,表示行人的标签,则损失函数的定义为其中
以上所述仅是本发明的较佳实施例而已,并非对本发明做任何形式的限制。凡是依据本发明的技术和方法实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明的技术和方法方案的范围内。
Claims (5)
1.一种基于retinex算法和卷积神经网络的行人再识别方法,其特征在于,具体包括以下步骤:
步骤101,采集视频图像,截取视频帧;
步骤102,训练CNN网络模型,进行行人的检测;
步骤103,利用retinex算法对检测出的行人包围框进行图像增强,对图像的Intensity数据进行Retinex处理,然后再把数据根据原始的RGB的比例映射到每个通道,最大程度地减少光照和行人表面反射光的影响;
步骤104,提取卷积特征,经过多次卷积和降采样,提取fc6层的特征,步骤102和本步骤中所用的检测和行人特征的提取使用同一个卷积神经网络,用同一个神经网络进行行人的检测与识别,具体为:
行人检测部分,所用神经网络采用VGG16模型的前四层卷积层:
第一层卷积层C1:设定64个特征平面,卷积核大小为3×3;
第一层下采样层S1:设定64个特征平面,池化窗口大小为2×2;
第二层卷积层C2:设定128个特征平面,卷积核大小为3×3;
第二层下采样层S2:设定128个特征平面,池化窗口大小为2×2;
第三层卷积层C3:设定256个特征平面,卷积核大小为3×3;
第三层下采样层S3:设定256个特征平面,池化窗口大小为2×2;
第四层卷积层C4:设定16个特征平面,卷积核大小为3×3;
第四层下采样层S4:设定16个特征平面,池化窗口大小为2×2;
Fc5和fc6用于行人识别:
Fc5设定4096个特征平面,fc6设定256个特征平面方便进行特征的匹配;
步骤105,将从两台摄像机得到的行人特征进行特征匹配,并得出识别率。
2.根据权利要求1所述的基于retinex算法和卷积神经网络的行人再识别方法,其特征在于CNN神经网络中含有两个softMax层,一层用于行人检测时候选区域的预测分类,另一层用于对不同行人进行识别。
3.根据权利要求1所述的基于retinex算法和卷积神经网络的行人再识别方法,其特征在于:所述步骤103中,利用retinex算法对检测出的行人进行图像增强,具体包含以下步骤:
步骤201,计算输入行人图像的模糊半径I(x,y);
步骤201,计算行人图像按某种尺度进行高斯模糊的图像数据L(x,y);
步骤203,将以上两个步骤得到的值的对数值相减,得到图像排除光照阴影和反射光后的数据logR(x,y);
步骤204,将logR(x,y)量化到0-255的像素值,输出经过增强后的行人图像。
4.根据权利要求1所述的基于retinex算法和卷积神经网络的行人再识别方法,其特征在于,所述神经网络使用ROI池化技术进行行人目标的检测,经过神经网络的前四层的卷积和池化之后,将场景图像的特征输入ROI pooling层,获得行人框中的图像特征。
5.根据权利要求4所述的基于retinex算法和卷积神经网络的行人再识别方法,其特征在于所述获得行人框中的图像特征具体包含以下步骤:
(1)使用选择性搜索方法获取一帧场景图像中2000个候选区域,并自动将这些区域裁剪到227×227,得到统一分辨率的2000个候选区域之后,将2000个候选区域输入到一个预训练的CNN模型,从最后一个全连接层输出4096*1的向量特征;
(2)对所有的上述候选区域进行严格的标定,当且仅当一个候选框完全包含参考标准区域且不属于参考标准部分不超过候选框区域的5%时,认为该候选框标定结果为目标,否则为背景;
(3)将提取得到的2000个候选区域经过regression回归层特征提取后输入到softmax层中,可以给出特定类别评分结果,得到softmax层对于所有候选区域的评分结果;
(4)将一些分数较低的候选区域去掉后,剩下的候选区域中会出现候选框相交的情况,采用非极大值抑制技术,对于相交的两个框或若干个框,找到最能代表最终检测结果的候选框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710044905.2A CN106897673B (zh) | 2017-01-20 | 2017-01-20 | 一种基于retinex算法和卷积神经网络的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710044905.2A CN106897673B (zh) | 2017-01-20 | 2017-01-20 | 一种基于retinex算法和卷积神经网络的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106897673A CN106897673A (zh) | 2017-06-27 |
CN106897673B true CN106897673B (zh) | 2020-02-21 |
Family
ID=59198654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710044905.2A Active CN106897673B (zh) | 2017-01-20 | 2017-01-20 | 一种基于retinex算法和卷积神经网络的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106897673B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107506736A (zh) * | 2017-08-29 | 2017-12-22 | 北京大生在线科技有限公司 | 基于深度学习的在线教育视频精美图片截取方法 |
CN108875751B (zh) * | 2017-11-02 | 2021-03-02 | 北京旷视科技有限公司 | 图像处理方法和装置、神经网络的训练方法、存储介质 |
CN110263604A (zh) * | 2018-05-14 | 2019-09-20 | 桂林远望智能通信科技有限公司 | 一种基于像素级别分离行人图片背景的方法及装置 |
CN108734679A (zh) * | 2018-05-23 | 2018-11-02 | 西安电子科技大学 | 一种计算机视觉*** |
CN109598225A (zh) * | 2018-11-29 | 2019-04-09 | 浙江大学 | 尖锐注意力网络、神经网络及行人再识别方法 |
CN109635708B (zh) * | 2018-12-06 | 2023-01-03 | 中山大学 | 一种基于三数据集交叉迁移学习的无监督行人再识别方法 |
CN110232661B (zh) * | 2019-05-03 | 2023-01-06 | 天津大学 | 基于Retinex和卷积神经网络的低光照彩色图像增强方法 |
CN110222682B (zh) * | 2019-06-06 | 2024-05-07 | 天津艾思科尔科技有限公司 | 一种基于多特征的行人目标检测*** |
CN110248191A (zh) * | 2019-07-15 | 2019-09-17 | 山东浪潮人工智能研究院有限公司 | 一种基于深层卷积神经网络的视频压缩方法 |
CN110675336A (zh) * | 2019-08-29 | 2020-01-10 | 苏州千视通视觉科技股份有限公司 | 一种低照度图像增强方法及装置 |
CN111079585B (zh) * | 2019-12-03 | 2023-08-15 | 浙江工商大学 | 图像增强结合伪孪生卷积神经网络的行人再识别方法 |
CN111666800A (zh) * | 2019-12-23 | 2020-09-15 | 珠海大横琴科技发展有限公司 | 一种行人重识别模型训练方法及行人重识别方法 |
CN112270286B (zh) * | 2020-11-09 | 2024-05-10 | 北京机电工程研究所 | 一种抗阴影干扰的单***目标跟踪方法 |
CN112613472B (zh) * | 2020-12-31 | 2022-04-26 | 上海交通大学 | 一种基于深度搜索匹配的行人检测方法及*** |
CN113222063B (zh) * | 2021-05-31 | 2024-07-02 | 平安科技(深圳)有限公司 | 快递纸箱垃圾分类方法、装置、设备及介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473539B (zh) * | 2013-09-23 | 2015-07-15 | 智慧城市***服务(中国)有限公司 | 步态识别方法和装置 |
CN105631415A (zh) * | 2015-12-25 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于卷积神经网络的视频行人识别方法 |
CN106127164B (zh) * | 2016-06-29 | 2019-04-16 | 北京智芯原动科技有限公司 | 基于显著性检测和卷积神经网络的行人检测方法及装置 |
CN106203506B (zh) * | 2016-07-11 | 2019-06-21 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
-
2017
- 2017-01-20 CN CN201710044905.2A patent/CN106897673B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106897673A (zh) | 2017-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106897673B (zh) | 一种基于retinex算法和卷积神经网络的行人再识别方法 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN112750140B (zh) | 基于信息挖掘的伪装目标图像分割方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN110378288B (zh) | 一种基于深度学习的多级时空运动目标检测方法 | |
CN110032925B (zh) | 一种基于改进胶囊网络与算法的手势图像分割与识别方法 | |
CN105678284B (zh) | 一种固定位人体行为分析方法 | |
CN108734138B (zh) | 一种基于集成学习的黑色素瘤皮肤病图像分类方法 | |
CN111767882A (zh) | 一种基于改进yolo模型的多模态行人检测方法 | |
Yang et al. | Single image haze removal via region detection network | |
CN107169954B (zh) | 一种基于并行卷积神经网络的图像显著性检测方法 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN112132156A (zh) | 多深度特征融合的图像显著性目标检测方法及*** | |
CN109034184B (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN110569782A (zh) | 一种基于深度学习目标检测方法 | |
CN112733614B (zh) | 一种带有相似尺寸强化识别的害虫图像检测方法 | |
CN106557740B (zh) | 一种遥感图像中油库目标的识别方法 | |
CN109165658B (zh) | 一种基于Faster-RCNN的强负样本水下目标检测方法 | |
CN113011253B (zh) | 基于ResNeXt网络的人脸表情识别方法、装置、设备及存储介质 | |
CN111783693A (zh) | 果蔬采摘机器人的智能识别方法 | |
Verma et al. | Wild animal detection from highly cluttered images using deep convolutional neural network | |
CN111178121A (zh) | 基于空间特征和深度特征强化技术的害虫图像定位识别方法 | |
Bappy et al. | Real estate image classification | |
CN111353385B (zh) | 一种基于掩膜对齐与注意力机制的行人再识别方法和装置 | |
CN114627269A (zh) | 一种基于深度学***台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210513 Address after: Room 507, 6-3 Xingzhi Road, Nanjing Economic and Technological Development Zone, Jiangsu Province, 210000 Patentee after: NANJING NANYOU INSTITUTE OF INFORMATION TEACHNOVATION Co.,Ltd. Address before: 210003, 66 new model street, Gulou District, Jiangsu, Nanjing Patentee before: NANJING University OF POSTS AND TELECOMMUNICATIONS |
|
TR01 | Transfer of patent right |