CN115359091A - 一种用于移动机器人的装甲板检测跟踪方法 - Google Patents
一种用于移动机器人的装甲板检测跟踪方法 Download PDFInfo
- Publication number
- CN115359091A CN115359091A CN202210987824.7A CN202210987824A CN115359091A CN 115359091 A CN115359091 A CN 115359091A CN 202210987824 A CN202210987824 A CN 202210987824A CN 115359091 A CN115359091 A CN 115359091A
- Authority
- CN
- China
- Prior art keywords
- frame
- detection
- tracking
- target
- armor plate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理技术领域,尤其涉及一种用于移动机器人的装甲板检测跟踪方法,包括采集移动机器人装甲板图片;针对装甲板小目标对YOLOv5s网络进行改进;构建DeepSort模型对已检测的装甲板进行预测与跟踪。本发明在YOLOv5s的主干网络中添加CA注意力模块,使网络获得更大区域的信息,加强特征提取,提升装甲板检测精度;删除YOLOv5s网络中的大目标检测层,在保持检测精度的同时提升检测速度;使用DeepSort算法来对检测到的目标进行跟踪,利用卡尔曼滤波、匈牙利算法来解决当前帧检测框与轨迹的关联问题,提高了数据关联的准确性,有效的提升装甲板在被遮挡以及背景光照复杂的情况下跟踪效果。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种用于移动机器人的装甲板检测跟踪方法。
背景技术
近年来在人工智能飞速发展的环境下,移动机器人在工业、农业、医疗等行业中得到广泛的应用;移动机器人主要的研究技术包括环境感知、运动控制、路径规划等。在实际应用中,目标跟踪技术对移动机器人的性能有着很大的影响;由于移动迅速、工作环境复杂多变,实时性和精度都高的目标跟踪技术成为移动机器人研究的重点。
以全球性的机器人竞技比赛RoboMaster机甲大师比赛为研究背景,对移动机器人的目跟踪技术展开研究;在RoboMaster比赛中,能否正确地识别装甲板是赢得比赛的关键,比赛中通常会对相机获取的图像进行简单预处理后,使用匹配轮廓的方式来识别装甲板并进行打击,这种方法虽然能够达到比赛的实时性要求,但现场环境复杂、光线杂乱且会出现很多遮挡现象,容易导致装甲板错误识别。
发明内容
针对现有算法的不足,本发明将改进后的算法在移动机器人上实际应用,可实现移动机器人装甲板在被遮挡以及背景光照复杂的情况下稳定跟踪。
本发明所采用的技术方案是:一种用于移动机器人的装甲板检测跟踪方法包括以下步骤:
步骤一、采集移动机器人装甲板图片,获取数据集;
步骤二、针对装甲板小目标对YOLOv5s网络进行改进,将训练集输入改进后的YOLOv5s网络进行训练,获取YOLOv5s检测模型,用于对移动机器人装甲板的检测;
进一步,步骤二具体包括:
步骤2.1:在YOLOv5s网络的SPPF层之前添加CA注意力模块,将位置信息嵌入到通道注意力;
步骤2.2、在YOLOv5s网络中删除大目标检测层,删除大目标检测层的anchors和大目标检测层对应的网络层;
进一步的,删除大目标检测层的anchors为(116,90),(156,198)和(373,326),得到anchors模块的6个锚框,分别为(10,13),(16,30),(33,23),(30,61),(62,45),(59,119);
删除原YOLOv5s网络中的第8层集卷积层、9层C3模块、12层上采样层、head中的22-24层及检测层中的大目标检测头。
步骤2.3构建改进YOLOv5s网络;
进一步的,具体包括:
1、初始化YOLOv5s网络参数,对图像归一化处理,并设置batch size、epochs、初始学习率、IOU阈值、动量、权重衰减、置信度阈值和非极大值重叠率;
2、对装甲板数据集进行预处理,包括:Mosaic数据增强、自适应锚框计算以及自适应图片缩放;
3、将图像输入到融合CA注意力的backbone模块产生多种尺寸的特征图,然后进行上采样、下采样以及Concat拼接操作,产生不同尺度大小的特征图;
4、将不同尺度的特征图输入head部分的Detect层中,得到要检测目标的检测框位置、类别以及置信度,删除置信度小于设定阈值的检测框,计算检测框与真实框之间的IOU,再利用定位损失、分类损失和置信度损失进行反向传播,并对YOLOv5s网络中的梯度进行更新调节权重参数。
步骤三、构建DeepSort模型对已检测的装甲板进行预测与跟踪;
进一步的,具体包括:
步骤3.1、根据首帧目标的检测框创建对应的跟踪框,利用首帧目标的检测框信息初始化卡尔曼滤波器的参数,通过卡尔曼滤波器预测下一帧的目标位置信息;
步骤3.2、将当前帧目标的检测框和预测框进行IOU匹配,通过目标框的马氏距离和特征余弦距离来整合运动信息和外观信息计算代价矩阵,将代价矩阵作为匈牙利算法的输入进行线性匹配,得到匹配成功的跟踪框和检测框、匹配失败的检测框、匹配失败的跟踪框。执行此步直至出现确认框或跟踪结束;
进一步的,步骤3.2包括:更新匹配成功的预测框的卡尔曼滤波参数;匹配失败的检测框认为出现了新的目标,为其新建预测框;此时匹配失败的跟踪框为不确认状态的跟踪框,将其删除;不确认状态的跟踪框连续三帧匹配成功则成为确认状态的跟踪框;确认状态的跟踪框连续30帧匹配失败,则认为目标丢失,删除跟踪框。
步骤3.3、对当前帧的检测框和上一帧确认框的预测框进行级联匹配,对出现频率高的目标物赋予优先权,更新匹配成功的预测框的卡尔曼滤波参数,将失配的预测框、之前的不确认的预测框与失配的检测框进行IOU匹配并计算代价矩阵,重复步骤3.2、3.3至跟踪结束。
本发明的有益效果:
1、在YOLOv5s的主干网络中添加CA注意力模块,将位置信息嵌入到通道注意力中,使网络获得更大区域的信息,加强特征提取,提升装甲板检测精度;
2、针对装甲板的小目标删除YOLOv5s网络中的大目标检测层,在保持检测精度的同时提升检测速度;使用DeepSort算法来对检测到的目标进行跟踪,利用卡尔曼滤波、匈牙利算法来解决当前帧检测框与轨迹的关联问题,提高了数据关联的准确性,有效的提升装甲板在被遮挡以及背景光照复杂的情况下跟踪效果。
附图说明
图1是本发明的改进后的YOLOv5s网络结构图;
图2是本发明的P-R曲线图;
图3是本发明的YOLOv5s模型训练的可视化参数示意图;
图4是本发明的改进型YOLOv5s目标检测对比图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明,此图为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图1所示,一种用于移动机器人的装甲板检测跟踪方法包括以下步骤:
步骤1、采集移动机器人装甲板图片,获取数据集;
采集不同场景下的移动机器人装甲板图片2500张,将图片中的装甲板分成红色和蓝色两个类,使用标注工具LabelImg对图片进行标注,将标注信息写入xml文件,按8:2的比例划分训练集和测试集,并将xml格式转成txt文件,最终训练集为2000张图片,测试集为500张,利用标注好的xml文件将图片中的对应目标分割出来,对图片进行重命名、统一尺寸并划分训练集和验证集用于对训练获取DeepSort跟踪模型。
步骤2、针对装甲板小目标对YOLOv5s网络进行改进,将训练集输入改进后的YOLOv5s网络进行训练,获取YOLOv5s检测模型,用于对移动机器人装甲板的检测;
进一步的,步骤2具体包括:
步骤2.1:在YOLOv5s网络的SPPF层之前添加CA注意力模块,将位置信息嵌入到通道注意力,从而使移动网络获得更大区域的信息,加强特征提取,提升装甲板检测精度;
步骤2.2、在YOLOv5s网络中删除大目标检测层,删除大目标检测层的anchors和大目标检测层对应的网络层;
1、删除大目标检测层的anchors为(116,90),(156,198)和(373,326),得到anchors模块的6个锚框,分别为(10,13),(16,30),(33,23),(30,61),(62,45),(59,119);
2、删除原YOLOv5s网络中的第8层集卷积层、9层C3模块、12层上采样层、head中的22-24层及检测层中的大目标检测头。
步骤2.3、YOLOv5s网络主要包括输入端、主干层、颈部层和头部层,具体包括:
1、初始化模型参数,本发明使用的操作***为Ubuntu18.04,整个实验的学习框架为Pytorch1.9.1,实验环境是Python 3.7,GPU加速软件为CUDA11.3和CUDNN8.4;实验中batch size为8,epochs设置为100,图像归一化大小为640×640,初始学习率为0.01,IOU阈值为0.5、动量为0.937、权重衰减为0.0005、置信度阈值为0.3,非极大值重叠率为0.5;
2、对装甲板数据集进行预处理,其中预处理包含Mosaic数据增强、自适应锚框计算以及自适应图片缩放;其中,Mosaic数据增强:将4张图片通过随机缩放、裁剪和排列进行拼接;自适应锚框计算:对于不同的数据集需要设定不同的锚框,使用kmeans算法和遗传学算法获得适合数据集中目标的预设锚框;自适应图片缩放:由于图片长宽不一,通常将图片缩放至固定尺度,尽量保持长宽比,缺边使用灰色补齐;
3、再将图像输入到融合CA注意力的backbone部分产生多种尺寸的特征图,然后进行上采样操作、下采样操作以及Concat拼接操作完成多特征融合,产生不同尺度大小的特征图;
4、将不同尺度的特征图输入head部分的Detect层中,能够得到所要检测目标的检测框位置、类别以及置信度,删除置信度小于设定阈值的检测框,计算检测框与真实框之间的IOU,再利用定位损失、分类损失和置信度损失进行反向传播,并对YOLOv5s网络中的梯度进行更新调节权重参数,最后利用验证集对每个阶段的模型进行验证,获得YOLOv5s检测模型。
本发明主要使用精确度(P)、召回率(R)、平均精度均值mAP作为评价指标来验证改进后的YOLOv5s算法性能,具体计算公式为:
式中,TP指的是正样本预测出正样本数量,FP是负样本预测出正样本数量,FN是正样本预测出负样本数量;Precision指的是所有预测为正样本的结果中,预测正确的比率;Recall指的是所有偶正样本中被正确预测的比率;AP为P-R曲线的积分面积,表示训练出来的模型在当前类别的好坏,曲线图如图2所示;num_classes是指类别总数,mAP则是指在所有类别上的好坏,mAP越大,网络性能越好。
为验证本文改进YOLOv5s算法性能的优越性将采用YOLOv5s原模型、YOLOv5s融合CA注意力的模型和本文模型分别在采集的装甲板数据集下进行训练比对,可视化训练中会显示大量参数如图3所示,对比数据如下表:
算法 | Precision | Recall | mAP |
YOLOv5s | 88.2% | 75.7% | 82.2% |
YOLOv5s+CA | 89.0% | 76.7% | 84.1% |
本文算法 | 91.5% | 75.8% | 84.3% |
检测结果对比图如4图所示,可以看出本发明算法的性能总体最优。
步骤3、构建DeepSort模型对已检测的装甲板进行预测与跟踪;
步骤3具体包括:
步骤3.1、根据首帧目标的检测框创建对应的跟踪框,利用首帧目标的检测框信息初始化卡尔曼滤波器的参数,通过卡尔曼滤波器预测下一帧的目标位置信息;
步骤3.2、将当前帧目标的检测框和预测框进行IOU匹配,通过目标框的马氏距离和特征余弦距离来整合运动信息和外观信息计算代价矩阵,将代价矩阵作为匈牙利算法的输入进行线性匹配,得到匹配成功的跟踪框和检测框、匹配失败的检测框、匹配失败的跟踪框,执行此步直至出现确认框或跟踪结束;
步骤3.2还包括:更新匹配成功的预测框的卡尔曼滤波参数;匹配失败的检测框认为出现了新的目标,为其新建预测框;此时匹配失败的跟踪框为不确认状态的跟踪框,将其删除;不确认状态的跟踪框连续三帧匹配成功则成为确认状态的跟踪框;确认状态的跟踪框连续30帧匹配失败,则认为目标丢失,删除跟踪框。
步骤3.3、对当前帧的检测框和上一帧确认框的预测框进行级联匹配,对出现频率高的目标物赋予优先权,更新匹配成功的预测框的卡尔曼滤波参数,将失配的预测框、之前的不确认的预测框与失配的检测框进行IOU匹配并计算代价矩阵,重复步骤3.2、3.3至跟踪结束。
实验过程:
利用YOLOv5s模型与DeepSort模型对机器人装甲板进行实时检测跟踪;
具体包括:
1、从摄像头读入图片,将图片导入网络中;
2、首先进入YOLOv5s模型中,通过主干层进行特征提取,将提取后的特征进入颈部层进行融合,最终将融合后的特征进行检测输出,并设置置信度阈值对检测框进行过滤,删除置信度低于阈值的检测框;
3、利用首帧装甲板位置信息初始化卡尔曼滤波器,然后根据YOLOv5s的检测框和卡尔曼滤波的跟踪框对装甲板匹配、跟踪、预测和更新。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (6)
1.一种用于移动机器人的装甲板检测跟踪方法,其特征在于,包括以下步骤:
步骤一、采集移动机器人装甲板图片,获取数据集;
步骤二、针对装甲板小目标对YOLOv5s网络进行改进,将训练集输入改进后的YOLOv5s网络进行训练,获取YOLOv5s检测模型,用于对移动机器人装甲板的检测;
步骤三、构建DeepSort模型对已检测的装甲板进行预测与跟踪。
2.根据权利要求1所述的用于移动机器人的装甲板检测跟踪方法,其特征在于,步骤二具体包括:
步骤2.1:在YOLOv5s网络的SPPF层之前添加CA注意力模块,将位置信息嵌入到通道注意力;
步骤2.2、在YOLOv5s网络中删除大目标检测层,删除大目标检测层的anchors和大目标检测层对应的网络层;
步骤2.3构建改进YOLOv5s网络。
3.根据权利要求2所述的用于移动机器人的装甲板检测跟踪方法,其特征在于,步骤2.2具体包括:
删除大目标检测层的anchors为(116,90),(156,198)和(373,326),得到anchors模块的6个锚框,分别为(10,13),(16,30),(33,23),(30,61),(62,45),(59,119);
删除原YOLOv5s网络中的第8层集卷积层、9层C3模块、12层上采样层、head中的22-24层及检测层中的大目标检测头。
4.根据权利要求2所述的用于移动机器人的装甲板检测跟踪方法,其特征在于,步骤2.3具体包括:
1、初始化YOLOv5s网络参数,对图像归一化处理,并设置batch size、epochs、初始学习率、IOU阈值、动量、权重衰减、置信度阈值和非极大值重叠率;
2、对装甲板数据集进行预处理,包括:Mosaic数据增强、自适应锚框计算以及自适应图片缩放;
3、将图像输入到融合CA注意力的backbone模块,产生多种尺寸的特征图,然后进行上采样、下采样以及Concat拼接操作,产生不同尺度大小的特征图;
4、将不同尺度的特征图输入head部分的Detect层中,得到要检测目标的检测框位置、类别以及置信度,删除置信度小于设定阈值的检测框,计算检测框与真实框之间的IOU,再利用定位损失、分类损失和置信度损失进行反向传播,并对YOLOv5s网络中的梯度进行更新调节权重参数。
5.根据权利要求1所述的用于移动机器人的装甲板检测跟踪方法,其特征在于,步骤三具体包括:
步骤3.1、根据首帧目标的检测框创建对应的跟踪框,利用首帧目标的检测框信息初始化卡尔曼滤波器的参数,通过卡尔曼滤波器预测下一帧的目标位置信息;
步骤3.2、将当前帧目标的检测框和预测框进行IOU匹配,通过目标框的马氏距离和特征余弦距离来整合运动信息和外观信息计算代价矩阵,将代价矩阵作为匈牙利算法的输入进行线性匹配,得到匹配成功的跟踪框和检测框、匹配失败的检测框、匹配失败的跟踪框,执行此步直至出现确认框或跟踪结束;
步骤3.3、对当前帧的检测框和上一帧确认框的预测框进行级联匹配,对出现频率高的目标物赋予优先权,更新匹配成功的预测框的卡尔曼滤波参数,将失配的预测框、不确认的预测框与失配的检测框进行IOU匹配并计算代价矩阵,重复步骤3.2、3.3至跟踪结束。
6.根据权利要求5所述的用于移动机器人的装甲板检测跟踪方法,其特征在于,步骤3.2还包括:更新匹配成功的预测框的卡尔曼滤波参数;匹配失败的检测框认为出现了新的目标,为匹配失败的检测框新建预测框;匹配失败的跟踪框为不确认状态的跟踪框,将其删除;不确认状态的跟踪框连续三帧匹配成功则成为确认状态的跟踪框;确认态的跟踪框连续30帧匹配失败,则认为目标丢失,删除跟踪框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210987824.7A CN115359091A (zh) | 2022-08-17 | 2022-08-17 | 一种用于移动机器人的装甲板检测跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210987824.7A CN115359091A (zh) | 2022-08-17 | 2022-08-17 | 一种用于移动机器人的装甲板检测跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115359091A true CN115359091A (zh) | 2022-11-18 |
Family
ID=84001975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210987824.7A Pending CN115359091A (zh) | 2022-08-17 | 2022-08-17 | 一种用于移动机器人的装甲板检测跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115359091A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116661465A (zh) * | 2023-07-04 | 2023-08-29 | 无锡八英里电子科技有限公司 | 一种基于时序分析与多传感器融合的机器人自动行驶方法 |
-
2022
- 2022-08-17 CN CN202210987824.7A patent/CN115359091A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116661465A (zh) * | 2023-07-04 | 2023-08-29 | 无锡八英里电子科技有限公司 | 一种基于时序分析与多传感器融合的机器人自动行驶方法 |
CN116661465B (zh) * | 2023-07-04 | 2023-10-31 | 无锡八英里电子科技有限公司 | 一种基于时序分析与多传感器融合的机器人自动行驶方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059558B (zh) | 一种基于改进ssd网络的果园障碍物实时检测方法 | |
CN111126359B (zh) | 基于自编码器与yolo算法的高清图像小目标检测方法 | |
CN109784150B (zh) | 基于多任务时空卷积神经网络的视频驾驶员行为识别方法 | |
CN111401201A (zh) | 一种基于空间金字塔注意力驱动的航拍图像多尺度目标检测方法 | |
CN112200161A (zh) | 一种基于混合注意力机制的人脸识别检测方法 | |
CN113076871B (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN111666921A (zh) | 车辆控制方法、装置、计算机设备和计算机可读存储介质 | |
CN112464912B (zh) | 基于YOLO-RGGNet的机器人端人脸检测方法 | |
CN115223130B (zh) | 基于改进YOLOv5的多任务全景驾驶感知方法与*** | |
CN112419202B (zh) | 基于大数据及深度学习的野生动物图像自动识别*** | |
CN111862145A (zh) | 一种基于多尺度行人检测的目标跟踪方法 | |
CN117765373B (zh) | 一种自适应裂缝尺寸的轻量化道路裂缝检测方法及*** | |
CN113487610B (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN115829991A (zh) | 一种基于改进YOLOv5s的钢材表面缺陷检测方法 | |
CN112001225A (zh) | 一种在线多目标跟踪方法、***及应用 | |
CN115620393A (zh) | 一种面向自动驾驶的细粒度行人行为识别方法及*** | |
CN115375737A (zh) | 基于自适应时间与序列化时空特征的目标跟踪方法与*** | |
CN114639122A (zh) | 一种基于卷积生成对抗网络的姿态修正行人再识别方法 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN113963333B (zh) | 一种基于改进yolof模型的交通标志牌检测方法 | |
CN115205855A (zh) | 融合多尺度语义信息的车辆目标识别方法、装置及设备 | |
CN115359091A (zh) | 一种用于移动机器人的装甲板检测跟踪方法 | |
CN111428567B (zh) | 一种基于仿射多任务回归的行人跟踪***及方法 | |
CN116612382A (zh) | 一种城市遥感图像目标检测方法和装置 | |
CN116052108A (zh) | 基于Transformer的交通场景小样本目标检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |