CN114743125B - 基于yolo和改进模板匹配的杠铃识别与跟踪控制方法 - Google Patents

基于yolo和改进模板匹配的杠铃识别与跟踪控制方法 Download PDF

Info

Publication number
CN114743125B
CN114743125B CN202210198719.5A CN202210198719A CN114743125B CN 114743125 B CN114743125 B CN 114743125B CN 202210198719 A CN202210198719 A CN 202210198719A CN 114743125 B CN114743125 B CN 114743125B
Authority
CN
China
Prior art keywords
barbell
image
hamming distance
template matching
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210198719.5A
Other languages
English (en)
Other versions
CN114743125A (zh
Inventor
李文举
王子杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Institute of Technology
Original Assignee
Shanghai Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Institute of Technology filed Critical Shanghai Institute of Technology
Priority to CN202210198719.5A priority Critical patent/CN114743125B/zh
Publication of CN114743125A publication Critical patent/CN114743125A/zh
Application granted granted Critical
Publication of CN114743125B publication Critical patent/CN114743125B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法,具体包括以下步骤:S1、采集多种杠铃的侧视图作为训练数据,对训练数据制定标签,划分为训练集和测试集;S2、对训练集中的图片进行标准化处理,并使用YOLO算法通过调整超参数的方式训练杠铃识别模型;S3、获取原始杠铃视频,通过杠铃识别模型对杠铃视频的第一帧图像进行检测并定位杠铃的位置;S4、将从第一帧图像中得到的杠铃位置和原始杠铃视频输入到改进的模板匹配算法中,计算得到绘制有杠铃轨迹的杠铃追踪视频。与现有技术相比,本发明具有提升杠铃识别的准确率并能够识别出不同样式的杠铃,提高帧率和准确率等优点。

Description

基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法
技术领域
本发明涉及健身器材安全防护技术领域,尤其是涉及一种基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法。
背景技术
随着经济水平不断发展,人们越来越重视健康问题。正确合理的运动方式可以达到强身健体的目的。健身运动是运动的一种,健身运动是一项通过徒手或利用各种器械,运用专门的动作方式和方法进行锻炼,以发达肌肉、增长体力、改善形体和陶冶情操为目的的运动项目。然而在健身运动中使用不正确的动作反而会对人们的身体造成损伤。
目前有很多学者对于计算机技术在健身运动中的应用展开了一些的研究。ZhangZ等人提出一种新颖的细粒度健身房运动识别***,旨在提供更详细的运动信息,用于监测练习、评估非标准动作、并避免肌肉损伤。Hsiao C等人设计和开发基于深度学习长短期记忆(LSTM)机制和可穿戴设备的杠铃卧推虚拟健身教练信息***。Ricciardi L等人建立了一个***,能够在执行深蹲、硬拉和卧推动作期间以无线和实时方式获取杠铃的运动学数据。M.Mallakzadeh等人提出了使用遗传算法优化的抓举举重的最佳目标函数和杠铃轨迹评价最优目标函数的确定。通过对上述学者的研究做出总结之后可以发现,计算机技术在帮助人们正确合理地进行健身时有着重要的作用,通过识别杠铃以及提取跟踪杠铃的运动轨迹并评价轨迹的正确性,在避免运动损伤上有重要的应用意义。
对于杠铃的识别任务,王锦莉等人提出了通过小波降噪提高检测举重图像杠铃位置的准确性,但由于背景信息的复杂以及杠铃半径大小的不确定导致该方法不具有通用性;邓宇等提出了事先建立圆环模板并将其与滤波之后的图像进行Hausdorff距离匹配从而对杠铃进行识别,但由于杠铃片样式的不同因此该方法很难识别出侧视图非圆环状的杠铃;王向东提出一种通过边界特征和灰度特征方法识别杠铃中心点从而识别出杠铃的方法;Hsu C T等提出一种基于视频时空信息的杠铃运动轨迹提取算法;Hsu C T等提出了基于菱形搜索策略的高效举重杠铃跟踪算法,但由于计算量较大因此帧率较低;武文斌提出使用Harris角点检测获得杠铃片上的特征点,建立中心点和特征点的关系,然后基于LK光流法跟踪这些特征点,通过这些特征点和杠铃中心的对应关系,在后续帧中通过统计最优方法得到杠铃中心估计位置,但由于部分杠铃片上的角点特征较少导致无法很好得到中心位置。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法,提升了杠铃识别的准确率并能够识别出不同样式的杠铃,通过限制搜索区域、动态更新模板以及图像哈希增强的模板匹配对视频中的杠铃进行追踪,有效地提高了帧率和准确率。
本发明的目的可以通过以下技术方案来实现:
一种基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法,具体包括以下步骤:
S1、采集多种杠铃的侧视图作为训练数据,对所述训练数据制定标签,划分为训练集和测试集;
S2、对训练集中的图片进行标准化处理,并使用YOLO算法通过调整超参数的方式训练杠铃识别模型;
S3、获取原始杠铃视频,通过杠铃识别模型对杠铃视频的第一帧图像进行检测并定位杠铃的位置;
S4、将从第一帧图像中得到的杠铃位置和原始杠铃视频输入到改进的模板匹配算法中,计算得到绘制有杠铃轨迹的杠铃追踪视频。
所述杠铃的侧视图对应的杠铃类型包括被遮挡的杠铃、训练者使用中的杠铃以及静置的杠铃。
YOLO算法是基于深度学习的目标检测方法的一种。通过引入卷积神经网络自学习目标特征来代替传统手动选择和提取特征的过程,引入区域候选框或回归方法使目标检测准确度和实时性大幅度提升。经使用本发明能够有效地识别各种各样的哑铃,对于非侧视的杠铃、有一定角度偏移的杠铃以及有遮挡物的杠铃都能够很好地检测成功。该方法精确度高、鲁棒性强、泛化能力强。
所述步骤S4中改进的模板匹配算法的匹配区域为当前图像所在位置的附近区域,不仅提高匹配的速度,还提高了匹配的准确率。
进一步地,所述模板匹配算法通过匹配区域搜索下一帧图像所在位置时需要的比较次数的公式如下所示:
S=[(w+Δw)-w+1]*[(h+Δh)-h+1]=(Δw+1)*(Δh+1)
其中,S为比较次数,w*h为模板的尺寸,(w+Δw)*(h+Δh)为匹配区域的尺寸。
所述步骤S4中改进的模板匹配算法进行目标检测的过程具体包括以下步骤:
S11、对原始杠铃视频中的第一帧图像中的目标进行目标检测,将检测到的杠铃图像作为临时模板图像;
S12、根据临时模板图像对原始杠铃视频中的下一帧图像进行模板匹配,并将在第二帧内匹配到的图像作为新的临时模板图像;
S13、判断是否位于原始杠铃视频的结尾,若是转至步骤S12,否则结束。
所述步骤S4中改进的模板匹配算法采用图像哈希技术作为模板匹配衡量两幅图像是否相似的标准。
所述改进的模板匹配算法采用图像哈希增强的方法计算两幅图像的相似程度,具体包括以下步骤:
S21、采集第一杠铃图像和第二杠铃图像,提取第一杠铃图像和第二杠铃图像的结构信息和边缘信息,得到第一杠铃结构图像、第二杠铃结构图像、第一杠铃边缘图像和第二杠铃边缘图像;
S22、分别计算第一杠铃结构图像和第二杠铃结构图像之间的结构汉明距离,以及第一杠铃边缘图像和第二杠铃边缘图像之间的边缘汉明距离;
S23、根据结构汉明距离和边缘汉明距离,计算第一杠铃图像和第二杠铃图像之间的整体汉明距离;
S24、根据预设的范围阈值与整体汉明距离进行比较,得到第一杠铃图像和第二杠铃图像之间的相似程度检测结果。
进一步地,所述步骤S21中通过傅里叶变换提取结构信息,通过Sobel算子提取边缘信息。
进一步地,所述步骤S22中结构汉明距离和边缘汉明距离采用相同的计算公式,具体如下所示:
其中,Dh为汉明距离,(xi,yi)为图像中像素点的坐标,N为像素点的总数;
所述整体汉明距离的计算公式具体如下:
Dh(A,B)=Dh(A1,B1)*W1+Dh(A2,B2)*W2
其中,Dh(A,B)为整体汉明距离,Dh(A1,B1)为结构汉明距离,W1为结构汉明距离的权重,Dh(A2,B2)为边缘汉明距离,W2为边缘汉明距离的权重。
进一步地,所述步骤S24中预设的范围阈值为和T2,且T1<T2,当Dh(A,B)=0时,相似程度检测结果为完全相似;当0<Dh(A,B)<T1时,相似程度检测结果为几乎相同;当T1<Dh(A,B)<T2时,相似程度检测结果为有些不同但比较相近;当T2<Dh(A,B)时,相似程度检测结果为完全不同。
与现有技术相比,本发明具有以下有益效果:
1.本发明所使用的YOLO算法对于识别杠铃的精度得到了极大的提升,通过使用YOLO算法能够检测出不同样式的杠铃,同时对于不同角度的杠铃也能够很好地检测成功,具有很强的鲁棒性。
2.本发明针对模板匹配需要遍历整个图像效率不高且耗时很长,很容易产生错误匹配现象的不足,通过限制模板匹配的搜索区域,减少了遍历整个图像的计算量,提高搜索目标的速度,减少对于背景区域的比较,从而提高了计算速度。
3.本发明针对模板匹配算法只能进行平行移动,若原图像中的匹配目标发生旋转或大小变化,则无法很好的匹配到目标对象产生错误匹配的结果的局限性。由于视频中的前后两帧图像中目标区域的背景信息及光照信息变化相对微小,通过使用更新模板的方法,先将视频中的第一帧图像中的目标进行目标检测,以此作为模板图像进行匹配。对于第二帧用第一帧图像中所获取的模板图像进行模板匹配,并将在第二帧内匹配到的图像作为新的模板图像用于下一帧的匹配,重复该过程直至视频结束。不断更新模板的做法使得每次需要匹配的模板图像与下一幅图像中的目标相似度更高,从而可以减少跟踪时漂移的产生。
4.本发明针对差异哈希只关注图像的结构丢弃细节的不足,提出了对结构信息和边缘信息融合的图像哈希增强的方法。缩小了图像之间的汉明距离、同时减小了图像比较算法的耗时。
附图说明
图1为本发明的流程示意图;
图2为本发明限制搜索区域的模板匹配的示意图;
图3为本发明YOLO算法的网络结构图;
图4为本发明杠铃跟踪及轨迹绘制的实际效果图,图4(a)~图4(c)为杠铃跟踪及轨迹绘制的具体过程。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例
如图1所示,一种基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法,具体包括以下步骤:
S1、采集多种杠铃的侧视图作为训练数据,对训练数据制定标签,划分为训练集和测试集;
S2、对训练集中的图片进行标准化处理,并使用YOLO算法通过调整超参数的方式训练杠铃识别模型;
S3、获取原始杠铃视频,通过杠铃识别模型对杠铃视频的第一帧图像进行检测并定位杠铃的位置;
S4、将从第一帧图像中得到的杠铃位置和原始杠铃视频输入到改进的模板匹配算法中,计算得到绘制有杠铃轨迹的杠铃追踪视频,如图4所示。
杠铃的侧视图对应的杠铃类型包括被遮挡的杠铃、训练者使用中的杠铃以及静置的杠铃。
如图3所示,YOLO算法是基于深度学习的目标检测方法的一种。通过引入卷积神经网络自学习目标特征来代替传统手动选择和提取特征的过程,引入区域候选框或回归方法使目标检测准确度和实时性大幅度提升。经使用本发明能够有效地识别各种各样的哑铃,对于非侧视的杠铃、有一定角度偏移的杠铃以及有遮挡物的杠铃都能够很好地检测成功。该方法精确度高、鲁棒性强、泛化能力强。
如图2所示,步骤S4中改进的模板匹配算法的匹配区域为当前图像所在位置的附近区域,不仅提高匹配的速度,还提高了匹配的准确率。通常模板匹配算法是在整个图像上进行遍历以搜索出和模板图像最相似的区域。但是遍历整个图像的做法效率不高且耗时很长,很容易产生错误匹配的现象。
模板匹配算法通过匹配区域搜索下一帧图像所在位置时需要的比较次数的公式如下所示:
S=[(w+Δw)-w+1]*[(h+Δh)-h+1]=(Δw+1)*(Δh+1)
其中,S为比较次数,w*h为模板的尺寸,(w+Δw)*(h+Δh)为匹配区域的尺寸。
步骤S4中改进的模板匹配算法进行目标检测的过程具体包括以下步骤:
S11、对原始杠铃视频中的第一帧图像中的目标进行目标检测,将检测到的杠铃图像作为临时模板图像;
S12、根据临时模板图像对原始杠铃视频中的下一帧图像进行模板匹配,并将在第二帧内匹配到的图像作为新的临时模板图像;
S13、判断是否位于原始杠铃视频的结尾,若是转至步骤S12,否则结束。
步骤S4中改进的模板匹配算法采用图像哈希技术作为模板匹配衡量两幅图像是否相似的标准。
改进的模板匹配算法采用图像哈希增强的方法计算两幅图像的相似程度,具体包括以下步骤:
S21、采集第一杠铃图像和第二杠铃图像,提取第一杠铃图像和第二杠铃图像的结构信息和边缘信息,得到第一杠铃结构图像、第二杠铃结构图像、第一杠铃边缘图像和第二杠铃边缘图像;
S22、分别计算第一杠铃结构图像和第二杠铃结构图像之间的结构汉明距离,以及第一杠铃边缘图像和第二杠铃边缘图像之间的边缘汉明距离;
S23、根据结构汉明距离和边缘汉明距离,计算第一杠铃图像和第二杠铃图像之间的整体汉明距离;
S24、根据预设的范围阈值与整体汉明距离进行比较,得到第一杠铃图像和第二杠铃图像之间的相似程度检测结果。
步骤S21中通过傅里叶变换提取结构信息,通过Sobel算子提取边缘信息。
步骤S22中结构汉明距离和边缘汉明距离采用相同的计算公式,具体如下所示:
其中,Dh为汉明距离,(xi,yi)为图像中像素点的坐标,N为像素点的总数;
整体汉明距离的计算公式具体如下:
Dh(A,B)=Dh(A1,B1)*W1+Dh(A2,B2)*W2
其中,Dh(A,B)为整体汉明距离,Dh(A1,B1)为结构汉明距离,W1为结构汉明距离的权重,Dh(A2,B2)为边缘汉明距离,W2为边缘汉明距离的权重。
步骤S24中预设的范围阈值为和T2,且T1<T2,当Dh(A,B)=0时,相似程度检测结果为完全相似;当0<Dh(A,B)<T1时,相似程度检测结果为几乎相同;当T1<Dh(A,B)<T2时,相似程度检测结果为有些不同但比较相近;当T2<Dh(A,B)时,相似程度检测结果为完全不同。
此外,需要说明的是,本说明书中所描述的具体实施例,所取名称可以不同,本说明书中所描述的以上内容仅仅是对本发明结构所做的举例说明。凡依据本发明构思的构造、特征及原理所做的等效变化或者简单变化,均包括于本发明的保护范围内。本发明所属技术领域的技术人员可以对所描述的具体实例做各种各样的修改或补充或采用类似的方法,只要不偏离本发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。

Claims (5)

1.一种基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法,其特征在于,具体包括以下步骤:
S1、采集多种杠铃的侧视图作为训练数据,对所述训练数据制定标签,划分为训练集和测试集;
S2、对训练集中的图片进行标准化处理,并使用YOLO算法通过调整超参数的方式训练杠铃识别模型;
S3、获取原始杠铃视频,通过杠铃识别模型对杠铃视频的第一帧图像进行检测并定位杠铃的位置;
S4、将从第一帧图像中得到的杠铃位置和原始杠铃视频输入到改进的模板匹配算法中,计算得到绘制有杠铃轨迹的杠铃追踪视频;
所述步骤S4中改进的模板匹配算法的匹配区域为当前图像所在位置的附近区域;
所述模板匹配算法通过匹配区域搜索下一帧图像所在位置时需要的比较次数的公式如下所示:
S=[(w+△w)-w+1]*[(h+△h)-h+1]=(△w+1)*(△h+1)
其中,S为比较次数,w*h为模板的尺寸,(w+△w)*(h+△h)为匹配区域的尺寸;
所述步骤S4中改进的模板匹配算法进行目标检测的过程具体包括以下步骤:
S11、对原始杠铃视频中的第一帧图像中的目标进行目标检测,将检测到的杠铃图像作为临时模板图像;
S12、根据临时模板图像对原始杠铃视频中的下一帧图像进行模板匹配,并将在第二帧内匹配到的图像作为新的临时模板图像;
S13、判断是否位于原始杠铃视频的结尾,若是转至步骤S12,否则结束;
所述步骤S4中改进的模板匹配算法采用图像哈希技术作为模板匹配衡量两幅图像是否相似的标准;
所述改进的模板匹配算法采用图像哈希增强的方法计算两幅图像的相似程度,具体包括以下步骤:
S21、采集第一杠铃图像和第二杠铃图像,提取第一杠铃图像和第二杠铃图像的结构信息和边缘信息,得到第一杠铃结构图像、第二杠铃结构图像、第一杠铃边缘图像和第二杠铃边缘图像;
S22、分别计算第一杠铃结构图像和第二杠铃结构图像之间的结构汉明距离,以及第一杠铃边缘图像和第二杠铃边缘图像之间的边缘汉明距离;
S23、根据结构汉明距离和边缘汉明距离,计算第一杠铃图像和第二杠铃图像之间的整体汉明距离;
S24、根据预设的范围阈值与整体汉明距离进行比较,得到第一杠铃图像和第二杠铃图像之间的相似程度检测结果。
2.根据权利要求1所述的一种基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法,其特征在于,所述杠铃的侧视图对应的杠铃类型包括被遮挡的杠铃、训练者使用中的杠铃以及静置的杠铃。
3.根据权利要求1所述的一种基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法,其特征在于,所述步骤S21中通过傅里叶变换提取结构信息,通过Sobel算子提取边缘信息。
4.根据权利要求1所述的一种基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法,其特征在于,所述步骤S22中结构汉明距离和边缘汉明距离采用相同的计算公式,具体如下所示:
其中,Dh为汉明距离,(xi,yi)为图像中像素点的坐标,N为像素点的总数;
所述整体汉明距离的计算公式具体如下:
Dh(A,B)=Dh(A1,B1)*W1+Dh(A2,B2)*W2
其中,Dh(A,B)为整体汉明距离,Dh(A1,B1)为结构汉明距离,W1为结构汉明距离的权重,Dh(A2,B2)为边缘汉明距离,W2为边缘汉明距离的权重。
5.根据权利要求4所述的一种基于YOLO和改进模板匹配的杠铃识别与跟踪控制方法,其特征在于,所述步骤S24中预设的范围阈值为和T2,且T1<T2,当Dh(A,B)=0时,相似程度检测结果为完全相似;当0<Dh(A,B)<T1时,相似程度检测结果为几乎相同;当T1<Dh(A,B)<T2时,相似程度检测结果为有些不同但比较相近;当T2<Dh(A,B)时,相似程度检测结果为完全不同。
CN202210198719.5A 2022-03-02 2022-03-02 基于yolo和改进模板匹配的杠铃识别与跟踪控制方法 Active CN114743125B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210198719.5A CN114743125B (zh) 2022-03-02 2022-03-02 基于yolo和改进模板匹配的杠铃识别与跟踪控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210198719.5A CN114743125B (zh) 2022-03-02 2022-03-02 基于yolo和改进模板匹配的杠铃识别与跟踪控制方法

Publications (2)

Publication Number Publication Date
CN114743125A CN114743125A (zh) 2022-07-12
CN114743125B true CN114743125B (zh) 2024-02-27

Family

ID=82275915

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210198719.5A Active CN114743125B (zh) 2022-03-02 2022-03-02 基于yolo和改进模板匹配的杠铃识别与跟踪控制方法

Country Status (1)

Country Link
CN (1) CN114743125B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017000466A1 (zh) * 2015-07-01 2017-01-05 中国矿业大学 一种基于光流法的运动目标跟踪方法及***
CN111241931A (zh) * 2019-12-30 2020-06-05 沈阳理工大学 一种基于YOLOv3的空中无人机目标识别和跟踪方法
WO2021012484A1 (zh) * 2019-07-19 2021-01-28 平安科技(深圳)有限公司 基于深度学习的目标跟踪方法、装置及计算机可读存储介质
CN112884742A (zh) * 2021-02-22 2021-06-01 山西讯龙科技有限公司 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN113763424A (zh) * 2021-08-13 2021-12-07 华东计算技术研究所(中国电子科技集团公司第三十二研究所) 基于嵌入式平台的实时智能目标检测方法及***
CN114120037A (zh) * 2021-11-25 2022-03-01 中国农业科学院农业信息研究所 一种基于改进yolov5模型的发芽马铃薯图像识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017000466A1 (zh) * 2015-07-01 2017-01-05 中国矿业大学 一种基于光流法的运动目标跟踪方法及***
WO2021012484A1 (zh) * 2019-07-19 2021-01-28 平安科技(深圳)有限公司 基于深度学习的目标跟踪方法、装置及计算机可读存储介质
CN111241931A (zh) * 2019-12-30 2020-06-05 沈阳理工大学 一种基于YOLOv3的空中无人机目标识别和跟踪方法
CN112884742A (zh) * 2021-02-22 2021-06-01 山西讯龙科技有限公司 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN113763424A (zh) * 2021-08-13 2021-12-07 华东计算技术研究所(中国电子科技集团公司第三十二研究所) 基于嵌入式平台的实时智能目标检测方法及***
CN114120037A (zh) * 2021-11-25 2022-03-01 中国农业科学院农业信息研究所 一种基于改进yolov5模型的发芽马铃薯图像识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
邓宇 ; 刘国翌 ; 李华 ; .基于视频的杠铃轨迹跟踪与分析***.中国图象图形学报.2006,(第12期),全文. *

Also Published As

Publication number Publication date
CN114743125A (zh) 2022-07-12

Similar Documents

Publication Publication Date Title
US8634638B2 (en) Real-time action detection and classification
US11176359B2 (en) Motion recognition device and motion recognition method
CN111368791B (zh) 基于Quick-OpenPose模型的引体向上测试计数方法及***
CN108564596B (zh) 一种高尔夫挥杆视频的智能比对分析***及方法
CN110674785A (zh) 一种基于人体关键点跟踪的多人姿态分析方法
US20210001172A1 (en) Exercise Counting and Form Guidance System
Deepa et al. Comparison of yolo, ssd, faster rcnn for real time tennis ball tracking for action decision networks
CN109376663A (zh) 一种人体姿态识别方法及相关装置
CN106897990B (zh) 轮胎模具的字符缺陷检测方法
CN104408461B (zh) 一种基于滑动窗口局部匹配窗口的动作识别方法
CN110232308A (zh) 基于手部速度与轨迹分布的跟随机器人手势轨迹识别方法
CN105512630B (zh) 人眼检测与定位方法
CN111144165B (zh) 一种步态信息识别方法、***及存储介质
CN111259716A (zh) 基于计算机视觉的人体跑步姿势识别分析方法及装置
CN106446911A (zh) 一种基于图像边缘线弯曲度和距离特征的人手识别方法
CN114973401A (zh) 基于动作检测与多模态学习的标准化引体向上评估方法
CN111105443A (zh) 一种基于特征关联的视频群体人物运动轨迹跟踪方法
CN115035037A (zh) 一种基于图像处理和多特征融合的肢体康复训练方法及***
Yang et al. Human exercise posture analysis based on pose estimation
CN114743125B (zh) 基于yolo和改进模板匹配的杠铃识别与跟踪控制方法
CN111144167A (zh) 一种步态信息识别优化方法、***及存储介质
CN113255623A (zh) 一种智能识别俯卧撑动作姿态完成状况的***和方法
CN115937967A (zh) 一种健身动作识别矫正方法
CN115105821A (zh) 一种基于OpenPose的体操训练辅助***
US11944870B2 (en) Movement determination method, movement determination device and computer-readable storage medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant