CN114119720A - 一种基于卷积神经网络的靶面弹着点的检测和定位方法 - Google Patents

一种基于卷积神经网络的靶面弹着点的检测和定位方法 Download PDF

Info

Publication number
CN114119720A
CN114119720A CN202111487733.9A CN202111487733A CN114119720A CN 114119720 A CN114119720 A CN 114119720A CN 202111487733 A CN202111487733 A CN 202111487733A CN 114119720 A CN114119720 A CN 114119720A
Authority
CN
China
Prior art keywords
candidate
rectangular frame
target
value
pixel point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111487733.9A
Other languages
English (en)
Other versions
CN114119720B (zh
Inventor
孙伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baizhanqi Anhui Special Training Equipment Base Co ltd
Original Assignee
Gongxue Intelligent Technology Hefei Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gongxue Intelligent Technology Hefei Co ltd filed Critical Gongxue Intelligent Technology Hefei Co ltd
Priority to CN202111487733.9A priority Critical patent/CN114119720B/zh
Publication of CN114119720A publication Critical patent/CN114119720A/zh
Application granted granted Critical
Publication of CN114119720B publication Critical patent/CN114119720B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的靶面弹着点检测和定位方法,属于图像检测领域。旨在更精确定位靶面上弹着点的中心圆点坐标位置,提高报靶的分辨率和精度。所述检测和定位方法首先通过摄像头采集靶面图像,通过对靶面图像进行处理,得到像素点阵列表述的目标图像,然后对目标图像进行亮度色差判定,对通过判定的像素点构建矩形框,得到候选矩形框集;采用卷积神经网络全连接层处理该候选矩形框集得到一组特征向量,并通过分类器进行判定,最后利用回归器得到靶面弹着点的准确位置。

Description

一种基于卷积神经网络的靶面弹着点的检测和定位方法
技术领域
本发明涉及图像检测与识别领域,具体涉及一种基于卷积神经网络的靶面上弹着点的检测和定位方法。
背景技术
随着科学技术的飞速发展,图像处理技术的发展也进入了快车道,更与人们的日常生活密不可分,在出行服务、消费服务、安保、医疗等领域已发挥着越来越重要的作用。对图像上某个目标的检测是图像处理领域不可或缺的部分,怎样快速有效的检测到预期目标并精准定位就是这一领域技术人员需要解决的问题。
基于深度学习的卷积神经网络目标检测算法具有自动学习和提取目标的关键特征的优点,它能为图像目标检测提供有效路径。目前常见的基于深度卷积神经网络的物体检测方法有基于区域建议的方法(Faster R-CNN等)和无区域建议的方法(例如YOLO、SSD等),其中Faster R-CNN以其较高的精度备受关注(沈玉勤,严凡,孟夏兵,王帅.一种基于卷积神经网络的车载图像目标检测方法和***)。随着深度卷积神经网络在图像分类和目标检测等领域的有效进展,已开始有技术人员将其应用在图像上不同尺寸的目标,尤其是微小目标进行检测和识别。现有的图像检测和识别技术方案里,对靶面上弹着点的定位不够精确,尚不能准确捕捉到射击点的中心圆点的坐标位置。
因此,使用什么样的神经网络模型能更精确定位靶面上弹着点的中心圆点坐标位置成为急需的技术手段。
发明内容
本发明所要解决的技术问题是如何微小目标进行检测和识别,以提高靶面弹着点的定位精度,准确捕捉射击点的中心圆点的坐标位置。方法是基于预先构建的包含池化层、全连接层、分类器、回归器的深度卷积神经网络,对靶面上弹着点的坐标位置进行定位。
本发明的目的是这样实现的。本发明提供了一种基于卷积神经网络的靶面弹着点的检测和定位方法,所述卷积神经网络包括依次连接的池化层、全连接层、分类器和回归器,其中,全连接层包括两层,分别记为H1层和H2层,H1层和H2层顺次连接,且每层都有1024个神经单元;所述检测和定位方法采用该卷积神经网络对靶面弹着点进行检测和定位,具体的,包括以下步骤:
步骤1,通过摄像头获得原始图像,然后对原始图像进行格式转换后得到用像素点阵列表述的目标图像,将该像素点阵列记为A,像素点阵列A的尺寸为M×N,M为长度,N为宽度;设像素点阵列A中包括n个像素点,将n个像素点中的任意一个像素点记为像素点Aj,j为像素点的序号,j=1,2,…,n;
步骤2,设定一个预设亮度分界值Bri,并以此为准,对像素点阵列A中n个像素点的亮度进行检测,得到一个候选矩形框集;
步骤2.1,检测像素点阵列A中n个像素点的亮度,得到n个像素点的亮度值,将像素点Aj的亮度值记为Pj,j=1,2,…,n;
步骤2.2,将像素点Aj的亮度值Pj与预设亮度分界值Bri进行对比,并作出以下判定:
若Pj≥Bri,提取该像素点Aj为候选像素点;
若Pj<Bri,舍弃该像素点;
步骤2.3,按照步骤2.2的方法对像素点阵列A中n个像素点的亮度逐一进行判定,得到一个候选像素点阵列B,该候选像素点阵列B中包括m个候选像素点,m≤n;
步骤2.4,在候选像素点阵列B中的每一个候选像素点的***构建矩形框,并将该矩形框记为候选矩形框,则得到一个候选矩形框集C,该候选矩形框集C中包括m个候选矩形框,将m个候选矩形框中的任意一个记为候选矩形框Cλ,λ为候选矩形框的序号,λ=1,2...m;
步骤3,将步骤2得到的候选矩形框集C中的每一个候选矩形框通过池化层和全连接层;
步骤3.1,将候选矩形框Cλ通过池化层后,得到一个与候选矩形框Cλ对应的纬度值并记为候选纬度值Wλ,候选纬度值Wλ为16×256维向量;所述池化层采用空间尺度为4×4的池化方式;
步骤3.2,将步骤3.1获得的候选纬度值Wλ作为H1层的输入,从H2层输出一个与候选矩形框Cλ对应的特征向量并记为候选特征向量Eλ,候选特征向量Eλ为1×1024维向量;
步骤3.3,采用3.1和3.2对候选矩形框集C中m个候选矩形框进行相同操作,得到m个候选特征向量Eλ
步骤4,基于分类器对步骤3得到的m个候选特征向量Eλ进行判定,得到选定矩形框;
步骤4.1,将步骤3得到的m个候选特征向量Eλ输入分类器,分类器输出与m个候选特征向量Eλ对应的m个候选特征向量值Mλ,λ=1,2…m;
步骤4.2,预先设定一个阈值F,将步骤4.1得到的m个候选特征向量值Mλ按照λ的排序与阈值F进行比较:
若Mλ<F,进行下一个候选特征向量值Mλ的比较;
若Mλ≥F,将与该候选特征向量值Mλ对应的候选矩形框Cλ记为选定矩形框S,并不再将其他候选特征向量值Mλ与预设阈值F进行比较,直接进入步骤5;
步骤5,将沿着靶面弹着点***构建的矩形框记为目标矩形框D,基于回归器对选定矩形框S进行调整,定位目标矩形框D的位置;
步骤5.1,用回归向量T表达所述卷积神经网络中的回归器,其表达式为:
T={tx,ty,tw,th}
其中,tx为横坐标移动值,ty为纵坐标移动值,tw为宽度值,th为高度值;
用选定表征向量J表达选定矩形框S,其表达式为:
J={xq,yq,wq,hq}
式中,(xq,yq)为选定矩形框S的中心坐标,wq为选定矩形框S的宽度,hq为选定矩形框S的高度;
步骤5.2,将表征向量J输入回归器,输出即为目标矩形框D的特征向量,并记为目标表征向量K,目标表征向量K的表达式为:
K={xp,yp,wp,hp}
其中,(xp,yp)为目标矩形框D的中心坐标,wp为目标矩形框D的宽度,hp为目标矩形框D的高度,其计算公式分别如下:
xp=tx×wq+xq
yp=ty×hq+yq
Figure BDA0003396562960000043
Figure BDA0003396562960000044
该目标矩形框D对应的位置即靶面弹着点的位置。
优选地,一种基于卷积神经网络的靶面弹着点的检测和定位方法,其特征在于,所述卷积神经网络预先构建并训练完成,所述训练指的是利用损失函数对所述卷积神经网络进行训练,以获得池化层、全连接层、分类器和回归器的参数,所述损失函数的表达式如下:
Zlof=Ztc+Zrs
其中,
Zlof为卷积神经网络的损失函数;
Ztc为分类器的损失函数,其表达式为:
Figure BDA0003396562960000041
Zrs为回归器的损失函数,其表达式为:
Figure BDA0003396562960000042
式中,s为选定矩形框S的选定表征向量J的值,d为经过回归器处理后的目标矩形框D的目标表征向量K的值。
与现有技术相比,本发明的有益效果如下:
1、由于靶座上弹着点是不规格的,使用传统方法捕捉到的坐标点不一定是弹着点的中心圆点;
2、通过亮度色差判定,构建出候选矩形框,相对于直接对目标图像进行处理,减少了计算量;
3、基于卷积神经网络对选定的矩形框进行处理,可有效提高靶座上弹着点捕捉的坐标精度,准确捕捉到弹着点的中心圆点坐标位置。
附图说明
图1是本发明检测和定位方法的流程图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的说明。
一种基于卷积神经网络的靶面弹着点的检测和定位方法,所述卷积神经网络为预先构建完成的,包括依次连接的池化层、全连接层、分类器和回归器,其中,全连接层包括两层,分别记为H1层和H2层,H1层和H2层顺次连接,且每层都有1024个神经单元。
图1是本发明检测和定位方法的流程图,由图1可见,所述检测和定位方法采用该卷积神经网络对靶面弹着点进行检测和定位,具体的,包括以下步骤:
步骤1,通过摄像头获得原始图像,然后对原始图像进行格式转换后得到用像素点阵列表述的目标图像,将该像素点阵列记为A,像素点阵列A的尺寸为M×N,M为长度,N为宽度;设像素点阵列A中包括n个像素点,将n个像素点中的任意一个像素点记为像素点Ai,j为像素点的序号,j=1,2,…,n;
步骤2,设定一个预设亮度分界值Bri,并以此为准,对像素点阵列A中n个像素点的亮度进行检测,得到一个候选矩形框集;
步骤2.1,检测像素点阵列A中n个像素点的亮度,得到n个像素点的亮度值,将像素点Aj的亮度值记为Pj,j=1,2,…,n;
步骤2.2,将像素点Aj的亮度值Pj与预设亮度分界值Bri进行对比,并作出以下判定:
若Pj≥Bri,提取该像素点Aj为候选像素点;
若Pj<Bri,舍弃该像素点;
步骤2.3,按照步骤2.2的方法对像素点阵列A中n个像素点的亮度逐一进行判定,得到一个候选像素点阵列B,该候选像素点阵列B中包括m个候选像素点,m≤n;
步骤2.4,在候选像素点阵列B中的每一个候选像素点的***构建矩形框,并将该矩形框记为候选矩形框,则得到一个候选矩形框集C,该候选矩形框集C中包括m个候选矩形框,将m个候选矩形框中的任意一个记为候选矩形框Cλ,λ为候选矩形框的序号,λ=1,2...m;
步骤3,将步骤2得到的候选矩形框集C中的每一个候选矩形框通过池化层和全连接层;
步骤3.1,将候选矩形框Cλ通过池化层后,得到一个与候选矩形框Cλ对应的纬度值并记为候选纬度值Wλ,候选纬度值Wλ为16×256维向量;所述池化层采用空间尺度为4×4的池化方式;
步骤3.2,将步骤3.1获得的候选纬度值Wλ作为H1层的输入,从H2层输出一个与候选矩形框Cλ对应的特征向量并记为候选特征向量Eλ,候选特征向量Eλ为1×1024维向量;
步骤3.3,采用3.1和3.2对候选矩形框集C中m个候选矩形框进行相同操作,得到m个候选特征向量Eλ
步骤4,基于分类器对步骤3得到的m个候选特征向量Eλ进行判定,得到选定矩形框;
步骤4.1,将步骤3得到的m个候选特征向量Eλ输入分类器,分类器输出与m个候选特征向量Eλ对应的m个候选特征向量值Mλ,λ=1,2…m;
步骤4.2,预先设定一个阈值F,将步骤4.1得到的m个候选特征向量值Mλ按照λ的排序与阈值F进行比较:
若Mλ<F,进行下一个候选特征向量值Mλ的比较;
若Mλ≥F,将与该候选特征向量值Mλ对应的候选矩形框Cλ记为选定矩形框S,并不再将其他候选特征向量值Mλ与预设阈值F进行比较,直接进入步骤5;
步骤5,将沿着靶面弹着点***构建的矩形框记为目标矩形框D,基于回归器对选定矩形框S进行调整,定位目标矩形框D的位置;
步骤5.1,用回归向量T表达所述卷积神经网络中的回归器,其表达式为:
T={tx,ty,tw,th}
其中,tx为横坐标移动值,ty为纵坐标移动值,tw为宽度值,th为高度值;
用选定表征向量J表达选定矩形框S,其表达式为:
J={xq,yq,wq,hq}
式中,(xq,yq)为选定矩形框S的中心坐标,wq为选定矩形框S的宽度,hq为选定矩形框S的高度;
步骤5.2,将表征向量J输入回归器,输出即为目标矩形框D的特征向量,并记为目标表征向量K,目标表征向量K的表达式为:
K={xp,yp,wp,hp}
其中,(xp,yp)为目标矩形框D的中心坐标,wp为目标矩形框D的宽度,hp为目标矩形框D的高度,其计算公式分别如下:
xp=tx×wq+xq
yp=ty×hq+yq
Figure BDA0003396562960000071
Figure BDA0003396562960000072
该目标矩形框D对应的位置即靶面弹着点的位置。
在本实施例中,一种基于卷积神经网络的靶面弹着点的检测和定位方法,其特征在于,所述卷积神经网络预先构建并训练完成,所述训练指的是利用损失函数对所述卷积神经网络进行训练,以获得池化层、全连接层、分类器和回归器的参数,所述损失函数的表达式如下:
Zlof=Ztc+Zrs
其中,
Zlof为卷积神经网络的损失函数;
Ztc为分类器的损失函数,其表达式为:
Figure BDA0003396562960000081
Zrs为回归器的损失函数,其表达式为:
Figure BDA0003396562960000082
式中,s为选定矩形框S的选定表征向量J的值,d为经过回归器处理后的目标矩形框D的目标表征向量K的值。

Claims (2)

1.一种基于卷积神经网络的靶面弹着点的检测和定位方法,其特征在于,所述卷积神经网络包括依次连接的池化层、全连接层、分类器和回归器,其中,全连接层包括两层,分别记为H1层和H2层,H1层和H2层顺次连接,且每层都有1024个神经单元;所述检测和定位方法采用该卷积神经网络对靶面弹着点进行检测和定位,具体的,包括以下步骤:
步骤1,通过摄像头获得原始图像,然后对原始图像进行格式转换后得到用像素点阵列表述的目标图像,将该像素点阵列记为A,像素点阵列A的尺寸为M×N,M为长度,N为宽度;设像素点阵列A中包括n个像素点,将n个像素点中的任意一个像素点记为像素点Aj,j为像素点的序号,j=1,2,...,n;
步骤2,设定一个预设亮度分界值Bri,并以此为准,对像素点阵列A中n个像素点的亮度进行检测,得到一个候选矩形框集;
步骤2.1,检测像素点阵列A中n个像素点的亮度,得到n个像素点的亮度值,将像素点Aj的亮度值记为Pj,j=1,2,...,n;
步骤2.2,将像素点Aj的亮度值Pj与预设亮度分界值Bri进行对比,并作出以下判定:
若Pj≥Bri,提取该像素点Aj为候选像素点;
若Pj<Bri,舍弃该像素点;
步骤2.3,按照步骤2.2的方法对像素点阵列A中n个像素点的亮度逐一进行判定,得到一个候选像素点阵列B,该候选像素点阵列B中包括m个候选像素点,m≤n;
步骤2.4,在候选像素点阵列B中的每一个候选像素点的***构建矩形框,并将该矩形框记为候选矩形框,则得到一个候选矩形框集C,该候选矩形框集C中包括m个候选矩形框,将m个候选矩形框中的任意一个记为候选矩形框Cλ,λ为候选矩形框的序号,λ=1,2...m;
步骤3,将步骤2得到的候选矩形框集C中的每一个候选矩形框通过池化层和全连接层;
步骤3.1,将候选矩形框Cλ通过池化层后,得到一个与候选矩形框Cλ对应的纬度值并记为候选纬度值Wλ,候选纬度值Wλ为16×256维向量;所述池化层采用空间尺度为4×4的池化方式;
步骤3.2,将步骤3.1获得的候选纬度值Wλ作为H1层的输入,从H2层输出一个与候选矩形框Cλ对应的特征向量并记为候选特征向量Eλ,候选特征向量Eλ为1×1024维向量;
步骤3.3,采用3.1和3.2对候选矩形框集C中m个候选矩形框进行相同操作,得到m个候选特征向量Eλ
步骤4,基于分类器对步骤3得到的m个候选特征向量Eλ进行判定,得到选定矩形框;
步骤4.1,将步骤3得到的m个候选特征向量Eλ输入分类器,分类器输出与m个候选特征向量Eλ对应的m个候选特征向量值Mλ,λ=1,2...m;
步骤4.2,预先设定一个阈值F,将步骤4.1得到的m个候选特征向量值Mλ按照λ的排序与阈值F进行比较:
若Mλ<F,进行下一个候选特征向量值Mλ的比较;
若Mλ≥F,将与该候选特征向量值Mλ对应的候选矩形框Cλ记为选定矩形框S,并不再将其他候选特征向量值Mλ与预设阈值F进行比较,直接进入步骤5;
步骤5,将沿着靶面弹着点***构建的矩形框记为目标矩形框D,基于回归器对选定矩形框S进行调整,定位目标矩形框D的位置;
步骤5.1,用回归向量T表达所述卷积神经网络中的回归器,其表达式为:
T={tx,ty,tw,th}
其中,tx为横坐标移动值,ty为纵坐标移动值,tw为宽度值,th为高度值;
用选定表征向量J表达选定矩形框S,其表达式为:
J={xq,yq,wq,hq}
式中,(xq,yq)为选定矩形框S的中心坐标,wq为选定矩形框S的宽度,hq为选定矩形框S的高度;
步骤5.2,将表征向量J输入回归器,输出即为目标矩形框D的特征向量,并记为目标表征向量K,目标表征向量K的表达式为:
K={xp,yp,wp,hp}
其中,(xp,yp)为目标矩形框D的中心坐标,wp为目标矩形框D的宽度,hp为目标矩形框D的高度,其计算公式分别如下:
xp=tx×wq+xq
yp=ty×hq+yq
Figure FDA0003396562950000032
Figure FDA0003396562950000033
该目标矩形框D对应的位置即靶面弹着点的位置。
2.根据权利要求1所述的一种基于卷积神经网络的靶面弹着点的检测和定位方法,其特征在于,所述卷积神经网络预先构建并训练完成,所述训练指的是利用损失函数对所述卷积神经网络进行训练,以获得池化层、全连接层、分类器和回归器的参数,所述损失函数的表达式如下:
Zlof=Ztc+Zrs
其中,
Zlof为卷积神经网络的损失函数;
Ztc为分类器的损失函数,其表达式为:
Figure FDA0003396562950000031
Zrs为回归器的损失函数,其表达式为:
Figure FDA0003396562950000041
式中,s为选定矩形框S的选定表征向量J的值,d为经过回归器处理后的目标矩形框D的目标表征向量K的值。
CN202111487733.9A 2021-12-07 2021-12-07 一种基于卷积神经网络的靶面弹着点的检测和定位方法 Active CN114119720B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111487733.9A CN114119720B (zh) 2021-12-07 2021-12-07 一种基于卷积神经网络的靶面弹着点的检测和定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111487733.9A CN114119720B (zh) 2021-12-07 2021-12-07 一种基于卷积神经网络的靶面弹着点的检测和定位方法

Publications (2)

Publication Number Publication Date
CN114119720A true CN114119720A (zh) 2022-03-01
CN114119720B CN114119720B (zh) 2024-05-28

Family

ID=80367632

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111487733.9A Active CN114119720B (zh) 2021-12-07 2021-12-07 一种基于卷积神经网络的靶面弹着点的检测和定位方法

Country Status (1)

Country Link
CN (1) CN114119720B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117329929A (zh) * 2023-11-03 2024-01-02 连云港市公安局 一种基于主动紫外光采集定位的自动报靶***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130001908A (ko) * 2011-06-28 2013-01-07 부산대학교 산학협력단 탄착 위치 측정 장치 및 탄착 위치 측정 방법
CN104182972A (zh) * 2014-08-08 2014-12-03 北京航天控制仪器研究所 一种野外用复杂光照下的实弹射击自动报靶***及方法
KR102059767B1 (ko) * 2019-01-02 2019-12-26 동서대학교 산학협력단 비비탄용 사격 시스템의 탄착점 추출 방법
CN111023906A (zh) * 2019-12-31 2020-04-17 北京富吉瑞光电科技有限公司 一种基于热成像的弹着点自动检测方法
CN112150512A (zh) * 2020-09-30 2020-12-29 中国科学院上海微***与信息技术研究所 融合背景差分法和聚类法的弹着点定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130001908A (ko) * 2011-06-28 2013-01-07 부산대학교 산학협력단 탄착 위치 측정 장치 및 탄착 위치 측정 방법
CN104182972A (zh) * 2014-08-08 2014-12-03 北京航天控制仪器研究所 一种野外用复杂光照下的实弹射击自动报靶***及方法
KR102059767B1 (ko) * 2019-01-02 2019-12-26 동서대학교 산학협력단 비비탄용 사격 시스템의 탄착점 추출 방법
CN111023906A (zh) * 2019-12-31 2020-04-17 北京富吉瑞光电科技有限公司 一种基于热成像的弹着点自动检测方法
CN112150512A (zh) * 2020-09-30 2020-12-29 中国科学院上海微***与信息技术研究所 融合背景差分法和聚类法的弹着点定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘德耀;陈志菲;郭心伟;宋卫华;鲍明;: "基于声学传感网络的弹着点定位***", 弹道学报, no. 02, 15 June 2017 (2017-06-15) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117329929A (zh) * 2023-11-03 2024-01-02 连云港市公安局 一种基于主动紫外光采集定位的自动报靶***
CN117329929B (zh) * 2023-11-03 2024-06-21 连云港市公安局 一种基于主动紫外光采集定位的自动报靶***

Also Published As

Publication number Publication date
CN114119720B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
CN111259850B (zh) 一种融合随机批掩膜和多尺度表征学习的行人重识别方法
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
CN106960195B (zh) 一种基于深度学习的人群计数方法及装置
CN106875373B (zh) 基于卷积神经网络剪枝算法的手机屏幕mura缺陷检测方法
CN107527337B (zh) 一种基于深度学习的视频对象移除篡改检测方法
CN108898047B (zh) 基于分块遮挡感知的行人检测方法及***
CN102214309B (zh) 一种基于头肩模型的特定人体识别方法
CN111178120B (zh) 一种基于作物识别级联技术的害虫图像检测方法
CN108563975B (zh) 一种基于深度学习的高密度人群人数估计方法
CN108961308B (zh) 一种漂移检测的残差深度特征目标跟踪方法
CN113435336B (zh) 一种基于人工智能的跑步智能计时***及方法
CN111611907B (zh) 一种图像增强的红外目标检测方法
CN109635634A (zh) 一种基于随机线性插值的行人再识别数据增强方法
CN104697768A (zh) 一种高压断路器动触头运动特性测试方法
CN114067444A (zh) 基于元伪标签和光照不变特征的人脸欺骗检测方法和***
CN101729911A (zh) 一种基于视觉感知的多视点图像颜色校正方法
CN106897681A (zh) 一种遥感图像对比分析方法及***
CN110781962B (zh) 基于轻量级卷积神经网络的目标检测方法
CN114372955A (zh) 一种基于改进神经网络的铸件缺陷x射线图自动识别法
CN108960115A (zh) 基于角点的多方向文本检测方法
CN109961013A (zh) 车道线的识别方法、装置、设备及计算机可读存储介质
CN108932712A (zh) 一种转子绕组质量检测***及方法
CN111104830A (zh) 用于图像识别的深度学习模型、该模型的训练装置及方法
CN109409250A (zh) 一种基于深度学习的无交叠视域跨摄像机行人再识别方法
CN110765814A (zh) 一种黑板书写行为识别方法、装置及摄像机

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230524

Address after: 236000 building B10, Fuyang Hefei modern industrial park, Yingzhou District, Fuyang City, Anhui Province

Applicant after: Baizhanqi (Anhui) special training equipment base Co.,Ltd.

Address before: 230051 d308, No. 369 Huayuan Avenue, Baohe Economic Development Zone, Hefei, Anhui Province

Applicant before: Gongxue Intelligent Technology (Hefei) Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant