CN108573492B - 一种实时雷达探测区域检测方法 - Google Patents

一种实时雷达探测区域检测方法 Download PDF

Info

Publication number
CN108573492B
CN108573492B CN201810282598.6A CN201810282598A CN108573492B CN 108573492 B CN108573492 B CN 108573492B CN 201810282598 A CN201810282598 A CN 201810282598A CN 108573492 B CN108573492 B CN 108573492B
Authority
CN
China
Prior art keywords
image
neural network
segmentation
area
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810282598.6A
Other languages
English (en)
Other versions
CN108573492A (zh
Inventor
张宇潇
叶茂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201810282598.6A priority Critical patent/CN108573492B/zh
Publication of CN108573492A publication Critical patent/CN108573492A/zh
Application granted granted Critical
Publication of CN108573492B publication Critical patent/CN108573492B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种实时雷达探测区域检测方法,属于图像处理领域。本发明利用深度神经网络结合传统图像处理的方法,对机器人视觉图片进行语义分割,在第一阶段,进行基于深度神经网络的分割,判断图像上各像素点的语义等级。第二阶段,运用OTSU阈值算法对图片进行阈值分割。本发明在判别出可行走区域与不可行走区域的同时,判断出了雷达探测区域,实现了对机器视觉中的雷达探测区域的实时检测,便于将计算机视觉技术对图像的感知信息与激光雷达检测的信息进行融合,在机器视觉图像分割,机器视觉道路识别,机器视觉障碍物检测方面起到了实际作用。

Description

一种实时雷达探测区域检测方法
技术领域
本发明属于图像处理领域,特别涉及一种实时雷达探测区域检测方法。
背景技术
近年来,随着计算机软硬件技术,电子信息技术,控制技术的飞速发展,机器人技术也得到了长足的发展,从最初在工厂流水线上工作的工件加工机器人,到与客户交互的服务机器人,进行安防巡检的安防机器人,用于扑灭火灾的灾害救援机器人,机器人技术被应用于服务业,加工业,军事等各个领域,并呈现出集成化,平台化,智能化的发展趋势。在各类机器人中,安防巡检机器人是必不可少的一环,应用于安防巡检机器人的技术也十分复杂,涉及控制理论,材料科学与技术,计算机软硬件交互,图像处理,目标识别与检测,多模态信息融合等,既是一个融合多学科的综合问题,也是一个极具挑战的前沿课题。在安防巡检机器人的发展过程中,虽然出现了问题与挑战,但是也创造出了相应的发展和机遇。
在应用于安防巡检机器人的各项技术中,图像感知技术是最复杂的技术之一。在安防机器人的运行过程中,需要对机器人视觉中的各类物体进行感知与判断,识别道路与障碍物,分割可行走区域,并在行走过程中识别各类可疑对象,图像感知的实现主要依赖计算机视觉技术。可是,由于图像感知对机器人前方视觉作出的判断并不是绝对准确的,在计算机视觉技术对机器人视觉图像进行感知时,在划分可行走区域与不可行走区域之余,某些区域的可行性待定,需要进行进一步的扫描和检测,才能有效地规避巡逻途中的各类障碍物。
发明内容
为了解决上述问题,本发明提供一种实时雷达探测区域检测方法,在计算机视觉技术对机器人视觉图像进行感知而划分的可行走区域与不可行走区域之余,利用雷达探测雷达探测区域,使机器人巡逻更加顺畅,并且能有效地规避巡逻途中的各类障碍物。
一种实时雷达探测区域检测方法,应用于机器人,包括以下步骤:
步骤1,采集视觉图像,并对近距离视觉区域进行标定;
步骤2,应用深度神经网络进行训练;
步骤3,划分可行性等级;
步骤4,对视觉图像基于OTSU阈值分割方法进行二值分割;
步骤5,生成雷达探测区域。
进一步地,所述步骤1包括以下流程:
步骤11,采集视觉图像信息;
步骤12,对近距离视觉区域进行建模;
步骤13,对视觉图像中近距离视觉区域中每一个像素点进行标定。
进一步地,所述步骤2包括以下流程:
步骤21,构造深度神经网络,基于所述深度神经网络提取图像特征;
步骤22,设置滑动窗口,所述滑动窗口在图像上滑动,将已提取的图像特征基于所述滑动窗口进行分割得到数个子窗口;
步骤23,判断每个子窗口的语义标签,所述深度神经网络中的分类器层进行分类,得到语义分割结果。
进一步地,所述步骤3包括以下流程:
根据每个子窗口的所述语义分割结果,对像素点的语义等级进行划分,得到像素点隶属的子窗口的可行性等级,得到分割结果。
进一步地,所述步骤4包括以下流程:
得到所述分割结果后,对视觉图像应用OTSU阈值分割方法进行二值分割,得到二值分割结果。
进一步地,所述步骤5包括以下流程:
基于得到二值分割结果和分割结果,得到融合结果,生成雷达探测区域。
本发明的有益效果:本发明在计算机视觉技术对机器人视觉图像进行感知时,在划分可行走区域与不可行走区域之余,提出雷达探测区域,实现了对户外安防巡逻机器人的雷达探测区域的实时检测。机器人自动控制,在机器视觉图像分割,机器视觉道路识别,机器视觉障碍物检测方面起到了实际作用。
附图说明
图1为本发明实施例的流程图。
图2为图1中步骤1的流程图。
图3为本发明建立的几何模型。
图4为图1中步骤2的流程图。
图5为图4中步骤21构造的深度神经网络图。
具体实施方式
下面结合附图对本发明的实施例做进一步的说明。
请参阅图1,本发明提供的一种实时雷达探测区域检测方法通过以下步骤实现:
步骤1,采集视觉图像,并对近距离视觉区域进行标定。
请参阅图2,步骤1通过以下流程实现:
步骤11,采集视觉图像信息。
本发明实施例中,为了训练深度神经网络,需要搜集大量道路图片样本,为了便于适应机器人行走环境,本发明利用机器人上的景深摄像机ZED进行样本采集,并利用景深摄像机返回的图片深度矩阵对图片进行标定,对机器人视觉图像中的近距离区域(大小为165×490),深度矩阵记录了各个像素点的准确深度值。
步骤12,对近距离视觉区域进行建模。
请参阅图3,建立如图3所示的几何模型,计算图像中该位置位于水平地面的深度值。对机器人视觉区域中的近距离像素点几何建模的公式表达如下:
Figure BDA0001615047180000041
其中,d表示机器人视觉区域中近距离像素点距离机器人的深度,α表示摄像机光轴与地平面所成角,H表示摄像机高度,β表示摄像机光心与该像素点在地面位置上的连线与光轴的夹角。
其中,α可以表示为:
Figure BDA0001615047180000042
在上式中,D表示为摄像机光轴与地平面的交点的深度值。而β可以表示为:
Figure BDA0001615047180000043
其中,v表示该像素点在图片中距离图片顶端的距离,而V表示图片的高, VA表示摄像机的视角。
步骤13,对视觉图像中近距离视觉区域中每一个像素点进行标定。
本发明实施例中,对机器人视觉图像中的近距离视觉区域中的每一个像素点pij计算出对应的Dij,与该像素点在深度矩阵中的值Mij进行比较,得到该像素点的标签(可行,不可行与未知)。比较规则如下表(一)所示:
Figure BDA0001615047180000044
Figure BDA0001615047180000051
表(一)数据集中图片各像素点语义判断准则
如表(一)所示,若两者相差的绝对值在300毫米之内,则将该像素点的语义置为可行,若两者相差的绝对值在500毫米之上,则将该像素点的语义置为不可行。若之上两者都不满足,则将该像素点的语义置为未知。
本发明实施例中,总共搜集了1684张图像并将它们进行如上所述的标记,并分配训练集与测试集,训练集与测试集的图片比例约为8:1,也可以为其它数值和比例。
步骤2,应用深度神经网络进行训练。
请参阅图4,步骤2通过以下流程实现:
步骤21,构造深度神经网络,基于所述深度神经网络提取图像特征。
本实施例中,为了使雷达探测区域检测能够在实时条件下执行,将深度神经网络的规模设计得较为小,如图5所示,深度神经网络主要由9层组成,分别为卷积一层,卷积二层,卷积三层,卷积四层,特征分割层,全连接一层,全连接二层,全连接三层和一个分类器层。网络接收的输入图像大小为165×490,卷积一层,输出96个特征图,大小为83×245;卷积二层输出256个特征图,大小为42×123;卷积三层输出384个特征图,大小为42×123;卷积四层输出384 个特征图,大小为42×123。
本实施例中,深度神经网络的设置优选为上述数据,可以为其它设定。
步骤22,设置滑动窗口,所述滑动窗口在图像上滑动,将已提取的图像特征基于所述滑动窗口进行分割得到数个子窗口。
本实施例中,在网络的输入上设置滑动窗口的大小为15×14,一共有385个子窗口。
本实施例中,滑动窗口大小和子窗口分割结果优选为上述数据,也可以为其他设定。
步骤23,判断每个子窗口的语义标签,所述深度神经网络中的分类器层进行分类,得到语义分割结果。
子窗口语义标签如下表(二)所示:
Figure BDA0001615047180000061
表(二)子窗口语义标签判断准则
在上表中,Na表示一个子窗口中经过标定为可行的像素点的个数,而Ni表示一个子窗口中经过标定为不可行的像素点的个数。若上述两条规则都不满足,那么子窗口的标签会被置为-1,表示该子窗口的可行性不确定。在神经网络的训练过程中,标签为-1的子窗口会被忽略。
本实施例中,在特征分割层,将各个窗口的特征维度置为3×3,并送入全连接层,经过三个全连接层,在分类器层,结合各个小窗口的标签进行softmax 分类器的训练。
softmax分类器的原理可以公式表达如下:
Figure BDA0001615047180000062
其中,θ表示分类器参数,k表示类别个数,上式表示了将样本x判定为类别 j的概率。在本发明中,softmax分类器输出的是子窗口属于可行区域的概率和子窗口属于不可行区域的概率。两个概率值的和为1。
在本发明中,机器人捕获的视觉图片比较大,尺寸为720×1280,机器人的视觉范围非常宽广。为了使语义分割区域集中于机器人前方,首次去掉机器人原始视觉图片左右两边各150像素的区域,剩下的区域大小为720×980。同时,在本发明中,将地平线以下的区域置为神经网络处理区域。大小为394×980,在神经网络处理区域中,取区域最下方的330×980大小的区域为神经网络训练区域,在神经网络训练时,为了满足网络的输入大小(165×490),并且为了使神经网络适应机器人近距离和远距离视觉区域中的景物尺度,对神经网络训练区域进行缩小,使该区域的长和宽分别缩小为原始尺寸的一半。在神经网络训练完毕之,对机器人远程视觉区域进行语义分割时,在图像地平线之下规划两个语义分割子区域,尺寸均为165×490。对于两个语义分割子区域与神经网络训练区域的重叠部分,其语义为两个语义分割子区域的语义。
步骤3,划分可行性等级。
本发明中,根据每个子窗口的所述语义分割结果,对像素点的语义等级进行划分,得到像素点隶属的子窗口的可行性等级,得到分割结果。
为了更好地将深度神经网络语义分割结果与OTSU阈值分割结果相融合,在深度神经网络语义分割的结果上,对各个像素赋予可行性等级。可行性等级表征了该像素的可行性程度。本发明一共设置了4个可行性等级,分别为1、2、3、 4。1表示绝对可行;2表示可能可行;3表示可能不可行;4表示绝对不可行。根据softmax分类器输出的子窗口属于可行区域的概率对机器人视觉图片中的语义分割区域中的像素点的语义等级划分规则如下表(三)所示:
Figure BDA0001615047180000071
Figure BDA0001615047180000081
表(三)语义分割区域中的像素点语义等级划分规则
上表中,Pa表示语义分割区域中某像素点隶属的子窗口属于可行区域的概率。
步骤4,对视觉图像基于OTSU阈值分割方法进行二值分割。
在神经网络判断出语义分割区域中各个像素点的可行性等级之后,采用 OTSU阈值分割算法对语义分割区域进行二值分割。
步骤5,生成雷达探测区域。
本实施例中,结合各像素点的可行性等级和OTSU二值分割结果,输出雷达探测区域。融合的方式如下表(四)所示。
Figure BDA0001615047180000082
表(四)深度神经网络语义分割结果与OTSU阈值分割结果融合准则
在上表中,Lij表示深度神经网络判断的像素点的语义等级;Oij表示OTSU 阈值分割判断的像素点的语义,1表示可行,0表示不可行。在对深度神经网络的判断结果与OTSU阈值分割结果进行融合时,若深度神经网络和OTSU阈值分割算法同时判断该像素点可行,则该像素点属于可行区域;若深度神经网络和 OTSU阈值分割算法同时判断该像素点不可行,则该像素点属于不可行区域。若深度神经网络语义分割结果与OTSU阈值分割结果产生矛盾,则该像素点被判定为雷达探测区域。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (1)

1.一种实时雷达探测区域检测方法,应用于机器人,其特征在于,包括以下步骤:
步骤1,采集视觉图像,并对近距离视觉区域进行标定;包括以下流程:
步骤11,采集视觉图像信息;
步骤12,对近距离视觉区域进行建模;
步骤13,对视觉图像中近距离视觉区域中每一个像素点进行标定;
步骤2,应用深度神经网络进行训练;包括以下流程:
步骤21,构造深度神经网络,基于所述深度神经网络提取图像特征;
步骤22,设置滑动窗口,所述滑动窗口在图像上滑动,将已提取的图像特征基于所述滑动窗口进行分割得到数个子窗口;
步骤23,判断每个子窗口的语义标签,所述深度神经网络中的分类器层进行分类,得到语义分割结果;
步骤3,划分可行性等级;包括以下流程:
根据每个子窗口的所述语义分割结果,对像素点的语义等级进行划分,得到像素点隶属的子窗口的可行性等级,得到分割结果;
步骤4,对视觉图像基于OTSU阈值分割方法进行二值分割;包括以下流程:
得到所述分割结果后,对视觉图像应用OTSU阈值分割方法进行二值分割,得到二值分割结果;
步骤5,生成雷达探测区域;包括以下流程:
基于得到二值分割结果和分割结果,得到融合结果,生成雷达探测区域。
CN201810282598.6A 2018-04-02 2018-04-02 一种实时雷达探测区域检测方法 Active CN108573492B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810282598.6A CN108573492B (zh) 2018-04-02 2018-04-02 一种实时雷达探测区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810282598.6A CN108573492B (zh) 2018-04-02 2018-04-02 一种实时雷达探测区域检测方法

Publications (2)

Publication Number Publication Date
CN108573492A CN108573492A (zh) 2018-09-25
CN108573492B true CN108573492B (zh) 2020-04-03

Family

ID=63574602

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810282598.6A Active CN108573492B (zh) 2018-04-02 2018-04-02 一种实时雷达探测区域检测方法

Country Status (1)

Country Link
CN (1) CN108573492B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110544258B (zh) * 2019-08-30 2021-05-25 北京海益同展信息科技有限公司 图像分割的方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101975951A (zh) * 2010-06-09 2011-02-16 北京理工大学 一种融合距离和图像信息的野外环境障碍检测方法
CN104778452A (zh) * 2015-04-02 2015-07-15 浙江大学 一种基于机器学习的可行区域检测方法
CN106408015A (zh) * 2016-09-13 2017-02-15 电子科技大学成都研究院 基于卷积神经网络的岔路口识别及深度估计方法
CN106558058A (zh) * 2016-11-29 2017-04-05 北京图森未来科技有限公司 分割模型训练方法、道路分割方法、车辆控制方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7082420B2 (en) * 2002-07-13 2006-07-25 James Ting-Ho Lo Convexification method of training neural networks and estimating regression models
CN106228138A (zh) * 2016-07-26 2016-12-14 国网重庆市电力公司电力科学研究院 一种融合区域和边缘信息的道路检测算法
CN106292704A (zh) * 2016-09-07 2017-01-04 四川天辰智创科技有限公司 规避障碍物的方法及装置
CN107609522B (zh) * 2017-09-19 2021-04-13 东华大学 一种基于激光雷达和机器视觉的信息融合车辆检测***
CN107808123B (zh) * 2017-09-30 2021-11-05 杭州迦智科技有限公司 图像可行域检测方法、电子设备、存储介质、检测***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101975951A (zh) * 2010-06-09 2011-02-16 北京理工大学 一种融合距离和图像信息的野外环境障碍检测方法
CN104778452A (zh) * 2015-04-02 2015-07-15 浙江大学 一种基于机器学习的可行区域检测方法
CN106408015A (zh) * 2016-09-13 2017-02-15 电子科技大学成都研究院 基于卷积神经网络的岔路口识别及深度估计方法
CN106558058A (zh) * 2016-11-29 2017-04-05 北京图森未来科技有限公司 分割模型训练方法、道路分割方法、车辆控制方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A Self-learning Framework for Statistical Ground Classification using Radar and Monocular Vision;Annalisa Milella et al.;《Journal of Field Robotics》;20140124;第20-41页 *
基于卷积神经网络的目标检测研究综述;李旭冬 等;《计算机应用研究》;20171031;第2881-2891页 *
基于激光雷达的道路可行区域检测;邹斌 等;《武汉理工大学学报(交通科学与工程版)》;20170430;第203-207页 *

Also Published As

Publication number Publication date
CN108573492A (zh) 2018-09-25

Similar Documents

Publication Publication Date Title
CN111563415B (zh) 一种基于双目视觉的三维目标检测***及方法
Toulminet et al. Vehicle detection by means of stereo vision-based obstacles features extraction and monocular pattern analysis
CN114970321A (zh) 一种基于动态轨迹流的场景流数字孪生方法及***
CN110909671B (zh) 一种融合概率和高度信息的栅格地图障碍物检测方法
Wang et al. A unified framework for mutual improvement of SLAM and semantic segmentation
CN111882586B (zh) 一种面向剧场环境的多演员目标跟踪方法
EP3690716A1 (en) Method and device for merging object detection information detected by each of object detectors corresponding to each camera nearby for the purpose of collaborative driving by using v2x-enabled applications, sensor fusion via multiple vehicles
EP2124194B1 (en) Method of detecting objects
CN111098850A (zh) 一种自动停车辅助***及自动泊车方法
CN111259710B (zh) 采用停车位框线、端点的停车位结构检测模型训练方法
CN106446785A (zh) 基于双目视觉的可行道路检测方法
Ghahremannezhad et al. Automatic road detection in traffic videos
CN111260955B (zh) 采用停车位框线、端点的停车位检测***及方法
CN114648549A (zh) 一种融合视觉和激光雷达的交通场景目标检测及定位方法
CN117152719B (zh) 除草障碍物检测方法、设备、存储介质及装置
CN108573492B (zh) 一种实时雷达探测区域检测方法
Hasan et al. Identification of construction era for Indian subcontinent ancient and heritage buildings by using deep learning
KR20200071842A (ko) 어라운드 뷰 모니터링 시스템 및 가용 주차 공간 검출 방법
CN111259709B (zh) 基于弹性多边形的停车位结构检测模型的训练方法
Rituerto et al. Label propagation in videos indoors with an incremental non-parametric model update
Kiran et al. Automatic hump detection and 3D view generation from a single road image
CN115307622A (zh) 在动态环境下基于深度学习的自主建图方法和***
Dorner et al. Object recognition by effective methods and means of computer vision
CN114972732A (zh) 一种烟火检测方法、装置、设备及计算机可读存储介质
CN110363162B (zh) 一种聚焦关键区域的深度学习目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant