CN110533031A - 一种目标检测识别与定位的方法 - Google Patents

一种目标检测识别与定位的方法 Download PDF

Info

Publication number
CN110533031A
CN110533031A CN201910775318.XA CN201910775318A CN110533031A CN 110533031 A CN110533031 A CN 110533031A CN 201910775318 A CN201910775318 A CN 201910775318A CN 110533031 A CN110533031 A CN 110533031A
Authority
CN
China
Prior art keywords
training
identification
positioning
resnet
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910775318.XA
Other languages
English (en)
Inventor
殷光强
王治国
郭贤生
刘学婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Electrical Technology Huian Technology Co Ltd
Original Assignee
Chengdu Electrical Technology Huian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Electrical Technology Huian Technology Co Ltd filed Critical Chengdu Electrical Technology Huian Technology Co Ltd
Priority to CN201910775318.XA priority Critical patent/CN110533031A/zh
Publication of CN110533031A publication Critical patent/CN110533031A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及通过随机初始化训练并结合ResNet作为基础网络实现小目标场景的识别与定位,具体为一种目标检测识别与定位的方法,其特征在于包括如下步骤:A.数据集的制作;B.***框架的构建;C.模型的训练,发明是针对小目标场景设计的一套目标识别与定位***,检测目标为一个识别范围为10m×10m的室内场景中运动的对象,每一个人带一顶帽子,每一顶帽子均有所差异。本发明可以通过不使用预训练模型,因为预训练模型虽然能加快收敛,但对于不同的任务无法改动相适应的特征提取网络来满足需求,本发明使用随机地初始化训练,在整个网络添加BN层来稳定梯度,并运用改进的ResNet作为基础网络来加强对小目标场景的识别与定位。

Description

一种目标检测识别与定位的方法
技术领域
本发明涉及通过随机初始化训练并结合ResNet作为基础网络实现小目标场景的识别与定位,具体为一种目标检测识别与定位的方法。
背景技术
一直以来,目标检测包含两个部分,即图像中目标的位置信息和对目标进行分类。传统的检测方法随着环境复杂度的增加已经不能满足大众的需求,深度学习的出现解决了这一难题,使得在环境复杂度很高的场景下也能对目标进行识别与定位。比如CNN、R-CNN和FastR-CNN,但它们在速度与精度上都有一定的限制,后边出现的YOLO和SSD在提高精度的同时也达到了实时检测的效果。
上述的方法多用于大中型场景的识别与定位,不适用于小目标场景。对于小目标场景,这些定位算法的定位精度并不能令人满意,由此设计的定位***表现也不够稳定。
所以,迫切需要一种稳定、精确的定位方法,以提高识别与定位的效果。
发明内容
有鉴于此,本发明的目的在于提供一种基于深度学习的方法,通过在整个网络添加BN层来稳定梯度。基于此优化角度,通过对小目标场景中的一系列参数进行随机地初始化训练并结合ResNet作为基础网络以此来实现小目标场景的识别与定位,可以提高小目标场景的识别与定位的稳定性及精确性。
本发明解决上述技术问题所采用的技术方案如下:
一种目标检测识别与定位的方法,其特征在于包括如下步骤:
A.数据集的制作,所述数据集的制作包括数据对象的采集和对象的标定;
B.***框架的构建,所述***框架的构建是根据步骤A中所制作的数据集的特征来进行***框架模板的构建和标定;
C.模型的训练,通过训练得到的数据进行定位。
所述步骤A的详细步骤包括:
S11:检测目标为一个识别范围是10m×10m的室内场景中运动的对象;
S12:视觉标定物为每一个对象头上带的帽子,每一顶帽子均有所差异;
S13:数据集为两路相机采集下的不同视角的图像的集合;
S14:标签可通过手动对采集到的图像数据进行标定。
所述步骤B的详细步骤包括:
S21:在视频采集端采用两个摄像头进行图像的采集;
S22:在对象运动目标检测中采用Root-ResNet-18来做随机初始化训练;
S23:在特征提取网络后面采用残差模块替换卷积层;
S24:在摄像机的标定中采用基于平面模板的标定方法。
所述步骤A的详细步骤包括:
S31:采用Root-ResNet-18作为基础网络;
S32:通过在整个网络添加BN层来稳定梯度;
S33:设定初始学习率为0.00025,采用multistep对学习率进行改变,进而使得收敛效果变得更好;
S34:利用摄像机的目标检测结果进行定位。
本发明的有益效果:
1.本发明可以通过不使用预训练模型,因为预训练模型虽然能加快收敛,但对于不同的任务无法改动相适应的特征提取网络来满足需求。
2.本发明使用随机地初始化训练,在整个网络添加BN层来稳定梯度,并运用改进的ResNet作为基础网络来加强对小目标场景的识别与定位。
附图说明
图1为根据本发明的一个实施例的对象运动目标实时检测定位流程图;
图2为根据本发明的一个实施例的定位方法的双目相机极线几何约束模型图;
图3为根据本发明的一个实施例的基础网络为Root-ResNet-18的网络架构对比图。
具体实施方式
实施例1:
如图1-3所示,
一种目标检测识别与定位的方法,其特征在于包括如下步骤:
A.数据集的制作,所述数据集的制作包括数据对象的采集和对象的标定;
B.***框架的构建,所述***框架的构建是根据步骤A中所制作的数据集的特征来进行***框架模板的构建和标定;
C.模型的训练,通过训练得到的数据进行定位。
首先是数据集的制作,本发明是针对小目标场景设计的一套目标识别与定位***,
检测目标为一个识别范围为10m×10m的室内场景中运动的对象,每一个人带一顶帽子,每一顶帽子均有所差异。数据集为两路相机采集下的不同视角的图像的集合,标签可通过手动对采集到的图像数据进行标定。本发明的训练集由我们人为采集,手动标记,共有632张图片,从上述632张图片中提取120张图片作为测试集;验证集分为两个场景,人为对每个场景中的10个运动目标进行采集图片,共956张图片。
其次是***框架的构建,在视频采集端采用两个摄像头进行图像的采集,直接输出数字信号,省去了将模拟信号转化为数字信号的操作,对象运动目标实时检测定位流程图如图1所示。采用Root-ResNet-18来做随机初始化训练,该方法能得到很好的测试效果,既保证了精度,也保证了速度,Root-ResNet-18是先将ResNet-18的第一个卷积层的stride=2改为1,即取消第一个下采样操作;再将第一个7x7卷积核替换成3个3x3卷积,这样做是通过使用更加冗余的特征来提升结果。之后在特征提取网络后面采用残差模块替换卷积层,这样做的结果会减少参数量和计算量,检测准确率也会得到提升。对于摄像机的标定采用基于平面模板的标定方法,然后进行去畸变处理,得到合理的相机标定结果。
最后是模型的训练,正如前面所言,采用Root-ResNet-18作为基础网络,通过在整个网络添加BN层来稳定梯度。设定初始学习率为0.00025,采用multistep对学习率进行改变,当迭代到10000,30000,50000次时,学习率改为原来的0.1倍,动量为0.9,weight_decay为0.0005,batch_size为32,总共训练60000次,总共训练时间约为120个小时,通过反向传播,降低损失,迭代,得到最优模型参数进行定位,利用摄像机的目标检测结果进行定位,如图2所示。
实施例2:
如图1-3所示,
一种目标检测识别与定位的方法,其特征在于包括如下步骤:
A.数据集的制作,所述数据集的制作包括数据对象的采集和对象的标定;
B.***框架的构建,所述***框架的构建是根据步骤A中所制作的数据集的特征来进行***框架模板的构建和标定;
C.模型的训练,通过训练得到的数据进行定位。
所述步骤C的详细步骤包括:
S31:采用Root-ResNet-18作为基础网络;
S32:通过在整个网络添加BN层来稳定梯度;
S33:设定初始学习率为0.00025,采用multistep对学习率进行改变,进而使得收敛效果变得更好;
S34:利用摄像机的目标检测结果进行定位。
设定初始学习率为0.00025,采用multistep对学习率进行改变,当迭代到10000,30000,50000次时,学习率改为原来的0.1倍,动量为0.9,weight_decay为0.0005,batch_size为32,总共训练60000次,总共训练时间约为120个小时,通过反向传播,降低损失,迭代,得到最优模型参数进行定位,利用摄像机的目标检测结果进行定位。
实施例3:
如图1-3所示,
一种目标检测识别与定位的方法,其特征在于包括如下步骤:
A.数据集的制作,所述数据集的制作包括数据对象的采集和对象的标定;
B.***框架的构建,所述***框架的构建是根据步骤A中所制作的数据集的特征来进行***框架模板的构建和标定;
C.模型的训练,通过训练得到的数据进行定位。所述步骤A的详细步骤包括:
S11:检测目标为一个识别范围是10m×10m的室内场景中运动的对象;
S12:视觉标定物为每一个对象头上带的帽子,每一顶帽子均有所差异;
S13:数据集为两路相机采集下的不同视角的图像的集合;
S14:标签可通过手动对采集到的图像数据进行标定。
首先是数据集的制作,本发明是针对小目标场景设计的一套目标识别与定位***,
检测目标为一个识别范围为10m×10m的室内场景中运动的对象,每一个人带一顶帽子,每一顶帽子均有所差异。数据集为两路相机采集下的不同视角的图像的集合,标签可通过手动对采集到的图像数据进行标定。本发明的训练集由我们人为采集,手动标记,共有632张图片,从上述632张图片中提取120张图片作为测试集;验证集分为两个场景,人为对每个场景中的10个运动目标进行采集图片,共956张图片。
所述步骤B的详细步骤包括:
S21:在视频采集端采用两个摄像头进行图像的采集;
S22:在对象运动目标检测中采用Root-ResNet-18来做随机初始化训练;
S23:在特征提取网络后面采用残差模块替换卷积层;
S24:在摄像机的标定中采用基于平面模板的标定方法。
采用Root-ResNet-18来做随机初始化训练,该方法能得到很好的测试效果,既保证了精度,也保证了速度,Root-ResNet-18是先将ResNet-18的第一个卷积层的stride=2改为1,即取消第一个下采样操作;再将第一个7x7卷积核替换成3个3x3卷积,这样做是通过使用更加冗余的特征来提升结果。之后在特征提取网络后面采用残差模块替换卷积层,这样做的结果会减少参数量和计算量,检测准确率也会得到提升。对于摄像机的标定采用基于平面模板的标定方法,然后进行去畸变处理,得到合理的相机标定结果。
实施例4:
如图1-3所示,
一种目标检测识别与定位的方法,其特征在于包括如下步骤:
A.数据集的制作,所述数据集的制作包括数据对象的采集和对象的标定;
B.***框架的构建,所述***框架的构建是根据步骤A中所制作的数据集的特征来进行***框架模板的构建和标定;
C.模型的训练,通过训练得到的数据进行定位。
所述步骤A的详细步骤包括:
S11:检测目标为一个识别范围是10m×10m的室内场景中所有运动的对象;
S12:视觉标定物为每一个对象头上带的帽子,每一顶帽子均有所差异;
S13:数据集为两路相机采集下的不同视角的图像的集合;
S14:标签可通过手动对采集到的图像数据进行标定。
首先是数据集的制作,本发明是针对小目标场景设计的一套目标识别与定位***,
检测目标为一个识别范围为10m×10m的室内场景中运动的对象,每一个人带一顶帽子,每一顶帽子均有所差异。数据集为两路相机采集下的不同视角的图像的集合,标签可通过手动对采集到的图像数据进行标定。本发明的训练集由我们人为采集,手动标记,共有632张图片,从上述632张图片中提取120张图片作为测试集;验证集分为两个场景,人为对每个场景中的10个运动目标进行采集图片,共956张图片。
所述步骤B的详细步骤包括:
S21:在视频采集端采用两个摄像头进行图像的采集;
S22:在对象运动目标检测中采用Root-ResNet-18来做随机初始化训练;
S23:在特征提取网络后面采用残差模块替换卷积层;
S24:在摄像机的标定中采用基于平面模板的标定方法。
采用Root-ResNet-18来做随机初始化训练,该方法能得到很好的测试效果,既保证了精度,也保证了速度,Root-ResNet-18是先将ResNet-18的第一个卷积层的stride=2改为1,即取消第一个下采样操作;再将第一个7x7卷积核替换成3个3x3卷积,这样做是通过使用更加冗余的特征来提升结果。之后在特征提取网络后面采用残差模块替换卷积层,这样做的结果会减少参数量和计算量,检测准确率也会得到提升。对于摄像机的标定采用基于平面模板的标定方法,然后进行去畸变处理,得到合理的相机标定结果。
所述步骤C的详细步骤包括:
S31:采用Root-ResNet-18作为基础网络;
S32:通过在整个网络添加BN层来稳定梯度;
S33:设定初始学习率为0.00025,采用multistep对学习率进行改变,进而使得收敛效果变得更好;
S34:利用摄像机的目标检测结果进行定位。
设定初始学习率为0.00025,采用multistep对学习率进行改变,当迭代到10000,30000,50000次时,学习率改为原来的0.1倍,动量为0.9,weight_decay为0.0005,batch_size为32,总共训练60000次,总共训练时间约为120个小时,通过反向传播,降低损失,迭代,得到最优模型参数进行定位,利用摄像机的目标检测结果进行定位
实施例5:
如图1-3所示,
首先是数据集的制作,本发明是针对小目标场景设计的一套目标识别与定位***,
检测目标为一个识别范围为10m×10m的室内场景中运动的对象,每一个人带一顶帽子,每一顶帽子均有所差异。数据集为两路相机采集下的不同视角的图像的集合,标签可通过手动对采集到的图像数据进行标定。本发明的训练集由我们人为采集,手动标记,共有632张图片,从上述632张图片中提取120张图片作为测试集;验证集分为两个场景,人为对每个场景中的10个运动目标进行采集图片,共956张图片。
其次是***框架的构建,在视频采集端采用两个摄像头进行图像的采集,直接输出数字信号,省去了将模拟信号转化为数字信号的操作,对象运动目标实时检测定位流程图如图1所示。采用Root-ResNet-18来做随机初始化训练,该方法能得到很好的测试效果,既保证了精度,也保证了速度,Root-ResNet-18是先将ResNet-18的第一个卷积层的stride=2改为1,即取消第一个下采样操作;再将第一个7x7卷积核替换成3个3x3卷积,这样做是通过使用更加冗余的特征来提升结果。之后在特征提取网络后面采用残差模块替换卷积层,这样做的结果会减少参数量和计算量,检测准确率也会得到提升。对于摄像机的标定采用基于平面模板的标定方法,然后进行去畸变处理,得到合理的相机标定结果。
最后是模型的训练,正如前面所言,采用Root-ResNet-18作为基础网络,通过在整个网络添加BN层来稳定梯度。设定初始学习率为0.00025,采用multistep对学习率进行改变,当迭代到10000,30000,50000次时,学习率改为原来的0.1倍,动量为0.9,weight_decay为0.0005,batch_size为32,总共训练60000次,总共训练时间约为120个小时,通过反向传播,降低损失,迭代,得到最优模型参数进行定位,利用摄像机的目标检测结果进行定位,如图2所示。
以上参照附图说明了本发明的优选实施例,并非因此局限本发明的权利范围。本领域技术人员不脱离本发明的范围和实质内所作的任何修改、等同替换和改进,均应在本发明的权利范围之内。

Claims (4)

1.一种目标检测识别与定位的方法,其特征在于包括如下步骤:
A.数据集的制作,所述数据集的制作包括数据对象的采集和对象的标定;
B.***框架的构建,所述***框架的构建是根据步骤A中所制作的数据集的特征来进行***框架模板的构建和标定;
C.模型的训练,通过训练得到的数据进行定位。
2.根据权利要求1所述一种目标检测识别与定位的方法,其特征在于:所述步骤A的详细步骤包括:
S11:检测目标为一个识别范围是10m×10m的室内场景中运动的对象;
S12:视觉标定物为每一个对象头上带的帽子,每一顶帽子均有所差异;
S13:数据集为两路相机采集下的不同视角的图像的集合;
S14:标签可通过手动对采集到的图像数据进行标定。
3.根据权利要求1所述一种目标检测识别与定位的方法,其特征在于:所述步骤B的详细步骤包括:
S21:在视频采集端采用两个摄像头进行图像的采集;
S22:在对象运动目标检测中采用Root-ResNet-18来做随机初始化训练;
S23:在特征提取网络后面采用残差模块替换卷积层;
S24:在摄像机的标定中采用基于平面模板的标定方法。
4.根据权利要求1所述一种目标检测识别与定位的方法,其特征在于:所述步骤C的详细步骤包括:
S31:采用Root-ResNet-18作为基础网络;
S32:通过在整个网络添加BN层来稳定梯度;
S33:设定初始学习率为0.00025,采用multistep对学习率进行改变,进而使得收敛效果变得更好;
S34:利用摄像机的目标检测结果进行定位。
CN201910775318.XA 2019-08-21 2019-08-21 一种目标检测识别与定位的方法 Pending CN110533031A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910775318.XA CN110533031A (zh) 2019-08-21 2019-08-21 一种目标检测识别与定位的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910775318.XA CN110533031A (zh) 2019-08-21 2019-08-21 一种目标检测识别与定位的方法

Publications (1)

Publication Number Publication Date
CN110533031A true CN110533031A (zh) 2019-12-03

Family

ID=68663970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910775318.XA Pending CN110533031A (zh) 2019-08-21 2019-08-21 一种目标检测识别与定位的方法

Country Status (1)

Country Link
CN (1) CN110533031A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401419A (zh) * 2020-03-05 2020-07-10 浙江理工大学桐乡研究院有限公司 基于改进RetinaNet的员工着装规范检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295637A (zh) * 2016-07-29 2017-01-04 电子科技大学 一种基于深度学习与强化学习的车辆识别方法
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
CN108765826A (zh) * 2018-05-31 2018-11-06 四川物联亿达科技有限公司 一种基于深度学习的多遮挡模糊场景人形识别方法及***
CN108875787A (zh) * 2018-05-23 2018-11-23 北京市商汤科技开发有限公司 一种图像识别方法及装置、计算机设备和存储介质
CN109492674A (zh) * 2018-10-19 2019-03-19 北京京东尚科信息技术有限公司 用于目标检测的ssd框架的生成方法及装置
CN109697389A (zh) * 2017-10-23 2019-04-30 北京京东尚科信息技术有限公司 身份识别方法与装置
CN109949229A (zh) * 2019-03-01 2019-06-28 北京航空航天大学 一种多平台多视角下的目标协同检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
CN106295637A (zh) * 2016-07-29 2017-01-04 电子科技大学 一种基于深度学习与强化学习的车辆识别方法
CN109697389A (zh) * 2017-10-23 2019-04-30 北京京东尚科信息技术有限公司 身份识别方法与装置
CN108875787A (zh) * 2018-05-23 2018-11-23 北京市商汤科技开发有限公司 一种图像识别方法及装置、计算机设备和存储介质
CN108765826A (zh) * 2018-05-31 2018-11-06 四川物联亿达科技有限公司 一种基于深度学习的多遮挡模糊场景人形识别方法及***
CN109492674A (zh) * 2018-10-19 2019-03-19 北京京东尚科信息技术有限公司 用于目标检测的ssd框架的生成方法及装置
CN109949229A (zh) * 2019-03-01 2019-06-28 北京航空航天大学 一种多平台多视角下的目标协同检测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401419A (zh) * 2020-03-05 2020-07-10 浙江理工大学桐乡研究院有限公司 基于改进RetinaNet的员工着装规范检测方法

Similar Documents

Publication Publication Date Title
CN109269405B (zh) 一种快速3d测量和比对方法
CN109003311B (zh) 一种鱼眼镜头的标定方法
US8687062B1 (en) Step-stare oblique aerial camera system
CN109509230A (zh) 一种应用于多镜头组合式全景相机的slam方法
CN105187723B (zh) 一种无人飞行器的摄像处理方法
CN107392964A (zh) 基于室内特征点和结构线结合的室内slam方法
CN108171787A (zh) 一种基于orb特征检测的三维重建方法
CN105197252A (zh) 一种小型无人机降落方法及***
CN106373159A (zh) 一种简化的无人机多目标定位方法
CN108196285A (zh) 一种基于多传感器融合的精确定位***
CN109996728A (zh) 用于模拟视觉数据的方法和***
CN108955682A (zh) 手机室内定位导航方法
CN109086795A (zh) 一种图像误匹配精确剔除方法
CN109884793A (zh) 用于估计虚拟屏幕的参数的方法和设备
CN112268546B (zh) 一种单镜头无人机倾斜摄影的航带生成方法及装置
CN109765932A (zh) 一种荒漠灌丛盖度无人机调查方法
CN105354808A (zh) 鱼眼图像的矫正方法
CN105335977A (zh) 摄像***及目标对象的定位方法
CN115330594A (zh) 一种基于无人机倾斜摄影3d模型的目标快速识别与标定方法
CN109781068A (zh) 面向空间应用的视觉测量***地面模拟评估***及方法
CN110533031A (zh) 一种目标检测识别与定位的方法
Zhao et al. Phenotyping of individual apple tree in modern orchard with novel smartphone-based heterogeneous binocular vision and YOLOv5s
CN107464214B (zh) 生成太阳能电站全景图的方法
CN111161399B (zh) 基于二维影像生成三维模型的数据处理方法及组件
CN113936031A (zh) 一种基于机器视觉的云影轨迹预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191203

RJ01 Rejection of invention patent application after publication