CN110781720A - 基于图像处理的多传感器融合的物体识别方法 - Google Patents
基于图像处理的多传感器融合的物体识别方法 Download PDFInfo
- Publication number
- CN110781720A CN110781720A CN201910837809.2A CN201910837809A CN110781720A CN 110781720 A CN110781720 A CN 110781720A CN 201910837809 A CN201910837809 A CN 201910837809A CN 110781720 A CN110781720 A CN 110781720A
- Authority
- CN
- China
- Prior art keywords
- image
- laser
- coordinate
- camera
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012545 processing Methods 0.000 title claims abstract description 22
- 230000004927 fusion Effects 0.000 title claims abstract description 18
- 238000001514 detection method Methods 0.000 claims abstract description 21
- 238000013135 deep learning Methods 0.000 claims abstract description 9
- 230000003287 optical effect Effects 0.000 claims abstract description 7
- 238000005516 engineering process Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 abstract description 6
- 238000006243 chemical reaction Methods 0.000 description 7
- 239000010410 layer Substances 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于图像处理的多传感器融合的物体识别方法,包括以下步骤:S1:获取三通道RGB彩色图像及一通道多线激光测距图像;S2:将RGB彩色图像的摄像机光学坐标投射成激光点云坐标,激光点云坐标投射成360°环形全景坐标;S3:利用深度学习的图像识别技术,针对事先训练过的目标进行目标检测框选定,得到目标检测边界框分布图像及物体类别分布图像。本发明方法简单,实时性高,基于多传感器实现六通道图像的映射融合,在传统的RGBD四通道图像的基础上,增加了二通道来源于目标检测的物体类别分布图像、目标检测边界框分布图像,为实现快速准确的目标物体定位提供了精准的图像处理基础。
Description
技术领域
本发明涉及图像处理领域,特别是涉及一种基于图像处理的多传感器融合的物体识别方法。
背景技术
变电站是电力***稳定运行的重要环节,在变电站中分布着各中重要的变电设备,虽然现有的变电站一般为封闭区域,外来人员不能够进入到变电站内,但是对于变电站内的工作人员来说,对于工作人员的行为却难以得到有效管控,尤其是在变电站内的某些区域来说,采用现有的摄像监控难以准确监控,并且摄像监控存在着盲区,更为重要的是,变电设备种类多、结构不固定,与线路相比检修作业环境更复杂,检修作业过程更繁琐,作业人员位置若无监视则容易因疏忽或其他方面原因误入带电间隔(误碰带电设备)容易引发安全事故,因此应对进入变电站内的作业人员进行准确识别,确保变电站的安全稳定,进而确保整个电网***的稳定运行。
目前对变电站运维人员的定位多采用摄像头拍摄、激光雷达定位等技术,对拍摄的图像采用人工检测进行人员识别,费时费力,或采用图像处理的方法进行人员定位,但存在的问题是摄像机和激光雷达均为球形镜头,但两者的坐标刻度线截然不同,导致的桶形畸变方向也不一样。在传统的图像处理中,一般是将桶形畸变图像转成无畸变的图像。但该处理方法计算复杂,实时性差,同时在整张图像上进行单图层的人员定位跟踪及目标距离检测工作量巨大,定位效果差,距离测算准确率低。
因此亟需提供一种新型的基于图像处理的物体定位方法来解决上述问题。
发明内容
本发明所要解决的技术问题是提供一种基于图像处理的多传感器融合的物体识别方法,能够快速准确地实现物体识别。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种基于图像处理的多传感器融合的物体识别方法,包括以下步骤:
S1:获取三通道RGB彩色图像及一通道多线激光测距图像;
S2:将RGB彩色图像的摄像机光学坐标投射成激光点云坐标,激光点云坐标投射成360°环形全景坐标;
S3:利用深度学习的图像识别技术,针对事先训练过的目标进行目标检测框选定,得到目标检测边界框分布图像及物体类别分布图像。
在本发明一个较佳实施例中,在步骤S1中,所述三通道RGB彩色图像通过摄像机原始图像获取,所述一通道多线激光测距图像通过获取激光点云信息后生成独立图层得到。
在本发明一个较佳实施例中,在步骤S2中,将摄像机坐标投射成激光点云坐标的具体步骤包括:
S201:创建3D临时贴图,贴图坐标为激光坐标,贴图大小为单个摄像头贴图转换为激光点云坐标后的宽度和高度;
S202:计算贴图下个像素的激光坐标;
S203:判断下个像素是否为贴图的结尾像素,若不是则重复步骤S202,若是则进行下一步骤;
S204:将八个摄像机贴图合并,拼接生成激光坐标下的360度全景图。
进一步的,步骤S202的具体计算过程包括:
首先将激光坐标转换成摄像机镜头坐标,再将镜头坐标转换成摄像机像素坐标,最后将对应摄像机像素读取到贴图。
在本发明一个较佳实施例中,在步骤S2中,将激光点云坐标投射成环形全景坐标的具体步骤包括:
S211:创建一个激光点阵图层,大小为1920*1080,左右边缘角度为0—360°,上下角度为-15°—15°,左右边缘角度、上下角度均匀铺展拉伸;
S212:读取一列激光点阵存储区数据;
S213:计算打印图像的像素角度;
S214:计算像素位置,将对应数据赋值到打印的图层;
S215:判断当前读取的激光点阵存储区数据是否为数据的结尾,若不是则重复步骤S212—S214,若是则生成图像结束。
在本发明一个较佳实施例中,在步骤S3中,事先训练过的目标包括目标人员、工作服、安全帽。
本发明的有益效果是:
(1)本发明基于多传感器实现六通道图像的映射融合,在传统的RGBD四通道图像的基础上,增加了二通道来源于目标检测的物体类别分布图像、目标检测边界框分布图像,为实现快速准确的目标物体定位提供了精准的图像处理基础;
(2)本发明在单镜头光学坐标到激光坐标再到360度环形全景坐标的转换过程中,通过设计曲面对曲面的转换方式,直接将曲面的图像投射到曲面的激光坐标上去,无需进行畸变图像到无畸变图像的转换,实时性更高;
(3)与传统的激光雷达的目标分割和跟踪方法不同,本发明利用了深度学习进行目标分割和跟踪,然后激光点投影到深度学习的检测目标框内,不但可以获取定位信息,也可以获取物体的类别信息,而且实用性好,在大部分场合下,激光点云是稀疏的,而图像是稠密的,所以点云获取的成本代价非常高,而图像获取的成本代价相对低,将目标分割和跟踪放在图像处理中能够极大的减少对激光点云的依赖,降低成本。
附图说明
图1是本发明基于图像处理的多传感器融合的物体识别方法的流程图;
图2是多图层投影示意图;
图3是步骤S2中将摄像机坐标投射成激光点云坐标的流程示意图;
图4是步骤S2中将激光点云坐标投射成环形全景坐标的流程示意图。
具体实施方式
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
请参阅图1,本发明实施例包括:
一种基于图像处理的多传感器融合的物体识别方法,主要应用在变电站安监巡检机器人上,通过深度学习的目标检测,和实时激光点云的融合,完成现场的人员个体定位,其包括以下步骤:
S1:获取三通道RGB彩色图像及一通道多线激光测距图像;
所述三通道RGB彩色图像通过摄像机原始图像获取,所述一通道多线激光测距图像通过获取激光点云信息后生成独立图层得到,激光点云信息为16线360°激光的深度图像,由雷达直接读取获得。各图像的定义和数据编码为:
(1)彩色图像R:摄像机原始图像红色通道,灰度0-255;
(2)彩色图像G:摄像机原始图像绿色通道,灰度0-255;
(3)彩色图像B:摄像机原始图像蓝色通道,灰度0-255;
(4)多线激光测距图像:本实施例中采用16线激光测距灰度图像,灰度1-255,其中纯黑色0表示没有意思,1-255表示距离。
S2:将RGB彩色图像的摄像机光学坐标投射成激光点云坐标,激光点云坐标投射成360°环形全景坐标;结合图2,该步骤中通过设计曲面对曲面的转换方式,直接将曲面的图像投射到曲面的激光坐标上去,无需进行畸变图像到无畸变图像的转换,实时性更高,全部转换公式分为两个步骤:
(1)RGB彩色图像的摄像机光学坐标到16线激光点云坐标的投射,结合图3,具体包括以下步骤:
S201:创建3D临时贴图,贴图坐标为激光坐标,贴图大小为单个摄像头贴图(转换为激光坐标下的彩色图像)转换为激光点云坐标后的宽度和高度;
S202:计算贴图下个像素的激光坐标,包括将激光坐标转换成摄像机镜头坐标,实际上是将镜头中的像素位置(物理位置)标定到激光坐标中,采用激光坐标的每个像素“读取”镜头对应位置的数据,显示效果更均匀;再将镜头坐标转换成摄像机像素坐标,最后将对应摄像机像素读取到贴图;
S203:判断下个像素是否为贴图的结尾像素,若不是则重复步骤S202,若是则进行下一步骤;
S204:将八个摄像机贴图合并,拼接生成激光坐标下的360度全景图。
该步采用的转换公式为:
已知16线激光图像的横坐标(经度弧度)为longitude,纵坐标(纬度弧度)为latitude;输出图像的像素高度为high,宽度为width;相机最大可视角度(弧度)为viewMax;
设光学镜头的旋转弧度坐标为alpha,偏离中心点弧度坐标为beta;
设相机原始图像的像素横坐标为imageX,纵坐标为imageY;
求alpha:
第一像限:
alpha=arctan(tan(latitude)/sin(longitude));
第二,三像限:
alpha=arctan(tan(latitude)/sin(longitude))+pi;其中pi=3.1415926;
第四像限:
alpha=arctan(tan(latitude)/sin(longitude))+2*pi;其中
90度:alpha=0.5*pi;
270度:alpha=1.5*pi;
原点:alpha=0;
求beta:
beta=arccos(cos(longitude)*cos(latitude));
求imageX:
imageX=width/2+cos(alpha)*sqrt((high/2)^2+(width/2)^2)*beta/(viewMax/2);
求imageY:
imageY=high/2-sin(alpha)*sqrt((high/2)^2+(width/2)^2)*beta/(viewMax/2);
(2)16线激光点云坐标到360°环形全景坐标的投射,结合图4,具体包括以下步骤:
S211:创建一个激光点阵图层,大小为1920*1080,左右边缘角度为0—360°,上下角度为-15°—15°,左右边缘角度、上下角度均匀铺展拉伸;
S212:读取一列激光点阵存储区数据;
S213:计算打印图像的像素角度,计算过程为:
已知当前激光点的序列号No,顶边(第1线)和底边(第16线)的角度差angleMax,线的数量为number;设当前激光点的纬度(角度)为latitude,则
latitude=angleMax/2-(No-1)*angleMax/(number-1);
经度(角度)longitude直接读取;
S214:计算像素位置,将对应数据赋值到打印的图层,计算过程为:
已知图像原点(0,0)位于左上角,激光原点(0,0)位于中心;激光纬度为latitude,经度为longitude;激光贴图上下边缘角度差latitudeMax,左右边缘角度差longitudeMax;贴图像素高度最大值为high,宽度最大值为width;
设当前点打印像素横坐标为x,纵坐标为y;
求x,y:
x=width*longitude/longitudeMax+width/2;
y=high/2-high*latitude/latitudeMax;
S215:判断当前读取的激光点阵存储区数据是否为数据的结尾,若不是则重复步骤S212—S214,若是则生成图像结束。
S3:利用深度学习的图像识别技术,针对事先训练过的目标进行目标检测框选定,得到目标检测边界框分布图像及物体类别分布图像;
其中,事先训练过的目标包括目标人员、工作服、安全帽。与传统的激光雷达的目标分割和跟踪方法不同,本发明利用了深度学习进行目标分割和跟踪,然后激光点投影到深度学习的检测目标框内,不但可以获取定位信息,也可以获取物体的类别信息,而且实用性好,在大部分场合下,激光点云是稀疏的,而图像是稠密的,所以点云获取的成本代价非常高,而图像获取的成本代价相对低,将目标分割和跟踪放在图像处理中能够极大的减少对激光点云的依赖,降低成本。
所述目标检测边界框分布图像及物体类别分布图像的定义和数据编码为:
目标检测边界框分布图像:255表示边界像素,0表示非边缘像素;
物体类别分布图像:边界框内填充类别1-255,边界框外类别0。
本发明基于多传感器实现六通道图像的映射融合,在传统的RGBD四通道图像的基础上,增加了二通道来源于目标检测的物体类别分布图像、目标检测边界框分布图像,为实现快速准确的目标物体定位提供了精准的图像处理基础。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (6)
1.一种基于图像处理的多传感器融合的物体识别方法,包括以下步骤:
S1:获取三通道RGB彩色图像及一通道多线激光测距图像;
S2:将RGB彩色图像的摄像机光学坐标投射成激光点云坐标,激光点云坐标投射成360°环形全景坐标;
S3:利用深度学习的图像识别技术,针对事先训练过的目标进行目标检测框选定,得到目标检测边界框分布图像及物体类别分布图像。
2.根据权利要求1所述的基于图像处理的多传感器融合的物体识别方法,其特征在于,在步骤S1中,所述三通道RGB彩色图像通过摄像机原始图像获取,所述一通道多线激光测距图像通过获取激光点云信息后生成独立图层得到。
3.根据权利要求1所述的基于图像处理的多传感器融合的物体识别方法,其特征在于,在步骤S2中,将摄像机坐标投射成激光点云坐标的具体步骤包括:
S201:创建3D临时贴图,贴图坐标为激光坐标,贴图大小为单个摄像头贴图转换为激光点云坐标后的宽度和高度;
S202:计算贴图下个像素的激光坐标;
S203:判断下个像素是否为贴图的结尾像素,若不是则重复步骤S202,若是则进行下一步骤;
S204:将八个摄像机贴图合并,拼接生成激光坐标下的360度全景图。
4.根据权利要求3所述的基于图像处理的多传感器融合的物体识别方法,其特征在于,步骤S202的具体计算过程包括:
首先将激光坐标转换成摄像机镜头坐标,再将镜头坐标转换成摄像机像素坐标,最后将对应摄像机像素读取到贴图。
5.根据权利要求1所述的基于图像处理的多传感器融合的物体识别方法,其特征在于,在步骤S2中,将激光点云坐标投射成环形全景坐标的具体步骤包括:
S211:创建一个激光点阵图层,大小为1920*1080,左右边缘角度为0—360°,上下角度为-15°—15°,左右边缘角度、上下角度均匀铺展拉伸;
S212:读取一列激光点阵存储区数据;
S213:计算打印图像的像素角度;
S214:计算像素位置,将对应数据赋值到打印的图层;
S215:判断当前读取的激光点阵存储区数据是否为数据的结尾,若不是则重复步骤S212—S214,若是则生成图像结束。
6.根据权利要求1所述的基于图像处理的多传感器融合的物体识别方法,其特征在于,在步骤S3中,事先训练过的目标包括目标人员、工作服、安全帽。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910837809.2A CN110781720B (zh) | 2019-09-05 | 2019-09-05 | 基于图像处理的多传感器融合的物体识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910837809.2A CN110781720B (zh) | 2019-09-05 | 2019-09-05 | 基于图像处理的多传感器融合的物体识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110781720A true CN110781720A (zh) | 2020-02-11 |
CN110781720B CN110781720B (zh) | 2022-08-19 |
Family
ID=69384043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910837809.2A Active CN110781720B (zh) | 2019-09-05 | 2019-09-05 | 基于图像处理的多传感器融合的物体识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110781720B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106647758A (zh) * | 2016-12-27 | 2017-05-10 | 深圳市盛世智能装备有限公司 | 一种目标物体检测方法、装置及自动引导车的跟随方法 |
CN107167811A (zh) * | 2017-04-26 | 2017-09-15 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
CN108509918A (zh) * | 2018-04-03 | 2018-09-07 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN109829386A (zh) * | 2019-01-04 | 2019-05-31 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
-
2019
- 2019-09-05 CN CN201910837809.2A patent/CN110781720B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106647758A (zh) * | 2016-12-27 | 2017-05-10 | 深圳市盛世智能装备有限公司 | 一种目标物体检测方法、装置及自动引导车的跟随方法 |
CN107167811A (zh) * | 2017-04-26 | 2017-09-15 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
CN108509918A (zh) * | 2018-04-03 | 2018-09-07 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN109829386A (zh) * | 2019-01-04 | 2019-05-31 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110781720B (zh) | 2022-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110766170B (zh) | 基于图像处理的多传感器融合和人员定位的方法 | |
CN111473739B (zh) | 一种基于视频监控的隧道塌方区围岩变形实时监测方法 | |
CN103425967B (zh) | 一种基于行人检测和跟踪的人流监控方法 | |
CN111369630A (zh) | 一种多线激光雷达与相机标定的方法 | |
CN109211207B (zh) | 一种基于机器视觉的螺钉识别与定位装置 | |
CN102917171B (zh) | 基于像素的小目标定位方法 | |
CN109859269B (zh) | 岸基视频辅助定位无人机大范围流场测量方法及装置 | |
CN110146030A (zh) | 基于棋盘格标志法的边坡表面变形监测***和方法 | |
CN108362205B (zh) | 基于条纹投影的空间测距方法 | |
CN113469178B (zh) | 一种基于深度学习的电力表计识别方法 | |
CN112305557B (zh) | 一种全景相机与多线激光雷达外参标定*** | |
Hu et al. | Aerial monocular 3d object detection | |
CN114581760B (zh) | 一种机房巡检的设备故障检测方法及*** | |
CN116630267A (zh) | 基于无人机与激光雷达数据融合的路基沉降监测方法 | |
CN114066985B (zh) | 一种输电线隐患距离的计算方法及终端 | |
CN104786227A (zh) | 基于高压带电作业机器人的跌落开关更换控制***及方法 | |
CN113723389B (zh) | 一种支柱式绝缘子定位方法及装置 | |
CN115082538A (zh) | 基于线结构光投影的多目视觉平衡环零件表面三维重建***及方法 | |
CN112665523B (zh) | 一种复杂型面的联合测量方法 | |
CN105303580A (zh) | 一种全景环视多相机标定棒的识别***和方法 | |
CN110781720B (zh) | 基于图像处理的多传感器融合的物体识别方法 | |
CN103260008A (zh) | 一种影像位置到实际位置的射影转换方法 | |
CN116309851B (zh) | 一种智慧园区监控摄像头的位置及朝向标定方法 | |
CN112488022A (zh) | 一种环视全景监控方法、装置及*** | |
CN104858877A (zh) | 高压线路跌落开关自动更换控制***及控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |