CN115914792A - 基于深度学习的实时多维度成像自适应调整***及方法 - Google Patents
基于深度学习的实时多维度成像自适应调整***及方法 Download PDFInfo
- Publication number
- CN115914792A CN115914792A CN202211655829.6A CN202211655829A CN115914792A CN 115914792 A CN115914792 A CN 115914792A CN 202211655829 A CN202211655829 A CN 202211655829A CN 115914792 A CN115914792 A CN 115914792A
- Authority
- CN
- China
- Prior art keywords
- image
- visible light
- information
- infrared
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 238000012634 optical imaging Methods 0.000 claims abstract description 36
- 230000010365 information processing Effects 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 18
- 238000007781 pre-processing Methods 0.000 claims description 20
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 18
- 238000003331 infrared imaging Methods 0.000 claims description 15
- 230000003287 optical effect Effects 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 9
- 230000000087 stabilizing effect Effects 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Abstract
基于深度学习的实时多维度成像自适应调整***及方法,属于光电成像技术领域,为了解决现有技术中多维度图像采集后因相机采集方位差异而造成图像视场差异,人工调节相机方位来减少误差的方法存在工作量大和误差较大无法控制的问题,该***包括光学成像***、图像信息处理单元、云台控制***,其中光学成像***和图像信息处理单元共同放置在云台控制***上;所述光学成像***和图像信息处理单元电学连接,所述图像信息处理单元和云台控制***电学连接;图像信息处理单元主要针对光学成像***进行图像处理,通过处理后获取图像的坐标偏移信息,将坐标偏移信息传给云台控制***,然后进行下一步的***调节。本发明自动调整***能够提高工作效率。
Description
技术领域
本发明属于光电成像技术领域,特别是涉及到基于深度学习的实时多维度成像自适应调整***及方法。
背景技术
随着光电成像技术的发展,单一维度的成像模式逐渐发展为多维度模式。由于探测器自身物理特性、成像机理和观察角度等各个方面的限制,单一的二维探测器往往不能从多维场景中提取足够多的特征点,针对单一的二维探测器无法独立获取一幅场景下目标的多维度图像,需要使用多源图像融合技术。图像融合技术是将不同波段传感器拍摄的图像特征信息通过算法处理融合成为一幅新图像,多维度图像的匹配与融合能够将不同维度的特征点凸显,提高图像对比度。
图像配准是图像融合的基础,图像配准是通过找到一幅图像像素到另一幅图像像素间的空间映射关系,将不同时间、不同传感器(成像设备)或不同条件下(天气、照度、摄像位置和角度等)获取的两幅或多幅图像进行匹配、叠加的过程。
然而,在进行多维度图像采集的过程中会出现因相机拍摄角度、相机方位存在差异等现象,导致配准及融合后的图像存在非线性偏移,不同相机所采集的图像视场范围也出现差异,导致匹配与融合后的有效范围缩小。传统的方法是使用人工调节相机或使用三拉三紧装置进行相机成像的误差标定,但存在工作量大以及误差较大无法控制等问题。目前,尚未有能够实时获取多维度图像并自动调节相机方位和成像视场的***,因此,亟需一种能够实时对获取的多维度图像并获取图像的偏移进行实时校准的***。
发明内容
本文发明为了解决现有技术中多维度图像采集后因相机采集方位差异而造成图像视场差异,人工调节相机方位来减少误差的方法存在工作量大和误差较大无法控制的问题,提出基于深度学***和竖直方向上的平移量,利用获取的偏移量传输给调控***,使用控制器实现实时调整相机***,可快速自动调整相机方位使不同光谱相机所获得图像视场一致,保证后续图像配准与图像融合的图像一致性,融合后的图像具有较高的精度,包含更丰富的图像信息,同时,自动调整***能够大大减少人力成本,提供工作效率。
基于深度学习的实时多维度成像自适应调整***,其特征是,该***包括光学成像***、图像信息处理单元、云台控制***,其中光学成像***和图像信息处理单元共同放置在云台控制***上;所述光学成像***和图像信息处理单元电学连接,所述图像信息处理单元和云台控制***电学连接;图像信息处理单元主要针对光学成像***进行图像处理,通过处理后获取图像的坐标偏移信息,将坐标偏移信息传给云台控制***,然后进行下一步的***调节。
所述光学成像***包括红外成像相机和可见光成像相机;所述红外成像相机和可见光成像相机在同一水平线,对同一目标物进行成像。
所述图像信息处理单元包括图像预处理模块、卷积神经网络、损失函数和坐标偏移信息模块,图像预处理模块接收光学成像***所成的图像,进行预处理,即均值滤波和图像尺度变换,图像预处理模块将处理后的图像信息输入到卷积神经网络中获取图像轮廓信息和几何一致性损失,然后将图像轮廓信息和几何一致性损失信息存储在损失函数中,损失函数通过计算获取坐标偏移信息,然后将坐标偏移信息存储到坐标偏移信息模块。
所述云台控制***包含步进电机、光学***夹持、转台、稳定平台和控制***,稳定平台的前方开孔用来固定光学成像***的前端,稳定平台的后方为转台和光学***夹持,光学***夹持将光学成像***的后端与转台固定一起,转台能进行左右和俯仰的调节,做到光学成像***前端稳定后端调节,最终实现光学***的控制。
基于深度学习的实时多维度成像自适应调整方法,其特征是,该方法包括以下步骤:
步骤1,获取多源图像;
光学成像***中红外成像相机和可见光成像相机,分别对远端的目标物进行成像,首先固定红外成像相机的焦段,然后确定中心目标物成像获取红外图像,然后调节可见光成像相机的焦段,使得获取的可将光图像中心目标与红外图像中心目标一致,可见光图像视场范围与红外图像视场范围一致,再通过步进电机实时的调节可见光视场范围;
步骤2:获取多源图像坐标偏移信息;
光学成像***获取红外图像和可见光图像后,先经过图像预处理模块对图像进行均值滤波,并进行图像尺度变换,经过变换后的图像大小一致,之后将预处理后的红外图像、可见光图像作为卷积神经网络的输入,卷积神经网络先进行对可见光图像和红外图像进行语义分割,获取红外图像和可见光图像的轮廓信息,对比图像轮廓的粗略偏移量,之后卷积神经网络对两幅图像的特征进行提取,获取图像特征,针对每一个像素进行对比,同时计算几何一致性误差数值,即图像在水平和竖直方向上的刚性偏移,所获得的轮廓信息和几何一致性误差存储到损失函数中,损失函数计算并反馈偏移信息到坐标偏移信息模块,获取的粗略偏移量及水平和竖直方向上的刚性偏移量,由此多源图像的坐标偏移信息获取完成;
步骤3:调整控制云台;
控制***接收到图像粗略偏移信息和水平和竖直方向上的像素偏移量,控制***将图像粗略偏移量数据进行数据处理,之后控制调整步进电机电压脉冲,控制步进电机进行粗调,之后将水平和竖直方向上的像素偏移量传输步进电机进行微调,步进电机带动转台进行左右和俯仰的移动,从而控制可见光成像相机移动实现相机成像的视场范围的校正。
本发明的有益效果:
1、本发明预处理后的图像输入到训练好的卷积神经网络,实时获取两图像的偏移信息,将反馈的偏移量信息传输给控制***,实现了相机方位的实时调整;
2、本发明实时获取视场一致的图像,减少非线性偏移,提高后续图像配准与融合图像的精度,满足图像配准和融合的精度要求,同时能扩大匹配范围,获取更丰富的目标图像信息;
3、该***适应性强,对不同维度的相机均能实现校正;
4、相较于传统的手动调整***,本发明实用自动调整方法缩短了调整时间,节省了人力成本。
附图说明
图1为本发明基于深度学习的实时多维度成像自适应调整***的结构示意图。
图2为云台控制***结构图。
图3为图像处理单元对于多源图像处理获取坐标偏移信息过程的流程图。
图4为根据图像偏移控制电机调整过程的流程图。
其中图1中1为光学成像***、2为图像信息处理单元、3为云台控制***、4为目标物、1-1为红外成像相机、1-2为可见光成像相机、2-1为图像预处理模块、2-2为卷积神经网络、2-3为损失函数、2-4坐标偏移信息模块,图2中3-1为步进电机,3-2为光学***夹持,3-3为转台,3-4为稳定平台,3-5为控制***。
具体实施方式
以下结合附图对本发明做进一步说明。
如图1所示,基于深度学习的实时多维度成像自适应调整***,该***包括光学成像***1、图像信息处理单元2、云台控制***3,其中光学成像***1和图像信息处理单元2共同放置在云台控制***3上;所述光学成像***1和图像信息处理单元2电学连接,所述图像信息处理单元2和云台控制***3电学连接;图像信息处理单元2主要针对光学成像***1进行图像处理,通过处理后获取图像的坐标偏移信息,将坐标偏移信息传给云台控制***3,然后进行下一步的***调节。
所述光学成像***1包括红外成像相机1-1、可见光成像相机1-2;所述红外成像相机1-1、可见光成像相机1-2在同一水平高度,对同一目标物进行成像。
所述红外成像相机1-1包含短波红外相机和短波红外变焦镜头,短波红外探相机为山西国惠有限公司生产的GH-SCS00短波红外相机,该相机所采用的探测器为15um的640×512探测器,短波红外变焦镜头为日本TAWOV的GZ10X16M-MP SWIR短波变焦镜头,变焦范围为16~160mm。所述可见光成像相机1-2为深圳千里目科技公司的高清变焦镜头一体化网络摄像机,型号为JZC-N83020,其变焦范围为100~1000mm,相机分辨率为1920×1080。
所述图像信息处理单元2包括图像预处理模块2-1、卷积神经网络2-2、损失函数2-3、坐标偏移信息模块2-4;图像预处理模块2-1主要负责图像输入的预处理,主要是均值滤波,并进行图像尺度变换,图像预处理模块2-1输入到卷积神经网络2-2获取的图像轮廓信息和几何一致性损失,图像轮廓信息和几何一致性损失信息存储在损失函数中2-3,损失函数2-3通过计算获取坐标偏移信息模块2-4。图像处理单元主要针对光学成像***1进行图像处理,通过处理后获取图像的坐标偏移信息,将坐标偏移信息传给云台控制***3,之后进行下一步的***调节。
所述云台控制***3结构包含步进电机3-1、光学***加持3-2、转台3-3、稳定平台3-4和控制***3-5,其中,控制***3-5的控制***板为华硕thin mini-ITX主板,型号为Pro H610TD4-CSM。稳定平台3-4的前方开孔用来固定光学成像***1的前端,稳定平台3-4的后方为转台和光学***夹持3-2,光学***夹持3-2将光学***的后端与转台3-3固定一起,转台3-3能进行左右和俯仰的调节,做到光学成像***1前端稳定后端调节,最终实现光学成像***1的控制。
附图3为图像处理单元对于多源处理获取坐标偏移信息的过程,由红外成像相机1-1、可见光成像相机1-2所成的红外图像、可见光图像经图像预处理模块2-1进行图像预处理,图像预处理模块2-1对图像进行均值滤波,并进行图像尺度变换,预处理之后的红外图像、可见光图像作为卷积神经网络的输入,神经网络分别提取两幅图像的特征信息,对两幅图像进行语义分割获得语义分割信息即图像轮廓信息,对比轮廓得到粗略的偏移量,再利用特征信息对两幅图像进行像素点比对获取两幅图像的几何一致性损失函数,计算几何一致性误差数值,即图像在水平和竖直方向上的像素偏移量,损失函数反馈偏移信息到坐标偏移信息模块,粗略偏移量及水平和竖直方向上的像素偏移量决定后续相机调整的量。
附图4为图像偏移信息获取后电机调整的过程,图像信息获取后经过图像处理单元2获取了两个图像的偏移量,对偏移量转换称为控制指令,之后控制***3-5接受指令后控制步进电机3-1进行调整,实现相机成像范围的调整,之后重复图像的获取与调整过程,实现多源图像的视场对准。
基于深度学习的实时多维度成像自适应调整方法,该方法包括一下步骤:
步骤1:获取多源图像。
光学成像***1中红外成像相机1-1和可见光成像相机1-2,分别对远端的目标物4进行成像,首先固定红外成像相机1-1的焦段,然后确定中心目标物成像获取红外图像,然后调节可见光成像相机1-2的焦段,使得获取的可将光图像中心目标与红外图像中心目标一致,可见光图像视场范围与红外图像视场范围大致一致,后续则通过步进电机3-1调节可见光视场范围。
步骤2:获取多源图像坐标偏移信息。
光学成像***1获取红外图像和可见光图像后,先经过图像预处理模块2-1对图像进行均值滤波,并进行图像尺度变换,经过变换后的图像大小一致,之后将预处理后的红外图像、可见光图像作为卷积神经网络2-2的输入,卷积神经网络2-2先进行对可见光图像和红外图像进行语义分割,获取红外图像和可见光图像的轮廓信息,对比图像轮廓的粗略偏移量,之后卷积神经网络2-2对两幅图像的特征进行提取,获取图像特征,针对每一个像素进行对比,同时计算几何一致性误差数值,即图像在水平和竖直方向上的刚性偏移,所获得的轮廓信息和几何一致性误差存储到损失函数2-3中,损失函数2-3反馈偏移信息到坐标偏移信息模块2-5,获取的粗略偏移量及水平和竖直方向上的刚性偏移量,由此多源图像的坐标偏移信息获取完成。
步骤3:调整控制云台。
控制***3-5接收到图像粗略偏移信息和水平和竖直方向上的像素偏移量,控制***3-5将图像粗略偏移量数据进行数据处理,之后控制调整步进电机3-1电压脉冲,控制步进电机3-1进行粗调,之后将水平和竖直方向上的像素偏移量传输步进电机3-1进行微调,步进电机3-1带动转台3-3进行左右和俯仰的移动,从而控制可见光成像相机移动实现相机成像的视场范围的校正。调节过程是一个实时的信息获取与调整过程,由于调节的过程存在一定的误差,需要通过反复的调整,最终可见光图像和红外图像的中心目标一致,视场范围一致。
Claims (5)
1.基于深度学习的实时多维度成像自适应调整***,其特征是,该***包括光学成像***(1)、图像信息处理单元(2)、云台控制***(3),其中光学成像***(1)和图像信息处理单元(2)共同放置在云台控制***(3)上;所述光学成像***(1)和图像信息处理单元(2)电学连接,所述图像信息处理单元(2)和云台控制***(3)电学连接;图像信息处理单元(2)主要针对光学成像***(1)进行图像处理,通过处理后获取图像的坐标偏移信息,将坐标偏移信息传给云台控制***(3),然后进行下一步的***调节。
2.根据权利要求1所述的基于深度学***线,对同一目标物(4)进行成像。
3.根据权利要求1所述的基于深度学习的实时多维度成像自适应调整***,其特征在于,所述图像信息处理单元(2)包括图像预处理模块(2-1)、卷积神经网络(2-2)、损失函数(2-3)和坐标偏移信息模块(2-4),图像预处理模块2-1接收光学成像***(1)所成的图像,进行预处理,即均值滤波和图像尺度变换,图像预处理模块2-1将处理后的图像信息输入到卷积神经网络(2-2)中获取图像轮廓信息和几何一致性损失,然后将图像轮廓信息和几何一致性损失信息存储在损失函数(2-3)中,损失函数(2-3)通过计算获取坐标偏移信息,然后将坐标偏移信息存储到坐标偏移信息模块(2-4)。
4.根据权利要求1所述的基于深度学***台(3-4)和控制***(3-5),稳定平台(3-4)的前方开孔用来固定光学成像***(1)的前端,稳定平台(3-4)的后方为转台(3-3)和光学***夹持(3-2),光学***夹持(3-2)将光学成像***(1)的后端与转台(3-3)固定一起,转台(3-3)能进行左右和俯仰的调节,做到光学成像***(1)前端稳定后端调节,最终实现光学***的控制。
5.基于深度学习的实时多维度成像自适应调整方法,其特征是,该方法包括以下步骤:
步骤1,获取多源图像;
光学成像***(1)中红外成像相机(1-1)和可见光成像相机(1-2),分别对远端的目标物(4)进行成像,首先固定红外成像相机(1-1)的焦段,然后确定中心目标物成像获取红外图像,然后调节可见光成像相机(1-2)的焦段,使得获取的可将光图像中心目标与红外图像中心目标一致,可见光图像视场范围与红外图像视场范围一致,再通过步进电机(3-1)调节可见光视场范围;
步骤2:获取多源图像坐标偏移信息;
光学成像***(1)获取红外图像和可见光图像后,先经过图像预处理模块(2-1)对图像进行均值滤波,并进行图像尺度变换,经过变换后的图像大小一致,之后将预处理后的红外图像、可见光图像作为卷积神经网络(2-2)的输入,卷积神经网络(2-2)先进行对可见光图像和红外图像进行语义分割,获取红外图像和可见光图像的轮廓信息,对比图像轮廓的粗略偏移量,之后卷积神经网络(2-2)对两幅图像的特征进行提取,获取图像特征,针对每一个像素进行对比,同时计算几何一致性误差数值,即图像在水平和竖直方向上的刚性偏移,所获得的轮廓信息和几何一致性误差存储到损失函数(2-3)中,损失函数(2-3)计算并反馈偏移信息到坐标偏移信息模块(2-4),获取的粗略偏移量及水平和竖直方向上的刚性偏移量,由此多源图像的坐标偏移信息获取完成;
步骤3:调整控制云台;
控制***(3-5)接收到图像粗略偏移信息和水平和竖直方向上的像素偏移量,控制***(3-5)将图像粗略偏移量数据进行数据处理,之后控制调整步进电机(3-1)电压脉冲,控制步进电机(3-1)进行粗调,之后将水平和竖直方向上的像素偏移量传输步进电机(3-1)进行微调,步进电机(3-1)带动转台(3-3)进行左右和俯仰的移动,从而控制可见光成像相机移动实现相机成像的视场范围的校正。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211655829.6A CN115914792A (zh) | 2022-12-22 | 2022-12-22 | 基于深度学习的实时多维度成像自适应调整***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211655829.6A CN115914792A (zh) | 2022-12-22 | 2022-12-22 | 基于深度学习的实时多维度成像自适应调整***及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115914792A true CN115914792A (zh) | 2023-04-04 |
Family
ID=86493365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211655829.6A Pending CN115914792A (zh) | 2022-12-22 | 2022-12-22 | 基于深度学习的实时多维度成像自适应调整***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115914792A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117451325A (zh) * | 2023-12-26 | 2024-01-26 | 长春工程学院 | 一种基于非球面透镜的共振腔测量*** |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103024281A (zh) * | 2013-01-11 | 2013-04-03 | 重庆大学 | 红外与可见光视频融合*** |
CN103390281A (zh) * | 2013-07-29 | 2013-11-13 | 西安科技大学 | 一种双光谱夜视仪车载***及双光谱融合设计方法 |
CN105352604A (zh) * | 2015-11-02 | 2016-02-24 | 上海电力学院 | 基于可见光图像配准的红外测温***云台位置校准方法 |
CN105447838A (zh) * | 2014-08-27 | 2016-03-30 | 北京计算机技术及应用研究所 | 一种红外与微光/可见光融合成像的方法及*** |
CN112367472A (zh) * | 2020-11-09 | 2021-02-12 | 杭州视辉科技有限公司 | 一种可见光图像和红外热成像图像融合矫正的方法 |
CN112991376A (zh) * | 2021-04-06 | 2021-06-18 | 随锐科技集团股份有限公司 | 红外图像中的设备轮廓标注方法及*** |
CN113884027A (zh) * | 2021-12-02 | 2022-01-04 | 南京理工大学 | 基于自监督深度学习的几何约束相位展开方法 |
CN114596506A (zh) * | 2022-03-04 | 2022-06-07 | 北京理工大学 | 一种无人机巡检设备及图像融合方法 |
CN115063477A (zh) * | 2022-04-08 | 2022-09-16 | 中国人民解放军国防科技大学 | 红外可见光双通道同步成像实时配准融合采集方法及装置 |
CN115079727A (zh) * | 2021-03-15 | 2022-09-20 | 固博机器人(重庆)有限公司 | 一种巡检机器人云台调整方法 |
-
2022
- 2022-12-22 CN CN202211655829.6A patent/CN115914792A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103024281A (zh) * | 2013-01-11 | 2013-04-03 | 重庆大学 | 红外与可见光视频融合*** |
CN103390281A (zh) * | 2013-07-29 | 2013-11-13 | 西安科技大学 | 一种双光谱夜视仪车载***及双光谱融合设计方法 |
CN105447838A (zh) * | 2014-08-27 | 2016-03-30 | 北京计算机技术及应用研究所 | 一种红外与微光/可见光融合成像的方法及*** |
CN105352604A (zh) * | 2015-11-02 | 2016-02-24 | 上海电力学院 | 基于可见光图像配准的红外测温***云台位置校准方法 |
CN112367472A (zh) * | 2020-11-09 | 2021-02-12 | 杭州视辉科技有限公司 | 一种可见光图像和红外热成像图像融合矫正的方法 |
CN115079727A (zh) * | 2021-03-15 | 2022-09-20 | 固博机器人(重庆)有限公司 | 一种巡检机器人云台调整方法 |
CN112991376A (zh) * | 2021-04-06 | 2021-06-18 | 随锐科技集团股份有限公司 | 红外图像中的设备轮廓标注方法及*** |
CN113884027A (zh) * | 2021-12-02 | 2022-01-04 | 南京理工大学 | 基于自监督深度学习的几何约束相位展开方法 |
CN114596506A (zh) * | 2022-03-04 | 2022-06-07 | 北京理工大学 | 一种无人机巡检设备及图像融合方法 |
CN115063477A (zh) * | 2022-04-08 | 2022-09-16 | 中国人民解放军国防科技大学 | 红外可见光双通道同步成像实时配准融合采集方法及装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117451325A (zh) * | 2023-12-26 | 2024-01-26 | 长春工程学院 | 一种基于非球面透镜的共振腔测量*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111272148B (zh) | 输电线路无人机自主巡检自适应成像质量优化方法 | |
CN109767474B (zh) | 一种多目相机标定方法、装置及存储介质 | |
CN108648241B (zh) | 一种ptz摄像机现场标定及定焦方法 | |
CN109940603B (zh) | 一种巡检机器人的到点误差补偿控制方法 | |
WO2022037633A1 (zh) | 双目摄像头的标定及图像矫正方法、装置、存储介质、终端、智能设备 | |
TW201403553A (zh) | 自動校正鳥瞰影像方法 | |
CN109559355A (zh) | 一种基于相机组的无公共视场的多相机全局标定装置及方法 | |
CN115914792A (zh) | 基于深度学习的实时多维度成像自适应调整***及方法 | |
CN112949478A (zh) | 基于云台相机的目标检测方法 | |
CN113310352B (zh) | 一种坦克炮瞄准射击方法及装置 | |
CN111595302A (zh) | 一种双面阵ccd辅助三线阵ccd位姿光学测量及校准方法 | |
CN114289332A (zh) | 工件分拣的视觉识别与定位方法、装置及分拣*** | |
WO2020181506A1 (zh) | 一种图像处理方法、装置及*** | |
CN109343578A (zh) | 一种基于视觉反馈的tdi-ccd相机双目视觉***视场对齐方法 | |
CN111935410A (zh) | 用于多机位摄像的快速取景方法和*** | |
CN112001967A (zh) | 相机指导机械手搬运物体的方法和装置 | |
CN113743286A (zh) | 一种多源信号融合的目标监测***及方法 | |
CN117671033A (zh) | 一种基于夜间灯光追踪的相机像主点快速定标方法和*** | |
CN114257736A (zh) | 一种工件自适应拍摄方法 | |
CN111596425A (zh) | 一种用于准直器对光的自动对光*** | |
CN110336955A (zh) | 一种自适应的可见光全景拍摄*** | |
CN113079318B (zh) | 晶边缺陷自动对焦***及方法和计算机存储介质 | |
CN113920197A (zh) | 一种激光雷达辅助摄像机自动调焦聚焦的方法 | |
CN114612574A (zh) | 一种基于无人机的车载环视相机全景鸟瞰图标定及转换拼接方法 | |
CN110009701B (zh) | 一种针对多镜头拍摄的白平衡调整方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |