CN116309080B - 一种无人机视频拼接方法 - Google Patents
一种无人机视频拼接方法 Download PDFInfo
- Publication number
- CN116309080B CN116309080B CN202310529852.9A CN202310529852A CN116309080B CN 116309080 B CN116309080 B CN 116309080B CN 202310529852 A CN202310529852 A CN 202310529852A CN 116309080 B CN116309080 B CN 116309080B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- video
- image
- aerial vehicle
- video frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000005516 engineering process Methods 0.000 claims abstract description 12
- 230000007246 mechanism Effects 0.000 claims abstract description 11
- 230000004927 fusion Effects 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 9
- 210000005036 nerve Anatomy 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 7
- 230000001537 neural effect Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012805 post-processing Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 230000000903 blocking effect Effects 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000036544 posture Effects 0.000 claims description 3
- 238000012423 maintenance Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 241001584785 Anavitrinella pampinaria Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及视频拼接技术领域,公开了一种无人机视频拼接方法,通过对无人机视频的采集与预处理,采用孪生混合网络提取视频帧中的特征信息,利用图像融合技术将视频帧匹配区域进行融合,得到更加完整、真实的全景信息,提高了视频的信息量和表现力。本发明结合卷积神经网络和注意力机制等深度学习算法,实现了端到端的视频拼接技术;该技术不仅能有效提升无人机视频拼接的信息量和质量,还可以节约人力、物力和时间成本,提高人员的工作效率,具有明显的社会效益。
Description
技术领域
本发明涉及视频拼接技术领域,具体为一种无人机视频拼接方法。
背景技术
现代无人机技术在飞行控制、无线通信、传感探测等方面都取得了长足的进展,广泛应用于农业、物流、遥感、环境监测和搜索救援等领域。
在实际工作时,工作人员常常需要同时观测多台无人机,从多个角度和视角获取数据,提高数据的准确性和全面性;此外,多台无人机可以在不同的区域执行任务,可以覆盖更大的面积,大大缩短任务的执行时间,提高任务效率。
然而,同时观测多台无人机的信息需要工作人员保持高度注意力,这就亟需一种高效高质量的无人机视频拼接方法。无人机视频常常存在噪声、偏色、抖动模糊、畸变明显、亮度变化剧烈等问题,这对视频拼接技术提出了较高的要求;目前视频拼接技术在视频处理、视角匹配、和视频拼接效果等方面表现不佳,导致整个拼接过程不仅频繁需要人工干预,拼接后的视频也不够流畅,存在明显的拼接痕迹、色差与失真。
发明内容
本发明的目的在于提供一种无人机视频拼接方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种无人机视频拼接方法,包括以下步骤:
S1、通过图像三维坐标及全局相互映射关系,在全局坐标系中调整多台无人机的姿态、高度以及方位,然后对单一时刻内多台无人机捕捉到的图像进行采集;
S2、对多台无人机的每个视频按照固定帧率切分为多个视频帧,对视频帧进行预处理,以确保每个视频帧的图像质量;
S3、根据无人机采集时记录的时间戳,将无人机在相同时间戳下的视频帧送入孪生混合网络进行处理,利用卷积神经结构提取视频帧的局部特征信息,再使用分块注意力结构计算局部特征信息间的相似度关系,将局部特征信息进行匹配;
S4、根据匹配的局部特征信息,映射到原始视频帧中的区域,使用图像融合技术将原始视频帧中匹配的区域进行融合,最后将所有的局部融合图拼接成一个全景图;
S5、对生成的全景图进行后期处理,使其更加真实自然,最后按照时序关系将多个视频帧全景图组合成动态的视频。
进一步的,步骤S2中所述预处理包括去噪、图像增强和去畸变。
进一步的,所述孪生混合网络具体为一个双分支的、基于卷积神经结构和注意力机制的网络,孪生混合网络同时输入两个视频帧,利用共享参数的卷积神经结构进行特征提取与计算,再基于分块注意力机制来计算图像特征中局部块之间的相似度权重。
进一步的,所述共享参数的卷积神经结构先经过个/>的标准卷积进行特征的升维提取,再经过激活层,接着经过/>个由/>的深度可分离卷积和激活层组成的特征提取层,进一步提升特征图的深度,压缩特征图的高和宽,其中激活层的函数为,/>是一个可指定的超参数,x为自变量。
进一步的,所述分块注意力机制的具体公式为:
其中,为激活层的函数,A/>,/>是一个可指定的超参数,x为自变量;对卷积神经结构中的两个输出的张量/>和/>在通道维度进行切分,分别获得为/>个相同长度的向量/>和/>,/>是由向量/>经过两个随机初始化的权重矩阵后获得,而/>和/>是由向量/>经过两个随机初始化的权重矩阵后获得,符号/>为点积运算,/>为向量间的相似度计算,其具体公式为:
式中代表转置操作,/>是一个可学习的非零极小数。
进一步的,所述的图像融合技术使用小波变换算法,将视频帧中的匹配区域分解为水平低频、垂直低频;水平低频、垂直高频;水平高频、垂直低频;水平高频、垂直高频四个频带,然后对匹配区域的低频部分和高频部分分别进行一定的规则融合,得到新的低频部分和高频部分;最后将融合后的低频部分和高频部分进行小波逆变换,得到最终的融合图像。
进一步的,为保证全景图的成像质量,在对视频帧进行预处理之前,使用边缘检测算法,分别求出视频帧的水平和垂直方向的梯度值,得到整个视频帧的梯度图;通过计算梯度图的方差和均值,得到图像的模糊度量;使用阈值法判断图片是否模糊,删除多余的模糊视频帧。
进一步的,全景图的后期处理包括常见的缝合线对齐、去除拼接痕迹、调整图像色彩,保持图像的连续性和完整性;此外,使用现有的图像增强算法,对全景图的对比度和亮度进行调整,以方便工作人员进行观察。
进一步的,m的取值为3。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明提供的一种无人机视频拼接方法,使用的孪生混合网络等深度学习算法,可以学习到视频中的高级语义信息,对光照、视角、畸变和噪声等因素的变化拥有较好的适应性,提高了无人机视频拼接算法的效果和质量,可以应用于更广泛的场景;
(2)本发明提供的一种无人机视频拼接方法,实现了端到端的视频拼接方法,减少了拼接流程中的人工干预步骤,能够提高人员的工作效率。
附图说明
图1为本发明一种无人机视频拼接方法的流程示意图;
图2位本发明中所设计的孪生混合网络结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,所属技术领域的技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1,本发明提供一种无人机视频拼接方法,包括以下步骤:
S1、通过图像三维坐标及全局相互映射关系,在全局坐标系中调整多台无人机的姿态、高度以及方位,然后对单一时刻内多台无人机捕捉到的图像进行采集;
S2、对多台无人机的每个视频按照固定帧率切分为多个视频帧,对视频帧进行预处理,包括去噪、图像增强、去畸变等操作,以确保每个视频帧都具有较好的图像质量;
其中,为保证全景图的成像质量,在对视频帧进行预处理时,可以使用一些边缘检测算法,分别求出视频帧的水平和垂直方向的梯度值,得到整个视频帧的梯度图;通过计算梯度图的方差和均值,得到图像的模糊度量;使用阈值法判断图片是否模糊,删除多余的模糊视频帧;在保证视频连续的情况下,删除多余视频帧后的视频帧率可选1、5、12、24等。
S3、根据无人机采集时记录的时间戳,将无人机在相同时间戳下的视频帧送入孪生混合网络进行处理,利用卷积神经结构提取视频帧的局部特征信息,再使用分块注意力结构计算局部特征信息间的相似度关系,将局部特征信息进行匹配;
其中,孪生混合网络具体为一个双分支的、基于卷积神经结构和注意力机制的网络,孪生混合网络同时输入两个视频帧(这两个视频帧是两台无人机在同一时间戳下的视频帧),利用共享参数的卷积神经结构进行特征提取与计算,再基于分块注意力机制来计算图像特征中局部块之间的相似度权重;
所述共享参数的卷积神经结构先经过个/>的标准卷积进行特征的升维提取,再经过激活层,接着经过/>个由/>的深度可分离卷积和激活层组成的特征提取层,进一步提升特征图的深度,压缩特征图的高和宽,其中激活层的函数为,/>是一个可指定的超参数,x表示自变量;
卷积神经结构需要综合考虑算法的运算量和图像融合的效果,默认情况下,可以根据实际应用适当调整/>的个数。在卷积神经结构中,视频帧通常按照长宽减半,通道加倍的工程知识进行特征的升维提取;
所述分块注意力机制的具体公式为:
其中,为激活层的函数;对卷积神经结构中的两个输出的张量/>和/>在通道维度进行切分,分别获得为/>个相同长度的向量/>和/>,/>是由向量/>经过两个随机初始化的权重矩阵后获得,而/>和/>是由向量/>经过两个随机初始化的权重矩阵后获得,符号/>为点积运算,/>为向量间的相似度计算,其具体公式为:
式中代表转置操作,/>是一个可学习的非零极小数。
S4、根据匹配的局部特征信息,映射到原始视频帧中的区域,使用图像融合技术将原始视频帧中匹配的区域进行融合,最后将所有的局部融合图拼接成一个全景图;
其中,图像融合技术使用小波变换算法,将视频帧中的匹配区域分解为水平低频、垂直低频;水平低频、垂直高频;水平高频、垂直低频;水平高频、垂直高频四个频带,然后对匹配区域的低频部分和高频部分分别进行一定的规则融合,得到新的低频部分和高频部分;最后将融合后的低频部分和高频部分进行小波逆变换,得到最终的融合图像;
对匹配区域的低频部分和高频部分可以分别按照加权平均法、系数绝对值取大法以及局部方差取大法等方法进行融合。
S5、对生成的全景图进行后期处理,例如去除拼接痕迹、调整图像色彩等,使其更加真实自然,最后按照时序关系将多个视频帧全景图组合成动态的视频。
其中,全景图的后期处理包括常见的灰度匹配法、特征点匹配法、像素级对齐法、图像分割法等缝合线对齐等方法,保持图像的连续性和完整性;此外,全景图还可以使用现有的图像增强算法,对图像的对比度、亮度等进行调整,以方便工作人员进行观察。
本发明提供的一种无人机视频拼接方法,结合卷积神经网络、注意力机制和图像融合等算法,完成了一个高质量、高效率的端到端无人机视频拼接方案。本发明方法不仅能保留多台无人机采集的视频信息,实现流畅、准确、内容丰富的拼接效果,还能提高人员的工作效率,在农业、森林保护、环境监测、消防救援等领域具有良好的应用前景。
所属技术领域的技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子。凡在本发明的精神和原则之内,对以上实施例所做的任何省略、修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种无人机视频拼接方法,其特征在于,包括以下步骤:
S1、通过图像三维坐标及全局相互映射关系,在全局坐标系中调整多台无人机的姿态、高度以及方位,然后对单一时刻内多台无人机捕捉到的图像进行采集;
S2、对多台无人机的每个视频按照固定帧率切分为多个视频帧,对视频帧进行预处理,以确保每个视频帧的图像质量;
S3、根据无人机采集时记录的时间戳,将无人机在相同时间戳下的视频帧送入孪生混合网络进行处理,利用卷积神经结构提取视频帧的局部特征信息,再使用分块注意力结构计算局部特征信息间的相似度关系,将局部特征信息进行匹配;
所述孪生混合网络具体为一个双分支的、基于卷积神经结构和注意力机制的网络,孪生混合网络同时输入两个视频帧,利用共享参数的卷积神经结构进行特征提取与计算,再基于分块注意力机制来计算图像特征中局部块之间的相似度权重;
分块注意力机制的具体公式为:
;
其中,为激活层的函数,/>,/>是一个可指定的超参数,x为自变量;对卷积神经结构中的两个输出的张量/>和/>在通道维度进行切分,分别获得为/>个相同长度的向量/>和/>,/>是由向量/>经过两个随机初始化的权重矩阵后获得,而/>和/>是由向量/>经过两个随机初始化的权重矩阵后获得,符号/>为点积运算,为向量间的相似度计算,其具体公式为:
;
式中代表转置操作,/>是一个可学习的非零极小数;
S4、根据匹配的局部特征信息,映射到原始视频帧中的区域,使用图像融合技术将原始视频帧中匹配的区域进行融合,最后将所有的局部融合图拼接成一个全景图;
S5、对生成的全景图进行后期处理,使其更加真实自然,最后按照时序关系将多个视频帧全景图组合成动态的视频。
2.根据权利要求1所述的一种无人机视频拼接方法,其特征在于:步骤S2中所述预处理包括去噪、图像增强和去畸变。
3.根据权利要求1所述的一种无人机视频拼接方法,其特征在于:所述共享参数的卷积神经结构先经过个/>的标准卷积进行特征的升维提取,再经过激活层,接着经过/>个由/>的深度可分离卷积和激活层组成的特征提取层,进一步提升特征图的深度,压缩特征图的高和宽,其中激活层的函数为/>,/>是一个可指定的超参数,x为自变量。
4.根据权利要求1所述的一种无人机视频拼接方法,其特征在于:所述的图像融合技术使用小波变换算法,将视频帧中的匹配区域分解为水平低频、垂直低频;水平低频、垂直高频;水平高频、垂直低频;水平高频、垂直高频四个频带,然后对匹配区域的低频部分和高频部分分别进行一定的规则融合,得到新的低频部分和高频部分;最后将融合后的低频部分和高频部分进行小波逆变换,得到最终的融合图像。
5.根据权利要求1所述的一种无人机视频拼接方法,其特征在于:为保证全景图的成像质量,在对视频帧进行预处理之前,使用边缘检测算法,分别求出视频帧的水平和垂直方向的梯度值,得到整个视频帧的梯度图;通过计算梯度图的方差和均值,得到图像的模糊度量;使用阈值法判断图片是否模糊,删除多余的模糊视频帧。
6.根据权利要求1所述的一种无人机视频拼接方法,其特征在于:全景图的后期处理包括常见的缝合线对齐、去除拼接痕迹、调整图像色彩,保持图像的连续性和完整性;此外,使用现有的图像增强算法,对全景图的对比度和亮度进行调整,以方便工作人员进行观察。
7.根据权利要求3所述的一种无人机视频拼接方法,其特征在于:m的取值为3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310529852.9A CN116309080B (zh) | 2023-05-11 | 2023-05-11 | 一种无人机视频拼接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310529852.9A CN116309080B (zh) | 2023-05-11 | 2023-05-11 | 一种无人机视频拼接方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116309080A CN116309080A (zh) | 2023-06-23 |
CN116309080B true CN116309080B (zh) | 2023-08-11 |
Family
ID=86796240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310529852.9A Active CN116309080B (zh) | 2023-05-11 | 2023-05-11 | 一种无人机视频拼接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116309080B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117156203B (zh) * | 2023-09-19 | 2024-05-07 | 广西艺术学院 | 一种自动视频展示方法及*** |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106993177A (zh) * | 2016-10-12 | 2017-07-28 | 深圳市圆周率软件科技有限责任公司 | 一种双目720度全景采集*** |
CN111028154A (zh) * | 2019-11-18 | 2020-04-17 | 哈尔滨工程大学 | 一种地形崎岖不平海底的侧扫声呐图像匹配拼接方法 |
EP3786891A1 (en) * | 2019-08-29 | 2021-03-03 | China-Germany(Zhuhai)Artificial Intelligence Institute Co., Ltd | Method and system for visual localization based on dual dome cameras |
CN114842047A (zh) * | 2022-03-29 | 2022-08-02 | 武汉大学 | 基于运动先验的孪生网络卫星视频目标跟踪方法 |
WO2022171067A1 (zh) * | 2021-02-09 | 2022-08-18 | 北京有竹居网络技术有限公司 | 视频处理方法、装置、存储介质及设备 |
CN114926498A (zh) * | 2022-04-26 | 2022-08-19 | 电子科技大学 | 一种基于时空约束与可学习特征匹配的快速目标跟踪方法 |
CN115457120A (zh) * | 2021-05-21 | 2022-12-09 | 中南大学 | 一种gps拒止条件下的绝对位置感知方法与*** |
WO2023040146A1 (zh) * | 2021-09-17 | 2023-03-23 | 平安科技(深圳)有限公司 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
-
2023
- 2023-05-11 CN CN202310529852.9A patent/CN116309080B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106993177A (zh) * | 2016-10-12 | 2017-07-28 | 深圳市圆周率软件科技有限责任公司 | 一种双目720度全景采集*** |
EP3786891A1 (en) * | 2019-08-29 | 2021-03-03 | China-Germany(Zhuhai)Artificial Intelligence Institute Co., Ltd | Method and system for visual localization based on dual dome cameras |
CN111028154A (zh) * | 2019-11-18 | 2020-04-17 | 哈尔滨工程大学 | 一种地形崎岖不平海底的侧扫声呐图像匹配拼接方法 |
WO2022171067A1 (zh) * | 2021-02-09 | 2022-08-18 | 北京有竹居网络技术有限公司 | 视频处理方法、装置、存储介质及设备 |
CN115457120A (zh) * | 2021-05-21 | 2022-12-09 | 中南大学 | 一种gps拒止条件下的绝对位置感知方法与*** |
WO2023040146A1 (zh) * | 2021-09-17 | 2023-03-23 | 平安科技(深圳)有限公司 | 基于图像融合的行为识别方法、装置、电子设备及介质 |
CN114842047A (zh) * | 2022-03-29 | 2022-08-02 | 武汉大学 | 基于运动先验的孪生网络卫星视频目标跟踪方法 |
CN114926498A (zh) * | 2022-04-26 | 2022-08-19 | 电子科技大学 | 一种基于时空约束与可学习特征匹配的快速目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
杨康.基于双重注意力孪生网络的实时视觉跟踪.《计算机应用》.2019,1652-1656. * |
Also Published As
Publication number | Publication date |
---|---|
CN116309080A (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11688057B2 (en) | Method and system for quickly matching image features applied to mine machine vision | |
Zhu et al. | A novel fast single image dehazing algorithm based on artificial multiexposure image fusion | |
CN106709436B (zh) | 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪*** | |
CN107240084B (zh) | 一种单幅图像去雨方法及装置 | |
CN109685045B (zh) | 一种运动目标视频跟踪方法及*** | |
CN112215074A (zh) | 基于无人机视觉的实时目标识别与检测追踪***及方法 | |
CN111489346B (zh) | 一种全参考图像质量评价方法及*** | |
Hu et al. | Adaptive single image dehazing using joint local-global illumination adjustment | |
CN109711268B (zh) | 一种人脸图像筛选方法及设备 | |
CN116309080B (zh) | 一种无人机视频拼接方法 | |
CN108875645B (zh) | 一种煤矿井下复杂光照条件下的人脸识别方法 | |
CN107248174A (zh) | 一种基于tld算法的目标跟踪方法 | |
CN102592141A (zh) | 一种对动态图像中人脸遮挡的方法 | |
CN110570435A (zh) | 用于对车辆损伤图像进行损伤分割的方法及装置 | |
CN116757988B (zh) | 基于语义丰富和分割任务的红外与可见光图像融合方法 | |
Zhang et al. | Image dehazing based on dark channel prior and brightness enhancement for agricultural remote sensing images from consumer-grade cameras | |
CN116052090A (zh) | 图像质量评估方法、模型训练方法、装置、设备及介质 | |
CN116342519A (zh) | 一种基于机器学习的图像处理方法 | |
CN112365516B (zh) | 一种增强现实中虚实遮挡处理方法 | |
Guo et al. | Marg-unet: a single image dehazing network based on multimodal attention residual group | |
CN110111368B (zh) | 一种基于人体姿态识别的相似移动目标的检测跟踪方法 | |
CN109886900B (zh) | 一种基于字典训练和稀疏表示的合成雨图除雨方法 | |
Song et al. | An adaptive real-time video defogging method based on context-sensitiveness | |
CN111932469B (zh) | 显著性权重的快速曝光图像融合方法、装置、设备和介质 | |
EP3384673B1 (en) | Noise-cancelling filter for video images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |