CN113160052A - 基于非均匀精度的近海养殖区域图像拼接方法 - Google Patents
基于非均匀精度的近海养殖区域图像拼接方法 Download PDFInfo
- Publication number
- CN113160052A CN113160052A CN202110354425.2A CN202110354425A CN113160052A CN 113160052 A CN113160052 A CN 113160052A CN 202110354425 A CN202110354425 A CN 202110354425A CN 113160052 A CN113160052 A CN 113160052A
- Authority
- CN
- China
- Prior art keywords
- image
- aerial
- aerial image
- current
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000005457 optimization Methods 0.000 claims abstract description 40
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims description 51
- 238000005070 sampling Methods 0.000 claims description 26
- 230000009466 transformation Effects 0.000 claims description 25
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 17
- 238000006073 displacement reaction Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000013136 deep learning model Methods 0.000 claims description 4
- 239000007983 Tris buffer Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000009249 intrinsic sympathomimetic activity Effects 0.000 claims description 3
- 238000009958 sewing Methods 0.000 claims description 3
- 238000012258 culturing Methods 0.000 claims 1
- 238000010845 search algorithm Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 4
- 241000251468 Actinopterygii Species 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000009395 breeding Methods 0.000 description 2
- 230000001488 breeding effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000009313 farming Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000009182 swimming Effects 0.000 description 2
- 238000009360 aquaculture Methods 0.000 description 1
- 244000144974 aquaculture Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/80—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
- Y02A40/81—Aquaculture, e.g. of fish
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于非均匀精度的近海养殖区域图像拼接方法,该方法,步骤如下包括:图像预处理,完成图形匀光操作与网箱区域掩膜获取;图像子区域划分,根据图形重叠区域的特点将图像划分为多个子区域;子区域优化拼接,使用基于特征点的DLT算法和基于光度对准的网格优化算法,结合网箱掩膜搜索缝合线,对子区域进行高精度拼接;全景优化拼接,利用位姿信息将多个子区域投影到全景平面,实现子区域间的拼接,得到全景图像。本发明针对近海养殖区域的特点,在子区域内部使用高精度拼接算法,子区域之间使用低精度拼接算法,实现了针对近海养殖区域的自然的拼接。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于非均匀精度的近海养殖区域图像拼接方法。
背景技术
在传统的近海养殖产业当中,对于养殖情况的观测通常由人工巡视来实现。但是,由于养殖设施分布分散,需要通过船只来到达各个养殖设施,费时费力。随着科学技术的快速发展,无人机已经被广泛的用于生产生活当中。利用无人机对养殖区域进行低空航拍,并将航拍图像拼接成全景图来辅助工作人员对养殖区域进行观测,可以帮助工作人员方便快速地了解养殖区域的水产品生长情况,极大地减轻了工作负担,提高了工作效率。
目前,常用的航拍图像拼接方法有两种,一种是基于特征点的拼接方法,另一种是基于位姿的方法。基于特征点的方法通过检测两张图像中的特征点从而实现对图像之间的单应矩阵的求取。单应矩阵可以很好的反映出两张图像之间的像素点的关系,通过单应矩阵可以很方便的将目标图像上的像素投影到参考图像中,实现两张图像的拼接。常用的基于特征点的方法主要有SIFT(Scale Invariant Feature Transform)、SURF(Speeded UpRobust Features)和ORB(Oriented Fast and Rotated Brief)。SIFT经过计算后对于每一个特征点会生成一个128维的特征向量,然后会根据特征向量之间的距离来进行特征点的匹配。这种检测方法检测出的特征点具有很高的精度,而且对于图像的光照、尺度和旋转具有很强的稳健性,因此可以获得很优秀的拼接效果。但是该方法在计算特征向量时需要进行高斯金字塔与拉普拉斯金字塔的计算,所以速度较慢。SURF是一种基于SIFT的改进方法,它使用盒式滤波器等方式提高了运算速度,而且特征向量的维度也有所减少,减少了匹配的计算量。ORB结合了FAST(Features from Accelerated Segment Test)角点检测算法与BRIEF(Binary Robust Independent Elementary Features)描述子来实现对特征点的检测,ORB相对于另外两种算法速度更快,但是误匹配率较高。这些基于特征点的方法在对重叠区域为固定场景时的拼接会有很好的效果,但是在重叠区域为水域时,往往难以实现有效的拼接。因为水面的波动会造成特征点的特征描述子的值发生改变,使得特征点难以实现匹配。
另一种方法是基于位姿的拼接方法,该方法利用相机的投影原理来获取单应矩阵实现图像的拼接,这种方法的拼接速度很快,计算简单,而且不受图像纹理、内容因素的影响,除此之外,还能够很好的记录拍摄位置等信息,但是无人机搭载的传感器精度往往不是很高,在拼接时有较大的误差。由于水域对拼接误差的容忍度较高,基于位姿的方法在对水域拼接时可以得到较为自然的拼接效果。但是,在对非水域,有着较复杂纹理的养殖设施拼接之时会有较为明显的错位。
由于近海养殖区域拼接场景中存在大量水域,且在水面上有很多呈块状离散分布的养殖设施。这种情况下,基于特征点的方式往往难以成功的实现拼接,而基于位姿的方法会在水面养殖设施的拼接时出现较大的错位。除此之外,传统的缝合线搜索方法主要基于图像的纹理,梯度等来计算拼接对齐的能量,从而保证缝合边界的自然性。若将其应用到对网箱区域的拼接时,缝合线往往会穿过网箱,鱼类的游动使得最终拼接结果偏离真实情况。因此,缝合线应该在保证缝合边界自然的同时尽量避开网箱区域。
发明内容
本发明的目的是为了解决现有拼接方法中在此水域图像场景的缺陷,提供一种基于非均匀精度的近海养殖区域图像拼接方法。该方法首先将近海养殖区域图像分为多个可以用特征点匹配的子区域。在子区域内使用特征点实现子区域拼接的粗对齐,然后使用基于光度对准的网格变换进行精对齐,实现子区域内部的高精度拼接。进一步结合深度学习u-net模型来检测出网箱区域,u-net(Ronneberger O,Fischer P,Brox T.U-net:Convolutional networks for biomedical image segmentation[C]//InternationalConference on Medical image computing and computer-assistedintervention.Springer,Cham,2015:234-241.)是在2015年提出的一种成熟的深度学习模型,分割精度高,效果好,此操作可以使得缝合线搜索时避开网箱区域,保护了网箱结构的完整性。由于不同子区域之间相交区域多为水,对位姿带来的错位敏感度较低。因此,在不同子区域拼接时,使用基于位姿的方法来进行低精度的拼接。
本发明的目的可以通过采取如下技术方案达到:
一种基于非均匀精度的近海养殖区域图像拼接方法,所述图像拼接方法包括如下步骤:
S1、利用无人机对养殖区域进行低空航拍得到航拍图像,对航拍图像执行预处理操作,调整航拍图像的亮度并获取网箱区域的掩膜;
S2、将经过预处理的航拍图像分成多个可以根据特征点进行拼接的子区域,所述子区域内部的图像重叠区域为浮于水面的养殖设施或者船只,所述子区域之间的重叠区域为水;
S3、对子区域进行高精度的内部拼接,利用特征点和基于光度对准的网格变换进行精准对齐,并结合步骤S1预处理中获取的网箱掩膜得到绕开网箱的缝合线,得到子区域的区域图,经过S3步骤的处理,获得的局部区域图像不仅精度高,而且很好的保证了网箱的完整性,降低了鱼类游动带来的负面效果;
S4、将所有子区域的区域图利用位姿获取的单应矩阵投影到全景平面实现全景的低精度拼接,获取全景图,拼接出的全景图不仅保证了对于养殖设施等水面目标的高精度拼接,而且在全局上也保证了自然的观感。
进一步地,所述步骤S1中对航拍图像执行预处理操作包括:对航拍图像进行匀光处理来调整亮度与通过u-net深度学习模型获取网箱掩膜。
进一步地,所述步骤S2过程如下:
S201、使用SIFT算法来检测每张航拍图像中的特征点,并创建一个集合,并第一张航拍图像放入其中,作为第一个子区域;
S202、从第二张航拍图像开始,依次对每一张未划分子区域的航拍图像执行步骤S203;
S203、针对当前未划分子区域的航拍图像,对每一张划分好子区域的航拍图像,执行步骤S204,如果当前未划分子区域的航拍图像对当前所有划分好子区域的航拍图像都无法完成区域匹配,则新建一个集合,并将当前未划分子区域的航拍图像放入新建的集合中,作为一个新的子区域,然后执行S202;
S204、利用位姿计算当前未划分子区域的航拍图像与当前划分好子区域的航拍图像之间的单应矩阵,进一步判断当前未划分子区域的航拍图像与当前划分好子区域的航拍图像的相交情况,如果相交则执行S205,否则执行步骤S203,此操作可以大大降低特征点匹配的工作量,提高区域划分的速度;
S205、使用特征点匹配判断当前未划分子区域的航拍图像与当前划分好子区域的航拍图像的匹配情况,判定所属的子区域,如果成功匹配则将当前航拍图像放入当前划分好子区域的航拍图像所属子区域,并执行S202,否则执行S203,其中对于特征点匹配步骤如下:
S20501、使用最佳优先搜索(Best-Bin-First,BBF)算法进行两张航拍图像之间的特征点粗匹配,得到匹配点对的数量nf;
S20502、使用随机抽样一致性(Random Sample Consensus,RANSAC)算法进行特征点的精匹配,得到匹配点对的数量n,如果满足下式:
n>8+0.3*nf 公式(1)
则认为其匹配成功。
进一步地,所述步骤S204中使用位姿判断两张航拍图像是否相交的过程如下:
首先建立辅助坐标系,辅助平面与辅助图像,以第一张航拍图像的拍摄位置为坐标原点,以正北方向为Y轴正方向,正西方向为X轴正方向,正地方向为Z轴正方向建立辅助坐标系,辅助平面即为大地平面,辅助图像为相机在辅助坐标系原点,相机坐标系三轴与辅助坐标系三轴重合时,大地平面在相机中所形成的图像;
若第一张航拍图像拍摄位置的坐标为x0、y0、z0为在辅助坐标系X轴、Y轴、Z轴上的值;旋转为 θ0、ψ0为第一张图像拍摄姿态绕辅助坐标系的X轴、Y轴、Z轴的旋转角度;第二张航拍图像拍摄位置的坐标为三轴的旋转为x1、y1、z1为在辅助坐标系X轴、Y轴、Z轴上的值;θ1、ψ1为第二张图像拍摄姿态绕辅助坐标系的X轴、Y轴、Z轴的旋转角度,第一张航拍图像拍摄位置与相对于参考坐标系原点的位移矩阵t为:
第一张航拍图像拍摄位姿与相对于辅助坐标系的旋转矩阵R为:
其中:
由相机的成像原理可知,对于空间中的一点,存在如下关系:
其中K为相机的内参矩阵,可由相机标定获得,t,R分别为公式(2)与公式(3)旋转矩阵与位移矩阵,为空间中的一点,X′、Y′、Z′为在辅助坐标系X轴、Y轴、Z轴上的值,为空间中该点在相机成像平面中的像素位置,u为像素的横坐标,v为像素的纵坐标;
对于第一张航拍图像到辅助图像,变换关系可由下式表示:
I为单位矩阵,K-1为K的逆矩阵,d为参考坐标系原点距离参考平面的距离,nT为参考平面的法向量,为辅助图像中像素点的位置,uf、vf为辅助图像中像素点的横坐标、纵坐标,为投影到第一张航拍图像中的像素点的位置,u0、v0为第一张航拍图像中像素点的横坐标、纵坐标;其中,为了简化描述,可得下式:
其中H为辅助图像到第一张航拍图像的变换矩阵,而
H1=H-1 公式(10)
为第一张航拍图像到辅助图像之间的变换矩阵,H-1为H的逆;
同理可得到第二张航拍图像到辅助图像之间的变换矩阵H2,接着获取两张航拍图像之间的单应矩阵Ht;然后,以其中一张航拍图像为参考图像,将另一张航拍图像投影到参考图像之上,并查看投影后的四个顶点是否在参考图像范围内,如果四个顶点中有任意一个顶点在参考图像范围内,则认为两张航拍图像相交。
进一步地,所述步骤S3过程如下:
S301、利用特征点匹配来获取每两张航拍图像之间的匹配关系;
S302、利用最大生成树计算出参考图像以及每张航拍图像的拼接顺序,进一步计算出每张航拍图像到参考图像的单应矩阵,并将航拍图像投影到参考图像平面上;
S303、利用基于光度对准的网格变换处理每一张已投影到参考图像平面的航拍图像;
S304、利用对齐质量与网箱掩膜来寻找最佳缝合线,并缝合子区域图像。
进一步地,所述步骤S303中循环遍历每张航拍图像,每一次循环都固定所有与当前航拍图像相交的航拍图像,并对当前航拍图像做基于光度对准的网格优化,优化过程如下:
S30301、网格化图像并对图像进行抽样,具体如下:
因为在航拍时拍摄的区域并不是完全的平面,而且基于特征点的配准也存在误差,因此会对对齐效果带来负面的影响。因此,需要对其进行网格优化。在优化时,将当前遍历到的航拍图像所在区域划分为多个网格,网格的顶点为vertices,并对当前航拍图像按距离进行像素点抽样,抽样后的点表示为sample_point,每一个抽样点都可以利用周围的4个网格顶点的双线性插值来表示,具体如下:
Ns为该抽样点周围的网格顶点集合,wj为第j个顶点的权重,verticesj为第j个顶点的位置;
将当前遍历到的航拍图像进行直线检测,对每条直线进行像素点抽样操作,抽样点为line_point,并对抽样点做双线性插值:
其中line_point为直线中的抽样点,N′l为每个抽样点周围的4个网格顶点集合,wk为第k个网格顶点的权重,verticesk为第k个网格顶点的位置;
S30302、求取优化能量,获取优化后网格顶点的位置,对于当前优化的航拍图像与任意一张与其相交的航拍图像,当前优化的航拍图像为目标图像,相交的航拍图像为参考图像,能量定义如下:
第一项是光度对准约束项,其能量Epm如下所示:
Epm=∑i‖It(pi+τ(pi))-IS(pi)‖2 公式(13)
其中It为目标图像的灰度图,IS为参考图像的灰度图,pi为重叠区域图像中第i个采样点,τ(pi)为第i个采样点的偏移量;
第二项是梯度约束项,其能量Epg如下所示:
Epg=∑i′‖Gt(p′i′+τ(p′i′))-GS(p′i′)‖2 公式(14)
其中Gt为目标图像的灰度图的梯度图,GS为参考图像的灰度图的梯度图,p′i为重叠区域图像的第i′个采样点,τ(p′i′)为第i′个采样点的偏移量;
其中,在公式(13)与公式(14)中,pi+τ(pi)、pi、p′i′、p′i′+τ(p′i′)都通过公式(11)的插值方式表示;
第三项是三角形约束项,其能量Es如公式(15)所示:
其中为变换前的第itr个三角形的顶点, 为优化后的第itr个三角形的顶点,Ntr为三角形的数量,其中三角形由划分的网格顶点获得;与是通过第itr个变换前的三角形顶点根据公式(16)计算得出的变换参数,
第四项是直线约束项,其能量Ec为:
最终的能量E为:
E=αEpm+βEpg+γEs+ηEc 公式(18)
其中α、β、γ、η为能量系数,对于多图联合优化,针对当前航拍图像,与所有的相交航拍图像求取公式(18)所述的能量项,并作网格优化;最终最小化能量Efe,具体为:
每一次优化后重新映射航拍图像并判断当前航拍图像的网格顶点的位置变化量,如果变化量小于事先指定的优化阈值,将该航拍图像移出优化列表,当优化列表为空时,停止优化。经过优化后,图像之间的对齐质量会得到进一步的提升,从而可以搜索到更为自然的缝合线。
进一步地,所述步骤S304过程如下:
利用对齐质量与网箱掩膜来寻找最佳缝合线,对网箱区域依照网箱掩膜施加能量值,使得缝合线绕开网箱,对于相邻的两张优化后的航拍图像,缝合线的能量Eseam可由下式表示:
其中Eseam为缝合线的总能量,p′s为航拍图像中的像素;No为两张航拍图像重合区域相邻像素点的集合,ps、qs为No中的任意两个相邻像素点;Nt为两张航拍图像重合区域中的目标掩膜区域相邻像素点的集合,pt、qt为Nt中的任意一对相邻像素点,α′、β′为能量系数,能量函数各部分组成部分定义如下:
Ea为相邻的两张优化后的航拍图像对齐质量能量,为ps、qs两个像素点的标签,即第一张航拍图像或第二张航拍图像;为ps点在图中的像素值,为ps点在图中的像素值,为qs点在图中的像素值,为qs点在图中的像素值,Et为网箱区域根据网箱掩膜赋予的能量,maskOE为对于网箱区域惩罚的能量值;结合这三项能量利用马尔科夫随机场获取最佳的缝合线。相对于传统的单纯基于图像特征缝合线搜索方法,在此基础上搜索到的缝合线,不仅可以在一定程度上保证了缝合的自然效果,而且,有效的降低了缝合线穿过网箱的概率,方便了对于网箱内部鱼类的观测。
找到最佳缝合线后,缝合航拍图像,得到子区域的航拍图像拼接完成图,也即该子区域的子区域图。
进一步地,所述步骤S4过程如下:
S401、计算全景平面的坐标系以及每个子区域的区域图到全景平面的单应矩阵;
S402、修正子区域的区域图的坐标范围;
S403、将子区域的区域图投影到全景平面获取全景图。
本发明相对于现有技术具有如下的优点及效果:
1)本发明可以针对重叠区域的特点选择拼接方法,在子区域内部拼接时,由于相交区域存在养殖设施等水面目标,因此采用基于特征点匹配结合网格优化来进行高精度的子区域内部拼接。子区域之间的相交区域由于绝大部分为水,特征点难以成功实现匹配,且对误差的容忍度较高,因此采用低精度的基于姿态的方式来进行拼接。最终在保持水面目标拼接精度高的同时实现了全局自然的拼接。
2)本发明在缝合线搜索时结合u-net检测的网箱掩膜与图像对齐误差来计算能量,在进行子区域内部拼接时,使得缝合线尽量绕开了网箱所在的区域,提升了养殖网箱区域在图像缝合时的完整度。
附图说明
图1是本发明实施例公开的基于非均匀精度的近海养殖区域图像拼接方法的工作流程图;
图2是本发明实施例中进行图像局部分类的流程图;
图3是本发明实施例中进行局部拼接的流程图;
图4是本发明实施例中进行全景拼接的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本实例公开了一种基于非均匀精度的近海养殖区域图像拼接方法,主要结合位姿与特征点对图像进行先子区域内部后子区域之间的拼接,如图1所示,具体流程如下:
S1、利用无人机对养殖区域进行低空航拍得到航拍图像,对航拍图像执行预处理操作,调整航拍图像的亮度并获取网箱区域的掩膜;
对于图像的预处理,这里包括航拍图像匀光与网箱掩膜获取。由于相机在拍照时的曝光不一致,使得最终获取的航拍图像的亮度不一致。航拍图像的亮度不仅会影响最终拼接结果的观感,也会对基于光度对准的网格优化带来不利的影响。因此,首先要对航拍图像做匀光处理。在处理时,以第一张航拍图像为参考图像,其他的航拍图像为变换图像来进行处理,其中变换图像与参考图像的关系如下:
其中:
这里m′,n′为当前图像的行数与列数,Ii″′j″′为当前图像的第i″′行j″′列的像素。
亮度调整完毕后,使用u-net来对航拍图像进行分割,获取网箱区域的网箱掩膜。u-net(Ronneberger O,Fischer P,Brox T.U-net:Convolutional networks forbiomedical image segmentation[C]//International Conference on Medical imagecomputing and computer-assisted intervention.Springer,Cham,2015:234-241.)是一个2015年提出的图像分割模型,此模型分割精度高,所需数据量少。分割过程主要如下:1)首先搭建u-net深度学习模型;2)标注航拍图像中的目标,作为训练模型的数据集,这里的标注目标为网箱;3)训练模型;4)检测网箱掩膜,训练完毕后,模型即可通过输入的航拍图像预测出其中的网箱区域,针对网箱区域,再根据灰度阈值来分离出网箱的框架与水域,得到不同目标的区域的位置。
S2、将经过预处理的航拍图像分成多个可以根据特征点进行拼接的子区域,所述子区域内部的航拍图像重叠区域为浮于水面的养殖设施或者船只,所述子区域之间的重叠区域为水,其流程如图2所示,具体如下:
S201、使用SIFT算法来检测每张航拍图像中的特征点,创建一个集合,将第一张航拍图像放入其中,作为第一个子区域;
S202、从第二张航拍图像开始,依次对每一张未划分子区域的航拍图像执行步骤S203;
S203、针对当前未划分子区域的航拍图像,对每一张划分好子区域的航拍图像,执行步骤S204,如果当前未划分子区域的航拍图像对当前所有划分好子区域的航拍图像都无法完成区域匹配,则新建一个集合,并将当前未划分子区域的航拍图像放入新建的集合中,作为一个新的子区域,然后执行S202;
S204、利用位姿计算当前未划分子区域的航拍图像与当前划分好子区域的航拍图像之间的单应矩阵,进一步判断当前未划分子区域的航拍图像与当前划分好子区域的航拍图像的相交情况,如果相交则执行S205,否则执行步骤S203,其中利用位姿判断是否相交的过程如下:
首先建立辅助坐标系,辅助平面与辅助图像,以第一张航拍图像的拍摄位置为坐标原点,以正北方向为Y轴正方向,正西方向为X轴正方向,正地方向为Z轴正方向建立辅助坐标系,辅助平面即为大地平面,辅助图像为相机在辅助坐标系原点,相机坐标系三轴与辅助坐标系三轴重合时,大地平面在相机中所形成的图像;
若第一张航拍图像拍摄位置的坐标为x0、y0、z0为在辅助坐标系X轴、Y轴、Z轴上的值;旋转为 θ0、ψ0为第一张图像拍摄姿态绕辅助坐标系的X轴、Y轴、Z轴的旋转角度;第二张航拍图像拍摄位置的坐标为三轴的旋转为x1、y1、z1为在辅助坐标系X轴、Y轴、Z轴上的值;θ1、ψ1为绕辅助坐标系的X轴、Y轴、Z轴的旋转角度,第一张航拍图像拍摄位置与相对于参考坐标系原点的位移矩阵t为:
第一张航拍图像拍摄位姿与相对于辅助坐标系的旋转矩阵R为:
其中:
由相机的成像原理可知,对于空间中的一点,存在如下关系:
其中K为相机的内参矩阵,可由相机标定获得,t,R分别为公式(d)与公式(e)旋转矩阵与位移矩阵,为空间中的一点,X′、Y′、Z′为在辅助坐标系X轴、Y轴、Z轴上的值,为空间中该点在相机成像平面中的像素位置,u为像素的横坐标,v为像素的纵坐标;
对于第一张航拍图像到辅助图像,变换关系可由下式表示:
I为单位矩阵,K-1为K的逆矩阵,d为参考坐标系原点距离参考平面的距离,nT为参考平面的法向量,为辅助图像中像素点的位置,uf、vf为辅助图像中像素点的横坐标、纵坐标,为投影到第一张航拍图像中的像素点的位置,u0、v0为第一张航拍图像中像素点的横坐标、纵坐标;其中,为了简化描述,可得下式:
其中H为辅助图像到第一张航拍图像的变换矩阵,而
H1=H-1 公式(l)
为第一张航拍图像到辅助图像之间的变换矩阵,H-1为H的逆;
同理可得到第二张航拍图像到辅助图像之间的变换矩阵H2,接着获取两张航拍图像之间的单应矩阵Ht;然后,以其中一张航拍图像为参考图像,将另一张航拍图像投影到参考图像之上,并查看投影后的四个顶点是否在参考图像范围内,如果四个顶点中有任意一个顶点在参考图像范围内,则认为两张航拍图像相交。
S205、使用特征点匹配判断当前未划分子区域的航拍图像与当前划分好子区域的航拍图像的匹配情况,判定所属的子区域,如果成功匹配则将当前航拍图像放入当前划分好子区域的航拍图像所属子区域,并执行S202,否则执行S203,其中对于特征点匹配步骤如下:
S20501、使用最佳优先搜索(Best-Bin-First,BBF)算法进行两张航拍图像之间的特征点粗匹配,得到匹配点对的数量nf;
S20502、使用随机抽样一致性(Random Sample Consensus,RANSAC)算法进行特征点的精匹配,得到匹配点对的数量n,如果满足下式:
n>8+0.3*nf 公式(m)
则认为其匹配成功。
S3、对子区域进行高精度的内部拼接,利用特征点和基于光度对准的网格变换进行精准对齐,并结合步骤S1预处理中获取的网箱掩膜得到绕开网箱的缝合线,得到子区域的区域图,其流程如图3所示,具体如下:
S301、利用特征点匹配来获取每两张航拍图像之间的匹配关系;
S302、利用最大生成树计算出参考图像以及每张航拍图像的拼接顺序,进一步计算出每张航拍图像到参考图像的单应矩阵,并将航拍图像投影到参考图像的平面上;
S303、利用基于光度对准的网格变换依次处理每一张已投影到参考图像的航循环遍历每张航拍图像,每一次循环都固定所有与遍历的当前航拍图像相交的航拍图像,并对当前航拍图像做基于光度对准的网格优化,优化过程如下:
循环遍历每张航拍图像,每一次循环都固定所有与当前航拍图像相交的航拍图像,并对当前航拍图像做基于光度对准的网格优化,优化过程如下:
S30301、网格化图像并对图像进行抽样,具体如下:
将当前遍历到的航拍图像所在区域划分为多个网格,网格的顶点为vertices,并对当前航拍图像按距离进行像素点抽样,抽样后的点表示为sample_point,每一个抽样点都可以利用周围的4个网格顶点的双线性插值来表示,具体如下:
Ns为该抽样点周围的网格顶点集合,wj为第j个顶点的权重,verticesj为第j个顶点的位置;
将当前遍历到的航拍图像进行直线检测,对每条直线进行像素点抽样操作,抽样点为line_point,并对抽样点做双线性插值:
其中line_point为直线中的抽样点,N′l为每个抽样点周围的4个网格顶点集合,wk为第k个网格顶点的权重,verticesk为第k个网格顶点的位置;
S30302、求取优化能量,获取优化后网格顶点的位置,对于当前优化的航拍图像与任意一张与其相交的航拍图像,当前优化的航拍图像为目标图像,相交的航拍图像为参考图像,能量定义如下:
第一项是光度对准约束项,其能量Epm如下所示:
Epm=∑i‖It(pi+τ(pi))-IS(pi)‖2 公式(p)
其中It为目标图像的灰度图,IS为参考图像的灰度图,pi为重叠区域图像中第i个采样点,τ(pi)为第i个采样点的偏移量;
第二项是梯度约束项,其能量Epg如下所示:
Epg=∑i′‖Gt(p′i′+τ(p′i′))-GS(p′i′)‖2 公式(q)
其中Gt为目标图像的灰度图的梯度图,GS为参考图像的灰度图的梯度图,p′i为重叠区域图像的第i′个采样点,τ(p′i)为第i′个采样点的偏移量;
其中,在公式(p)与公式(q)中,pi+τ(pi)、pi、p′i′、p′i′+τ(p′i′)都通过公式(n)的插值方式表示;
第三项是三角形约束项,其能量Es如公式(r)所示:
第四项是直线约束项,其能量Ec为:
最终的能量E为:
E=αEpm+βEpg+γEs+ηEc 公式(u)
其中α、β、γ、η为能量系数,对于多图联合优化,针对当前航拍图像,与所有的相交航拍图像求取公式(u)所述的能量项,并作网格优化;最终最小化能量Efe,具体为:
每一次优化后重新映射航拍图像并判断当前航拍图像的网格顶点的位置变化量,如果变化量小于事先指定的优化阈值,将该航拍图像移出优化列表,当优化列表为空时,停止优化。
S304、利用对齐质量与网箱掩膜来寻找最佳缝合线,并缝合子区域图像,具体如下所示:
利用对齐质量与网箱掩膜来寻找最佳缝合线,对网箱区域依照网箱掩膜施加能量值,使得缝合线绕开网箱,对于相邻的两张优化后的航拍图像,缝合线的能量Eseam可由下式表示:
其中Eseam为缝合线的总能量,p′s为航拍图像中的像素;No为两张航拍图像重合区域相邻像素点的集合,ps、qs为No中的任意两个相邻像素点;Nt为两张航拍图像重合区域中的目标掩膜区域相邻像素点的集合,pt、qt为Nt中的任意一对相邻像素点,α′、β′为能量系数,能量函数各部分组成部分定义如下:
Ea为相邻的两张优化后的航拍图像对齐质量能量,为ps、qs两个像素点的标签,即第一张航拍图像或第二张航拍图像;为ps点在图中的像素值,为ps点在图中的像素值,为qs点在图中的像素值,为qs点在图中的像素值,Et为网箱区域根据网箱掩膜赋予的能量,maskOE为对于网箱区域惩罚的能量值;结合这三项能量利用马尔科夫随机场获取最佳的缝合线;
找到最佳缝合线后,缝合航拍图像,得到子区域的航拍图像拼接完成图,也即该子区域的子区域图。
S4、将所有子区域的区域图利用位姿获取的单应矩阵投影到全景平面实现全景的低精度拼接,获取自然的全景图,其流程如图4所示,具体如下:
S401、计算全景平面的坐标系以及每个子区域的区域图到全景平面的单应矩阵,全景平面对应坐标系的原点的经度,纬度,相对拍摄平面的高度可以由下式获得:
其中lan为所有航拍图像位置的纬度集合,lon为所有航拍图像的经度集合,hei为所有航拍图像相对拍摄平面的高度集合;
然后基于该中心位置坐标为原点建立空间直角坐标系;其中正西方向为X轴正方向,正北为Y轴正方向,正下为Z轴正方向;坐标系建立完毕之后,将大地平面作为最终的投影平面;随后便可以根据(k)式来计算每个子区域的区域图到全景平面的单应矩阵;
S402、修正子区域的区域图的坐标范围,对子区域的区域图进行坐标修正;因为在进行子区域内部拼接时,子区域里的参考图像会进行横向与纵向上的位移Δx,Δy,以使得所有的航拍图像都能被记录到参考平面上;因此,子区域的区域图在横向与纵向上的坐标范围不再是[0:width,0:height],修正后的局部区域在横向与纵向上的坐标范围为:[-Δx:width-Δx,-Δy:height-Δy];其中width,height为每个子区域的区域图的高与宽,Δx与Δy为子区域参考图像在横向与纵向上的位移;
S403、将子区域的区域图投影到全景平面获取全景图,在获取每个子区域的区域图到全景平面的单应矩阵后,便可以获取最终的全景图的大小,以及每个子区域的区域图投影后的位移[offsetx,offsety];
其中位移的获取方式具体为,由步骤S402可知每个子区域的区域图的范围为[-Δx:width-Δx,-Δy:height-Δy],则其顶点依次左上,左下,右上,右下为:
然后利用下式:
求出变换后的顶点,其中为变换前图像的顶点,xv、yv为顶点的横坐标与纵坐标,为变换后坐标的顶点,uv、vv为变换后顶点的纵坐标与横坐标,Hv为子区域的区域图到全景平面的单应矩阵。因为所有的图像都要在最终的全景图中,因此要对所有投影后的图像做位移操作。具体如下:
offsetx=max(abs(min(0,min(verticena[:,0])))…) 公式(e1)
offsety=max(abs(min(0,min(verticena[:,1])))…) 公式(f1)
其中verticena[:,0]为第na个子区域的区域图投影过后的顶点横坐标,verticena[:,1]为第na个子区域的区域图投影过后的顶点纵坐标,max为求取最大值的操作,abs为求取绝对值的操作,min为求取最小值的操作;
对于全景图拼接,也就是将子区域的区域图投影到全景图中;投影后的坐标可以表示为:
其中,Hp为每个子区域的区域图到全局的单应矩阵,为子区域的区域图的每个像素点的坐标,xa、ya分别为每个像素点的横坐标与纵坐标,为投影到全景平面后该像素点的坐标,up,vp为投影后的横坐标与纵坐标,为位移;投影完毕后,便可以通过最佳缝合线缝合图像获取最终的全景图。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (8)
1.一种基于非均匀精度的近海养殖区域图像拼接方法,其特征在于,所述图像拼接方法包括如下步骤:
S1、利用无人机对养殖区域进行低空航拍得到航拍图像,对航拍图像执行预处理操作,调整航拍图像的亮度并获取网箱区域的掩膜;
S2、将经过预处理的航拍图像分成多个可以根据特征点进行拼接的子区域,所述子区域内部的图像重叠区域为浮于水面的养殖设施或者船只,所述子区域之间的重叠区域为水;
S3、对子区域进行高精度的内部拼接,利用特征点和基于光度对准的网格变换进行精准对齐,并结合步骤S1预处理中获取的网箱掩膜得到绕开网箱的缝合线,得到子区域的区域图;
S4、将所有子区域的区域图利用位姿获取的单应矩阵投影到全景平面实现全景的低精度拼接,获取全景图。
2.根据权利要求1所述的基于非均匀精度的近海养殖区域图像拼接方法,其特征在于,所述步骤S1中对航拍图像执行预处理操作包括:对航拍图像进行匀光处理来调整亮度与通过u-net深度学习模型获取网箱掩膜。
3.根据权利要求1所述的基于非均匀精度的近海养殖区域图像拼接方法,其特征在于,所述步骤S2过程如下:
S201、使用SIFT算法来检测每张航拍图像中的特征点,并创建一个集合,并第一张航拍图像放入其中,作为第一个子区域;
S202、从第二张航拍图像开始,依次对每一张未划分子区域的航拍图像执行步骤S203;
S203、针对当前未划分子区域的航拍图像,对每一张划分好子区域的航拍图像,执行步骤S204,如果当前未划分子区域的航拍图像对当前所有划分好子区域的航拍图像都无法完成区域匹配,则新建一个集合,并将当前未划分子区域的航拍图像放入新建的集合中,作为一个新的子区域,然后执行S202;
S204、利用位姿计算当前未划分子区域的航拍图像与当前划分好子区域的航拍图像之间的单应矩阵,进一步判断当前未划分子区域的航拍图像与当前划分好子区域的航拍图像的相交情况,如果相交则执行S205,否则执行步骤S203;
S205、使用特征点匹配判断当前未划分子区域的航拍图像与当前划分好子区域的航拍图像的匹配情况,判定所属的子区域,如果成功匹配则将当前航拍图像放入当前划分好子区域的航拍图像所属子区域,并执行S202,否则执行S203,其中对于特征点匹配步骤如下:
S20501、使用最佳优先搜索算法进行两张航拍图像之间的特征点粗匹配,得到匹配点对的数量nf;
S20502、使用随机抽样一致性算法进行特征点的精匹配,得到匹配点对的数量n,如果满足下式:
n>8+0.3*nf 公式(1)
则认为其匹配成功。
4.根据权利要求3所述的基于非均匀精度的近海养殖区域图像拼接方法,其特征在于,所述步骤S204中使用位姿判断两张航拍图像是否相交的过程如下:
首先建立辅助坐标系,辅助平面与辅助图像,以第一张航拍图像的拍摄位置为坐标原点,以正北方向为Y轴正方向,正西方向为X轴正方向,正地方向为Z轴正方向建立辅助坐标系,辅助平面即为大地平面,辅助图像为相机在辅助坐标系原点,相机坐标系三轴与辅助坐标系三轴重合时,大地平面在相机中所形成的图像;
若第一张航拍图像拍摄位置的坐标为x0、y0、z0为在辅助坐标系X轴、Y轴、Z轴上的值,旋转为 θ0、ψ0为第一张图像拍摄姿态绕辅助坐标系的X轴、Y轴、Z轴的旋转角度;第二张航拍图像拍摄位置的坐标为三轴的旋转为x1、y1、z1为在辅助坐标系X轴、Y轴、Z轴上的值,θ1、ψ1为绕辅助坐标系的X轴、Y轴、Z轴的旋转角度,第一张航拍图像拍摄位置与相对于参考坐标系原点的位移矩阵t为:
第一张航拍图像拍摄位姿与相对于辅助坐标系的旋转矩阵R为:
其中:
由相机的成像原理可知,对于空间中的一点,存在如下关系:
其中K为相机的内参矩阵,可由相机标定获得,t、R分别为公式(2)与公式(3)旋转矩阵与位移矩阵,为空间中的一点,X′、Y′、Z′为在辅助坐标系X轴、Y轴、Z轴上的值,为空间中该点在相机成像平面中的像素位置,u为像素的横坐标,v为像素的纵坐标;
对于第一张航拍图像到辅助图像,变换关系可由下式表示:
I为单位矩阵,K-1为K的逆矩阵,d为参考坐标系原点距离参考平面的距离,nT为参考平面的法向量,为辅助图像中像素点的位置,uf、vf为辅助图像中像素点的横坐标、纵坐标,为投影到第一张航拍图像中的像素点的位置,u0、v0为第一张航拍图像中像素点的横坐标、纵坐标;其中,为了简化描述,可得下式:
其中H为辅助图像到第一张航拍图像的变换矩阵,而
H1=H-1 公式(10)
为第一张航拍图像到辅助图像之间的变换矩阵,H-1为H的逆;
同理可得到第二张航拍图像到辅助图像之间的变换矩阵H2,接着获取两张航拍图像之间的单应矩阵Ht;然后,以其中一张航拍图像为参考图像,将另一张航拍图像投影到参考图像之上,并查看投影后的四个顶点是否在参考图像范围内,如果四个顶点中有任意一个顶点在参考图像范围内,则认为两张航拍图像相交。
5.根据权利要求1所述的基于非均匀精度的近海养殖区域图像拼接方法,其特征在于,所述步骤S3过程如下:
S301、利用特征点匹配来获取每两张航拍图像之间的匹配关系;
S302、利用最大生成树计算出参考图像以及每张航拍图像的拼接顺序,进一步计算出每张航拍图像到参考图像的单应矩阵,并将航拍图像投影到参考图像平面上;
S303、利用基于光度对准的网格变换处理每一张已投影到参考图像平面的航拍图像;
S304、利用对齐质量与网箱掩膜来寻找最佳缝合线,并缝合子区域图像。
6.根据权利要求5所述的基于非均匀精度的近海养殖区域图像拼接方法,其特征在于,所述步骤S303中循环遍历每张航拍图像,每一次循环都固定所有与当前航拍图像相交的航拍图像,并对当前航拍图像做基于光度对准的网格优化,优化过程如下:
S30301、网格化图像并对图像进行抽样,具体如下:
将当前遍历到的航拍图像所在区域划分为多个网格,网格的顶点为vertices,并对当前航拍图像按距离进行像素点抽样,抽样后的点表示为sample_point,每一个抽样点都可以利用周围的4个网格顶点的双线性插值来表示,具体如下:
Ns为该抽样点周围的网格顶点集合,wj为第j个顶点的权重,verticesj为第j个顶点的位置;
将当前遍历到的航拍图像进行直线检测,对每条直线进行像素点抽样操作,抽样点为line_point,并对抽样点做双线性插值:
其中line_point为直线中的抽样点,Nl′为每个抽样点周围的4个网格顶点集合,wk为第k个网格顶点的权重,verticesk为第k个网格顶点的位置;
S30302、求取优化能量,获取优化后网格顶点的位置,对于当前优化的航拍图像与任意一张与其相交的航拍图像,当前优化的航拍图像为目标图像,相交的航拍图像为参考图像,能量定义如下:
第一项是光度对准约束项,其能量Epm如下所示:
Epm=∑i‖It(pi+τ(pi))-IS(pi)‖2 公式(13)
其中It为目标图像的灰度图,IS为参考图像的灰度图,pi为重叠区域图像中第i个采样点,τ(pi)为第i个采样点的偏移量;
第二项是梯度约束项,其能量Epg如下所示:
Epg=∑i′‖Gt(p′i′+τ(p′i′))-GS(p′i′)‖2 公式(14)
其中Gt为目标图像的灰度图的梯度图,GS为参考图像的灰度图的梯度图,p′i为重叠区域图像的第i′个采样点,τ(p′i)为第i′个采样点的偏移量;
其中,在公式(13)与公式(14)中,pi+τ(pi)、pi、p′i′、p′i′+τ(p′i′)都通过公式(11)的插值方式表示;
第三项是三角形约束项,其能量Es如公式(15)所示:
其中为变换前的第itr个三角形的顶点, 为优化后的第itr个三角形的顶点,Ntr为三角形的数量,其中三角形由划分的网格顶点获得;与是通过第itr个变换前的三角形顶点根据公式(16)计算得出的变换参数,
第四项是直线约束项,其能量Ec为:
最终的能量E为:
E=αEpm+βEpg+γEs+ηEc 公式(18)
其中α、β、γ、η为能量系数,对于多图联合优化,针对当前航拍图像,与所有的相交航拍图像求取公式(18)的能量项,并作网格优化;最终最小化能量Efe,计算公式如下:
每一次优化后重新映射航拍图像并判断当前航拍图像的网格顶点的位置变化量,如果变化量小于事先指定的优化阈值,将该航拍图像移出优化列表,当优化列表为空时,停止优化。
7.根据权利要求5所述的基于非均匀精度的近海养殖区域图像拼接方法,其特征在于,所述步骤S304过程如下:
利用对齐质量与网箱掩膜来寻找最佳缝合线,对网箱区域依照网箱掩膜施加能量值,使得缝合线绕开网箱,对于相邻的两张优化后的航拍图像,缝合线的能量Eseam可由下式表示:
其中Eseam为缝合线的总能量,p′s为航拍图像中的像素;No为两张航拍图像重合区域相邻像素点的集合,ps、qs为No中的任意两个相邻像素点;Nt为两张航拍图像重合区域中的目标掩膜区域相邻像素点的集合,pt、qt为Nt中的任意一对相邻像素点,α′、β′为能量系数,能量函数各部分组成部分定义如下:
Ea为相邻的两张优化后的航拍图像对齐质量能量,为ps、qs两个像素点的标签,即第一张航拍图像或第二张航拍图像;为ps点在图中的像素值,为ps点在图中的像素值,为qs点在图中的像素值,为qs点在图中的像素值,Et为网箱区域根据网箱掩膜赋予的能量,maskOE为对于网箱区域惩罚的能量值;结合这三项能量利用马尔科夫随机场获取最佳的缝合线;
找到最佳缝合线后,缝合航拍图像,得到子区域的航拍图像拼接完成图,也即该子区域的子区域图。
8.根据权利要求1所述的基于非均匀精度的近海养殖区域航拍图像拼接方法,其特征在于,所述步骤S4过程如下:
S401、计算全景平面的坐标系以及每个子区域的区域图到全景平面的单应矩阵;
S402、修正子区域的区域图的坐标范围;
S403、将子区域的区域图投影到全景平面获取全景图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110354425.2A CN113160052B (zh) | 2021-04-01 | 2021-04-01 | 基于非均匀精度的近海养殖区域图像拼接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110354425.2A CN113160052B (zh) | 2021-04-01 | 2021-04-01 | 基于非均匀精度的近海养殖区域图像拼接方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113160052A true CN113160052A (zh) | 2021-07-23 |
CN113160052B CN113160052B (zh) | 2022-10-25 |
Family
ID=76885908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110354425.2A Expired - Fee Related CN113160052B (zh) | 2021-04-01 | 2021-04-01 | 基于非均匀精度的近海养殖区域图像拼接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113160052B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723757A (zh) * | 2022-06-09 | 2022-07-08 | 济南大学 | 一种基于深度学习算法的高精度晶圆缺陷检测方法及*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110090337A1 (en) * | 2008-02-01 | 2011-04-21 | Imint Image Intelligence Ab | Generation of aerial images |
CN104966122A (zh) * | 2015-07-11 | 2015-10-07 | 浙江大学宁波理工学院 | 一种基于计算机视觉的活鱼自动计数*** |
CN108875659A (zh) * | 2018-06-26 | 2018-11-23 | 上海海事大学 | 一种基于多光谱遥感影像的海图养殖区识别方法 |
CN111583110A (zh) * | 2020-04-24 | 2020-08-25 | 华南理工大学 | 一种航拍图像的拼接方法 |
CN111784585A (zh) * | 2020-09-07 | 2020-10-16 | 成都纵横自动化技术股份有限公司 | 图像拼接方法、装置、电子设备和计算机可读存储介质 |
CN112085659A (zh) * | 2020-09-11 | 2020-12-15 | 中德(珠海)人工智能研究院有限公司 | 一种基于球幕相机的全景拼接融合方法、***及存储介质 |
CN112488046A (zh) * | 2020-12-15 | 2021-03-12 | 中国科学院地理科学与资源研究所 | 一种基于无人机高分辨率影像的车道线提取方法 |
-
2021
- 2021-04-01 CN CN202110354425.2A patent/CN113160052B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110090337A1 (en) * | 2008-02-01 | 2011-04-21 | Imint Image Intelligence Ab | Generation of aerial images |
CN104966122A (zh) * | 2015-07-11 | 2015-10-07 | 浙江大学宁波理工学院 | 一种基于计算机视觉的活鱼自动计数*** |
CN108875659A (zh) * | 2018-06-26 | 2018-11-23 | 上海海事大学 | 一种基于多光谱遥感影像的海图养殖区识别方法 |
CN111583110A (zh) * | 2020-04-24 | 2020-08-25 | 华南理工大学 | 一种航拍图像的拼接方法 |
CN111784585A (zh) * | 2020-09-07 | 2020-10-16 | 成都纵横自动化技术股份有限公司 | 图像拼接方法、装置、电子设备和计算机可读存储介质 |
CN112085659A (zh) * | 2020-09-11 | 2020-12-15 | 中德(珠海)人工智能研究院有限公司 | 一种基于球幕相机的全景拼接融合方法、***及存储介质 |
CN112488046A (zh) * | 2020-12-15 | 2021-03-12 | 中国科学院地理科学与资源研究所 | 一种基于无人机高分辨率影像的车道线提取方法 |
Non-Patent Citations (3)
Title |
---|
朱长明: "高分辨率遥感影像近海养殖区自动识别方法", 《大连海事大学学报》 * |
胡涛等: "基于Matlab 的图像融合方法", 《计算机工程》 * |
高云等: "基于深度学习的群猪图像实例分割方法", 《农业机械学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723757A (zh) * | 2022-06-09 | 2022-07-08 | 济南大学 | 一种基于深度学习算法的高精度晶圆缺陷检测方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN113160052B (zh) | 2022-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112258618B (zh) | 基于先验激光点云与深度图融合的语义建图与定位方法 | |
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
CN111429514A (zh) | 一种融合多帧时序点云的激光雷达3d实时目标检测方法 | |
CN114936971A (zh) | 一种面向水域的无人机遥感多光谱图像拼接方法及*** | |
CN108765298A (zh) | 基于三维重建的无人机图像拼接方法和*** | |
CN111968048B (zh) | 电力巡检少样本图像数据增强方法及*** | |
US20090110267A1 (en) | Automated texture mapping system for 3D models | |
WO2012126500A1 (en) | 3d streets | |
CN114419467A (zh) | 旋转船只目标检测模型的训练方法、训练装置和存储介质 | |
CN109900274B (zh) | 一种图像匹配方法及*** | |
CN110246082B (zh) | 一种遥感全景图像拼接方法 | |
CN110910349B (zh) | 一种基于航拍视觉的风电机组状态获取方法 | |
CN111967337A (zh) | 一种基于深度学习和无人机影像的管道线变化检测方法 | |
CN111581313A (zh) | 一种基于实例分割的语义slam鲁棒性改进方法 | |
CN113160053A (zh) | 一种基于位姿信息的水下视频图像复原与拼接方法 | |
CN114004977A (zh) | 一种基于深度学习的航拍数据目标定位方法及*** | |
CN113160052B (zh) | 基于非均匀精度的近海养殖区域图像拼接方法 | |
CN113313659A (zh) | 一种多机协同约束下高精度图像拼接方法 | |
CN110211148B (zh) | 一种基于目标状态预估的水下图像预分割方法 | |
CN112990034A (zh) | 一种影像优先的交通标牌变化检测方法 | |
CN117809082A (zh) | 基于裂缝自分割模型的桥梁裂缝病害检测方法及装置 | |
Božić-Štulić et al. | Complete model for automatic object detection and localisation on aerial images using convolutional neural networks | |
CN109344785A (zh) | 一种在深空自主光学导航中的高精度的行星中心定位方法 | |
CN116128919A (zh) | 基于极线约束的多时相图像异动目标检测方法及*** | |
CN110223250A (zh) | 基于单应变换的sar几何校正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20221025 |
|
CF01 | Termination of patent right due to non-payment of annual fee |