CN113240712A - 一种基于视觉的水下集群邻居跟踪测量方法 - Google Patents
一种基于视觉的水下集群邻居跟踪测量方法 Download PDFInfo
- Publication number
- CN113240712A CN113240712A CN202110510623.3A CN202110510623A CN113240712A CN 113240712 A CN113240712 A CN 113240712A CN 202110510623 A CN202110510623 A CN 202110510623A CN 113240712 A CN113240712 A CN 113240712A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- color
- vision
- measurement method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004438 eyesight Effects 0.000 title claims abstract description 16
- 238000000691 measurement method Methods 0.000 title claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 8
- 238000011524 similarity measure Methods 0.000 claims description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 3
- 238000012804 iterative process Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 8
- 230000008901 benefit Effects 0.000 abstract description 4
- 241000251468 Actinopterygii Species 0.000 description 25
- 230000006870 function Effects 0.000 description 13
- 230000000007 visual effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 230000016776 visual perception Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000005265 energy consumption Methods 0.000 description 2
- 239000011664 nicotinic acid Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241000282461 Canis lupus Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002431 foraging effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- BTCSSZJGUNDROE-UHFFFAOYSA-N gamma-aminobutyric acid Chemical compound NCCCC(O)=O BTCSSZJGUNDROE-UHFFFAOYSA-N 0.000 description 1
- 230000005358 geomagnetic field Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提出的一种基于视觉的水下集群邻居测量方法,基于Meanshift的跟踪算法,采用目标颜色概率密度分布图作为目标搜索的特征,通过不断迭代使得算法收敛于目标真实位置,从而实现对目标的跟踪功能,并使用相似三角形目标测距和正切函数目标测角对水下邻居进行定位。这种算法的计算量较小,实时性较好,对外界环境干扰不敏感。
Description
技术领域
本发明为一种基于视觉的水下集群邻居跟踪测量方法,主要应用于视觉信息受限的水下自主航行器。
背景技术
近年来,自主水下航行器(autonomous underwater vehicle,AUV)随着国家海洋战略的实施而备受关注,而AUV集群属于“人工智能+海洋无人***”深度融合的一项基础性、创新型技术,吸引了众多研究者的目光。使多AUV像自然界的狼群、蜂群、鱼群完成觅食、筑巢、御敌、迁徙等复杂的群体运动一样相互协作,利用感知和行动能力非常有限的独立个体,通过遵循一些简单的行为规则,共同完成复杂任务是水下无人集群***协同控制研究的核心问题。
简单集群的形成要求:1.个体沿着邻居运动的方向运动;2.个体实时感知邻居状态;3.保持邻居靠近;4.避免与邻居碰撞。因此,在AUV集群中,单个AUV必须拥有获取邻居个体的相对位置信息的并进行跟踪的能力,进而组成集群协作完成水下复杂任务。传统AUV通常使用声学传感器对周围环境进行感知,其获取到的信息有限、采样周期长,易受地磁场和其它传感器干扰,且其能耗较大,成本较高,并不适合成为AUV集群的主要感知手段。而研究表明,鱼群在集群游动时,是利用视觉来感知邻居的状态,从而形成强大而灵活的自组织集群行为,受此启发,使用视觉感知成为了AUV集群的主要研究方向。随着高性能水下摄像头在AUV上的成功应用,视觉感知成为了AUV新的感知手段,其在采样周期,获取信息量,成本,能耗等方面均要优于声学感知,非常适用于在近距离、高精度的工作任务中使用。因此,基于视觉感知的集群控制方法已经成为当前水下无人***集群控制研究的前沿和热点。
现有的较为主流目标跟踪算法有区域与区域匹配的跟踪算法、基于主动轮廓的跟踪算法、基于光流法的跟踪算法、基于特征点的跟踪算法。区域与区域匹配的跟踪算法通过对检测区域与目标模板的匹配来实现目标跟踪,这种方法的约束条件苛刻,要求目标形状变化不大。基于主动轮廓的跟踪算法适合于单目标检测,但由于能量函数的非凸性,存在模型收敛于局部极小值的风险,且抗噪性较差。基于光流法的跟踪算法的稳定性和可靠性较好,但跟踪效果一般。基于特征点的跟踪算法在目标发生旋转或被遮挡时难以保证跟踪的准确性。
发明内容
基于Meanshift的跟踪算法采用目标颜色概率密度分布图作为目标搜索的特征,通过不断迭代使得算法收敛于目标真实位置,从而实现对目标的跟踪功能,这种算法的计算量较小,实时性较好,对外界环境干扰不敏感,这些特点使得基于Meanshift的跟踪算法非常适合于特殊的水下工作工作环境。因此,为满足水下AUV集群的需要,本发明基于Meanshift方法面向AUV集群提出了一种水下目标跟踪方法,并使用相似三角形目标测距和正切函数目标测角对水下邻居进行定位。
本发明的技术方案为:
所述一种基于视觉的水下集群邻居跟踪测量方法,包括以下步骤:
步骤1:获取目标的视频帧图像序列,对运动目标的视频帧进行计数,保存当前帧为I1,之后的第N帧为I2;此后每隔N帧将图像交替保存为I1和I2,依次循环;对于当前帧图像,进行目标检测和识别,截取目标框图像区域;所述交替保存指当前一组图像中的I2也作为下一组图像中的I1;
步骤2:将I1和I2从RGB颜色空间转换到HSV颜色空间,并进行滤波,去除图像中低亮度和低饱和度的部分;
步骤3:建立均值漂移模型,统计I1中目标框内所有像素点的颜色值,建立直方图并进行归一化处理,得到目标区域的密度概率函数;根据目标的颜色归一化直方图,利用相似度量在图像I2中寻找与目标最大相似的候选区域;
步骤4:获取图像I1和I2中的特征点,并以图像I1和I2中特征点特征向量的欧式距离作为图像I1和I2中特征点的相似性判断依据,实现图像I1和I2中特征点匹配;
步骤5:依据步骤4得到的匹配特征点对,得到尺度变化因子,对步骤3中得到的I2图像的候选区域大小进行修正,得到实时更新的目标候选区域;
步骤6:在不断交替保存的I1和I2图像中对上述步骤进行迭代,实现对已识别目标的跟踪。
进一步的,步骤1中,N取10。
进一步的,步骤2中,设Vc是RGB颜色模型中的一个颜色,Wc是HSV颜色模型中的一个颜色,从RGB颜色空间到HSV颜色空间的变换过程为:Wc=Tc(Vc)
其中Tc代表颜色空间的线性变换过程,表示为:
R'=R/255
G'=G/255
B'=B/255
Cmax=max(R',G',B')
Cmin=min(R',G',B')
Δ=Cmax-Cmin
v=Cmax
进一步的,步骤3中,根据目标的颜色归一化直方图,利用相似度量在图像I2中寻找与目标最大相似的候选区域的过程为:
将I1的中心位置y0作为搜索窗口的中心,利用均值漂移算法求解I2中目标的新位置坐标。
进一步的,步骤3中,均值漂移算法的具体过程为:
步骤3.1:利用图像I1,计算目标颜色空间分布直方图:{pu(y0)}u=1,2…M,M为直方图的分块数;
步骤3.2:统计并计算BhatTacharyya系数:
qu为目标模板颜色特征的概率密度函数;
步骤3.4:结合Meanshift向量计算图像上对应区域的形心和质心,得到新的目标位置y1:
式中:g=-k′(x),k(x)为轮廓函数;
步骤3.5:更新颜色分布直方图并计算BhatTacharyya系数,判断其与原始值的大小,如果小于原始值,则以y2=1/2(y1+y0)得到新的位置,并重复目标位置计算和BhatTacharyya系数计算步骤,直到新的BhatTacharyya系数不小于原始值;
步骤3.6:判断|y1-y0|<ζ,若成立,则输出I2中目标的新位置坐标,否则重新选择搜索区域进行迭代过程。
进一步的,步骤4的具体过程为:用sift算法构建尺度空间,获得图像I1和I2多尺度下的尺度空间表示序列;在尺度空间中求局部极值,对sift特征点进行定位,并基于图像局部的梯度方向确定特征点的方向;在特征点周围的邻域内,测量图像局部的梯度,提取特征点描述子,以特征点特征向量的欧式距离作为图像I1和I2中特征点的相似性判断依据。
进一步的,步骤5中,利用仿射变换模型拟合I1图像和I2图像之间特征匹配点映射关系,选择至少四对特征点匹配对构成图像I1和I2间的仿射变换矩阵H,得到尺度变化因子。
进一步的,步骤6中,在对已识别目标的跟踪过程中,利用相似三角形原理来计算观测者自身到目标个体间距离,利用直角三角形正切函数计算目标中心点与观测者搭载的摄像头传感器之间的正向夹角,计算公式如下:
f=(d·w)/width
d=(f·width)/w
其中,f为观测者摄像头的焦距,width为所识别目标的实际宽度,d为摄像头与目标位置之间的距离,w为采集到的图像的像素宽度。
有益效果
本发明提出的一种基于视觉的水下集群邻居测量方法,基于Meanshift的跟踪算法,采用目标颜色概率密度分布图作为目标搜索的特征,通过不断迭代使得算法收敛于目标真实位置,从而实现对目标的跟踪功能,算法的计算量较小,实时性较好,对外界环境干扰不敏感。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1:本发明的流程图。
图2:基于相似三角形原理的测距示意图。
图3:不同光照条件下测量效果。
图4:实验环境示意图。
图5:机器鱼视觉邻居感知单目标跟踪结果轨迹。
图6:机器鱼视觉邻居感知多目标跟踪结果轨迹。
图7:机器鱼视觉邻居测量实验效果图。
具体实施方式
下面详细描述本发明的实施例,所述实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
本发明实施例以自主仿生机器鱼Robolab-Edu为测试平台,对水下集群邻居测量方法进行了验证:
机器鱼(下位机)和PC端(上位机)通过路由器进行WIFI通信,使得PC端可以远程登录机器鱼的Nanopi-S2,对其视觉感知软件***进行二次开发。在实验环境下(如图4),通过水池上方架设的摄像头实时捕获到观测机器鱼和邻居机器鱼的运动,并传输至PC端来跟踪并绘制出它们的运动轨迹。
将Robolab-Edu自主仿生机器鱼放入实验水池中,设置邻居机器鱼的运动速度约为0.05m/s,观测机器鱼的运动速度约为0.08m/s,稍快于前者以便完成跟踪任务。对所获取视频序列中的目标(邻居机器鱼)进行检测与识别,选定要跟踪的目标邻居,得到初始目标框(ROI)的位置信息,截取初始目标框图像区域。
为了验证观测机器鱼是否能够实时跟踪邻居机器鱼,本发明以观测机器鱼为验证平台,利用提出的算法,在室内实验水池中对单个邻居机器鱼进行视觉感知,实现目标跟踪与测量,验证算法在机器鱼平台上运行的可行性和实时性。具体步骤为:
步骤1:获取目标的视频帧图像序列,对运动目标的视频帧进行计数,保存当前帧为I1,之后的第N帧为I2;此后每隔10帧将图像交替保存为I1和I2,依次循环;对于当前帧图像,进行目标检测和识别,截取目标框图像区域;所述交替保存指当前一组图像中的I2也作为下一组图像中的I1。
步骤2:将I1和I2从RGB颜色空间转换到HSV颜色空间,并进行滤波,去除图像中低亮度和低饱和度的部分;
设Vc是RGB颜色模型中的一个颜色,Wc是HSV颜色模型中的一个颜色,从RGB颜色空间到HSV颜色空间的变换过程为:Wc=Tc(Vc)
其中Tc代表颜色空间的线性变换过程,表示为:
R'=R/255
G'=G/255
B'=B/255
Cmax=max(R',G',B')
Cmin=min(R',G',B')
Δ=Cmax-Cmin
v=Cmax
步骤3:建立均值漂移模型,统计I1中目标框内所有像素点的颜色值,建立直方图并进行归一化处理,得到目标区域的密度概率函数;根据目标的颜色归一化直方图,利用相似度量在图像I2中寻找与目标最大相似的候选区域:将I1的中心位置y0作为搜索窗口的中心,利用均值漂移算法求解I2中目标的新位置坐标。
均值漂移算法的具体过程为:
定义用于相似性度量的BhatTacharyya系数:
式中qu为目标模板颜色特征的概率密度函数,pu(y)为y中心位置候选目标的特征分布。
步骤3.1:利用图像I1,计算目标颜色空间分布直方图:{pu(y0)}u=1,2…M,M为直方图的分块数;
步骤3.2:统计并计算BhatTacharyya系数:
步骤3.4:结合Meanshift向量计算图像上对应区域的形心和质心,得到新的目标位置y1:
式中:g=-k′(x),k(x)为轮廓函数;
步骤3.5:更新颜色分布直方图并计算BhatTacharyya系数,判断其与原始值的大小,如果小于原始值,则以y2=1/2(y1+y0)得到新的位置,并重复目标位置计算和BhatTacharyya系数计算步骤,直到新的BhatTacharyya系数不小于原始值;
步骤3.6:判断|y1-y0|<ζ,若成立,则输出I2中目标的新位置坐标,否则重新选择搜索区域进行迭代过程。
步骤4:用sift算法构建尺度空间,获得图像I1和I2多尺度下的尺度空间表示序列;在尺度空间中求局部极值,对sift特征点进行定位,并基于图像局部的梯度方向确定特征点的方向;在特征点周围的邻域内,测量图像局部的梯度,提取特征点描述子,并以图像I1和I2中特征点特征向量的欧式距离作为图像I1和I2中特征点的相似性判断依据,实现图像I1和I2中特征点匹配。
步骤5:利用仿射变换模型拟合I1图像和I2图像之间特征匹配点映射关系,选择至少四对特征点匹配对构成图像I1和I2间的仿射变换矩阵H,得到尺度变化因子,对步骤3中得到的I2图像的候选区域大小进行修正,得到实时更新的目标候选区域。
步骤6:在不断交替保存的I1和I2图像中对上述步骤进行迭代,实现对已识别目标的跟踪。
在对已识别目标的跟踪过程中,如图2所示,利用相似三角形原理来计算观测者自身到目标个体间距离,利用直角三角形正切函数计算目标中心点与观测者搭载的摄像头传感器之间的正向夹角,计算公式如下:
f=(d·w)/width
d=(f·width)/w
其中,f为观测者摄像头的焦距,width为所识别目标的实际宽度,d为摄像头与目标位置之间的距离,w为采集到的图像的像素宽度。
测量效果如图3所示,(a)-(d)为不同情况下的结果,(a)光照条件良好;(b)邻居旋转;(c)邻居旋转,光照不均匀;(d)邻居旋转,背景复杂。利用以上方法即可实现对邻居个体的跟踪测量
机器鱼视觉邻居感知单目标跟踪结果轨迹如图5,机器鱼视觉邻居感知多目标跟踪结果轨迹图6。
利用相似三角形的目标测距和基于直角三角形正切函数的目标测角原理来计算观察者与邻居机器鱼之间的相对距离与角度。测量效果如图7。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:包括以下步骤:
步骤1:获取目标的视频帧图像序列,对运动目标的视频帧进行计数,保存当前帧为I1,之后的第N帧为I2;此后每隔N帧将图像交替保存为I1和I2,依次循环;对于当前帧图像,进行目标检测和识别,截取目标框图像区域;所述交替保存指当前一组图像中的I2也作为下一组图像中的I1;
步骤2:将I1和I2从RGB颜色空间转换到HSV颜色空间,并进行滤波,去除图像中低亮度和低饱和度的部分;
步骤3:建立均值漂移模型,统计I1中目标框内所有像素点的颜色值,建立直方图并进行归一化处理,得到目标区域的密度概率函数;根据目标的颜色归一化直方图,利用相似度量在图像I2中寻找与目标最大相似的候选区域;
步骤4:获取图像I1和I2中的特征点,并以图像I1和I2中特征点特征向量的欧式距离作为图像I1和I2中特征点的相似性判断依据,实现图像I1和I2中特征点匹配;
步骤5:依据步骤4得到的匹配特征点对,得到尺度变化因子,对步骤3中得到的I2图像的候选区域大小进行修正,得到实时更新的目标候选区域;
步骤6:在不断交替保存的I1和I2图像中对上述步骤进行迭代,实现对已识别目标的跟踪。
2.根据权利要求1所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤1中,N取10。
4.根据权利要求1所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤3中,根据目标的颜色归一化直方图,利用相似度量在图像I2中寻找与目标最大相似的候选区域的过程为:
将I1的中心位置y0作为搜索窗口的中心,利用均值漂移算法求解I2中目标的新位置坐标。
5.根据权利要求4所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤3中,均值漂移算法的具体过程为:
步骤3.1:利用图像I1,计算目标颜色空间分布直方图:{pu(y0)}u=1,2…M,M为直方图的分块数;
步骤3.2:统计并计算BhatTacharyya系数:
qu为目标模板颜色特征的概率密度函数;
步骤3.4:结合Meanshift向量计算图像上对应区域的形心和质心,得到新的目标位置y1:
式中:g=-k′(x),k(x)为轮廓函数;
步骤3.5:更新颜色分布直方图并计算BhatTacharyya系数,判断其与原始值的大小,如果小于原始值,则以y2=1/2(y1+y0)得到新的位置,并重复目标位置计算和BhatTacharyya系数计算步骤,直到新的BhatTacharyya系数不小于原始值;
步骤3.6:判断|y1-y0|<ζ,若成立,则输出I2中目标的新位置坐标,否则重新选择搜索区域进行迭代过程。
6.根据权利要求1所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤4的具体过程为:用sift算法构建尺度空间,获得图像I1和I2多尺度下的尺度空间表示序列;在尺度空间中求局部极值,对sift特征点进行定位,并基于图像局部的梯度方向确定特征点的方向;在特征点周围的邻域内,测量图像局部的梯度,提取特征点描述子,以特征点特征向量的欧式距离作为图像I1和I2中特征点的相似性判断依据。
7.根据权利要求1所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤5中,利用仿射变换模型拟合I1图像和I2图像之间特征匹配点映射关系,选择至少四对特征点匹配对构成图像I1和I2间的仿射变换矩阵H,得到尺度变化因子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110510623.3A CN113240712A (zh) | 2021-05-11 | 2021-05-11 | 一种基于视觉的水下集群邻居跟踪测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110510623.3A CN113240712A (zh) | 2021-05-11 | 2021-05-11 | 一种基于视觉的水下集群邻居跟踪测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113240712A true CN113240712A (zh) | 2021-08-10 |
Family
ID=77133404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110510623.3A Pending CN113240712A (zh) | 2021-05-11 | 2021-05-11 | 一种基于视觉的水下集群邻居跟踪测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113240712A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115031627A (zh) * | 2022-05-07 | 2022-09-09 | 西北工业大学 | 一种实现水下集群内个体之间视觉感知的方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104240266A (zh) * | 2014-09-04 | 2014-12-24 | 成都理想境界科技有限公司 | 基于颜色-结构特征的目标对象跟踪方法 |
CN105893925A (zh) * | 2015-12-01 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 基于肤色的人手检测方法及装置 |
CN109816692A (zh) * | 2019-01-11 | 2019-05-28 | 南京理工大学 | 一种基于Camshift算法的运动目标跟踪方法 |
CN109949340A (zh) * | 2019-03-04 | 2019-06-28 | 湖北三江航天万峰科技发展有限公司 | 基于OpenCV的目标尺度自适应跟踪方法 |
CN110211160A (zh) * | 2019-05-30 | 2019-09-06 | 华南理工大学 | 一种基于改进Camshift算法的人脸跟踪方法 |
-
2021
- 2021-05-11 CN CN202110510623.3A patent/CN113240712A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104240266A (zh) * | 2014-09-04 | 2014-12-24 | 成都理想境界科技有限公司 | 基于颜色-结构特征的目标对象跟踪方法 |
CN105893925A (zh) * | 2015-12-01 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 基于肤色的人手检测方法及装置 |
CN109816692A (zh) * | 2019-01-11 | 2019-05-28 | 南京理工大学 | 一种基于Camshift算法的运动目标跟踪方法 |
CN109949340A (zh) * | 2019-03-04 | 2019-06-28 | 湖北三江航天万峰科技发展有限公司 | 基于OpenCV的目标尺度自适应跟踪方法 |
CN110211160A (zh) * | 2019-05-30 | 2019-09-06 | 华南理工大学 | 一种基于改进Camshift算法的人脸跟踪方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115031627A (zh) * | 2022-05-07 | 2022-09-09 | 西北工业大学 | 一种实现水下集群内个体之间视觉感知的方法 |
CN115031627B (zh) * | 2022-05-07 | 2024-04-30 | 西北工业大学 | 一种实现水下集群内个体之间视觉感知的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109410321B (zh) | 基于卷积神经网络的三维重建方法 | |
CN109949375B (zh) | 一种基于深度图感兴趣区域的移动机器人目标跟踪方法 | |
CN108564616B (zh) | 快速鲁棒的rgb-d室内三维场景重建方法 | |
CN104200495B (zh) | 一种视频监控中的多目标跟踪方法 | |
CN110246151B (zh) | 一种基于深度学习和单目视觉的水下机器人目标跟踪方法 | |
CN106683118B (zh) | 一种基于分层模型的无人机目标跟踪方法 | |
KR20180125010A (ko) | 이동 로봇 및 이동 로봇의 제어방법 | |
CN107862735B (zh) | 一种基于结构信息的rgbd三维场景重建方法 | |
CN113012161B (zh) | 一种基于凸性区域生长的堆叠散乱目标点云分割方法 | |
CN105160686B (zh) | 一种基于改进sift算子的低空多视角遥感影像匹配方法 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN111768447B (zh) | 一种基于模板匹配的单目相机物***姿估计方法及*** | |
Aykin et al. | On feature extraction and region matching for forward scan sonar imaging | |
CN110796691B (zh) | 一种基于形状上下文和hog特征的异源图像配准方法 | |
CN111506759B (zh) | 一种基于深度特征的影像匹配方法及装置 | |
CN111680713B (zh) | 一种基于视觉检测的无人机对地目标跟踪与逼近方法 | |
CN110245566B (zh) | 一种基于背景特征的红外目标远距离追踪方法 | |
CN115032648B (zh) | 一种基于激光雷达密集点云的三维目标识别与定位方法 | |
CN116087982A (zh) | 一种融合视觉和雷达***的海上落水人员识别及定位方法 | |
CN113240712A (zh) | 一种基于视觉的水下集群邻居跟踪测量方法 | |
CN113947724A (zh) | 一种基于双目视觉的线路覆冰厚度自动测量方法 | |
CN113420648A (zh) | 一种具有旋转适应性的目标检测方法及*** | |
Sun et al. | Automatic targetless calibration for LiDAR and camera based on instance segmentation | |
CN116185049A (zh) | 基于视觉引导的无人直升机自主着舰方法 | |
Zhang et al. | Feature regions segmentation based RGB-D visual odometry in dynamic environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |