CN113240712A - 一种基于视觉的水下集群邻居跟踪测量方法 - Google Patents

一种基于视觉的水下集群邻居跟踪测量方法 Download PDF

Info

Publication number
CN113240712A
CN113240712A CN202110510623.3A CN202110510623A CN113240712A CN 113240712 A CN113240712 A CN 113240712A CN 202110510623 A CN202110510623 A CN 202110510623A CN 113240712 A CN113240712 A CN 113240712A
Authority
CN
China
Prior art keywords
target
image
color
vision
measurement method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110510623.3A
Other languages
English (en)
Inventor
彭星光
刘通
宋保维
潘光
张福斌
高剑
李乐
张立川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110510623.3A priority Critical patent/CN113240712A/zh
Publication of CN113240712A publication Critical patent/CN113240712A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出的一种基于视觉的水下集群邻居测量方法,基于Meanshift的跟踪算法,采用目标颜色概率密度分布图作为目标搜索的特征,通过不断迭代使得算法收敛于目标真实位置,从而实现对目标的跟踪功能,并使用相似三角形目标测距和正切函数目标测角对水下邻居进行定位。这种算法的计算量较小,实时性较好,对外界环境干扰不敏感。

Description

一种基于视觉的水下集群邻居跟踪测量方法
技术领域
本发明为一种基于视觉的水下集群邻居跟踪测量方法,主要应用于视觉信息受限的水下自主航行器。
背景技术
近年来,自主水下航行器(autonomous underwater vehicle,AUV)随着国家海洋战略的实施而备受关注,而AUV集群属于“人工智能+海洋无人***”深度融合的一项基础性、创新型技术,吸引了众多研究者的目光。使多AUV像自然界的狼群、蜂群、鱼群完成觅食、筑巢、御敌、迁徙等复杂的群体运动一样相互协作,利用感知和行动能力非常有限的独立个体,通过遵循一些简单的行为规则,共同完成复杂任务是水下无人集群***协同控制研究的核心问题。
简单集群的形成要求:1.个体沿着邻居运动的方向运动;2.个体实时感知邻居状态;3.保持邻居靠近;4.避免与邻居碰撞。因此,在AUV集群中,单个AUV必须拥有获取邻居个体的相对位置信息的并进行跟踪的能力,进而组成集群协作完成水下复杂任务。传统AUV通常使用声学传感器对周围环境进行感知,其获取到的信息有限、采样周期长,易受地磁场和其它传感器干扰,且其能耗较大,成本较高,并不适合成为AUV集群的主要感知手段。而研究表明,鱼群在集群游动时,是利用视觉来感知邻居的状态,从而形成强大而灵活的自组织集群行为,受此启发,使用视觉感知成为了AUV集群的主要研究方向。随着高性能水下摄像头在AUV上的成功应用,视觉感知成为了AUV新的感知手段,其在采样周期,获取信息量,成本,能耗等方面均要优于声学感知,非常适用于在近距离、高精度的工作任务中使用。因此,基于视觉感知的集群控制方法已经成为当前水下无人***集群控制研究的前沿和热点。
现有的较为主流目标跟踪算法有区域与区域匹配的跟踪算法、基于主动轮廓的跟踪算法、基于光流法的跟踪算法、基于特征点的跟踪算法。区域与区域匹配的跟踪算法通过对检测区域与目标模板的匹配来实现目标跟踪,这种方法的约束条件苛刻,要求目标形状变化不大。基于主动轮廓的跟踪算法适合于单目标检测,但由于能量函数的非凸性,存在模型收敛于局部极小值的风险,且抗噪性较差。基于光流法的跟踪算法的稳定性和可靠性较好,但跟踪效果一般。基于特征点的跟踪算法在目标发生旋转或被遮挡时难以保证跟踪的准确性。
发明内容
基于Meanshift的跟踪算法采用目标颜色概率密度分布图作为目标搜索的特征,通过不断迭代使得算法收敛于目标真实位置,从而实现对目标的跟踪功能,这种算法的计算量较小,实时性较好,对外界环境干扰不敏感,这些特点使得基于Meanshift的跟踪算法非常适合于特殊的水下工作工作环境。因此,为满足水下AUV集群的需要,本发明基于Meanshift方法面向AUV集群提出了一种水下目标跟踪方法,并使用相似三角形目标测距和正切函数目标测角对水下邻居进行定位。
本发明的技术方案为:
所述一种基于视觉的水下集群邻居跟踪测量方法,包括以下步骤:
步骤1:获取目标的视频帧图像序列,对运动目标的视频帧进行计数,保存当前帧为I1,之后的第N帧为I2;此后每隔N帧将图像交替保存为I1和I2,依次循环;对于当前帧图像,进行目标检测和识别,截取目标框图像区域;所述交替保存指当前一组图像中的I2也作为下一组图像中的I1
步骤2:将I1和I2从RGB颜色空间转换到HSV颜色空间,并进行滤波,去除图像中低亮度和低饱和度的部分;
步骤3:建立均值漂移模型,统计I1中目标框内所有像素点的颜色值,建立直方图并进行归一化处理,得到目标区域的密度概率函数;根据目标的颜色归一化直方图,利用相似度量在图像I2中寻找与目标最大相似的候选区域;
步骤4:获取图像I1和I2中的特征点,并以图像I1和I2中特征点特征向量的欧式距离作为图像I1和I2中特征点的相似性判断依据,实现图像I1和I2中特征点匹配;
步骤5:依据步骤4得到的匹配特征点对,得到尺度变化因子,对步骤3中得到的I2图像的候选区域大小进行修正,得到实时更新的目标候选区域;
步骤6:在不断交替保存的I1和I2图像中对上述步骤进行迭代,实现对已识别目标的跟踪。
进一步的,步骤1中,N取10。
进一步的,步骤2中,设Vc是RGB颜色模型中的一个颜色,Wc是HSV颜色模型中的一个颜色,从RGB颜色空间到HSV颜色空间的变换过程为:Wc=Tc(Vc)
其中Tc代表颜色空间的线性变换过程,表示为:
R'=R/255
G'=G/255
B'=B/255
Cmax=max(R',G',B')
Cmin=min(R',G',B')
Δ=Cmax-Cmin
Figure BDA0003060230210000031
Figure BDA0003060230210000032
v=Cmax
进一步的,步骤3中,根据目标的颜色归一化直方图,利用相似度量在图像I2中寻找与目标最大相似的候选区域的过程为:
将I1的中心位置y0作为搜索窗口的中心,利用均值漂移算法求解I2中目标的新位置坐标。
进一步的,步骤3中,均值漂移算法的具体过程为:
步骤3.1:利用图像I1,计算目标颜色空间分布直方图:{pu(y0)}u=1,2…M,M为直方图的分块数;
步骤3.2:统计并计算BhatTacharyya系数:
Figure BDA0003060230210000041
qu为目标模板颜色特征的概率密度函数;
步骤3.3:对图像I2中搜索区域内像素点集合的每个点赋权重:weights{wi}i=1,2…n其中
Figure BDA0003060230210000042
步骤3.4:结合Meanshift向量计算图像上对应区域的形心和质心,得到新的目标位置y1
Figure BDA0003060230210000043
式中:g=-k′(x),k(x)为轮廓函数;
步骤3.5:更新颜色分布直方图并计算BhatTacharyya系数,判断其与原始值的大小,如果小于原始值,则以y2=1/2(y1+y0)得到新的位置,并重复目标位置计算和BhatTacharyya系数计算步骤,直到新的BhatTacharyya系数不小于原始值;
步骤3.6:判断|y1-y0|<ζ,若成立,则输出I2中目标的新位置坐标,否则重新选择搜索区域进行迭代过程。
进一步的,步骤4的具体过程为:用sift算法构建尺度空间,获得图像I1和I2多尺度下的尺度空间表示序列;在尺度空间中求局部极值,对sift特征点进行定位,并基于图像局部的梯度方向确定特征点的方向;在特征点周围的邻域内,测量图像局部的梯度,提取特征点描述子,以特征点特征向量的欧式距离作为图像I1和I2中特征点的相似性判断依据。
进一步的,步骤5中,利用仿射变换模型拟合I1图像和I2图像之间特征匹配点映射关系,选择至少四对特征点匹配对构成图像I1和I2间的仿射变换矩阵H,得到尺度变化因子。
进一步的,步骤6中,在对已识别目标的跟踪过程中,利用相似三角形原理来计算观测者自身到目标个体间距离,利用直角三角形正切函数计算目标中心点与观测者搭载的摄像头传感器之间的正向夹角,计算公式如下:
f=(d·w)/width
d=(f·width)/w
Figure BDA0003060230210000051
其中,f为观测者摄像头的焦距,width为所识别目标的实际宽度,d为摄像头与目标位置之间的距离,w为采集到的图像的像素宽度。
有益效果
本发明提出的一种基于视觉的水下集群邻居测量方法,基于Meanshift的跟踪算法,采用目标颜色概率密度分布图作为目标搜索的特征,通过不断迭代使得算法收敛于目标真实位置,从而实现对目标的跟踪功能,算法的计算量较小,实时性较好,对外界环境干扰不敏感。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1:本发明的流程图。
图2:基于相似三角形原理的测距示意图。
图3:不同光照条件下测量效果。
图4:实验环境示意图。
图5:机器鱼视觉邻居感知单目标跟踪结果轨迹。
图6:机器鱼视觉邻居感知多目标跟踪结果轨迹。
图7:机器鱼视觉邻居测量实验效果图。
具体实施方式
下面详细描述本发明的实施例,所述实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
本发明实施例以自主仿生机器鱼Robolab-Edu为测试平台,对水下集群邻居测量方法进行了验证:
机器鱼(下位机)和PC端(上位机)通过路由器进行WIFI通信,使得PC端可以远程登录机器鱼的Nanopi-S2,对其视觉感知软件***进行二次开发。在实验环境下(如图4),通过水池上方架设的摄像头实时捕获到观测机器鱼和邻居机器鱼的运动,并传输至PC端来跟踪并绘制出它们的运动轨迹。
将Robolab-Edu自主仿生机器鱼放入实验水池中,设置邻居机器鱼的运动速度约为0.05m/s,观测机器鱼的运动速度约为0.08m/s,稍快于前者以便完成跟踪任务。对所获取视频序列中的目标(邻居机器鱼)进行检测与识别,选定要跟踪的目标邻居,得到初始目标框(ROI)的位置信息,截取初始目标框图像区域。
为了验证观测机器鱼是否能够实时跟踪邻居机器鱼,本发明以观测机器鱼为验证平台,利用提出的算法,在室内实验水池中对单个邻居机器鱼进行视觉感知,实现目标跟踪与测量,验证算法在机器鱼平台上运行的可行性和实时性。具体步骤为:
步骤1:获取目标的视频帧图像序列,对运动目标的视频帧进行计数,保存当前帧为I1,之后的第N帧为I2;此后每隔10帧将图像交替保存为I1和I2,依次循环;对于当前帧图像,进行目标检测和识别,截取目标框图像区域;所述交替保存指当前一组图像中的I2也作为下一组图像中的I1
步骤2:将I1和I2从RGB颜色空间转换到HSV颜色空间,并进行滤波,去除图像中低亮度和低饱和度的部分;
设Vc是RGB颜色模型中的一个颜色,Wc是HSV颜色模型中的一个颜色,从RGB颜色空间到HSV颜色空间的变换过程为:Wc=Tc(Vc)
其中Tc代表颜色空间的线性变换过程,表示为:
R'=R/255
G'=G/255
B'=B/255
Cmax=max(R',G',B')
Cmin=min(R',G',B')
Δ=Cmax-Cmin
Figure BDA0003060230210000071
Figure BDA0003060230210000072
v=Cmax
步骤3:建立均值漂移模型,统计I1中目标框内所有像素点的颜色值,建立直方图并进行归一化处理,得到目标区域的密度概率函数;根据目标的颜色归一化直方图,利用相似度量在图像I2中寻找与目标最大相似的候选区域:将I1的中心位置y0作为搜索窗口的中心,利用均值漂移算法求解I2中目标的新位置坐标。
均值漂移算法的具体过程为:
定义用于相似性度量的BhatTacharyya系数:
Figure BDA0003060230210000073
式中qu为目标模板颜色特征的概率密度函数,pu(y)为y中心位置候选目标的特征分布。
步骤3.1:利用图像I1,计算目标颜色空间分布直方图:{pu(y0)}u=1,2…M,M为直方图的分块数;
步骤3.2:统计并计算BhatTacharyya系数:
Figure BDA0003060230210000074
步骤3.3:对图像I2中搜索区域内像素点集合的每个点赋权重:weights{wi}i=1,2…n其中
Figure BDA0003060230210000075
步骤3.4:结合Meanshift向量计算图像上对应区域的形心和质心,得到新的目标位置y1
Figure BDA0003060230210000081
式中:g=-k′(x),k(x)为轮廓函数;
步骤3.5:更新颜色分布直方图并计算BhatTacharyya系数,判断其与原始值的大小,如果小于原始值,则以y2=1/2(y1+y0)得到新的位置,并重复目标位置计算和BhatTacharyya系数计算步骤,直到新的BhatTacharyya系数不小于原始值;
步骤3.6:判断|y1-y0|<ζ,若成立,则输出I2中目标的新位置坐标,否则重新选择搜索区域进行迭代过程。
步骤4:用sift算法构建尺度空间,获得图像I1和I2多尺度下的尺度空间表示序列;在尺度空间中求局部极值,对sift特征点进行定位,并基于图像局部的梯度方向确定特征点的方向;在特征点周围的邻域内,测量图像局部的梯度,提取特征点描述子,并以图像I1和I2中特征点特征向量的欧式距离作为图像I1和I2中特征点的相似性判断依据,实现图像I1和I2中特征点匹配。
步骤5:利用仿射变换模型拟合I1图像和I2图像之间特征匹配点映射关系,选择至少四对特征点匹配对构成图像I1和I2间的仿射变换矩阵H,得到尺度变化因子,对步骤3中得到的I2图像的候选区域大小进行修正,得到实时更新的目标候选区域。
步骤6:在不断交替保存的I1和I2图像中对上述步骤进行迭代,实现对已识别目标的跟踪。
在对已识别目标的跟踪过程中,如图2所示,利用相似三角形原理来计算观测者自身到目标个体间距离,利用直角三角形正切函数计算目标中心点与观测者搭载的摄像头传感器之间的正向夹角,计算公式如下:
f=(d·w)/width
d=(f·width)/w
Figure BDA0003060230210000082
其中,f为观测者摄像头的焦距,width为所识别目标的实际宽度,d为摄像头与目标位置之间的距离,w为采集到的图像的像素宽度。
测量效果如图3所示,(a)-(d)为不同情况下的结果,(a)光照条件良好;(b)邻居旋转;(c)邻居旋转,光照不均匀;(d)邻居旋转,背景复杂。利用以上方法即可实现对邻居个体的跟踪测量
机器鱼视觉邻居感知单目标跟踪结果轨迹如图5,机器鱼视觉邻居感知多目标跟踪结果轨迹图6。
利用相似三角形的目标测距和基于直角三角形正切函数的目标测角原理来计算观察者与邻居机器鱼之间的相对距离与角度。测量效果如图7。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (8)

1.一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:包括以下步骤:
步骤1:获取目标的视频帧图像序列,对运动目标的视频帧进行计数,保存当前帧为I1,之后的第N帧为I2;此后每隔N帧将图像交替保存为I1和I2,依次循环;对于当前帧图像,进行目标检测和识别,截取目标框图像区域;所述交替保存指当前一组图像中的I2也作为下一组图像中的I1
步骤2:将I1和I2从RGB颜色空间转换到HSV颜色空间,并进行滤波,去除图像中低亮度和低饱和度的部分;
步骤3:建立均值漂移模型,统计I1中目标框内所有像素点的颜色值,建立直方图并进行归一化处理,得到目标区域的密度概率函数;根据目标的颜色归一化直方图,利用相似度量在图像I2中寻找与目标最大相似的候选区域;
步骤4:获取图像I1和I2中的特征点,并以图像I1和I2中特征点特征向量的欧式距离作为图像I1和I2中特征点的相似性判断依据,实现图像I1和I2中特征点匹配;
步骤5:依据步骤4得到的匹配特征点对,得到尺度变化因子,对步骤3中得到的I2图像的候选区域大小进行修正,得到实时更新的目标候选区域;
步骤6:在不断交替保存的I1和I2图像中对上述步骤进行迭代,实现对已识别目标的跟踪。
2.根据权利要求1所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤1中,N取10。
3.根据权利要求1所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤2中,设Vc是RGB颜色模型中的一个颜色,Wc是HSV颜色模型中的一个颜色,从RGB颜色空间到HSV颜色空间的变换过程为:Wc=Tc(Vc)
其中Tc代表颜色空间的线性变换过程,表示为:
R'=R/255
G'=G/255
B'=B/255
Cmax=max(R',G',B')
Cmin=min(R',G',B')
Δ=Cmax-Cmin
Figure FDA0003060230200000021
Figure FDA0003060230200000022
v=Cmax
4.根据权利要求1所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤3中,根据目标的颜色归一化直方图,利用相似度量在图像I2中寻找与目标最大相似的候选区域的过程为:
将I1的中心位置y0作为搜索窗口的中心,利用均值漂移算法求解I2中目标的新位置坐标。
5.根据权利要求4所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤3中,均值漂移算法的具体过程为:
步骤3.1:利用图像I1,计算目标颜色空间分布直方图:{pu(y0)}u=1,2…M,M为直方图的分块数;
步骤3.2:统计并计算BhatTacharyya系数:
Figure FDA0003060230200000023
qu为目标模板颜色特征的概率密度函数;
步骤3.3:对图像I2中搜索区域内像素点集合的每个点赋权重:weights{wi}i=1,2…n其中
Figure FDA0003060230200000031
步骤3.4:结合Meanshift向量计算图像上对应区域的形心和质心,得到新的目标位置y1
Figure FDA0003060230200000032
式中:g=-k′(x),k(x)为轮廓函数;
步骤3.5:更新颜色分布直方图并计算BhatTacharyya系数,判断其与原始值的大小,如果小于原始值,则以y2=1/2(y1+y0)得到新的位置,并重复目标位置计算和BhatTacharyya系数计算步骤,直到新的BhatTacharyya系数不小于原始值;
步骤3.6:判断|y1-y0|<ζ,若成立,则输出I2中目标的新位置坐标,否则重新选择搜索区域进行迭代过程。
6.根据权利要求1所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤4的具体过程为:用sift算法构建尺度空间,获得图像I1和I2多尺度下的尺度空间表示序列;在尺度空间中求局部极值,对sift特征点进行定位,并基于图像局部的梯度方向确定特征点的方向;在特征点周围的邻域内,测量图像局部的梯度,提取特征点描述子,以特征点特征向量的欧式距离作为图像I1和I2中特征点的相似性判断依据。
7.根据权利要求1所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤5中,利用仿射变换模型拟合I1图像和I2图像之间特征匹配点映射关系,选择至少四对特征点匹配对构成图像I1和I2间的仿射变换矩阵H,得到尺度变化因子。
8.根据权利要求1所述一种基于视觉的水下集群邻居跟踪测量方法,其特征在于:步骤6中,在对已识别目标的跟踪过程中,利用相似三角形原理来计算观测者自身到目标个体间距离,利用直角三角形正切函数计算目标中心点与观测者搭载的摄像头传感器之间的正向夹角,计算公式如下:
f=(d·w)/width
d=(f·width)/w
Figure FDA0003060230200000041
其中,f为观测者摄像头的焦距,width为所识别目标的实际宽度,d为摄像头与目标位置之间的距离,w为采集到的图像的像素宽度。
CN202110510623.3A 2021-05-11 2021-05-11 一种基于视觉的水下集群邻居跟踪测量方法 Pending CN113240712A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110510623.3A CN113240712A (zh) 2021-05-11 2021-05-11 一种基于视觉的水下集群邻居跟踪测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110510623.3A CN113240712A (zh) 2021-05-11 2021-05-11 一种基于视觉的水下集群邻居跟踪测量方法

Publications (1)

Publication Number Publication Date
CN113240712A true CN113240712A (zh) 2021-08-10

Family

ID=77133404

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110510623.3A Pending CN113240712A (zh) 2021-05-11 2021-05-11 一种基于视觉的水下集群邻居跟踪测量方法

Country Status (1)

Country Link
CN (1) CN113240712A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115031627A (zh) * 2022-05-07 2022-09-09 西北工业大学 一种实现水下集群内个体之间视觉感知的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104240266A (zh) * 2014-09-04 2014-12-24 成都理想境界科技有限公司 基于颜色-结构特征的目标对象跟踪方法
CN105893925A (zh) * 2015-12-01 2016-08-24 乐视致新电子科技(天津)有限公司 基于肤色的人手检测方法及装置
CN109816692A (zh) * 2019-01-11 2019-05-28 南京理工大学 一种基于Camshift算法的运动目标跟踪方法
CN109949340A (zh) * 2019-03-04 2019-06-28 湖北三江航天万峰科技发展有限公司 基于OpenCV的目标尺度自适应跟踪方法
CN110211160A (zh) * 2019-05-30 2019-09-06 华南理工大学 一种基于改进Camshift算法的人脸跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104240266A (zh) * 2014-09-04 2014-12-24 成都理想境界科技有限公司 基于颜色-结构特征的目标对象跟踪方法
CN105893925A (zh) * 2015-12-01 2016-08-24 乐视致新电子科技(天津)有限公司 基于肤色的人手检测方法及装置
CN109816692A (zh) * 2019-01-11 2019-05-28 南京理工大学 一种基于Camshift算法的运动目标跟踪方法
CN109949340A (zh) * 2019-03-04 2019-06-28 湖北三江航天万峰科技发展有限公司 基于OpenCV的目标尺度自适应跟踪方法
CN110211160A (zh) * 2019-05-30 2019-09-06 华南理工大学 一种基于改进Camshift算法的人脸跟踪方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115031627A (zh) * 2022-05-07 2022-09-09 西北工业大学 一种实现水下集群内个体之间视觉感知的方法
CN115031627B (zh) * 2022-05-07 2024-04-30 西北工业大学 一种实现水下集群内个体之间视觉感知的方法

Similar Documents

Publication Publication Date Title
CN109410321B (zh) 基于卷积神经网络的三维重建方法
CN109949375B (zh) 一种基于深度图感兴趣区域的移动机器人目标跟踪方法
CN108564616B (zh) 快速鲁棒的rgb-d室内三维场景重建方法
CN104200495B (zh) 一种视频监控中的多目标跟踪方法
CN110246151B (zh) 一种基于深度学习和单目视觉的水下机器人目标跟踪方法
CN106683118B (zh) 一种基于分层模型的无人机目标跟踪方法
KR20180125010A (ko) 이동 로봇 및 이동 로봇의 제어방법
CN107862735B (zh) 一种基于结构信息的rgbd三维场景重建方法
CN113012161B (zh) 一种基于凸性区域生长的堆叠散乱目标点云分割方法
CN105160686B (zh) 一种基于改进sift算子的低空多视角遥感影像匹配方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN111768447B (zh) 一种基于模板匹配的单目相机物***姿估计方法及***
Aykin et al. On feature extraction and region matching for forward scan sonar imaging
CN110796691B (zh) 一种基于形状上下文和hog特征的异源图像配准方法
CN111506759B (zh) 一种基于深度特征的影像匹配方法及装置
CN111680713B (zh) 一种基于视觉检测的无人机对地目标跟踪与逼近方法
CN110245566B (zh) 一种基于背景特征的红外目标远距离追踪方法
CN115032648B (zh) 一种基于激光雷达密集点云的三维目标识别与定位方法
CN116087982A (zh) 一种融合视觉和雷达***的海上落水人员识别及定位方法
CN113240712A (zh) 一种基于视觉的水下集群邻居跟踪测量方法
CN113947724A (zh) 一种基于双目视觉的线路覆冰厚度自动测量方法
CN113420648A (zh) 一种具有旋转适应性的目标检测方法及***
Sun et al. Automatic targetless calibration for LiDAR and camera based on instance segmentation
CN116185049A (zh) 基于视觉引导的无人直升机自主着舰方法
Zhang et al. Feature regions segmentation based RGB-D visual odometry in dynamic environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination