CN105787962A - 一种基于uuv水下回收的单目视觉跟踪方法 - Google Patents

一种基于uuv水下回收的单目视觉跟踪方法 Download PDF

Info

Publication number
CN105787962A
CN105787962A CN201610104508.5A CN201610104508A CN105787962A CN 105787962 A CN105787962 A CN 105787962A CN 201610104508 A CN201610104508 A CN 201610104508A CN 105787962 A CN105787962 A CN 105787962A
Authority
CN
China
Prior art keywords
target
light source
heart
frame
uuv
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610104508.5A
Other languages
English (en)
Other versions
CN105787962B (zh
Inventor
张伟
孟德涛
梁志成
郭毅
陈涛
周佳加
严浙平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201610104508.5A priority Critical patent/CN105787962B/zh
Publication of CN105787962A publication Critical patent/CN105787962A/zh
Application granted granted Critical
Publication of CN105787962B publication Critical patent/CN105787962B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于UUV水下回收的单目视觉跟踪方法,本发明涉及基于UUV水下回收的单目视觉跟踪方法。本发明的目的是为了解决现有一般的视觉跟踪方法在UUV水下回收的情况下跟踪准确性低的问题。通过以下步骤实现:一、UUV摄像机采集目标光源***的序列图像;二、建立目标加权模型;三、在当前帧中计算候选目标模型;四、求取Bhattacharyya相似性系数;五、计算权重系数;六、根据权重系数得到候选目标中心新位置;七、得到ρ(y1);八、当||y1‑y0||<ε时则停止;否则使y0=y1,返回到三,当前帧如果是最后一帧,则跟踪结束;否则继续读取下一帧。本发明应用于UUV水下回收的单目视觉跟踪领域。

Description

一种基于UUV水下回收的单目视觉跟踪方法
技术领域
本发明涉及基于UUV水下回收的单目视觉跟踪方法。
背景技术
UUV在海洋中执行任务时,由于电池容量的限制使得其回收极为重要,而UUV的水下回收具有受风浪颠簸小、隐蔽性高、战略价值高等优点;同时,水下驮载回收方式是由海洋中或潜艇搭载的坞舱平台来对UUV进行回收,该方式不要求起吊装置和人员的操作,具有广阔的发展前景。摄像机已被广泛应用在UUV上,相比其它传感器,其具有近距离定位精度高、获取的信息量大、适应性强、分辨率高和成本较小等优点。
在UUV水下回收中,单目视觉相比双目视觉具有安装简便、精度高等优点。考虑到普通物体特征在水中会有很大的衰减;在实际海洋环境中,单纯的视觉跟踪算法很难达到要求;而均值漂移算法计算量小,适合于实时跟踪场合,但是其收敛于局部极值点,在某些背景干扰情况下不能保证跟踪的准确性。
韩国研制的ISiMI AUV采用的水下回收对接装置为漏斗状,其***安装有5个导引光源,通过对拍摄的图像进行处理得出对接装置的相对位姿,并由视觉伺服将AUV跟踪导引至对接装置;光流场法可以用来检测和跟踪运动目标,美国迈阿密大学Negahdaripour等人探索出利用光流场法进行估计水下机器人的运动并保持悬停的方法,但存在测量误差的时间累积和位姿漂移的状况,导致现有一般的视觉跟踪方法在UUV水下回收的情况下跟踪准确性低。
发明内容
本发明的目的是为了解决现有一般的视觉跟踪方法在UUV水下回收的情况下跟踪准确性低的问题,而提出一种基于UUV水下回收的单目视觉跟踪方法。
上述的发明目的是通过以下技术方案实现的:
步骤一、当目标光源***运动过程中出现在UUV摄像机的视野中时,UUV摄像机采集目标光源***的序列图像;
步骤二、对采集到的目标光源***的序列图像的第一帧图像选取心形光源目标,建立目标加权模型
步骤三、在当前帧中计算候选目标模型
步骤四、根据选取心形光源目标的加权模型和当前帧候选目标模型求取Bhattacharyya相似性系数;
步骤五、根据Bhattacharyya相似性系数计算权重系数wi
步骤六、根据权重系数wi得到候选目标中心新位置y1
步骤七、计算候选目标中心新位置y1的模型{pu(y1)}u=1,…,m,得到Bhattacharyya相似性系数比较ρ(y1)和ρ(y0)大小,当ρ(y0)>ρ(y1)时,得到ρ(y1);
步骤八、当||y1-y0||<ε时,则停止,ε为迭代收敛的最小阈值;否则,使y0=y1,返回到步骤三,当前帧如果是最后一帧,则跟踪结束;否则继续读取下一帧。
发明效果
考虑到普通物体特征在水中会有很大的衰减,坞舱平台采用光源作为UUV回收的导引目标,能够有效抵抗干扰和改善UUV导引回收的效果;本发明采用一种线形目标光源阵列,光源排布特征鲜明,当运动的坞舱平台出现在UUV摄像机的视野中时,对目标光源进行视觉跟踪,并进一步完成UUV的回收。在实际海洋环境中,单纯的视觉跟踪算法很难达到要求;而均值漂移算法计算量小,适合于实时跟踪场合,但是其收敛于局部极值点,在某些背景干扰情况下不能保证跟踪的准确性。考虑到实际情况,采用基于目标加权的均值漂移方法来对水下目标进行跟踪,保证跟踪的准确性。
在UUV水下驮载回收过程中,坞舱平台上安装有导引目标光源***,当目标光源***出现在摄像机的视野中时,采用基于目标加权的均值漂移跟踪方法,对光源***中心的心形光源进行视觉跟踪。通过对心形光源建立目标加权的模型,对光源的不同部位赋予大小不等的权值,并加入到均值漂移跟踪算法的数学模型中,本发明能够提高视觉跟踪精度、改善跟踪效果,如图7所示,将采用本发明的一种基于UUV水下回收的单目视觉跟踪方法与传统的均值漂移跟踪算法的实验结果进行比较,在5帧的时候本发明方法和传统的均值漂移跟踪算法的偏差相同;但在10帧的时候本发明方法的偏差为2,传统的均值漂移跟踪算法的偏差为7;20帧的时候本发明方法的偏差为1.7,传统的均值漂移跟踪算法的偏差为7;70帧的时候本发明方法的偏差为1.7,传统的均值漂移跟踪算法的偏差为11.5;在整个跟踪过程中,本发明的一种基于UUV水下回收的单目视觉跟踪方法能准确定位跟踪图像,提高了跟踪准确性。
附图说明
图1为UUV单目摄像机实物图;
图2为目标光源***结构示意图;
图3为心形光源示意图;
图4为本发明基于目标加权的均值漂移跟踪方法流程图;
图5a为传统均值漂移算法在第4帧时对心形光源的跟踪效果图;
图5b为传统均值漂移算法在第24帧时对心形光源的跟踪效果图;
图5c为传统均值漂移算法在第45帧时对心形光源的跟踪效果图;
图5d为传统均值漂移算法在第70帧时对心形光源的跟踪效果图;
图6a为本发明方法在第4帧时对心形光源的跟踪效果图;
图6b为本发明方法在第24帧时对心形光源的跟踪效果图;
图6c为本发明方在第45帧时对心形光源的跟踪效果图;
图6d为本发明方法在第70帧时对心形光源的跟踪效果图;
图7为本发明方法和传统均值漂移算法的跟踪位置偏差比较。
具体实施方式
具体实施方式一:本实施方式的一种基于UUV水下回收的单目视觉跟踪方法,具体是按照以下步骤制备的:
步骤一、当目标光源***运动过程中出现在UUV(水下无人航行器)摄像机的视野中时,UUV摄像机采集目标光源***的序列图像;
(目标光源***:考虑到UUV水下驮载回收方式的实际情况,本发明采用一种面向对线控位的线形光源阵列,“对线控位”原理是直线由2点来确立,控制UUV使横向、纵向、艏向达到位姿状态。该目标光源***的特征为:
(1)、9个光源的中心点排列在一条直线上,相邻光源间距相等且为固定值;
(2)、光源***呈中心对称,心形光源位于中心,左右各均匀分布4个光源;
(3)、心形光源在线形光源阵列的中心且位于坞舱平台中心;
(4)、心形光源包括4个LED灯,其中1个不发光,其余3个组成心形光源。
所有光源均做防水处理,本发明实现UUV水下回收中对心形目标光源的视觉跟踪。)
步骤二、选定迭代收敛的最小阈值ε=0.1,最大的迭代次数N=10,对采集到的目标光源***的序列图像的第一帧图像选取心形光源目标(对第一帧图像手动采用矩形框选取心形光源目标,并建立目标加权的模型)建立目标加权模型
步骤三、在当前帧中计算候选目标模型
步骤四、根据选取心形光源目标的加权模型和当前帧候选目标模型求取Bhattacharyya相似性系数;
步骤五、根据Bhattacharyya相似性系数计算权重系数wi
步骤六、根据权重系数wi得到候选目标中心新位置y1
步骤七、计算候选目标中心新位置y1的模型{pu(y1)}u=1,…,m,得到Bhattacharyya相似性系数比较ρ(y1)和ρ(y0)大小,当ρ(y0)>ρ(y1)时,得到ρ(y1);
步骤八、当||y1-y0||<ε时,则停止,ε为迭代收敛的最小阈值;否则,使y0=y1,返回到步骤三,当前帧如果是最后一帧,则跟踪结束;否则继续读取下一帧。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤二中选定迭代收敛的最小阈值ε=0.1,最大的迭代次数N=10,对采集到的目标光源***的序列图像的第一帧图像选取心形光源目标(对第一帧图像手动采用矩形框选取心形光源目标,并建立目标加权的模型)建立目标加权模型具体过程为:
用矩形框初始化心形光源目标,并以此在跟踪过程中标注目标的移动。
对采集到的目标光源***的序列图像的第一帧图像采用矩形框选取心形光源目标,并假定矩形框中心坐标为(Ox,Oy),其中,a和b分别为矩形框长度和宽度的1/2;为使计算更简单和目标模型特征保持稳定,将矩形框内像素点归一化到一个单位圆中,矩形框内像素点坐标为(xi,yi);
x i * = x i a 2 + b 2 y i a 2 + b 2
定义选取心形光源目标中心处点权值是1,选取心形光源目标最外侧权值趋向于0,(赋予心形光源目标(是对心形光源建立它的目标模型,然后进行跟踪)中不同的点不同的权值,使目标加权的模型中心的权值最大,距离中心越远,赋予的权值越小,)选取心形光源目标中心处点与最外侧之间点的权值为:
v ( x i * ) = 1 - ( x i - O x ) 2 a 2 + b 2 + ( x i - O y ) 2 a 2 + b 2
根据均值漂移算法(传统均值漂移算法本质上属于基于特征跟踪算法,利用目标区域的直方图来表示其特征空间,然后通过目标区域模板与候选目标区域模板的Bhattacharyya相似值,利用均值漂移向量迭代得到最优候选目标区域。具体步骤如下:
利用1个高度和长度分别为hx、hy的跟踪窗初始化目标,该跟踪窗同时也是核函数作用的地方,长宽为其带宽。由于直方图可以对目标区域进行描述,如目标图像由n个区间内m级灰度像素组成,每一个特征空间也被叫做bin,目标区域的像素为{xi}i=1…n,b(xi)描述xi处的像素直方图的索引值,x*表示目标区域的中心,目标的模型可以表示为q={qu}u=1…m,其中将目标范围内的像素坐标x和y通过hx和hy来归一化,将k(x)的范围设定为1,则目标模型中特征值qu估计的密度分布函数表示为:
q ^ u = C &Sigma; i = 1 n k &lsqb; | | x i - x * | | 2 h &rsqb; &delta; &lsqb; b ( x i ) - u &rsqb;
其中,δ表示Kronecker delta函数,δ[b(xi)-u]在当像素值xi归属第u个特征值时为1,相反为0。k(x)表示核函数,核窗宽h通常情况下为目标区域大小的1/2。C为归一化常数,为了保证 &Sigma; u = 1 m q ^ u = 1 , C = 1 / &Sigma; i = 1 n k &lsqb; | | x i - x * | | 2 h &rsqb; .
候选目标区域是指接下来图像序列里表示目标的区域,设其中心位置是y,表示当前帧中目标区域的像素位置,nh表示搜索区域内像素总数。与式(3)类似,目标模型中特征pu(y)估计的密度分布函数可以表示成
p ^ u ( y ) = C h &Sigma; j = 1 n h k &lsqb; | | y - x i h | | 2 &rsqb; &delta; &lsqb; b ( x i ) - u &rsqb;
其中,为了保证 &Sigma; u = 1 m p ^ u = 1 , 归一化常数 C h = 1 / &Sigma; i = 1 n h k ( | | y - x i h | | ) .
Bhattacharyya相似性系数能够表述两模板间的相似性大小,其可表示为
&rho; ( y ) = &rho; ( p ( y ) , q ) = &Sigma; u = 1 m p u ( y ) q u
目标区域定位是在图像中寻找与目标模型相似性最大的区域,即使得Bhattacharyya系数为最大,通过均值漂移向量迭代得到候选目标区域新位置y1
y 1 = &Sigma; i = 1 n h x i w i g ( | | y 0 - x i h | | 2 ) &Sigma; i = 1 n h w i g ( | | y 0 - x i h | | 2 )
其中,权重系数wi
设n为矩形框内的像素点总数,m为灰度直方图栅格总数,表示的像素直方图索引值,x*表示选取心形光源目标中心,选取心形光源目标的模型表示为则选取心形光源目标的加权模型为
q ^ u = C 1 v ( x i * ) &Sigma; i = 1 n k &lsqb; | | x i * - x * | | 2 h &rsqb; &delta; &lsqb; b ( x i * ) - u &rsqb; - - - ( 1 )
其中,k(x)表示核函数,h表示核函数带宽,通常为目标区域边长的1/2,采用选择Epanechnikov核函数,即
其中,c为常数;
C1为归一化常数,为了保证 &Sigma; u = 1 m q ^ u = 1 , C 1 = 1 / &Sigma; i = 1 n v ( x i * ) k &lsqb; | | x i * - x * | | 2 h &rsqb; ; x*表示选取心形光源目标中心;概率特征u=1,2,…,m;qu表示选取心形光源目标颜色直方图栅格特征向量中的第u个分量;δ表示Kronecker delta函数(克罗内克函数);在当属于第u个特征值时为1,相反为0。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:所述步骤三中在当前帧中计算候选目标模型具体过程为:
候选目标区域是指各帧中可能包含目标的区域,与(1)式类似,候选目标模型表示为:
p ^ u ( y ) = C h 1 &Sigma; j = 1 n h k &lsqb; | | y - x i * h | | 2 &rsqb; &delta; &lsqb; b ( x i * ) - u &rsqb;
其中,候选目标区域的中心位置是y,可初始化为上一帧图像的心形光源目标中心;表示在当前帧中候选目标区域的像素坐标,Ch1为归一化常数;nh表示搜索窗口内的像素总数;j取值范围为1≤j≤nh
其中, C h 1 = 1 / &Sigma; j = 1 n h k ( | | y 0 - x i * h | | 2 ) .
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是:所述步骤四中根据选取心形光源目标的加权模型和当前帧候选目标模型求取Bhattacharyya相似性系数;
用Bhattacharyya相似性系数(相似度函数用来判断当前帧中的目标模型和下一帧中候选目标模型之间匹配程度,Bhattacharyya相似性系数属于散度型度量,它表示的原理意义是求解两向量间角度的余弦值,把它利用在Mean Shift算法中优势明显,其可表示为其中,式中Bhattacharyya系数(B氏系数)表示两向量间夹角的余弦值,当且仅当两者角度为0时,相似性系数值大)描述选取心形光源目标的加权模型和当前帧候选目标模型的相似程度,Bhattacharyya相似性系数表示为
&rho; ^ ( y ) = &Sigma; u = 1 m p ^ u ( y ) q ^ u
为两个m维向量间夹角的余弦值,当两个向量夹角为零时,两个向量最为相似。
其它步骤及参数与具体实施方式一至三之一相同。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是:所述步骤五中根据Bhattacharyya相似性系数计算权重系数wi
定位候选目标中心是在当前帧中寻找与目标加权模型相似性系数最大的候选目标区域,设上一帧的候选目标区域的中心位置为y0,将Bhattacharyya相似性系数在处进行泰勒级数展开:
&rho; ^ ( y ) &ap; 1 2 &Sigma; u = 1 m p ^ u ( y 0 ) q ^ u + C h 1 2 &Sigma; u = 1 n h w i k ( | | y - x i * h | | 2 )
其中,Ch为归一化常数;为上一帧的候选目标模型;
得到权重系数 w i = &Sigma; u = 1 m q ^ u p ^ u ( y 0 ) &delta; &lsqb; b ( x i * ) - u &rsqb; .
其它步骤及参数与具体实施方式一至四之一相同。
具体实施方式六:本实施方式与具体实施方式一至五之一不同的是:所述步骤六中根据权重系数wi得到候选目标中心新位置y1;y1的公式为:
y ^ 1 = &Sigma; i = 1 n h x i w i &Sigma; i = 1 n h w i .
其它步骤及参数与具体实施方式一至五之一相同。
采用以下实施例验证本发明的有益效果:
实施例一:
本实施例一种基于UUV水下回收的单目视觉跟踪方法具体是按照以下步骤制备的:
结合附图4本发明一种基于UUV水下回收的单目视觉跟踪方法,在UUV近距离水下回收过程中,当目标光源***(如附图2)出现在UUV单目摄像机(如附图1)的视野中时,摄像机采集到序列图像,利用矩形框选取第一帧的心形光源(如附图3)位置进行视觉跟踪,设矩形框中心坐标(Ox,Oy),目标区域像素点为(坐标为(xi,yi)),a和b分别为矩形框长度和宽度的1/2。具体包括如下步骤:
第一步:选定迭代收敛的最小阈值ε=0.1,最大的迭代次数n=10,在初始帧中,确立心形光源的初始位置,定义目标区域内任意点权值为:
v ( x i * ) = 1 - ( x i - O x ) 2 a 2 + b 2 + ( y i - O y ) 2 a 2 + b 2
对心形光源建立目标加权的模型{qu}u=1…m
q ^ u = C 1 v ( x i * ) &Sigma; i = 1 n k &lsqb; | | x i * - x * | | 2 h &rsqb; &delta; &lsqb; b ( x i * ) - u &rsqb; ,
其中,x*表示目标区域的中心,k(x)表示核函数,h表示核函数带宽,采用选择Epanechnikov核函数,即
第二步:在当前帧中计算候选目标模型{pu(y0)}u=1,…,m
p ^ u ( y 0 ) = C h 1 &Sigma; j = 1 n h k &lsqb; | | y 0 - x i * h | | 2 &rsqb; &delta; &lsqb; b ( x i * ) - u &rsqb;
其中,候选目标模型的中心位置是表示在当前帧中目标区域的像素坐标,nh表示搜索区域内的像素总数。
进而得到Bhattacharyya相似性系数
第三步:由 w i = &Sigma; u = 1 m q ^ u p ^ u ( y 0 ) &delta; &lsqb; b ( x i * ) - u &rsqb; 来计算权重系数。
第四步:由下式得到候选目标中心新位置y1
y ^ 1 = &Sigma; i = 1 n h x i w i &Sigma; i = 1 n h w i
第五步:计算{pu(y1)}u=1,…,m,得到Bhattacharyya系数比较ρ(p(y0),q)和ρ(p(y1),q)大小,当ρ(p(y0),q)>ρ(p(y1),q)时,得到ρ(p(y1),q)。
第六步:当||y1-y0||<ε时,则停止;否则,使y0=y1,返回到第二步骤。
第七步:当前帧如果是最后一帧,则跟踪结束。否则读取下一帧为当前帧。
实例二:
选取水下图像序列进行实验验证,‘+’号表示跟踪矩形框中心,选取第一帧的心形光源目标位置来进行跟踪并用矩形框标记,分别选取图像序列的第4、24、45、70帧。附图5a、5b、5c和5d为心形光源目标在传统均值漂移方法下的跟踪结果,第24帧时出现了跟踪框漂移的状况,随之在其后的图像序列中漂移状况一直存在,在第70帧时跟踪目标光源已经出现了很严重的漂移状况;附图6a、6b、6c和6d为心形光源目标在基于目标加权的均值漂移方法下的跟踪结果。基于目标加权的均值漂移跟踪方法由于权值的引入而使目标特征能更好地突出在跟踪过程中,所以能够较容易迭代找到目标,表现出良好跟踪效果。从附图7本发明方法和传统均值漂移算法的跟踪位置偏差比较可知,在整个跟踪过程中,基于目标加权的均值漂移方法能准确定位跟踪图像,得到了良好地跟踪效果。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (6)

1.一种基于UUV水下回收的单目视觉跟踪方法,其特征在于一种基于UUV水下回收的单目视觉跟踪方法具体是按照以下步骤进行的:
步骤一、当目标光源***运动过程中出现在UUV摄像机的视野中时,UUV摄像机采集目标光源***的序列图像;
步骤二、对采集到的目标光源***的序列图像的第一帧图像选取心形光源目标,建立目标加权模型
步骤三、在当前帧中计算当前帧候选目标模型
步骤四、根据目标加权模型和当前帧候选目标模型求取Bhattacharyya相似性系数;
步骤五、根据Bhattacharyya相似性系数计算权重系数wi
步骤六、根据权重系数wi得到候选目标中心新位置y1
步骤七、计算候选目标中心新位置y1的模型{pu(y1)}u=1,…,m,得到Bhattacharyya相似性系数比较ρ(y1)和ρ(y0)大小,当ρ(y0)>ρ(y1)时,得到ρ(y1);
步骤八、当||y1-y0||<ε时,则停止,ε为迭代收敛的最小阈值;否则,使y0=y1,返回到步骤三,当前帧如果是最后一帧,则跟踪结束,否则继续读取下一帧。
2.根据权利要求1所述一种基于UUV水下回收的单目视觉跟踪方法,其特征在于:所述步骤二中对采集到的目标光源***的序列图像的第一帧图像选取心形光源目标,建立目标加权模型具体过程为:
对采集到的目标光源***的序列图像的第一帧图像采用矩形框选取心形光源目标,并假定矩形框中心坐标为(Ox,Oy),其中,a和b分别为矩形框长度和宽度的1/2;将矩形框内像素点归一化到一个单位圆中,矩形框内像素点坐标为(xi,yi);
x i * = x i a 2 + b 2 y i a 2 + b 2
定义选取心形光源目标中心处点权值是1,选取心形光源目标最外侧权值趋向于0,选取心形光源目标中心处点与最外侧之间点的权值为:
v ( x i * ) = 1 - ( x i - O x ) 2 a 2 + b 2 + ( x i - O y ) 2 a 2 + b 2
根据均值漂移算法,设n为矩形框内的像素点总数,m为灰度直方图栅格总数,的像素直方图索引值,x*为选取心形光源目标中心,选取心形光源目标的模型表示为 &Sigma; u = 1 m q ^ u = 1 , 则选取心形光源目标的加权模型为 { q ^ u } u = 1 ... m :
q ^ u = C 1 v ( x i * ) &Sigma; i = 1 n k &lsqb; | | x i * - x * | | 2 h &rsqb; &delta; &lsqb; b ( x i * ) - u &rsqb; - - - ( 1 )
其中,k(·)表示核函数,h表示核函数带宽,通常为目标区域边长的1/2,采用选择Epanechnikov核函数,即
其中,c为常数;
C1为归一化常数,为了保证 C 1 = 1 / &Sigma; i = 1 n v ( x i * ) k &lsqb; | | x i * - x * | | 2 h &rsqb; ; x*表示选取心形光源目标中心;概率特征u=1,2,...,m;qu表示选取心形光源目标颜色直方图栅格特征向量中的第u个分量;δ表示Kronecker delta函数;在当属于第u个特征值时为1,否则为0。
3.根据权利要求2所述一种基于UUV水下回收的单目视觉跟踪方法,其特征在于:所述步骤三中在当前帧中计算候选目标模型具体过程为:
候选目标区域是指各帧中包含目标的区域,候选目标模型表示为:
p ^ u ( y ) = C h 1 &Sigma; j = 1 n h k &lsqb; | | y - x i * h | | 2 &rsqb; &delta; &lsqb; b ( x i * ) - u &rsqb;
其中,候选目标区域的中心位置是y,可初始化为上一帧图像的心形光源目标中心;表示在当前帧中候选目标区域的像素坐标,Ch1为归一化常数;nh表示搜索窗口内的像素总数;j取值范围为1≤j≤nh
其中, C h 1 = 1 / &Sigma; j = 1 n h k ( | | y - x i * h | | 2 ) .
4.根据权利要求3所述一种基于UUV水下回收的单目视觉跟踪方法,其特征在于:所述步骤四中根据选取心形光源目标的加权模型和当前帧候选目标模型求取Bhattacharyya相似性系数;
用Bhattacharyya相似性系数描述选取心形光源目标的加权模型和当前帧候选目标模型的相似程度,Bhattacharyya相似性系数表示为
&rho; ^ ( y ) = &Sigma; u = 1 m p ^ u ( y ) q ^ u
其中,为两个m维向量间夹角的余弦值,当两个向量夹角为零时,两个向量最为相似。
5.根据权利要求4所述一种基于UUV水下回收的单目视觉跟踪方法,其特征在于:所述步骤五中根据Bhattacharyya相似性系数计算权重系数wi
定位候选目标中心是在当前帧中寻找与目标加权模型相似性系数最大的候选目标区域,设上一帧的候选目标区域的中心位置为y0,将Bhattacharyya相似性系数在处进行泰勒级数展开:
&rho; ^ ( y ) = 1 2 &Sigma; u = 1 m p ^ u ( y 0 ) q ^ u + C h 1 2 &Sigma; u = 1 n h w i k ( | | y - x i * h | | 2 )
其中,Ch1为归一化常数;为上一帧的候选目标模型;
得到权重系数 w i = &Sigma; u = 1 m q ^ u p ^ u ( y 0 ) &delta; &lsqb; b ( x i * ) - u &rsqb; .
6.根据权利要求5所述一种基于UUV水下回收的单目视觉跟踪方法,其特征在于:所述步骤六中根据权重系数wi得到候选目标中心新位置y1;y1的公式为:
y ^ 1 = &Sigma; i = 1 n h x i w i &Sigma; i = 1 n h w i .
CN201610104508.5A 2016-02-25 2016-02-25 一种基于uuv水下回收的单目视觉跟踪方法 Active CN105787962B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610104508.5A CN105787962B (zh) 2016-02-25 2016-02-25 一种基于uuv水下回收的单目视觉跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610104508.5A CN105787962B (zh) 2016-02-25 2016-02-25 一种基于uuv水下回收的单目视觉跟踪方法

Publications (2)

Publication Number Publication Date
CN105787962A true CN105787962A (zh) 2016-07-20
CN105787962B CN105787962B (zh) 2018-10-30

Family

ID=56403660

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610104508.5A Active CN105787962B (zh) 2016-02-25 2016-02-25 一种基于uuv水下回收的单目视觉跟踪方法

Country Status (1)

Country Link
CN (1) CN105787962B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107065882A (zh) * 2017-05-17 2017-08-18 哈尔滨工程大学 一种usv水面动态自主回收uuv的方法
CN108170976A (zh) * 2018-01-11 2018-06-15 哈尔滨工程大学 一种水下潜艇动态回收auv过程中的安全性分析方法
CN108415441A (zh) * 2018-03-05 2018-08-17 中国海洋大学 基于单目视觉的水下机器人目标跟随***及其方法
CN109238291A (zh) * 2018-10-26 2019-01-18 河海大学 一种水面无人船导引缆回收自主水下航行器的规划方法
CN110686669A (zh) * 2019-09-23 2020-01-14 中国海洋大学 基于定位补偿与视觉感知的rov海参分布统计方法及装置
CN112013773A (zh) * 2019-09-30 2020-12-01 中国科学院西安光学精密机械研究所 水下无人航行器回收***及回收方法
CN113139986A (zh) * 2021-04-30 2021-07-20 东风越野车有限公司 一种集成式环境感知与多目标跟踪***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010041034A1 (en) * 2008-10-09 2010-04-15 Isis Innovation Limited Visual tracking of objects in images, and segmentation of images
CN103116896A (zh) * 2013-03-07 2013-05-22 中国科学院光电技术研究所 一种基于视觉显著性模型的自动检测跟踪方法
CN103345751A (zh) * 2013-07-02 2013-10-09 北京邮电大学 一种基于鲁棒特征跟踪的视觉定位方法
CN103903279A (zh) * 2014-03-21 2014-07-02 上海大学 基于仿生双目视觉机载平台的并行跟踪***与方法
CN104298996A (zh) * 2014-08-08 2015-01-21 中国科学院自动化研究所 一种应用于仿生机器鱼的水下主动视觉跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010041034A1 (en) * 2008-10-09 2010-04-15 Isis Innovation Limited Visual tracking of objects in images, and segmentation of images
CN103116896A (zh) * 2013-03-07 2013-05-22 中国科学院光电技术研究所 一种基于视觉显著性模型的自动检测跟踪方法
CN103345751A (zh) * 2013-07-02 2013-10-09 北京邮电大学 一种基于鲁棒特征跟踪的视觉定位方法
CN103903279A (zh) * 2014-03-21 2014-07-02 上海大学 基于仿生双目视觉机载平台的并行跟踪***与方法
CN104298996A (zh) * 2014-08-08 2015-01-21 中国科学院自动化研究所 一种应用于仿生机器鱼的水下主动视觉跟踪方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107065882A (zh) * 2017-05-17 2017-08-18 哈尔滨工程大学 一种usv水面动态自主回收uuv的方法
CN108170976A (zh) * 2018-01-11 2018-06-15 哈尔滨工程大学 一种水下潜艇动态回收auv过程中的安全性分析方法
CN108170976B (zh) * 2018-01-11 2021-06-01 哈尔滨工程大学 一种水下潜艇动态回收auv过程中的安全性分析方法
CN108415441B (zh) * 2018-03-05 2020-03-10 中国海洋大学 基于单目视觉的水下机器人目标跟随***的跟随方法
CN108415441A (zh) * 2018-03-05 2018-08-17 中国海洋大学 基于单目视觉的水下机器人目标跟随***及其方法
CN109238291B (zh) * 2018-10-26 2019-07-12 河海大学 一种水面无人船导引缆回收自主水下航行器的规划方法
CN109238291A (zh) * 2018-10-26 2019-01-18 河海大学 一种水面无人船导引缆回收自主水下航行器的规划方法
CN110686669A (zh) * 2019-09-23 2020-01-14 中国海洋大学 基于定位补偿与视觉感知的rov海参分布统计方法及装置
CN112013773A (zh) * 2019-09-30 2020-12-01 中国科学院西安光学精密机械研究所 水下无人航行器回收***及回收方法
CN112013772A (zh) * 2019-09-30 2020-12-01 中国科学院西安光学精密机械研究所 水下无人航行器位姿确定方法
CN112013772B (zh) * 2019-09-30 2021-10-22 中国科学院西安光学精密机械研究所 水下无人航行器位姿确定方法
CN112013773B (zh) * 2019-09-30 2021-10-22 中国科学院西安光学精密机械研究所 水下无人航行器回收***及回收方法
CN113139986A (zh) * 2021-04-30 2021-07-20 东风越野车有限公司 一种集成式环境感知与多目标跟踪***

Also Published As

Publication number Publication date
CN105787962B (zh) 2018-10-30

Similar Documents

Publication Publication Date Title
CN105787962A (zh) 一种基于uuv水下回收的单目视觉跟踪方法
CN107818326B (zh) 一种基于场景多维特征的船只检测方法及***
CN105866790B (zh) 一种考虑激光发射强度的激光雷达障碍物识别方法及***
CN105719352B (zh) 人脸三维点云超分辨率融合方法及应用其的数据处理装置
CN110782481A (zh) 无人艇智能决策方法及***
CN103426179B (zh) 一种基于均值偏移多特征融合的目标跟踪方法及装置
CN103268616A (zh) 多特征多传感器的移动机器人运动人体跟踪方法
CN104899590A (zh) 一种无人机视觉目标跟随方法及***
US11948344B2 (en) Method, system, medium, equipment and terminal for inland vessel identification and depth estimation for smart maritime
CN110189304A (zh) 基于人工智能的光学遥感图像目标在线快速检测方法
CN110276785A (zh) 一种抗遮挡红外目标跟踪方法
CN103761747B (zh) 一种基于加权分布场的目标跟踪方法
Ren et al. Two AUVs guidance method for self-reconfiguration mission based on monocular vision
Zhang et al. A object detection and tracking method for security in intelligence of unmanned surface vehicles
CN106887012A (zh) 一种基于循环矩阵的快速自适应多尺度目标跟踪方法
Zhang et al. Research on unmanned surface vehicles environment perception based on the fusion of vision and lidar
CN104778670A (zh) 一种基于多元统计模型的分形小波自适应图像去噪方法
Zhang et al. A warning framework for avoiding vessel‐bridge and vessel‐vessel collisions based on generative adversarial and dual‐task networks
CN115775261A (zh) 基于高斯距离匹配的海面多目标跟踪方法及***
CN103679740A (zh) 一种无人机对地目标roi提取方法
Shi et al. Obstacle type recognition in visual images via dilated convolutional neural network for unmanned surface vehicles
Li et al. Vision-based target detection and positioning approach for underwater robots
Hashmani et al. A survey on edge detection based recent marine horizon line detection methods and their applications
CN105931268A (zh) Uuv水下回收过程中基于尺度自适应均值漂移跟踪方法
Zhang et al. Triangle codes and tracer lights based absolute positioning method for terminal visual docking of autonomous underwater vehicles

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant