CN108694725A - 一种基于视觉显著性的机器人动态跟踪方法及*** - Google Patents
一种基于视觉显著性的机器人动态跟踪方法及*** Download PDFInfo
- Publication number
- CN108694725A CN108694725A CN201810456224.1A CN201810456224A CN108694725A CN 108694725 A CN108694725 A CN 108694725A CN 201810456224 A CN201810456224 A CN 201810456224A CN 108694725 A CN108694725 A CN 108694725A
- Authority
- CN
- China
- Prior art keywords
- visual signature
- speed
- point
- mobile robot
- signature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于视觉显著性的机器人动态跟踪方法,步骤包括移动机器人按照预设的路径运动,利用两个摄像头对周围环境进行摄取而得到两路视频信息;数字信号处理***中的数字信号处理器对两路视频信息进行特征提取,将提取出的特征点进行立体匹配,并对特征点进行速度和运动方向参数估计,根据估计得到的特征点的速度和运动方向对特征点进行预处理消除掉静态特征点;对预处理后的特征点进行显著度计算并分割出目标动态物体信息;根据目标动态物体信息控制移动机器人对目标动态物体进行追踪跟随,本发明还公开了一种基于视觉显著性的机器人动态跟踪***,通过本发明的技术方案,可实现移动机器人对动态物体更高效更精确的检测与跟踪。
Description
技术领域
本发明属于机器人视觉检测领域,具体涉及一种基于视觉显著性的机器人动态跟踪方法及***。
背景技术
目前,公知的机器人动态物体检测与跟踪技术有背景差、光流、栅格等方法,但这些方法在机器人的应用中存在许多缺陷,比如要求静态的摄像机或者其检测与跟踪常常针对观测的所有动态物体,但是在机器人的一些应用中并非所有的动态物体都有必要进行跟踪。而采用基于视觉显著性的方法则有利于解决这类问题。视觉显著性的方法是模仿人类视觉显著性的机制,即最显著的特征(与众不同特征)常常吸引人的注意,这种方法常常通过计算某个位置的显著性值来代表注意的对象,因此非常适用于机器人利用其配备的摄像头检测和跟踪周围附近的动态物体。另外现有的跟踪***的实现采用通用计算机***且体积较大,嵌入应用受到限制。
发明内容
本发明的目的在于针对现有技术的缺陷,提供一种基于视觉显著性的机器人动态跟踪方法及***,采用基于视觉显著性的视觉检测方法,结合数字信号处理(DSP)***,可实现移动机器人对动态物体更高效更精确的检测与跟踪。
本发明的技术方案如下:
一种基于视觉显著性的机器人动态跟踪方法,包括如下步骤:
S1、移动机器人按照预设的路径运动,利用两个摄像头对周围环境进行摄取而得到两路视频信息;所述两个摄像头安装于所述移动机器人上;
S2、所述移动机器人将所述两路视频信息传输到数字信号处理***;
S3、所述数字信号处理***中的数字信号处理器对所述两路视频信息进行特征提取,使用立体匹配算法将提取出的特征点进行演算,得到视觉特征点,并将所述视觉特征点储存至数据缓存单元;
S4、所述数字信号处理器使用Multi-RANSAC算法对所述视觉特征点的速度和运动方向进行参数估计,根据估计得到的所述视觉特征点的速度和运动方向对所述视觉特征点进行预处理;所述预处理用于消除所述视觉特征点中的静态视觉特征点;
S5、所述数字信号处理器对预处理后的剩余所述视觉特征点进行显著度计算并分割出目标动态物体信息;
S6、所述数字信号处理器根据所述目标动态物体信息对所述移动机器人发出指令;所述指令用于控制所述移动机器人对目标动态物体进行追踪。
进一步的,所述步骤S4的具体步骤为:
S41、所述数字信号处理器使用Multi-RANSAC算法对所述视觉特征点的速度进行参数估计;采用公式(1)得到所述视觉特征点运动方向:
其中分别为所述视觉特征点的速度在x、y轴方向上的速度分量;
S42、所述数字信号处理器利用公式(2)对所述视觉特征点进行预处理,消除静态视觉特征点,方程如下:
其中vR、θR为所述移动机器人速度和运动方向;为所述视觉特征点的速度和方向平均值;δ1和δ2分别为速度和方向阀值;所述静态视觉特征点为符合公式(2)的所述特征点。
进一步的,所述步骤S3中,所述立体匹配算法为动态规划算法。
进一步的,所述步骤S5的具体步骤为:
S51、所述数字信号处理器对预处理后的所述视觉特征点进行显著性计算;
S52、所述数字信号处理器按照预设的显著值阈值选择显著值符合阈值的所述视觉特征点,采用均值漂移(Mean-Shift)算法分割出目标动态物体信息。
进一步的,所述步骤S51中所述数字信号处理器对预处理后的所述视觉特征点进行显著性计算的计算公式如下:
其中kp为归一化系数,r为所述移动机器人与所述视觉特征点距离;rx、ry为r在x、y轴方向上的分量;为第i个所述视觉特征点的估计速度在x、y轴方向上的分量;vRx、vRy为所述移动机器人速度在在x、y轴方向上的分量。
一种基于视觉显著性的机器人动态跟踪***,包括移动机器人和数字信号处理***;所述移动机器人包括:
通讯模块,用于与所述数字信号处理***建立连接并传输数据及指令;
机器人控制单元,用于控制机器人的移动;
马达驱动器,用于按照机器人控制单元的指令驱动移动机器人移动;
两个摄像头,对周围环境进行摄取而得到视频信息;
所述数字信号处理***为嵌入式***,包括:
通讯模块,用于与所述移动机器人建立连接并传输数据及指令;
数字信号处理器,用于对所述视频信息进行特征提取,使用立体匹配算法对提取出的特征点进行立体匹配得到视觉特征点,使用Multi-RANSAC算法对所述视觉特征点的速度和运动方向进行参数估计,根据估计得到的所述视觉特征点的速度和运动方向对所述视觉特征点进行消除掉静态视觉特征点的预处理;对预处理后的所述视觉特征点进行显著度计算并分割出目标动态物体信息;根据所述目标动态物体信息生成发出指令;所述指令用于控制所述机器人控制单元控制所述马达驱动器,使所述移动机器人对目标动态物体进行追踪;
数据缓冲单元,用于储存所述视觉特征点。
进一步的,,所述数字信号处理器采用Multi-RANSAC(Multi-Random SampleConsensus)算法对所述视觉特征点的进行速度参数估计;
采用公式(1)得到所述视觉特征点运动方向:
其中分别为所述视觉特征点速度在x、y轴方向上的速度分量。
进一步的,所述数字信号处理器利用公式(2)对所述视觉特征点进行预处理,消除静态视觉特征点,方程如下:
其中vR、θR为所述移动机器人速度和运动方向;为所述视觉特征点特征点的速度和方向平均值;δ1和δ2分别为速度和方向阀值。
进一步的,所述数字信号处理器对预处理后的视觉特征点进行显著性计算的计算公式如下:
其中kp为归一化系数,r为所述移动机器人与所述视觉特征点的距离;rx、ry为r在x、y轴方向上的分量;为第i个视觉特征点的速度在x、y轴方向上的分量;vRx、vRy为所述移动机器人速度在在x、y轴方向上的分量。
进一步的,所述数字信号处理器按照预设的显著值阈值选择显著值大于阈值的所述视觉特征点,采用均值漂移(Mean-Shift)算法分割出目标动态物体信息。
与现有技术相比,本发明的有益技术效果如下:
本发明提供了一种基于视觉显著性的机器人动态跟踪方法及***,采用基于视觉显著性的视觉检测方法,结合嵌入式DSP***,实现移动机器人对动态物体更高效更精确的检测与跟踪,同时由于***尺寸较小且易嵌入其它***,增加了其使用的多样性及简便性。
附图说明
图1是本发明实施例1的一种基于视觉显著性的机器人动态跟踪方法的流程示意图。
图2是本发明实施例2的一种基于视觉显著性的机器人动态跟踪***的结构示意图。
具体实施方式
为了充分地了解本发明的目的、特征和效果,以下将结合附图对本发明的几种优选的实施方式进行说明。
实施例1
如图1所示,本实施例1公开了一种基于视觉显著性的机器人动态跟踪方法,包括如下步骤:
S1、移动机器人按照预设的路径运动,利用两个摄像头对周围环境进行摄取而得到两路视频信息;两个摄像头安装于移动机器人上;
S2、移动机器人将两路视频信息传输到数字信号处理***;
S3、数字信号处理***中的数字信号处理器对两路视频信息进行特征提取,使用立体匹配算法将提取出的特征点进行演算,得到视觉特征点,并将视觉特征点储存至数据缓存单元;
具体的,步骤S3的立体匹配算法为动态规划算法。
S4、数字信号处理器使用Multi-RANSAC算法对视觉特征点的速度和运动方向进行参数估计,根据估计得到的视觉特征点的速度和运动方向对视觉特征点进行预处理;预处理用于消除视觉特征点中的静态视觉特征点;
具体的,步骤S4的具体步骤为:
S41、数字信号处理器使用Multi-RANSAC算法对视觉特征点的速度进行参数估计;采用公式(1)得到视觉特征点运动方向:
其中分别为视觉特征点的速度在x、y轴方向上的速度分量;
S42、数字信号处理器利用公式(2)对视觉特征点进行预处理,消除静态视觉特征点,方程如下:
其中vR、θR为移动机器人速度和运动方向;为视觉特征点的速度和方向平均值;δ1和δ2分别为速度和方向阀值;静态视觉特征点为符合公式(2)的特征点。
S5、数字信号处理器对预处理后的剩余视觉特征点进行显著度计算并分割出目标动态物体信息;
具体的,步骤S5的具体步骤为:
S51、数字信号处理器对预处理后的视觉特征点进行显著性计算;
S52、数字信号处理器按照预设的显著值阈值选择显著值符合阈值的视觉特征点,采用均值漂移(Mean-Shift)算法分割出目标动态物体信息。
具体的,步骤S51中数字信号处理器对预处理后的视觉特征点进行显著性计算的计算公式如下:
其中kp为归一化系数,r为移动机器人与视觉特征点距离;rx、ry为r在x、y轴方向上的分量;为第i个视觉特征点的估计速度在x、y轴方向上的分量;vRx、vRy为移动机器人速度在在x、y轴方向上的分量。
S6、数字信号处理器根据目标动态物体信息对移动机器人发出指令;指令用于控制移动机器人对目标动态物体进行追踪。
实施例2
如图2所示,本实施例公开了一种基于视觉显著性的机器人动态跟踪***,其包括移动机器人和数字信号处理***;移动机器人包括:
通讯模块1,用于与数字信号处理***建立连接并传输数据及指令;
机器人控制单元2,用于控制机器人的移动;
马达驱动器3,用于按照机器人控制单元的指令驱动移动机器人移动;
两个摄像头4,对周围环境进行摄取而得到视频信息;
所述数字信号处理***为嵌入式***,包括:
通讯模块5,用于与移动机器人建立连接并传输数据及指令;
数字信号处理器6,用于对视频信息进行特征提取,使用立体匹配算法对提取出的特征点进行立体匹配得到视觉特征点,使用Multi-RANSAC算法对视觉特征点的速度和运动方向进行参数估计,根据估计得到的视觉特征点的速度和运动方向对视觉特征点进行消除掉静态视觉特征点的预处理;对预处理后的视觉特征点进行显著度计算并分割出目标动态物体信息;根据目标动态物体信息生成发出指令;指令用于控制机器人控制单元控制马达驱动器,使移动机器人对目标动态物体进行追踪;
数据缓冲单元,用于储存视觉特征点。
具体的,,数字信号处理器6采用Multi-RANSAC(Multi-Random SampleConsensus)算法对视觉特征点的进行速度参数估计;
采用公式(1)得到视觉特征点运动方向:
其中分别为视觉特征点速度在x、y轴方向上的速度分量。
具体的,数字信号处理器6利用公式(2)对视觉特征点进行预处理,消除静态视觉特征点,方程如下:
其中vR、θR为移动机器人速度和运动方向;为视觉特征点特征点的速度和方向平均值;δ1和δ2分别为速度和方向阀值。
具体的,数字信号处理器6对预处理后的视觉特征点进行显著性计算的计算公式如下:
其中kp为归一化系数,r为移动机器人与视觉特征点的距离;rx、ry为r在x、y轴方向上的分量;为第i个视觉特征点的速度在x、y轴方向上的分量;vRx、vRy为移动机器人速度在在x、y轴方向上的分量。
具体的,数字信号处理器6按照预设的显著值阈值选择显著值大于阈值的视觉特征点,采用均值漂移(Mean-Shift)算法分割出目标动态物体信息。
通过本发明提供的一种基于视觉显著性的机器人动态跟踪方法及***,采用基于视觉显著性的视觉检测方法,结合嵌入式DSP***,可实现移动机器人对动态物体更高效更精确的检测与跟踪,同时由于***尺寸较小且易嵌入其它***,增加了其使用的多样性及简便性。
以上详细描述了本发明的较佳具体实施例,应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明构思在现有技术基础上通过逻辑分析、推理或者根据有限的实验可以得到的技术方案,均应该在由本权利要求书所确定的保护范围之中。
Claims (10)
1.一种基于视觉显著性的机器人动态跟踪方法,其特征在于,包括如下步骤:
S1、移动机器人按照预设的路径运动,利用两个摄像头对周围环境进行摄取而得到两路视频信息;所述两个摄像头安装于所述移动机器人上;
S2、所述移动机器人将所述两路视频信息传输到数字信号处理***;
S3、所述数字信号处理***中的数字信号处理器对所述两路视频信息进行特征提取,使用立体匹配算法将提取出的特征点进行演算,得到视觉特征点,并将所述视觉特征点储存至数据缓存单元;
S4、所述数字信号处理器使用Multi-RANSAC算法对所述视觉特征点的速度和运动方向进行参数估计,根据估计得到的所述视觉特征点的速度和运动方向对所述视觉特征点进行预处理;所述预处理用于消除所述视觉特征点中的静态视觉特征点;
S5、所述数字信号处理器对预处理后的剩余所述视觉特征点进行显著度计算并分割出目标动态物体信息;
S6、所述数字信号处理器根据所述目标动态物体信息对所述移动机器人发出指令;所述指令用于控制所述移动机器人对目标动态物体进行追踪。
2.如权利要求1所述的基于视觉显著性的机器人动态跟踪方法,其特征在于,所述步骤S4的具体步骤为:
S41、所述数字信号处理器使用Multi-RANSAC算法对所述视觉特征点的速度进行参数估计;采用公式(1)得到所述视觉特征点运动方向:
其中分别为所述视觉特征点的速度在x、y轴方向上的速度分量;
S42、所述数字信号处理器利用公式(2)对所述视觉特征点进行预处理,消除静态视觉特征点,方程如下:
其中vR、θR为所述移动机器人速度和运动方向;为所述视觉特征点的速度和方向平均值;δ1和δ2分别为速度和方向阀值;所述静态视觉特征点为符合公式(2)的所述特征点。
3.如权利要求1所述的基于视觉显著性的机器人动态跟踪方法,其特征在于,所述步骤S3中,所述立体匹配算法为动态规划算法。
4.如权利要求1或2所述的基于视觉显著性的机器人动态跟踪方法,其特征在于,所述步骤S5的具体步骤为:
S51、所述数字信号处理器对预处理后的所述视觉特征点进行显著性计算;
S52、所述数字信号处理器按照预设的显著值阈值选择显著值符合阈值的所述视觉特征点,采用均值漂移(Mean-Shift)算法分割出目标动态物体信息。
5.如权利要求4所述的基于视觉显著性的机器人动态跟踪方法,其特征在于,所述步骤S51中所述数字信号处理器对预处理后的所述视觉特征点进行显著性计算的计算公式如下:
其中kp为归一化系数,r为所述移动机器人与所述视觉特征点距离;rx、ry为r在x、y轴方向上的分量;为第i个所述视觉特征点的速度在x、y轴方向上的分量;vRx、vRy为所述移动机器人速度在在x、y轴方向上的分量。
6.一种基于视觉显著性的机器人动态跟踪***,其特征在于,包括移动机器人和数字信号处理***;所述移动机器人包括:
通讯模块,用于与所述数字信号处理***建立连接并传输数据及指令;
机器人控制单元,用于控制机器人的移动;
马达驱动器,用于按照机器人控制单元的指令驱动移动机器人移动;
两个摄像头,对周围环境进行摄取而得到视频信息;
所述数字信号处理***为嵌入式***,包括:
通讯模块,用于与所述移动机器人建立连接并传输数据及指令;
数字信号处理器,用于对所述视频信息进行特征提取,使用立体匹配算法对提取出的特征点进行立体匹配得到视觉特征点,使用Multi-RANSAC算法对所述视觉特征点的速度和运动方向进行参数估计,根据估计得到的所述视觉特征点的速度和运动方向对所述视觉特征点进行消除掉静态视觉特征点的预处理;对预处理后的所述视觉特征点进行显著度计算并分割出目标动态物体信息;根据所述目标动态物体信息生成发出指令;所述指令用于控制所述机器人控制单元控制所述马达驱动器,使所述移动机器人对目标动态物体进行追踪;
数据缓冲单元,用于储存所述视觉特征点。
7.如权利要求6所述的基于视觉显著性的机器人动态跟踪***,其特征在于,所述数字信号处理器采用Multi-RANSAC(Multi-Random Sample Consensus)算法对所述视觉特征点的进行速度参数估计;
采用公式(1)得到所述视觉特征点运动方向:
其中分别为所述视觉特征点速度在x、y轴方向上的速度分量。
8.如权利要求6或7所述的基于视觉显著性的机器人动态跟踪***,其特征在于,所述数字信号处理器利用公式(2)对所述视觉特征点进行预处理,消除静态视觉特征点,方程如下:
其中vR、θR为所述移动机器人速度和运动方向;为所述视觉特征点特征点的速度和方向平均值;δ1和δ2分别为速度和方向阀值。
9.如权利要求6所述的基于视觉显著性的机器人动态跟踪***,其特征在于,所述数字信号处理器对预处理后的特征点进行显著性计算的计算公式如下:
其中kp为归一化系数,r为所述移动机器人与所述视觉特征点的距离;rx、ry为r在x、y轴方向上的分量;为第i个视觉特征点的速度在x、y轴方向上的分量;vRx、vRy为所述移动机器人速度在在x、y轴方向上的分量。
10.如权利要求9所述的基于视觉显著性的机器人动态跟踪***,其特征在于,所述数字信号处理器按照预设的显著值阈值选择显著值大于阈值的所述视觉特征点,采用均值漂移(Mean-Shift)算法分割出目标动态物体信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810456224.1A CN108694725A (zh) | 2018-05-14 | 2018-05-14 | 一种基于视觉显著性的机器人动态跟踪方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810456224.1A CN108694725A (zh) | 2018-05-14 | 2018-05-14 | 一种基于视觉显著性的机器人动态跟踪方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108694725A true CN108694725A (zh) | 2018-10-23 |
Family
ID=63847405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810456224.1A Pending CN108694725A (zh) | 2018-05-14 | 2018-05-14 | 一种基于视觉显著性的机器人动态跟踪方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108694725A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110244746A (zh) * | 2019-07-11 | 2019-09-17 | 肇庆学院 | 一种基于视觉注意的机器人动态障碍物避开方法及*** |
CN110415273A (zh) * | 2019-07-29 | 2019-11-05 | 肇庆学院 | 一种基于视觉显著性的机器人高效运动跟踪方法及*** |
CN115601432A (zh) * | 2022-11-08 | 2023-01-13 | 肇庆学院(Cn) | 一种基于fpga的机器人位置最优估计方法及*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751466A (zh) * | 2015-04-01 | 2015-07-01 | 电子科技大学 | 一种基于视觉显著性的形变物体跟踪算法及其*** |
WO2015163830A1 (en) * | 2014-04-22 | 2015-10-29 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi | Target localization and size estimation via multiple model learning in visual tracking |
CN105893957A (zh) * | 2016-03-30 | 2016-08-24 | 上海交通大学 | 基于视觉湖面船只检测识别与跟踪方法 |
-
2018
- 2018-05-14 CN CN201810456224.1A patent/CN108694725A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015163830A1 (en) * | 2014-04-22 | 2015-10-29 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi | Target localization and size estimation via multiple model learning in visual tracking |
CN104751466A (zh) * | 2015-04-01 | 2015-07-01 | 电子科技大学 | 一种基于视觉显著性的形变物体跟踪算法及其*** |
CN105893957A (zh) * | 2016-03-30 | 2016-08-24 | 上海交通大学 | 基于视觉湖面船只检测识别与跟踪方法 |
Non-Patent Citations (5)
Title |
---|
BINGHUA GUO等: "Visual Saliency-Based Motion Detection Technique for Mobile Robots", 《INTERNATIONAL JOURNAL OF ROBOTICS & AUTOMATION》 * |
和箫: "基于视觉的目标跟踪研究及其在移动机器人中的实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
李竹林等: "《图像立体匹配技术及其发展和应用》", 31 July 2007 * |
樊祥锰等: "基于视觉显著性的均值漂移跟踪算法", 《传感器与微***》 * |
郭丙华等: "基于视觉显著性的移动机器人动态环境建模", 《控制理论与应用》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110244746A (zh) * | 2019-07-11 | 2019-09-17 | 肇庆学院 | 一种基于视觉注意的机器人动态障碍物避开方法及*** |
CN110244746B (zh) * | 2019-07-11 | 2020-02-18 | 肇庆学院 | 一种基于视觉注意的机器人动态障碍物避开方法及*** |
CN110415273A (zh) * | 2019-07-29 | 2019-11-05 | 肇庆学院 | 一种基于视觉显著性的机器人高效运动跟踪方法及*** |
CN115601432A (zh) * | 2022-11-08 | 2023-01-13 | 肇庆学院(Cn) | 一种基于fpga的机器人位置最优估计方法及*** |
CN115601432B (zh) * | 2022-11-08 | 2023-05-30 | 肇庆学院 | 一种基于fpga的机器人位置最优估计方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Reid et al. | Active tracking of foveated feature clusters using affine structure | |
Lou et al. | 3-D model-based vehicle tracking | |
CN103268616A (zh) | 多特征多传感器的移动机器人运动人体跟踪方法 | |
Lee et al. | Ground-moving-platform-based human tracking using visual SLAM and constrained multiple kernels | |
CN108694725A (zh) | 一种基于视觉显著性的机器人动态跟踪方法及*** | |
CN112785628B (zh) | 一种基于全景视角检测跟踪的轨迹预测方法及*** | |
CN103886325A (zh) | 一种分块的循环矩阵视频跟踪方法 | |
CN103150737A (zh) | 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法 | |
CN107097256B (zh) | 基于视觉非完整机器人在极坐标下的无模型目标跟踪方法 | |
CN112861808B (zh) | 动态手势识别方法、装置、计算机设备及可读存储介质 | |
CN106887012A (zh) | 一种基于循环矩阵的快速自适应多尺度目标跟踪方法 | |
Chen et al. | Real-time Visual Object Tracking via CamShift-Based Robust Framework. | |
Lai et al. | A survey of deep learning application in dynamic visual SLAM | |
CN109903309A (zh) | 一种基于角度光流法的机器人运动信息估计方法 | |
Zhang et al. | Event-based circular detection for AUV docking based on spiking neural network | |
Königs et al. | Fast visual people tracking using a feature-based people detector | |
Chai et al. | 3D gesture recognition method based on faster R-CNN network | |
Zhou et al. | SURF feature detection method used in object tracking | |
Xu et al. | Research on the method of 3D registration technology | |
CN110244746A (zh) | 一种基于视觉注意的机器人动态障碍物避开方法及*** | |
Pei et al. | Dynamic SLAM system using histogram-based outlier score to improve anomaly detection | |
CN117576165B (zh) | 船舶多目标追踪方法、装置、电子设备及存储介质 | |
Feng et al. | Initialization of 3D Human Hand Model and Its Applications in Human Hand Tracking. | |
Zou et al. | An improved motion pedestrian tracking algorithm based on CamShift | |
Xu et al. | The research of multi-target tracking based on improved YOLOv3 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181023 |
|
RJ01 | Rejection of invention patent application after publication |