CN107403437A - 机器人跟踪物体的方法、装置及机器人 - Google Patents

机器人跟踪物体的方法、装置及机器人 Download PDF

Info

Publication number
CN107403437A
CN107403437A CN201610335716.6A CN201610335716A CN107403437A CN 107403437 A CN107403437 A CN 107403437A CN 201610335716 A CN201610335716 A CN 201610335716A CN 107403437 A CN107403437 A CN 107403437A
Authority
CN
China
Prior art keywords
picture
pictures
border
tracking
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610335716.6A
Other languages
English (en)
Inventor
孔尧
邢昀
段毅钧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Hui Liu Cloud Computing Science And Technology Ltd
Original Assignee
Shanghai Hui Liu Cloud Computing Science And Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Hui Liu Cloud Computing Science And Technology Ltd filed Critical Shanghai Hui Liu Cloud Computing Science And Technology Ltd
Priority to CN201610335716.6A priority Critical patent/CN107403437A/zh
Publication of CN107403437A publication Critical patent/CN107403437A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明实施例公开了一种机器人跟踪物体的方法、装置及机器人,所述方法包括:步骤s101:获取预设时间内机器人运动过程中拍摄的N张图片,其中,N为大于等于3的正整数;步骤s102:对图片中的物体进行边缘检测,获取物体的边界;步骤s103:对边界内物体的颜色进行识别;步骤s104:当N张图片中存在颜色相同的物体时,标识出颜色相同的物体,得到待跟踪的目标物体;步骤s105:继续获取机器人运动过程中拍摄的第二图片,并重复步骤s102~s103,对第二图片中和待跟踪的目标物体颜色相同的物体进行标记,实现目标物体的跟踪。该方法可以实时的跟踪物体,同时适用于变化较大的移动场景的物体跟踪。

Description

机器人跟踪物体的方法、装置及机器人
技术领域
本发明涉及智能控制技术领域,尤其涉及一种机器人跟踪物体的方法、装置及机器人。
背景技术
随着人工智能的迅速发展,各大研究机构、企业已研发制造出形态各异的机器人,而这些机器人如何实现对物体的定位跟踪,也成了研究的热点方向。
对物体的跟踪是指通过某种方式(如图像识别、红外、超声波等)将摄像头中拍摄到的物体进行定位。由于红外、超声波等方式,都受环境的影响,而且被跟踪物体要佩戴专门的识别辅助设备,在实际应用中已经逐步被“图像识别”技术所替代。已有的利用图像识别进行物体跟踪的方法是对已拍摄的视频序列进行运动目标检测识别,在各帧图像中标识出运动目标,并通过最近邻算法识别出运动目标在不同图像帧中的位置,从而实现物体的跟踪;该方法需要实现拍摄包含运动目标的视频帧序列,对于实时跟踪具有很大的迟延性因此不适用。另一种是设定一个跟踪区域,在跟踪区域上方固定安装摄像头,当运动目标运动到该跟踪区域后,利用已有的运动目标检测算法,检测运动目标,并利用最近邻算法,识别出运动目标在不同图像帧中的位置,从而实现物体的跟踪;该方法虽然可以实现实时跟踪,但是跟踪区域有限,不适用于变化较大的移动场景的物体跟踪。
发明内容
为解决上述物体跟踪迟延及跟踪区域有限的技术问题,本发明的目的是提供一种机器人跟踪物体的方法、装置及机器人,该方法可以实时的跟踪物体,同时适用于变化较大的移动场景的物体跟踪。
为实现上述目的,本发明提供如下技术方案:
一种机器人跟踪物体的方法,所述方法可以包括:
步骤s101:获取预设时间内机器人运动过程中拍摄的N张图片,其中,所述N为大于等于3的正整数;
步骤s102:对所述图片中的物体进行边缘检测,获取物体的边界;
步骤s103:对所述边界内物体的颜色进行识别;
步骤s104:当所述N张图片中存在颜色相同的物体时,标识出所述颜色相同的物体,得到待跟踪的目标物体;
步骤s105:继续获取机器人运动过程中拍摄的第二图片,并重复步骤s102~s103,对所述第二图片中和所述待跟踪的目标物体颜色相同的物体进行标记,实现目标物体的跟踪,其中,所述第二图片为除所述N张图片之外的任一张图片。
优选的,所述对所述边界内物体的颜色进行识别可以包括:
确定所述边界上最左最右最上最下四个点;
连接所述四个点,形成四边形;
对所述四边形内部的颜色进行识别。
优选的,所述方法还可以包括:
确定所述四边形的中心点;
连接同一目标物体在不同图片中形成的四边形的中心点,得到目标物体的运动轨迹。
优选的,所述对所述图片中的物体进行边缘检测,获取物体的边界包括:
对所述图片中的物体利用索贝尔sobel边缘检测算法进行检测,得到各物体的边缘轮廓点;
连接所述边缘轮廓点形成物体的边界。
优选的,所述预设时间可以为2s。
一种机器人跟踪物体的装置,所述装置可以包括:
获取模块,用于获取预设时间内机器人运动过程中拍摄的N张图片,其中,所述N为大于等于3的正整数;
边缘检测模块,用于对所述图片中的物体进行边缘检测,获取物体的边界;
颜色识别模块,用于对所述边界内物体的颜色进行识别;
标记模块,用于当所述N张图片中存在颜色相同的物体时,标识出所述颜色相同的物体,得到待跟踪的目标物体;
跟踪模块,用于继续获取机器人运动过程中拍摄的第二图片,并对所述第二图片中和所述待跟踪的目标物体颜色相同的物体进行标记,实现目标物体的跟踪,其中,所述第二图片为除所述N张图片之外的任一张图片。
优选的,所述颜色识别模块可以用于:
确定所述边界上最左最右最上最下四个点;
连接所述四个点,形成四边形;
对所述四边形内部的颜色进行识别。
优选的,所述装置还可以包括:
生成轨迹模块,用于确定所述四边形的中心点,连接同一目标物体在不同图片中形成的四边形的中心点,得到目标物体的运动轨迹。
优选的,所述边缘检测模块可以用于:
对所述图片中的物体利用sobel边缘检测算法进行检测,得到各物体的边缘轮廓点;
连接所述边缘轮廓点形成物体的边界。
一种机器人,可以包括:机器人本体,摄像头以及上述的机器人跟踪物体的装置;所述摄像头设置于所述机器人本体上,用于在所述机器人本体运动过程中拍摄图片。
本发明实施例提供一种机器人跟踪物体的方法、装置及机器人,通过获取预设时间内机器人运动过程中拍摄的N张图片,并对上述图片中的物体进行边缘检测获取物体的边界,对边界内物体的颜色进行识别,当上述N张图片中存在颜色相同的物体时,标识出该颜色相同的物体,即为识别出的移动物体,将该移动物体作为待跟踪的目标物体;在后续跟踪过程中,继续获取机器人拍摄的图片,对图片中和上述待跟踪的目标物体颜色相同的物体进行标记,实现目标物体的跟踪。该方法可以实时的跟踪物体,同时适用于变化较大的移动场景的物体跟踪,且不用将待跟踪的物体设置在一个固定跟踪区域,从而扩大了应用场景。
附图说明
图1为本发明提供的机器人跟踪物体的方法实施例一的流程示意图;
图2为本发明提供的机器人跟踪物体的方法实施例二的流程示意图;
图3为本发明提供的机器人跟踪物体的装置实施例一的结构示意图;
图4为本发明提供的机器人跟踪物体的装置实施例二的结构示意图;
图5为本发明实施例提供的机器人的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明实施例的机器人跟踪物体的方法适用于机器人,所述机器人上设置有摄像头,该方法利用机器人上的摄像头,在机器人***自运动时,连续拍摄周围物体的图片,从而对图片中的移动物体实现跟踪。该方法可以实时跟踪物体,同时,不用将待跟踪的物体设置在一个固定跟踪区域,从而扩大了应用场景。
图1为本发明提供的机器人跟踪物体的方法实施例一的流程示意图;如图1所示,该方法包括:
步骤s101:获取预设时间内机器人运动过程中拍摄的N张图片;
其中,所述N为大于等于3的正整数。
在本步骤中,预设时间为机器人***设定的或者根据用户需求设定,例如可以为2秒。在机器人自运动过程中,获取连续时间内(2s)拍摄的三张图片(这里以三张图片为例进行说明),以确定机器人拍摄的图片中的移动物体,如果在三张图片中通过识别都出现了某一物体,则该物体即为待跟踪的目标物体。目标物体可以为一个,也可以为多个。为一个时,即在三张图片中只检测到同一个移动物体,后续只需要对该物体进行跟踪;为多个时,在第一张图片中出现了A,B,C三个物体,第二和第三张图片中也出现了A,B,C三个物体,则后续需要对这A,B,C三个移动物体均进行跟踪。这里还可以获取更多图片,以提高识别精度。
步骤s102:对图片中的物体进行边缘检测,获取物体的边界。
在本步骤中,在上述拍摄的三张图片中,分别对其中的物体利用现有的边缘检测算法进行边缘检测,以得到各图片中每个物体的边界。边缘定义为图像中灰度发生急剧变化的区域边界,图像灰度的变化情况可以用图像灰度分布的梯度来反映,因此可以用局部图像微分技术来获得边缘检测算子。边缘检测算法的原理是:边缘通常是一定数量点亮度发生变化较明显的地方,边缘检测就是计算这个亮度变化的导数。现有的边缘检测算法有Canny边缘检测,Sobel边缘检测,Prewitt边缘检测等等,其实现原理此处不再赘述。
步骤s103:对边界内物体的颜色进行识别。
在本步骤中,对步骤s102中获得的边界内的物体的颜色进行识别,例如获取到物体的边界后,将边界上最左最右最上最下四个点依次连接,形成四边形,四边形内部颜色即确定为物体的颜色,或者可以通过其他方法确定边界内物体的颜色。
步骤s104:当N张图片中存在颜色相同的物体时,标识出颜色相同的物体,得到待跟踪的目标物体。
在本步骤中,通过颜色识别,颜色相同的物体即认定为同一物体,对该物体进行追踪。例如,在第二张图片的某物体和第一张图片的A物体的颜色相同,则认定第二张图片中的该物体即为第一张图片中的A物体,类似的,由于该物体是移动的,在后续图片中也可检测到该A物体,则后续需要对该A物体进行跟踪,称其为待跟踪的目标物体。
步骤s105:继续获取机器人运动过程中拍摄的第二图片,并重复步骤s102~s103,对第二图片中和待跟踪的目标物体颜色相同的物体进行标记,实现目标物体的跟踪;
其中,所述第二图片为除所述N张图片之外的任一张图片。
在本步骤中,确定了移动物体(待跟踪的目标物体后)后,机器人继续自运动,并继续拍摄图片,获取机器人拍摄的图片,为了和前面的图片进行区分,这里用第二图片表示,然后对该第二图片重复边缘检测和颜色识别的步骤,找到第二图片中和上述确定的待跟踪的目标物体颜色相同的物体进行标记,就实现了目标物体的跟踪。跟踪的结果是,在机器人拍摄的图片序列中,同一物体用同一个标号标记。
本实施例的机器人跟踪物体的方法,通过获取预设时间内机器人运动过程中拍摄的N张图片,并对上述图片中的物体进行边缘检测获取物体的边界,对边界内物体的颜色进行识别,当上述N张图片中存在颜色相同的物体时,标识出该颜色相同的物体,即为识别出的移动物体,将该移动物体作为待跟踪的目标物体;在后续跟踪过程中,继续获取机器人拍摄的图片,对图片中和上述待跟踪的目标物体颜色相同的物体进行标记,实现目标物体的跟踪。该方法可以实时的跟踪物体,同时适用于变化较大的移动场景的物体跟踪,且不用将待跟踪的物体设置在一个固定跟踪区域,从而扩大了应用场景。
可选的,所述对所述边界内物体的颜色进行识别包括:
确定所述边界上最左最右最上最下四个点;
连接所述四个点,形成四边形;
对所述四边形内部的颜色进行识别。
具体的,对图片中的物体进行边缘检测后,可得到每个物体的边缘轮廓点,通过各点的坐标找到每个物体的最左最右最上最下四个点,依次连接这四个点,形成四边形,四边形内部颜色即确定为该物体的颜色,后续只需对形成的每个四边形内部的颜色进行识别。
图2为本发明提供的机器人跟踪物体的方法实施例二的流程示意图;如图2所示,在实施例一的基础上,所述方法还包括:
步骤s201:确定四边形的中心点。
在本步骤中,在上述过程中,通过找边界的最左最右最上最下四个点并连接这四个点形成的四边形中,该四边形可能是规则的,也可能是不规则的,利用现有的数学知识可确定四边形的中心点。
步骤s202:连接同一目标物体在不同图片中形成的四边形的中心点,得到目标物体的运动轨迹。
在本步骤中,对于机器人拍摄的图片序列中,结合跟踪结果,连接同一目标物体在不同图片中形成的四边形的中心点,即可得到一条轨迹曲线,该轨迹曲线就是目标物体的运动轨迹。根据目标物体的多少,可以得到一条轨迹曲线,也可以得到多条轨迹曲线。根据获得的目标物体的运动轨迹,可以分析目标物体的运动规律。
可选的,所述对所述图片中的物体进行边缘检测,获取物体的边界包括:
对所述图片中的物体利用索贝尔sobel边缘检测算法进行检测,得到各物体的边缘轮廓点;
连接所述边缘轮廓点形成物体的边界。
具体的,本发明实施例中采用索贝尔sobel边缘检测算法进行边缘检测,由于Soble边缘检测算法比较简单,实际应用中效率比canny边缘检测效率要高,因而,选择sobel边缘检测算法符合移动物体检测的效率要求,因而适用于本发明实施例的机器人运动过程中的边缘检测。sobel边缘检测算法是较成熟的算法,此处不再赘述。经过sobel边缘检测算法检测边缘后,得到各个目标物体的边缘轮廓点,连接这些边缘轮廓点形成各目标物体的边界。
可选的,所述预设时间为2s。
图3为本发明提供的机器人跟踪物体的装置实施例一的结构示意图;如图3所示,所述装置包括:
获取模块11,用于获取预设时间内机器人运动过程中拍摄的N张图片,其中,所述N为大于等于3的正整数;
边缘检测模块12,用于对所述图片中的物体进行边缘检测,获取物体的边界;
颜色识别模块13,用于对所述边界内物体的颜色进行识别;
标记模块14,用于当所述N张图片中存在颜色相同的物体时,标识出所述颜色相同的物体,得到待跟踪的目标物体;
跟踪模块15,用于继续获取机器人运动过程中拍摄的第二图片,并对所述第二图片中和所述待跟踪的目标物体颜色相同的物体进行标记,实现目标物体的跟踪,其中,所述第二图片为除所述N张图片之外的任一张图片。
本实施例提供的机器人跟踪物体的装置是与实施例一所示的机器人跟踪物体的方法对应的装置实施例,其原理类似,此处不再赘述。
本实施例的机器人跟踪物体的装置,通过获取模块获取预设时间内机器人运动过程中拍摄的N张图片,边缘检测模块对上述图片中的物体进行边缘检测获取物体的边界,颜色识别模块对边界内物体的颜色进行识别,当上述N张图片中存在颜色相同的物体时,标记模块标识出该颜色相同的物体,即为识别出的移动物体,将该移动物体作为待跟踪的目标物体;在后续跟踪过程中,继续获取机器人拍摄的图片,跟踪模块对图片中和上述待跟踪的目标物体颜色相同的物体进行标记,实现目标物体的跟踪。该装置可以实时的跟踪物体,同时适用于变化较大的移动场景的物体跟踪,且不用将待跟踪的物体设置在一个固定跟踪区域,从而扩大了应用场景。
可选的,所述颜色识别模块13用于:
确定所述边界上最左最右最上最下四个点;
连接所述四个点,形成四边形;
对所述四边形内部的颜色进行识别。
图4为本发明提供的机器人跟踪物体的装置实施例二的结构示意图;如图4所示,所述装置还包括:
生成轨迹模块21,用于确定所述四边形的中心点,连接同一目标物体在不同图片中形成的四边形的中心点,得到目标物体的运动轨迹。
可选的,所述边缘检测模块12用于:
对所述图片中的物体利用sobel边缘检测算法进行检测,得到各物体的边缘轮廓点;
连接所述边缘轮廓点形成物体的边界。
图5为本发明实施例提供的机器人的结构示意图;如图5所示,该机器人包括:机器人本体100,摄像头200以及上述的机器人跟踪物体的装置;所述摄像头200设置于所述机器人本体100上,用于在所述机器人本体100运动过程中拍摄图片。
以上对本发明所提供的一种机器人跟踪物体的方法、装置及机器人进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种机器人跟踪物体的方法,其特征在于,所述方法包括:
步骤s101:获取预设时间内机器人运动过程中拍摄的N张图片,其中,所述N为大于等于3的正整数;
步骤s102:对所述图片中的物体进行边缘检测,获取物体的边界;
步骤s103:对所述边界内物体的颜色进行识别;
步骤s104:当所述N张图片中存在颜色相同的物体时,标识出所述颜色相同的物体,得到待跟踪的目标物体;
步骤s105:继续获取机器人运动过程中拍摄的第二图片,并重复步骤s102~s103,对所述第二图片中和所述待跟踪的目标物体颜色相同的物体进行标记,实现目标物体的跟踪,其中,所述第二图片为除所述N张图片之外的任一张图片。
2.根据权利要求1所述的方法,其特征在于,所述对所述边界内物体的颜色进行识别包括:
确定所述边界上最左最右最上最下四个点;
连接所述四个点,形成四边形;
对所述四边形内部的颜色进行识别。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
确定所述四边形的中心点;
连接同一目标物体在不同图片中形成的四边形的中心点,得到目标物体的运动轨迹。
4.根据权利要求1所述的方法,其特征在于,所述对所述图片中的物体进行边缘检测,获取物体的边界包括:
对所述图片中的物体利用索贝尔(sobel)边缘检测算法进行检测,得到各物体的边缘轮廓点;
连接所述边缘轮廓点形成物体的边界。
5.根据权利要求1~4任一项所述的方法,其特征在于,所述预设时间为2s。
6.一种机器人跟踪物体的装置,其特征在于,所述装置包括:
获取模块,用于获取预设时间内机器人运动过程中拍摄的N张图片,其中,所述N为大于等于3的正整数;
边缘检测模块,用于对所述图片中的物体进行边缘检测,获取物体的边界;
颜色识别模块,用于对所述边界内物体的颜色进行识别;
标记模块,用于当所述N张图片中存在颜色相同的物体时,标识出所述颜色相同的物体,得到待跟踪的目标物体;
跟踪模块,用于继续获取机器人运动过程中拍摄的第二图片,并对所述第二图片中和所述待跟踪的目标物体颜色相同的物体进行标记,实现目标物体的跟踪,其中,所述第二图片为除所述N张图片之外的任一张图片。
7.根据权利要求6所述的装置,其特征在于,所述颜色识别模块用于:
确定所述边界上最左最右最上最下四个点;
连接所述四个点,形成四边形;
对所述四边形内部的颜色进行识别。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
生成轨迹模块,用于确定所述四边形的中心点,连接同一目标物体在不同图片中形成的四边形的中心点,得到目标物体的运动轨迹。
9.根据权利要求6所述的装置,其特征在于,所述边缘检测模块用于:
对所述图片中的物体利用sobel边缘检测算法进行检测,得到各物体的边缘轮廓点;
连接所述边缘轮廓点形成物体的边界。
10.一种机器人,其特征在于,包括:机器人本体,摄像头以及权利要求6~9任一项所述的机器人跟踪物体的装置:所述摄像头设置于所述机器人本体上,用于在所述机器人本体运动过程中拍摄图片。
CN201610335716.6A 2016-05-19 2016-05-19 机器人跟踪物体的方法、装置及机器人 Pending CN107403437A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610335716.6A CN107403437A (zh) 2016-05-19 2016-05-19 机器人跟踪物体的方法、装置及机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610335716.6A CN107403437A (zh) 2016-05-19 2016-05-19 机器人跟踪物体的方法、装置及机器人

Publications (1)

Publication Number Publication Date
CN107403437A true CN107403437A (zh) 2017-11-28

Family

ID=60394298

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610335716.6A Pending CN107403437A (zh) 2016-05-19 2016-05-19 机器人跟踪物体的方法、装置及机器人

Country Status (1)

Country Link
CN (1) CN107403437A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110706247A (zh) * 2018-06-22 2020-01-17 杭州海康威视数字技术股份有限公司 一种目标跟踪方法、装置及***
WO2020098325A1 (zh) * 2018-11-14 2020-05-22 中兴通讯股份有限公司 一种图像合成方法、电子设备及存储介质
CN111565300A (zh) * 2020-05-22 2020-08-21 深圳市百川安防科技有限公司 基于对象的视频文件处理方法、设备及***
WO2020253063A1 (zh) * 2019-06-20 2020-12-24 平安科技(深圳)有限公司 一种相似图片的检索方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1721144A (zh) * 2004-07-13 2006-01-18 中国科学院自动化研究所 一种基于物体表面颜色的快速跟踪方法与装置
CN101236657A (zh) * 2008-03-03 2008-08-06 吉林大学 单一运动目标轨迹的跟踪与记录方法
CN102663743A (zh) * 2012-03-23 2012-09-12 西安电子科技大学 一种复杂场景中多摄影机协同的人物追踪方法
CN103336948A (zh) * 2013-06-24 2013-10-02 深圳锐取信息技术股份有限公司 一种基于人脸识别的视频跟踪方法
CN103400120A (zh) * 2013-08-02 2013-11-20 上海泓申科技发展有限公司 基于视频分析的银行自助服务区域推入行为检测方法
CN103413120A (zh) * 2013-07-25 2013-11-27 华南农业大学 基于物体整体性和局部性识别的跟踪方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1721144A (zh) * 2004-07-13 2006-01-18 中国科学院自动化研究所 一种基于物体表面颜色的快速跟踪方法与装置
CN101236657A (zh) * 2008-03-03 2008-08-06 吉林大学 单一运动目标轨迹的跟踪与记录方法
CN102663743A (zh) * 2012-03-23 2012-09-12 西安电子科技大学 一种复杂场景中多摄影机协同的人物追踪方法
CN103336948A (zh) * 2013-06-24 2013-10-02 深圳锐取信息技术股份有限公司 一种基于人脸识别的视频跟踪方法
CN103413120A (zh) * 2013-07-25 2013-11-27 华南农业大学 基于物体整体性和局部性识别的跟踪方法
CN103400120A (zh) * 2013-08-02 2013-11-20 上海泓申科技发展有限公司 基于视频分析的银行自助服务区域推入行为检测方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110706247A (zh) * 2018-06-22 2020-01-17 杭州海康威视数字技术股份有限公司 一种目标跟踪方法、装置及***
CN110706247B (zh) * 2018-06-22 2023-03-07 杭州海康威视数字技术股份有限公司 一种目标跟踪方法、装置及***
WO2020098325A1 (zh) * 2018-11-14 2020-05-22 中兴通讯股份有限公司 一种图像合成方法、电子设备及存储介质
WO2020253063A1 (zh) * 2019-06-20 2020-12-24 平安科技(深圳)有限公司 一种相似图片的检索方法及装置
CN111565300A (zh) * 2020-05-22 2020-08-21 深圳市百川安防科技有限公司 基于对象的视频文件处理方法、设备及***

Similar Documents

Publication Publication Date Title
US10402985B2 (en) Collision prediction
JP6031554B2 (ja) 単眼カメラに基づく障害物検知方法及び装置
Tapu et al. A smartphone-based obstacle detection and classification system for assisting visually impaired people
Akolkar et al. Real-time high speed motion prediction using fast aperture-robust event-driven visual flow
Greene et al. Multi-level mapping: Real-time dense monocular slam
CN108875683A (zh) 一种机器人视觉跟踪方法及其***
JP2018522348A (ja) センサーの3次元姿勢を推定する方法及びシステム
Zhu et al. Kinematic self retargeting: A framework for human pose estimation
US20170134643A1 (en) Gaze tracking device and method and recording medium for performing the same
Schmidt et al. Comparative assessment of point feature detectors in the context of robot navigation
CN107403437A (zh) 机器人跟踪物体的方法、装置及机器人
Zuo et al. Devo: Depth-event camera visual odometry in challenging conditions
JP2012155391A (ja) 姿勢状態推定装置および姿勢状態推定方法
CN106403924B (zh) 基于深度摄像头的机器人快速定位与姿态估计方法
US10803604B1 (en) Layered motion representation and extraction in monocular still camera videos
Jiang et al. 500-fps omnidirectional visual tracking using three-axis active vision system
CN101894380A (zh) 一种全景视频中目标物体的自动跟踪方法
CN103914855A (zh) 一种运动目标的定位方法及装置
Hadviger et al. Feature-based event stereo visual odometry
Zhong et al. Stairway detection using Gabor filter and FFPG
Carraro et al. Skeleton estimation and tracking by means of depth data fusion from depth camera networks
CN106393144B (zh) 一种多机器人操作模式下视觉跟踪的方法及***
Chan et al. Unseen salient object discovery for monocular robot vision
Kurmankhojayev et al. Monocular pose capture with a depth camera using a Sums-of-Gaussians body model
Goyal et al. MoveEnet: Online high-frequency human pose estimation with an event camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 200433, five floor, Boston International Building, 18 Yangpu District Government Road, Shanghai.

Applicant after: Shanghai Ming me information technology Co., Ltd.

Address before: 200433, five floor, Boston International Building, 18 Yangpu District Government Road, Shanghai.

Applicant before: Shanghai Hui Liu cloud computing Science and Technology Ltd.

CB02 Change of applicant information
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171128

WD01 Invention patent application deemed withdrawn after publication