CN107292907A - 一种对跟随目标进行定位的方法以及跟随设备 - Google Patents
一种对跟随目标进行定位的方法以及跟随设备 Download PDFInfo
- Publication number
- CN107292907A CN107292907A CN201710575900.2A CN201710575900A CN107292907A CN 107292907 A CN107292907 A CN 107292907A CN 201710575900 A CN201710575900 A CN 201710575900A CN 107292907 A CN107292907 A CN 107292907A
- Authority
- CN
- China
- Prior art keywords
- image
- subblock
- standard
- feature
- confidence level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000001514 detection method Methods 0.000 claims description 120
- 238000003860 storage Methods 0.000 claims description 28
- 238000000605 extraction Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 description 16
- 230000008569 process Effects 0.000 description 7
- 230000007774 longterm Effects 0.000 description 6
- 238000009826 distribution Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种对跟随目标进行定位的方法以及跟随设备,基于视觉获取待识别图像,并通过标准图像特征对待识别图像中各个位置的图像区域对应的图像子块进行图像特征匹配,确定图像特征与标准图像特征匹配的图像子块,根据该图像子块在待识别图像中的位置信息,确定跟随设备与跟随目标的相对位置信息。上述基于视觉的待识别图像定位跟随设备与跟随目标的相对位置信息的方式,不易受到周围环境的干扰,定位精度高,保证跟随设备能够准确跟踪跟随目标,无需用户实时观察并维护该跟随设备,避免了给用户的操作繁琐、耗费时间长等一系列的问题,提高了用户出行时间的利用效率,且大大降低了行李箱丢失的风险。
Description
技术领域
本发明涉及机器人领域,具体而言,涉及一种对跟随目标进行定位的方法以及跟随设备。
背景技术
随着经济的发展,人们的生活水平也在不断提高,用户的出行越来越普遍,如工作中的商务出差或者生活中的旅行,用户在出行时通常要携带行李箱,并且对出行行李箱的功能性需求越来越高。例如,对需要长时间外出的用户,其更希望解放自己的双手,减轻负担。
相关技术CN201610329435.X提供了一种具有自主跟随避障功能的移动机器人(具体可以是行李箱),该行李箱通过射频定位模块获取与用户的相对位置信息,根据得到的该相对位置信息变化控制行李箱自动跟随用户行走。
本申请的发明人在研究中发现,相关技术中的行李箱至少存在如下问题:其包括的用于进行定位的射频定位模块易受到行李箱周围环境的干扰,导致获得的与用户的相对位置信息准确度较差,进而导致该行李箱无法准确跟随用户行走,这就需要用户实时观察并维护行李箱,从而给用户带来了操作繁琐、耗费时间长等一系列的问题,同时增加了行李箱丢失的风险。
发明内容
本发明的目的在于提供一种对跟随目标进行定位的方法以及跟随设备,其能够准确定位跟随设备与跟随目标的相对位置信息。
第一方面,本发明实施例提供了一种对跟随目标进行定位的方法,包括:
跟随设备获取至少一个待识别图像;
针对每一个所述待识别图像,按照第一设定检测区域的大小,检测所述待识别图像中各个图像子块的图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第一设定检测区域的大小;
根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块;
根据确定的图像子块在所述待识别图像中的位置,确定所述跟随设备与所述跟随目标的相对位置信息。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,所述标准图像特征包括:标准跟踪图像特征和标准检测图像特征;根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块,包括:
将各个图像子块的图像特征分别与所述标准跟踪图像特征进行匹配,得到各个图像子块的第一置信度;所述第一置信度用于表示图像子块的图像特征与标准跟踪图像特征的匹配相似度;
从得到的所述各个图像子块的第一置信度中,提取第一置信度最大的图像子块;
根据所述标准检测图像特征与所述第一置信度最大的图像子块的图像特征,从所述待识别图像中确定输出图像子块;所述输出图像子块对应的图像特征与所述标准图像特征匹配。
结合第一方面的第一种可能的实施方式,本发明实施例提供了第一方面的第二种可能的实施方式,其中,根据所述标准检测图像特征与所述第一置信度最大的图像子块的图像特征,从所述待识别图像中确定输出图像子块,包括:
根据预设的搜索区域大小,在所述待识别图像中划定搜索区域,使所述搜索区域覆盖所述第一置信度最大的图像子块;
提取所述搜索区域中的第一待检测图像特征;
将提取的所述第一待检测图像特征与所述标准检测图像特征进行匹配,得到所述搜索区域的第二置信度;所述第二置信度用于表示搜索区域的图像特征与标准检测图像特征的匹配相似度;
在检测到所述第二置信度大于第一设定阈值时,确定所述第一置信度最大的图像子块为输出图像子块;或者,确定所述搜索区域对应的图像子块为输出图像子块;或者,对所述第一置信度最大的图像子块与所述搜索区域对应的图像子块进行融合,确定融合得到的图像子块为输出图像子块。
结合第一方面的第二种可能的实施方式,本发明实施例提供了第一方面的第三种可能的实施方式,其中,所述标准图像特征还包括标准识别图像特征;所述方法还包括:从确定的所述输出图像子块中提取识别图像特征,并将所述识别图像特征进行存储;
根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块,还包括:
在检测到所述第二置信度小于第一设定阈值时,按照第二设定检测区域的大小,检测当前待识别图像中各个图像子块的第二待检测图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第二设定检测区域的大小;
根据所述标准检测图像特征及每个图像子块的第二待检测图像特征,从所述各个图像子块中,确定对应的第三置信度大于第二设定阈值的一个或多个图像子块;所述第三置信度是指图像子块的第二待检测图像特征与标准检测图像特征之间的匹配相似度;
从确定的一个或多个图像子块中,筛选对应的第二待检测图像特征与存储的识别图像特征和/或所述标准识别图像特征匹配的输出图像子块;
输出包括筛选出的输出图像子块的跟踪框。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第四种可能的实施方式,其中,从确定的所述输出图像子块中提取识别图像特征,并将所述识别图像特征进行存储,包括:
将确定的所述输出图像子块沿设定方向划分为多个识别区域;
分别在每个所述识别区域中提取纹理特征和颜色属性特征;
将各个所述识别区域中提取的纹理特征和颜色属性特征进行融合,将得到的融合结果作为识别图像特征进行存储。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第五种可能的实施方式,其中,从确定的一个或多个图像子块中,筛选对应的第二待检测图像特征分别与存储的识别图像特征和所述标准识别图像特征匹配的输出图像子块,包括:
将确定的一个或多个图像子块的图像特征与所述存储的识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第四置信度,并从一个或多个第四置信度中确定最大的第四置信度;所述第四置信度用于表示图像子块的图像特征与存储的识别图像特征的匹配相似度;
将确定的一个或多个图像子块的图像特征与所述标准识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第五置信度,并从一个或多个第五置信度中确定最大的第五置信度;所述第五置信度用于表示图像子块的图像特征与标准识别图像特征的匹配相似度;
将所述最大的第四置信度和最大的第五置信度进行加权处理,得到确定的图像子块的第六置信度;
在检测到所述确定的图像子块的第六置信度大于第三设定阈值时,确定最大的第四置信度和最大的第五置信度中置信度大的图像子块为输出图像子块。
结合第一方面的第五种可能的实施方式,本发明实施例提供了第一方面的第六种可能的实施方式,其中,根据确定的图像子块在所述待识别图像中的位置,确定所述跟随设备与所述跟随目标的相对位置信息,包括:
根据确定的图像子块在所述待识别图像中的位置,确定所述跟随目标在摄像机坐标系中的位置数据;
根据所述位置数据,确定所述跟随设备与所述跟随目标的相对位置信息;所述相对位置信息包括:距离和相对方位角。
结合第一方面、第一方面的第一种可能的实施方式至第一方面的第六种可能的实施方式中任意一种可能的实施方式,本发明实施例提供了第一方面的第七种可能的实施方式,其中,本发明实施例提供的对跟随目标进行定位的方法,还包括通过以下步骤获得跟随目标的标准图像特征,包括:
在接收到初始信号时,采集所述跟随目标的至少一个初始图像;
从所述至少一个初始图像中提取所述跟随目标的标准图像特征,并将所述标准图像特征进行存储;所述标准图像特征包括:标准跟踪图像特征、标准检测图像特征和标准识别图像特征。
结合第一方面的第一种可能的实施方式至第一方面的第六种可能的实施方式中任意一种可能的实施方式,本发明实施例提供了第一方面的第八种可能的实施方式,其中,在根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块之后,还包括:
提取确定的图像子块中的跟踪图像特征、检测图像特征和识别图像特征;
利用提取的所述跟踪图像特征、所述检测图像特征和所述识别图像特征分别更新所述标准跟踪图像特征、所述标准检测图像特征和所述标准识别图像特征。
第二方面,本发明实施例还提供了一种跟随设备,包括:图像采集器和主控制器;所述图像采集器与所述主控制器电连接;
所述图像采集器,被配置为采集至少一个待识别图像,将所述至少一个待识别图像发送至所述主控制器;
所述主控制器被配置为,针对每一个所述待识别图像,按照第一设定检测区域的大小,检测所述待识别图像中各个图像子块的图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第一设定检测区域的大小;根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块;根据确定的图像子块在所述待识别图像中的位置,确定所述跟随设备与所述跟随目标的相对位置信息。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,所述标准图像特征包括:标准跟踪图像特征和标准检测图像特征;
所述主控制器具体被配置为,将各个图像子块的图像特征分别与所述标准跟踪图像特征进行匹配,得到各个图像子块的第一置信度;所述第一置信度用于表示图像子块的图像特征与标准跟踪图像特征的匹配相似度;从得到的所述各个图像子块的第一置信度中,提取第一置信度最大的图像子块;根据所述标准检测图像特征与所述第一置信度最大的图像子块的图像特征,从所述待识别图像中确定输出图像子块;所述输出图像子块对应的图像特征与所述标准图像特征匹配。
结合第二方面的第一种可能的实施方式,本发明实施例提供了第二方面的第二种可能的实施方式,其中,所述主控制器具体被配置为,根据预设的搜索区域大小,在所述待识别图像中划定搜索区域,使所述搜索区域覆盖所述第一置信度最大的图像子块;提取所述搜索区域中的第一待检测图像特征;将提取的所述第一待检测图像特征与所述标准检测图像特征进行匹配,得到所述搜索区域的第二置信度;所述第二置信度用于表示搜索区域的图像特征与标准检测图像特征的匹配相似度;在检测到所述第二置信度大于第一设定阈值时,确定所述第一置信度最大的图像子块为输出图像子块;或者,确定所述搜索区域对应的图像子块为输出图像子块;或者,对所述第一置信度最大的图像子块与所述搜索区域对应的图像子块进行融合,确定融合得到的图像子块为输出图像子块。
结合第二方面的第二种可能的实施方式,本发明实施例提供了第二方面的第三种可能的实施方式,其中,所述标准图像特征还包括标准识别图像特征;所述主控制器还被配置为,从确定的所述输出图像子块中提取识别图像特征,并将所述识别图像特征进行存储;
所述主控制器具体被配置为,在检测到所述第二置信度小于第一设定阈值时,按照第二设定检测区域的大小,检测当前待识别图像中各个图像子块的第二待检测图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第二设定检测区域的大小;根据所述标准检测图像特征及每个图像子块的第二待检测图像特征,从所述各个图像子块中,确定对应的第三置信度大于第二设定阈值的一个或多个图像子块;所述第三置信度是指图像子块的第二待检测图像特征与标准检测图像特征之间的匹配相似度;从确定的一个或多个图像子块中,筛选对应的第二待检测图像特征与存储的识别图像特征和/或所述标准识别图像特征匹配的输出图像子块;输出包括筛选出的输出图像子块的跟踪框。
结合第二方面的第三种可能的实施方式,本发明实施例提供了第二方面的第四种可能的实施方式,其中,所述主控制器具体被配置为,将确定的所述输出图像子块沿设定方向划分为多个识别区域;分别在每个所述识别区域中提取纹理特征和颜色属性特征;将各个所述识别区域中提取的纹理特征和颜色属性特征进行融合,将得到的融合结果作为识别图像特征进行存储。
结合第二方面的第三种可能的实施方式,本发明实施例提供了第二方面的第五种可能的实施方式,其中,所述主控制器具体被配置为,将确定的一个或多个图像子块的图像特征与所述存储的识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第四置信度,并从一个或多个第四置信度中确定最大的第四置信度;所述第四置信度用于表示图像子块的图像特征与存储的识别图像特征的匹配相似度;
将确定的一个或多个图像子块的图像特征与所述标准识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第五置信度,并从一个或多个第五置信度中确定最大的第五置信度;所述第五置信度用于表示图像子块的图像特征与标准识别图像特征的匹配相似度;
将所述最大的第四置信度和最大的第五置信度进行加权处理,得到确定的图像子块的第六置信度;
在检测到所述确定的图像子块的第六置信度大于第三设定阈值时,确定最大的第四置信度和最大的第五置信度中置信度大的图像子块为输出图像子块。
结合第二方面的第五种可能的实施方式,本发明实施例提供了第二方面的第六种可能的实施方式,其中,所述主控制器具体被配置为,根据确定的图像子块在所述待识别图像中的位置,确定所述跟随目标在摄像机坐标系中的位置数据;根据所述位置数据,确定所述跟随设备与所述跟随目标的相对位置信息;所述相对位置信息包括:距离和相对方位角。
结合第二方面、第二方面的第一种可能的实施方式至第二方面的第六种可能的实施方式中任意一种可能的实施方式,本发明实施例提供了第二方面的第七种可能的实施方式,其中,所述主控制器还被配置为,通过以下步骤获得跟随目标的标准图像特征,包括:
在接收到初始信号时,采集所述跟随目标的至少一个初始图像;
从所述至少一个初始图像中提取所述跟随目标的标准图像特征,并将所述标准图像特征进行存储;所述标准图像特征包括:标准跟踪图像特征、标准检测图像特征和标准识别图像特征。
结合第二方面的第一种可能的实施方式至第二方面的第六种可能的实施方式中任意一种可能的实施方式,本发明实施例提供了第二方面的第八种可能的实施方式,其中,所述主控制器还被配置为,提取确定的图像子块中的跟踪图像特征、检测图像特征和识别图像特征;利用提取的所述跟踪图像特征、所述检测图像特征和所述识别图像特征分别更新所述标准跟踪图像特征、所述标准检测图像特征和所述标准识别图像特征。
结合第二方面,本发明实施例提供了第二方面的第九种可能的实施方式,其中,所述的跟随设备,还包括:行走控制器和收发器;所述行走控制器和收发器均与所述主控制器电连接;
所述收发器被配置为,获取跟随目标与行李箱的定位相对位置信息,将所述定位相对位置信息发送至所述主控制器;
所述主控制器还被配置为,接收所述定位相对位置信息,根据所述定位相对位置信息和所述位置信息,确定标准位置信息;根据所述标准位置信息,生成用于控制行走控制器的控制指令,并将所述控制指令发送至所述行走控制器;
所述行走控制器被配置为,接收所述控制指令,根据所述控制指令生成控制信号,并根据所述控制信号控制所述行李箱行走。
结合第二方面的第九种可能的实施方式,本发明实施例提供了第二方面的第十种可能的实施方式,其中,所述的跟随设备,还包括驱动装置,所述跟随设备底部设置有多个支撑轮;所述驱动装置分别与所述行走控制器以及一个或多个所述支撑轮连接;
所述行走控制器具体被配置为,将所述控制信号发送至所述驱动装置;
所述驱动装置被配置为,接收所述控制信号,根据所述控制信号驱动与该驱动装置连接的支撑轮行走。
本发明实施例提供的一种对跟随目标进行定位的方法以及跟随设备,与现有技术中的包括的用于进行定位的射频定位模块易受到行李箱周围环境的干扰,导致获得的与用户的相对位置信息准确度较差,进而导致该行李箱无法准确跟随用户行走,这就需要用户实时观察并维护行李箱,从而给用户带来了操作繁琐、耗费时间长等一系列的问题,同时增加了行李箱丢失的风险相比,其基于视觉获取待识别图像,并通过标准图像特征对该待识别图像中各个位置的图像区域对应的图像子块进行图像特征匹配,最终确定图像特征与标准图像特征匹配的图像子块,最终根据该图像子块在待识别图像中的位置信息,确定跟随设备与跟随目标的相对位置信息,上述基于视觉的待识别图像定位跟随设备与跟随目标的相对位置信息的方式不易受到周围环境的干扰,能够准确定位跟随设备与跟随目标的位置信息,定位精度高,保证跟随设备能够准确跟踪跟随目标,无需用户实时观察并维护该跟随设备,避免了给用户的操作繁琐、耗费时间长等一系列的问题,提高了用户出行时间的利用效率,且大大降低了行李箱丢失的风险。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例所提供的一种对跟随目标进行定位的方法的流程图。
图2示出了本发明实施例所提供的另一种对跟随目标进行定位的方法的流程图。
图3示出了本发明实施例所提供的另一种对跟随目标进行定位的方法的流程图。
图4示出了本发明实施例所提供的另一种对跟随目标进行定位的方法的流程图。
图5示出了本发明实施例所提供的另一种对跟随目标进行定位的方法的流程图。
图6示出了本发明实施例所提供从图像坐标系到世界坐标系的转换示意图。
图7示出了本发明实施例所提供的一种跟随设备的结构示意图。
图标:11、主控制器;12、行走控制器;13、驱动装置;14、图像采集器;15、收发器。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到相关技术中的行李箱至少存在如下问题:其包括的用于进行定位的射频定位模块易受到行李箱周围环境的干扰,导致获得的与用户的相对位置信息准确度较差,进而导致该行李箱无法准确跟随用户行走,这就需要用户实时观察并维护行李箱,从而给用户带来了操作繁琐、耗费时间长等一系列的问题,同时增加了行李箱丢失的风险。基于此,本发明实施例提供了一种对跟随目标进行定位的方法以及跟随设备,下面通过实施例进行描述。
本发明实施例提供了一种对跟随目标进行定位的方法,所述方法应用在跟随设备中,由该跟随设备执行,参考图1,所述方法包括:
S101、跟随设备获取至少一个待识别图像。
本发明实施例中,跟随设备采集实时其覆盖区域内的待识别图像,该覆盖区域通常选定在跟随设备的待跟随目标频繁活动的区域,然后对分别对每一张待识别图像进行步骤102-步骤103的处理,最终根据对多张待识别图像的处理结果,确定跟随设备与跟随目标的相对位置信息。
作为一种可选的实施方式,本发明实施例中的跟随设备为行李箱。
S102、针对每一个所述待识别图像,按照第一设定检测区域的大小,检测所述待识别图像中各个图像子块的图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第一设定检测区域的大小。
本发明实施例中,跟随设备中预先存储有跟踪算法、检测算法以及识别算法,在跟随设备采集到待识别图像后,其需要按照图像的采集顺序依次对每一幅待识别图像进行处理,具体的处理过程如下:首先调用检测算法创建具有设定大小的检测框(即第一设定检测区域),作为一种可选的实施方式,上述检测框为矩形形状且具有设定的长度和宽度,然后基于创建的上述检测框并结合跟踪算法、检测算法以及识别算法,对位于待识别图像中不同位置的图像子块的图像特征进行检测。其中,不同位置的图像子块对应的图像区域的大小等于上述检测框(即第一设定检测区域)的大小。
S103、根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块。
本发明实施例中,对应于跟踪算法、检测算法和识别算法,上述标准图像特征包括:标准跟踪图像特征、标准检测图像特征和标准识别图像特征。其中,跟随设备中的跟踪算法是针对获取的每一帧待识别图像,基于检测框对待识别图像中的各个图像子块中的图像特征进行跟踪的方法。作为一种可选的实施方式,上述跟踪算法采用KCF(kernelcorrelation filter,相关滤波)跟踪算法,KCF的思想是衡量两个函数在某个时刻的相似程度。跟随设备中的检测算法用于进一步辅助验证跟踪算法的输出结果是否准确,即检测算法用于对跟踪算法的输出结果进行校验。作为一种可选的实施方式,检测算法采用DPM(Deformable Part Model,检测算法)算法、Adaboost算法(即迭代算法)。
具体的,跟踪算法检测上述检测框中的图像特征是否与标准跟踪图像相匹配,并找到最匹配的图像特征,在跟踪模块找到最匹配的图像特征后,确定该最匹配的图像特征对应的图像子块为跟随目标在待识别图像中的位置,然后跟踪算法根据该图像子块的大小和该图像子块在待识别图像中的位置创建跟踪框,并输出该跟踪框。
或者,跟踪算法检测上述检测框中的图像特征是否与标准跟踪图像相匹配,并找到最匹配的图像特征,在跟踪模块找到最匹配的图像特征后,等待检测算法验证该最匹配的图像特征对应的图像子块是否为跟随目标在待识别图像中的位置,若是,跟踪算法根据该图像子块的大小和该图像子块在待识别图像中的位置创建跟踪框,并输出该跟踪框;若否,跟踪算法和识别算法共同从当前帧的待识别图像中表示跟随目标在待识别图像中的位置的图像子块,跟踪算法根据该图像子块的大小和该图像子块在待识别图像中的位置创建跟踪框,并输出该跟踪框。
本发明实施例中,跟随设备中预先存储有跟随目标的标准图像特征,该标准图像特征包括:标准跟踪图像特征、标准检测图像特征和标准识别图像特征。具体的,跟随设备是通过以下步骤获得跟随目标的标准图像特征的:跟随设备在启动后,实时监听是否接收到初始信号,在监听到初始信号后,根据该初始信号,采集跟随目标的一个或多个初始图像;若采集跟随目标的一个初始图像,则提取该初始图像中的跟随目标的上述标准图像特征,并将上述标准图像特征进行存储;若采集跟随目标的多个初始图像,则分别提取该初始图像中的跟随目标的上述标准图像特征,并将对应的标准图像特征进行求融合处理(如求平均处理),将处理后的标准图像特征进行存储。
其中,上述标准跟踪图像特征、标准检测图像特征和标准识别图像特征部分相同。作为一种可选的实施方式,上述标准跟踪图像特征包括梯度直方图特征和颜色属性特征,梯度直方图特征为计算图像区域每个像素的梯度方向,然后统计离散化方向上的直方图分布,并以此直方图分布作为描述该图像区域的特征;上述标准检测图像特征包括梯度直方图特征;上述标准识别图像特征包括颜色属性特征和纹理特征。
S104、根据确定的图像子块在所述待识别图像中的位置,确定所述跟随设备与所述跟随目标的相对位置信息。
具体的,根据确定的图像子块的大小和该图像子块在待识别图像中的位置,创建跟踪框,使该跟踪框的大小与确定的图像子块的大小相同,且使该跟踪框携带有确定的图像子块在待识别图像中的位置信息。跟踪框携带的位置信息与跟随目标在世界坐标系中的位置信息一一对应,由于跟踪框携带的位置信息是基于图像坐标系的,需要将图像跟踪框所在的图像坐标系转换为世界坐标系,即可得到跟随目标在世界坐标系中的位置信息。然后,根据跟随目标在世界坐标系中的位置信息以及跟随设备在世界坐标系中的位置信息,即可得到跟随设备与跟随目标的相对位置信息。其中,该相对位置信息可以包括距离和相对方位角。
本发明实施例提供的一种对跟随目标进行定位的方法,与现有技术中的包括的用于进行定位的射频定位模块易受到行李箱周围环境的干扰,导致获得的与用户的相对位置信息准确度较差,进而导致该行李箱无法准确跟随用户行走,这就需要用户实时观察并维护行李箱,从而给用户带来了操作繁琐、耗费时间长等一系列的问题,同时增加了行李箱丢失的风险相比,其基于视觉获取待识别图像,并通过标准图像特征对该待识别图像中各个位置的图像区域对应的图像子块进行图像特征匹配,最终确定图像特征与标准图像特征匹配的图像子块,最终根据该图像子块在待识别图像中的位置信息,确定跟随设备与跟随目标的相对位置信息,上述基于视觉的待识别图像定位跟随设备与跟随目标的相对位置信息的方式不易受到周围环境的干扰,能够准确定位跟随设备与跟随目标的位置信息,定位精度高,保证跟随设备能够准确跟踪跟随目标,无需用户实时观察并维护该跟随设备,避免了给用户的操作繁琐、耗费时间长等一系列的问题,提高了用户出行时间的利用效率,且大大降低了行李箱丢失的风险。
进一步的,参考图2,为了保证跟随设备能够更准确的与标准图像特征进行匹配,以更准确的确定用于表示跟随目标在待识别图像中的位置的图像子块,本发明实施例提供的对跟随目标进行定位的方法,步骤103,在根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块之后,还包括:
S105、提取确定的图像子块中的跟踪图像特征、检测图像特征和识别图像特征。
S106、利用提取的所述跟踪图像特征、所述检测图像特征和所述识别图像特征分别更新所述标准跟踪图像特征、所述标准检测图像特征和所述标准识别图像特征。
具体的,在确定了用于表示跟随目标在待识别图像中的位置的图像子块后,提取该图像子块的跟踪图像特征、检测图像特征和识别图像特征,并通过提取的这三个特征依次对应更新标准跟踪图像特征、标准检测图像特征和标准识别图像特征,便于后续利用更新后的标准跟踪图像特征、标准检测图像特征和标准识别图像特征对待识别图像进行更准确的特征匹配,以确定用于表示跟随目标在待识别图像中的位置的图像子块。
如上所述,上述标准图像特征包括标准跟踪图像特征和标准检测图像特征,参考图3,步骤103中,根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块,包括:
S1031、将各个图像子块的图像特征分别与所述标准跟踪图像特征进行匹配,得到各个图像子块的第一置信度;所述第一置信度用于表示图像子块的图像特征与标准跟踪图像特征的匹配相似度。
具体的,跟随设备调用跟踪算法将检测框在待识别图像中的各个位置匹配的图像子块对应的图像特征分别与标准跟踪图像特征进行匹配,得到各个图像子块的第一置信度。
S1032、从得到的所述各个图像子块的第一置信度中,提取第一置信度最大的图像子块。
作为一种可选的实施方式,跟随设备调用跟踪算法将各个图像子块的第一置信度按照置信度从大到小的顺序(或者从小到大的顺序)进行排序,并提取出第一置信度最大的图像子块。
S1033、根据所述标准检测图像特征与所述第一置信度最大的图像子块的图像特征,从所述待识别图像中确定输出图像子块;所述输出图像子块对应的图像特征与所述标准图像特征匹配。
由于跟踪算法在跟踪过程中会存在漂移,因此,跟随设备调用跟踪算法提取并通过跟踪框输出的第一置信度最大的图像子块会存在图像子块定位不准确的问题,为了解决该问题,使图像子块定位更准确,跟随设备调用检测算法,利用标准检测图像特征对该第一置信度最大的图像子块进行验证,最终从待识别图像中确定输出图像子块(即输出图像子块对应的跟踪框),该输出图像子块对应的跟踪框的具体输出方法包括:
第一、根据预设的搜索区域大小,在所述待识别图像中划定搜索区域,使所述搜索区域覆盖所述第一置信度最大的图像子块。
具体的,在输出图像子块对应的跟踪框的周围预先划定搜索区域(即搜索框),考虑到跟踪算法在跟踪过程中会存在漂移,其输出的跟踪框可能是漂移后的结果,并没有准确定位匹配的图像子块,此时,使划定的该搜索框包括跟踪框且其大小大于该跟踪框,作为一种可选的实施方式,本发明实施例中,搜索框的大小稍大于上述跟踪框。
第二、提取所述搜索区域中的第一待检测图像特征。具体的,跟随设备调用检测算法提取搜索区域中的第一待检测图像特征。
第三、跟随设备调用检测算法将提取的所述第一待检测图像特征与所述标准检测图像特征进行匹配,得到所述搜索区域的第二置信度;所述第二置信度用于表示搜索区域的图像特征与标准检测图像特征的匹配相似度。
第四、在检测到所述第二置信度大于第一设定阈值时,确定所述第一置信度最大的图像子块为输出图像子块;或者,确定所述搜索区域对应的图像子块为输出图像子块;或者,对所述第一置信度最大的图像子块与所述搜索区域对应的图像子块进行融合,确定融合得到的图像子块为输出图像子块。
作为一种可选的实施方式,上述融合的方法包括,将第一置信度最大的图像子块与搜索区域对应的图像子块进行加权平均处理(或者直接计算二者的平均值),得到融合后的图像子块。
进一步的,标准图像特征还包括标准识别图像特征;本发明实施例提供的对跟随目标进行定位的方法还包括:从确定的所述输出图像子块中提取识别图像特征,并将所述识别图像特征进行存储。
具体的,将确定的所述输出图像子块沿设定方向划分为多个识别区域;
步骤a、分别在每个所述识别区域中提取纹理特征和颜色属性特征。
步骤b、将各个所述识别区域中提取的纹理特征和颜色属性特征进行融合,将得到的融合结果作为识别图像特征进行存储。
其中,输出图像子块中的识别图像特征的提取方式的关键点在于,图像分块和高斯加权。具体的:
第一步,将输出图像子块对应的图像区域从上到下分成n条。
第二步,每个条上提取高斯加权的视觉特征,形成特征向量。
第三步,然后将所有条上的特征向量连在一起,作为最终的识别特征向量。
具体地,上述第二步中形成特征向量有两种实施方式:
实施方式一:将图像分别转化到RGB(RGB色彩模式)、HSV(Hue,Saturation,Value,颜色模型)、LAB(色彩模型)等颜色空间上。在每个颜色空间中构造M个区域,每一个区域对应三维空间中的一个范围。对应M维特征向量F,F初始化为0向量。
对每一个像素点p(x,y)进行判断,其中(x,y)为像素点p在图像中的坐标。如果像素p(x,y)的颜色值属于第i个区域范围,则:F_i=F_i+Q(x,y).其中Q(x,y)∝N(W/2,H/2,σ_1^2,σ_2^2,ρ)。其中,F_i表示向量F中的第i维,N()是二维高斯分布,W和H分别是行人图像的宽度和高度,σ_1^2,σ_2^2分别是关于x,y的方差,ρ是一正常数。最后,将所有颜色空间上的特征向量拼接起来作为该条上的识别特征向量。
实施方式二:
将图像在该条上横向划分成若干个小块。将每个小块上的所有像素点投影到N维的颜色命名空间上,然后计算该颜色命名空间在小块上的占有比例分布,得到N维向量。
在每个小块上,对上一步得到的N维向量进行加权,权重为:Q(x,y)∝N(W/2,H/2,σ_1^2,σ_2^2,ρ)。其中(x,y)为该小块中心在图像上的坐标。N()是二维高斯分布,W和H分别是行人图像的宽度和高度,σ_1^2,σ_2^2分别是关于x,y的方差,ρ是一正常数。最后,将所有小块的加权向量拼接起来作为该条上的识别特征向量。
参考图4,上述步骤103,根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块,包括:
S1034、在检测到所述第二置信度小于第一设定阈值时,按照第二设定检测区域的大小,检测当前待识别图像中各个图像子块的第二待检测图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第二设定检测区域的大小。
具体的,跟随设备调用检测算法在检测到第二置信度小于第一设定阈值时,表示跟踪算法输出的第一置信度最大的图像子块中的图像特征并不是跟随目标的图像特征,此时,跟踪算法和检测算法认为跟随目标已经跟丢了(具体的,可能是跟随目标确实离开了跟随这边的图像采集覆盖范围,即跟随设备获取的待识别图像中就没有该跟随目标,或者,跟踪算法的漂移使得输出的跟踪结果与实际结果偏差较大,使得跟踪算法和检测算法的配合结果无法从待识别图像中确定图像子块),此时跟随设备调用检测算法创建具有设定大小的检测框(即第二设定检测区域),作为一种可选的实施方式,上述检测框为矩形形状且具有设定的长度和宽度,然后基于创建的上述检测框以及检测算法,对位于当前待识别图像中不同位置的图像子块的图像特征进行检测。其中,不同位置的图像子块对应的图像区域的大小等于上述检测框(即第二设定检测区域)的大小。
作为一种可选的实施方式,上述跟随设备为行李箱,行李箱的跟随目标通常都是行人,因此,上述检测算法提取的第二待检测图像特征以及应用的标准检测图像特征都是基于人的图像特征。
S1035、根据所述标准检测图像特征及每个图像子块的第二待检测图像特征,从所述各个图像子块中,确定对应的第三置信度大于第二设定阈值的一个或多个图像子块;所述第三置信度是指图像子块的第二待检测图像特征与标准检测图像特征之间的匹配相似度。
具体的,跟随设备将每个图像子块的第二待检测图像特征分别和标准检测图像特征进行匹配,得到各个图像子块的第三置信度,然后从各个图像子块中,确定第三置信度大于第二设定阈值的一个或多个图像子块。
S1036、从确定的一个或多个图像子块中,筛选对应的第二待检测图像特征与存储的识别图像特征和/或所述标准识别图像特征匹配的输出图像子块。
作为第一种具体的实施方式,从确定的一个或多个图像子块中,筛选对应的第二待检测图像特征与存储的识别图像特征匹配的输出图像子块;作为第二种具体的实施方式,从确定的一个或多个图像子块中,筛选对应的第二待检测图像特征与所述标准识别图像特征匹配的输出图像子块。作为第三种具体的实施方式,从确定的一个或多个图像子块中,筛选对应的第二待检测图像特征与存储的识别图像特征和所述标准识别图像特征均匹配的输出图像子块。
在第一种实施方式中,将确定的一个或多个图像子块的图像特征与所述存储的识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第四置信度,并从一个或多个第四置信度中确定最大的第四置信度;所述第四置信度用于表示图像子块的图像特征与存储的识别图像特征的匹配相似度;在检测到所述确定的图像子块的第四置信度大于第四设定阈值时,确定第四置信度对应的图像子块为输出图像子块。
在第二种实施方式中,将确定的一个或多个图像子块的图像特征与标准识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第五置信度,并从一个或多个第五置信度中确定最大的第五置信度;所述第五置信度用于表示图像子块的图像特征与标准识别图像特征的匹配相似度;在检测到所述确定的图像子块的第五置信度大于第五设定阈值时,确定第五置信度对应的图像子块为输出图像子块。
在第三种实施方式中,将确定的一个或多个图像子块的图像特征与所述存储的识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第四置信度,并从一个或多个第四置信度中确定最大的第四置信度;所述第四置信度用于表示图像子块的图像特征与存储的识别图像特征的匹配相似度;将确定的一个或多个图像子块的图像特征与所述标准识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第五置信度,并从一个或多个第五置信度中确定最大的第五置信度;所述第五置信度用于表示图像子块的图像特征与标准识别图像特征的匹配相似度;将所述最大的第四置信度和最大的第五置信度进行加权处理,得到确定的图像子块的第六置信度;在检测到所述确定的图像子块的第六置信度大于第三设定阈值时,确定最大的第四置信度和最大的第五置信度中置信度大的图像子块为输出图像子块。
在上述第一种实施方式和第三种实施方式中,筛选输出图像子块均用到了存储的识别图像特征,具体的,上述存储的识别图像特征基于多模态进行存储,并且后期基于多模态存储的识别图像特征参与上述筛选过程,具体如下:
第一步:为跟踪目标设定初始状态,长期状态以及短期状态。
第二步,跟随设备调用跟踪算法和检测算法在连续多帧(如10帧)待识别图像中均检测到输出图像子块(即检测到跟随目标),在该过程中,在确定的后四帧待识别图像的输出图像子块中提取识别图像特征,并对提取的图像特征进行融合处理(如取四帧图像特征的平均值),作为跟随目标的短期状态对应的识别图像特征;在该过程中,在确定的连续10帧待识别图像的输出图像子块中均提取识别图像特征,并对提取的图像特征进行融合处理(如取10帧图像特征的平均值),作为跟随目标的长期状态对应的识别图像特征;而在获取待识别图像之前,获取初始图像,并从初始图像中提取识别图像特征,作为标准识别图像特征对应跟随目标的初始状态的标准图像特征。
第三步,在基于待识别图像对跟随目标跟踪过程中,若确定待识别图像中包括跟随目标,则更新长期状态,即不断计算连续多帧确定待识别图像中跟随目标的识别图像特征,通过该识别图像特征更新跟随目标的长期状态对应的识别图像特征。更新的方式包括但不局限于:(1)求特征向量在整个跟踪过程中的平均向量,(2)求特征向量每一维在整个跟踪过程中的平均值和方差,均值作为特征向量,方差作为每一个维度的权重。
第四步,在跟踪过程中,若确定当前待识别图像中包括跟随目标,还可以更新短期状态对应的识别图像特征,短期状态更新方式与长期状态类似,不同的是,短期状态的更新是提取后几帧待识别图像中跟随目标的识别图像特征,基于该识别图像特征进行更新。
第五步,在利用存储的识别图像特征和标准识别图像特征基于待识别图像对跟随目标进行匹配的过程中,将待识别图像中的图像特征分别与初始状态对应的识别图像特征,长期状态对应的识别图像特征以及短期状态对应的识别图像特征分别进行匹配,得到置信度,然后将三者的置信度似度加权在一起,作为最终的置信度。
S1037、输出包括筛选出的输出图像子块的跟踪框。
具体的,跟随设备调用跟踪算法根据筛选出的输出图像子块的大小和该图像子块在待识别图像中的位置建立跟踪框,使建立的跟踪框的大小与输出的图像子块的大小相同,且携带有输出的图像子块在待识别图像中的位置信息,并输出建立的跟踪框。
进一步的,参考图5,本发明实施例提供的对跟随目标进行定位的方法,步骤104中根据确定的图像子块在所述待识别图像中的位置,确定所述跟随设备与所述跟随目标的相对位置信息,包括:
S1041、根据确定的图像子块在所述待识别图像中的位置,确定所述跟随目标在摄像机坐标系中的位置数据。
S1042、根据所述位置数据,确定所述跟随设备与所述跟随目标的相对位置信息;所述相对位置信息包括:距离和相对方位角。
结合步骤1041-步骤1042对确定相对位置信息的方法进行说明:
其中,确定的图像子块在待识别图像中的位置是由跟踪框输出,由于该跟踪框携带的位置信息是基于图像坐标系的,需要将图像跟踪框所在的图像坐标系转换为摄像机坐标系,即可得到跟随目标在世界坐标系中相对于摄像机的位置信息。具体的,图像坐标系转换为摄像机坐标系的方法包括:将图像坐标系中的数字图像坐标转换为图像物理坐标,在将图像物理坐标转换为摄像机坐标,得到跟随目标在摄像机坐标系下的位置数据(x1,y1,z1)。如图6所示图像坐标系到摄像机坐标系的转换通用公式示意图。其中,图6中,u、v和数字1表示一个目标点在数字图像坐标系中的位置;对应的,x、y和数字l表示一个目标点在图像物理坐标系中的位置;xc、yc和zc表示一个目标点在摄像机坐标系中的位置;xw、yw和zw表示一个目标点在世界坐标系中相对于摄像机的位置。
具体实现转换过程如下:在数字图像坐标系下,目标的位置的左上角为(u1,v1),右下角为(u2,v2)。由坐标转换关系可以得知,(u2-u1)∝1/z1,(v2-v1)∝1/z1。
在***使用前标定用户在1m处时,用户目标在图像中的位置的左上角记录为(u3,v3),右下角为(u4,v4)。可以求得z1=(v4-v3)/(v2-v1)=(u4-u3)/(u2-u1)。通过加权平均的方式减少测量误差,z1=0.5*(v4-v3)/(v2-v1)+0.5*(u4-u3)/(u2-u1)。在求得z1的基础上,利用转换公式即可解算得到x1和y1,求得人的中心相对于摄像机的三维空间坐标。具体的,根据图像左上角位置和右下角位置计算人体中心在图像中的坐标(u5,v5),u5=0.5*(u1+u2),v5=0.5*(v1+v2)。人体中心在摄像机坐标下的中心的水平坐标x1∝u5,竖直坐标y1∝v5。
根据位置数据P1(X1、Y1和Z1),即得到跟随设备与跟随目标的距离值,其值等于(X1^2+Y1^2+Z1^2)的平方根。以跟随设备所在位置为圆心,跟随目标与跟随设备具有一角度,该角度的余弦值等于X1除以Z1,根据该方式即可算出上述角度值,该角度值即为所述跟随设备与所述跟随目标的相对方位角。
本发明实施例提供的一种对跟随目标进行定位的方法,与现有技术中的包括的用于进行定位的射频定位模块易受到行李箱周围环境的干扰,导致获得的与用户的相对位置信息准确度较差,进而导致该行李箱无法准确跟随用户行走,这就需要用户实时观察并维护行李箱,从而给用户带来了操作繁琐、耗费时间长等一系列的问题,同时增加了行李箱丢失的风险相比,其基于视觉获取待识别图像,并通过标准图像特征对该待识别图像中各个位置的图像区域对应的图像子块进行图像特征匹配,最终确定图像特征与标准图像特征匹配的图像子块,最终根据该图像子块在待识别图像中的位置信息,确定跟随设备与跟随目标的相对位置信息,上述基于视觉的待识别图像定位跟随设备与跟随目标的相对位置信息的方式不易受到周围环境的干扰,能够准确定位跟随设备与跟随目标的位置信息,定位精度高,保证跟随设备能够准确跟踪跟随目标,无需用户实时观察并维护该跟随设备,避免了给用户的操作繁琐、耗费时间长等一系列的问题,提高了用户出行时间的利用效率,且大大降低了行李箱丢失的风险。
本发明实施例还提供了一种跟随设备,参考图7,包括:图像采集器14和主控制器11;图像采集器14与主控制器11电连接;
图像采集器14,被配置为采集至少一个待识别图像,将所述至少一个待识别图像发送至所述主控制器11;
主控制器11被配置为,针对每一个所述待识别图像,按照第一设定检测区域的大小,检测所述待识别图像中各个图像子块的图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第一设定检测区域的大小;根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块;根据确定的图像子块在所述待识别图像中的位置,确定所述跟随设备与所述跟随目标的相对位置信息。
本发明实施例提供的跟随设备,所述标准图像特征包括:标准跟踪图像特征和标准检测图像特征;
主控制器11具体被配置为,将各个图像子块的图像特征分别与所述标准跟踪图像特征进行匹配,得到各个图像子块的第一置信度;所述第一置信度用于表示图像子块的图像特征与标准跟踪图像特征的匹配相似度;从得到的所述各个图像子块的第一置信度中,提取第一置信度最大的图像子块;根据所述标准检测图像特征与所述第一置信度最大的图像子块的图像特征,从所述待识别图像中确定输出图像子块;所述输出图像子块对应的图像特征与所述标准图像特征匹配。
进一步的,本发明实施例提供的跟随设备中,所述主控制器11具体被配置为,根据预设的搜索区域大小,在所述待识别图像中划定搜索区域,使所述搜索区域覆盖所述第一置信度最大的图像子块;提取所述搜索区域中的第一待检测图像特征;将提取的所述第一待检测图像特征与所述标准检测图像特征进行匹配,得到所述搜索区域的第二置信度;所述第二置信度用于表示搜索区域的图像特征与标准检测图像特征的匹配相似度;在检测到所述第二置信度大于第一设定阈值时,确定所述第一置信度最大的图像子块为输出图像子块;或者,确定所述搜索区域对应的图像子块为输出图像子块;或者,对所述第一置信度最大的图像子块与所述搜索区域对应的图像子块进行融合,确定融合得到的图像子块为输出图像子块。
进一步的,参考图7,本发明实施例提供的跟随设备中,所述标准图像特征还包括标准识别图像特征;所述主控制器11还被配置为,从确定的所述输出图像子块中提取识别图像特征,并将所述识别图像特征进行存储;
主控制器11具体被配置为,在检测到所述第二置信度小于第一设定阈值时,按照第二设定检测区域的大小,检测当前待识别图像中各个图像子块的第二待检测图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第二设定检测区域的大小;根据所述标准检测图像特征及每个图像子块的第二待检测图像特征,从所述各个图像子块中,确定对应的第三置信度大于第二设定阈值的一个或多个图像子块;所述第三置信度是指图像子块的第二待检测图像特征与标准检测图像特征之间的匹配相似度;从确定的一个或多个图像子块中,筛选对应的第二待检测图像特征与存储的识别图像特征和/或所述标准识别图像特征匹配的输出图像子块;输出包括筛选出的输出图像子块的跟踪框。
进一步的,参考图7,本发明实施例提供的跟随设备中,主控制器11具体被配置为,将确定的所述输出图像子块沿设定方向划分为多个识别区域;分别在每个所述识别区域中提取纹理特征和颜色属性特征;将各个所述识别区域中提取的纹理特征和颜色属性特征进行融合,将得到的融合结果作为识别图像特征进行存储。
进一步的,参考图7,本发明实施例提供的跟随设备中,主控制器11具体被配置为,将确定的一个或多个图像子块的图像特征与所述存储的识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第四置信度,并从一个或多个第四置信度中确定最大的第四置信度;所述第四置信度用于表示图像子块的图像特征与存储的识别图像特征的匹配相似度;
将确定的一个或多个图像子块的图像特征与所述标准识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第五置信度,并从一个或多个第五置信度中确定最大的第五置信度;所述第五置信度用于表示图像子块的图像特征与标准识别图像特征的匹配相似度;
将所述最大的第四置信度和最大的第五置信度进行加权处理,得到确定的图像子块的第六置信度;
在检测到所述确定的图像子块的第六置信度大于第三设定阈值时,确定最大的第四置信度和最大的第五置信度中置信度大的图像子块为输出图像子块。
进一步的,参考图7,本发明实施例提供的跟随设备中,主控制器11具体被配置为,根据确定的图像子块在所述待识别图像中的位置,确定所述跟随目标在摄像机坐标系中的位置数据;
根据所述位置数据,确定所述跟随设备与所述跟随目标的相对位置信息;所述相对位置信息包括:距离和相对方位角。
进一步的,参考图7,本发明实施例提供的跟随设备中,主控制器11还被配置为,通过以下步骤获得跟随目标的标准图像特征,包括:
在接收到初始信号时,采集所述跟随目标的至少一个初始图像;
从所述至少一个初始图像中提取所述跟随目标的标准图像特征,并将所述标准图像特征进行存储;所述标准图像特征包括:标准跟踪图像特征、标准检测图像特征和标准识别图像特征。
进一步的,参考图7,本发明实施例提供的跟随设备中,主控制器11还被配置为,提取确定的图像子块中的跟踪图像特征、检测图像特征和识别图像特征;利用提取的所述跟踪图像特征、所述检测图像特征和所述识别图像特征分别更新所述标准跟踪图像特征、所述标准检测图像特征和所述标准识别图像特征。
进一步的,参考图7,本发明实施例提供的跟随设备还包括:行走控制器12和收发器15;所述行走控制器12和收发器15均与所述主控制器11电连接;
收发器15被配置为,获取跟随目标与行李箱的定位相对位置信息,将所述定位相对位置信息发送至所述主控制器11;
主控制器11还被配置为,接收所述定位相对位置信息,根据所述定位相对位置信息和所述位置信息,确定标准位置信息;根据所述标准位置信息,生成用于控制行走控制器12的控制指令,并将所述控制指令发送至所述行走控制器12;
行走控制器12被配置为,接收所述控制指令,根据所述控制指令生成控制信号,并根据所述控制信号控制所述行李箱行走。
进一步的,本发明实施例提供的跟随设备还包括驱动装置13,所述跟随设备底部设置有多个支撑轮;所述驱动装置13分别与所述行走控制器12以及一个或多个所述支撑轮连接;
行走控制器12具体被配置为,将所述控制信号发送至所述驱动装置13;
驱动装置13被配置为,接收所述控制信号,根据所述控制信号驱动与该驱动装置13连接的支撑轮行走。
本发明实施例提供的一种跟随设备,与现有技术中的包括的用于进行定位的射频定位模块易受到行李箱周围环境的干扰,导致获得的与用户的相对位置信息准确度较差,进而导致该行李箱无法准确跟随用户行走,这就需要用户实时观察并维护行李箱,从而给用户带来了操作繁琐、耗费时间长等一系列的问题,同时增加了行李箱丢失的风险相比,其基于视觉获取待识别图像,并通过标准图像特征对该待识别图像中各个位置的图像区域对应的图像子块进行图像特征匹配,最终确定图像特征与标准图像特征匹配的图像子块,最终根据该图像子块在待识别图像中的位置信息,确定跟随设备与跟随目标的相对位置信息,上述基于视觉的待识别图像定位跟随设备与跟随目标的相对位置信息的方式不易受到周围环境的干扰,能够准确定位跟随设备与跟随目标的位置信息,定位精度高,保证跟随设备能够准确跟踪跟随目标,无需用户实时观察并维护该跟随设备,避免了给用户的操作繁琐、耗费时间长等一系列的问题,提高了用户出行时间的利用效率,且大大降低了行李箱丢失的风险。
本发明实施例所提供的跟随设备的功能的特定硬件或者安装于设备上的软件或固件等。本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的***、装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅被配置为区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种对跟随目标进行定位的方法,其特征在于,包括:
跟随设备获取至少一个待识别图像;
针对每一个所述待识别图像,按照第一设定检测区域的大小,检测所述待识别图像中各个图像子块的图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第一设定检测区域的大小;
根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块;
根据确定的图像子块在所述待识别图像中的位置,确定所述跟随设备与所述跟随目标的相对位置信息。
2.根据权利要求1所述的对跟随目标进行定位的方法,其特征在于,所述标准图像特征包括:标准跟踪图像特征和标准检测图像特征;根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块,包括:
将各个图像子块的图像特征分别与所述标准跟踪图像特征进行匹配,得到各个图像子块的第一置信度;所述第一置信度用于表示图像子块的图像特征与标准跟踪图像特征的匹配相似度;
从得到的所述各个图像子块的第一置信度中,提取第一置信度最大的图像子块;
根据所述标准检测图像特征与所述第一置信度最大的图像子块的图像特征,从所述待识别图像中确定输出图像子块;所述输出图像子块对应的图像特征与所述标准图像特征匹配。
3.根据权利要求2所述的对跟随目标进行定位的方法,其特征在于,根据所述标准检测图像特征与所述第一置信度最大的图像子块的图像特征,从所述待识别图像中确定输出图像子块,包括:
根据预设的搜索区域大小,在所述待识别图像中划定搜索区域,使所述搜索区域覆盖所述第一置信度最大的图像子块;
提取所述搜索区域中的第一待检测图像特征;
将提取的所述第一待检测图像特征与所述标准检测图像特征进行匹配,得到所述搜索区域的第二置信度;所述第二置信度用于表示搜索区域的图像特征与标准检测图像特征的匹配相似度;
在检测到所述第二置信度大于第一设定阈值时,确定所述第一置信度最大的图像子块为输出图像子块;或者,确定所述搜索区域对应的图像子块为输出图像子块;或者,对所述第一置信度最大的图像子块与所述搜索区域对应的图像子块进行融合,确定融合得到的图像子块为输出图像子块。
4.根据权利要求3所述的对跟随目标进行定位的方法,其特征在于,所述标准图像特征还包括标准识别图像特征;所述方法还包括:从确定的所述输出图像子块中提取识别图像特征,并将所述识别图像特征进行存储;
根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块,还包括:
在检测到所述第二置信度小于第一设定阈值时,按照第二设定检测区域的大小,检测当前待识别图像中各个图像子块的第二待检测图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第二设定检测区域的大小;
根据所述标准检测图像特征及每个图像子块的第二待检测图像特征,从所述各个图像子块中,确定对应的第三置信度大于第二设定阈值的一个或多个图像子块;所述第三置信度是指图像子块的第二待检测图像特征与标准检测图像特征之间的匹配相似度;
从确定的一个或多个图像子块中,筛选对应的第二待检测图像特征与存储的识别图像特征和/或所述标准识别图像特征匹配的输出图像子块;
输出包括筛选出的输出图像子块的跟踪框。
5.根据权利要求4所述的对跟随目标进行定位的方法,其特征在于,从确定的所述输出图像子块中提取识别图像特征,并将所述识别图像特征进行存储,包括:
将确定的所述输出图像子块沿设定方向划分为多个识别区域;
分别在每个所述识别区域中提取纹理特征和颜色属性特征;
将各个所述识别区域中提取的纹理特征和颜色属性特征进行融合,将得到的融合结果作为识别图像特征进行存储。
6.根据权利要求4所述的对跟随目标进行定位的方法,其特征在于,从确定的一个或多个图像子块中,筛选对应的第二待检测图像特征分别与存储的识别图像特征和所述标准识别图像特征匹配的输出图像子块,包括:
将确定的一个或多个图像子块的图像特征与所述存储的识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第四置信度,并从一个或多个第四置信度中确定最大的第四置信度;所述第四置信度用于表示图像子块的图像特征与存储的识别图像特征的匹配相似度;
将确定的一个或多个图像子块的图像特征与所述标准识别图像特征进行匹配,得到对应于确定的一个或多个图像子块的一个或多个第五置信度,并从一个或多个第五置信度中确定最大的第五置信度;所述第五置信度用于表示图像子块的图像特征与标准识别图像特征的匹配相似度;
将所述最大的第四置信度和最大的第五置信度进行加权处理,得到确定的图像子块的第六置信度;
在检测到所述确定的图像子块的第六置信度大于第三设定阈值时,确定最大的第四置信度和最大的第五置信度中置信度大的图像子块为输出图像子块。
7.根据权利要求6所述的对跟随目标进行定位的方法,其特征在于,根据确定的图像子块在所述待识别图像中的位置,确定所述跟随设备与所述跟随目标的相对位置信息,包括:
根据确定的图像子块在所述待识别图像中的位置,确定所述跟随目标在摄像机坐标系中的位置数据;
根据所述位置数据,确定所述跟随设备与所述跟随目标的相对位置信息;所述相对位置信息包括:距离和相对方位角。
8.根据权利要求1-7任一项所述的对跟随目标进行定位的方法,其特征在于,还包括通过以下步骤获得跟随目标的标准图像特征,包括:
在接收到初始信号时,采集所述跟随目标的至少一个初始图像;
从所述至少一个初始图像中提取所述跟随目标的标准图像特征,并将所述标准图像特征进行存储;所述标准图像特征包括:标准跟踪图像特征、标准检测图像特征和标准识别图像特征。
9.根据权利要求2-7任一项所述的对跟随目标进行定位的方法,其特征在于,在根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块之后,还包括:
提取确定的图像子块中的跟踪图像特征、检测图像特征和识别图像特征;
利用提取的所述跟踪图像特征、所述检测图像特征和所述识别图像特征分别更新所述标准跟踪图像特征、所述标准检测图像特征和所述标准识别图像特征。
10.一种跟随设备,其特征在于,包括:图像采集器和主控制器;所述图像采集器与所述主控制器电连接;
所述图像采集器,被配置为采集至少一个待识别图像,将所述至少一个待识别图像发送至所述主控制器;
所述主控制器被配置为,针对每一个所述待识别图像,按照第一设定检测区域的大小,检测所述待识别图像中各个图像子块的图像特征;其中,每个所述图像子块对应的图像区域的大小等于所述第一设定检测区域的大小;根据跟随目标的标准图像特征以及检测到的各个图像子块的图像特征,从所述各个图像子块中,确定对应的图像特征与所述标准图像特征匹配的图像子块;根据确定的图像子块在所述待识别图像中的位置,确定所述跟随设备与所述跟随目标的相对位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710575900.2A CN107292907B (zh) | 2017-07-14 | 2017-07-14 | 一种对跟随目标进行定位的方法以及跟随设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710575900.2A CN107292907B (zh) | 2017-07-14 | 2017-07-14 | 一种对跟随目标进行定位的方法以及跟随设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107292907A true CN107292907A (zh) | 2017-10-24 |
CN107292907B CN107292907B (zh) | 2020-08-21 |
Family
ID=60101886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710575900.2A Active CN107292907B (zh) | 2017-07-14 | 2017-07-14 | 一种对跟随目标进行定位的方法以及跟随设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107292907B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108733080A (zh) * | 2017-12-28 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种状态切换方法及装置 |
CN109302562A (zh) * | 2018-10-12 | 2019-02-01 | 中国民用航空总局第二研究所 | 基于视频的目标探测追踪方法、***、介质及设备 |
CN109376639A (zh) * | 2018-10-16 | 2019-02-22 | 上海弘目智能科技有限公司 | 基于人像识别的伴随人员预警***及方法 |
CN109489663A (zh) * | 2018-10-19 | 2019-03-19 | 北京三快在线科技有限公司 | 一种定位方法及装置、移动设备和计算机可读存储介质 |
CN109674162A (zh) * | 2017-10-27 | 2019-04-26 | 灵动科技(北京)有限公司 | 自驱动行李箱及自驱动装置 |
CN109992008A (zh) * | 2017-12-29 | 2019-07-09 | 深圳市优必选科技有限公司 | 一种机器人的目标跟随方法及装置 |
CN110147749A (zh) * | 2019-05-10 | 2019-08-20 | 中国民航大学 | 一种民航丢失行李辅助找回方法 |
CN110738689A (zh) * | 2019-10-22 | 2020-01-31 | 武汉工程大学 | 一种小车自动跟随和躲避目标的方法、***及装置 |
CN110807803A (zh) * | 2019-10-11 | 2020-02-18 | 北京文香信息技术有限公司 | 一种摄像机定位方法、装置、设备及存储介质 |
CN112150505A (zh) * | 2020-09-11 | 2020-12-29 | 浙江大华技术股份有限公司 | 目标对象***的更新方法和装置、存储介质及电子装置 |
CN113228044A (zh) * | 2019-12-23 | 2021-08-06 | 商汤国际私人有限公司 | 目标对象的识别方法、装置和*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104103062A (zh) * | 2013-04-08 | 2014-10-15 | 富士通株式会社 | 图像处理设备和图像处理方法 |
CN102982559B (zh) * | 2012-11-28 | 2015-04-29 | 大唐移动通信设备有限公司 | 车辆跟踪方法及*** |
CN106056633A (zh) * | 2016-06-07 | 2016-10-26 | 速感科技(北京)有限公司 | 运动控制方法、装置及*** |
CN106127117A (zh) * | 2016-06-16 | 2016-11-16 | 哈尔滨工程大学 | 基于双目视觉快速高鲁棒性识别、定位的自动跟随行李箱 |
US20170049202A1 (en) * | 2015-08-21 | 2017-02-23 | Edinaldo Nascimento | Automatic Following Luggage System |
CN106651920A (zh) * | 2016-10-19 | 2017-05-10 | 北京邮电大学 | 基于机器视觉的移动控制方法、装置及*** |
CN106778471A (zh) * | 2016-11-17 | 2017-05-31 | 京东方科技集团股份有限公司 | 自动跟踪购物车 |
-
2017
- 2017-07-14 CN CN201710575900.2A patent/CN107292907B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982559B (zh) * | 2012-11-28 | 2015-04-29 | 大唐移动通信设备有限公司 | 车辆跟踪方法及*** |
CN104103062A (zh) * | 2013-04-08 | 2014-10-15 | 富士通株式会社 | 图像处理设备和图像处理方法 |
US20170049202A1 (en) * | 2015-08-21 | 2017-02-23 | Edinaldo Nascimento | Automatic Following Luggage System |
CN106056633A (zh) * | 2016-06-07 | 2016-10-26 | 速感科技(北京)有限公司 | 运动控制方法、装置及*** |
CN106127117A (zh) * | 2016-06-16 | 2016-11-16 | 哈尔滨工程大学 | 基于双目视觉快速高鲁棒性识别、定位的自动跟随行李箱 |
CN106651920A (zh) * | 2016-10-19 | 2017-05-10 | 北京邮电大学 | 基于机器视觉的移动控制方法、装置及*** |
CN106778471A (zh) * | 2016-11-17 | 2017-05-31 | 京东方科技集团股份有限公司 | 自动跟踪购物车 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109674162A (zh) * | 2017-10-27 | 2019-04-26 | 灵动科技(北京)有限公司 | 自驱动行李箱及自驱动装置 |
CN108733080A (zh) * | 2017-12-28 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种状态切换方法及装置 |
CN109992008A (zh) * | 2017-12-29 | 2019-07-09 | 深圳市优必选科技有限公司 | 一种机器人的目标跟随方法及装置 |
CN109302562B (zh) * | 2018-10-12 | 2020-09-29 | 中国民用航空总局第二研究所 | 基于视频的目标探测追踪方法、***、介质及设备 |
CN109302562A (zh) * | 2018-10-12 | 2019-02-01 | 中国民用航空总局第二研究所 | 基于视频的目标探测追踪方法、***、介质及设备 |
CN109376639A (zh) * | 2018-10-16 | 2019-02-22 | 上海弘目智能科技有限公司 | 基于人像识别的伴随人员预警***及方法 |
CN109376639B (zh) * | 2018-10-16 | 2021-12-17 | 上海弘目智能科技有限公司 | 基于人像识别的伴随人员预警***及方法 |
CN109489663A (zh) * | 2018-10-19 | 2019-03-19 | 北京三快在线科技有限公司 | 一种定位方法及装置、移动设备和计算机可读存储介质 |
CN110147749A (zh) * | 2019-05-10 | 2019-08-20 | 中国民航大学 | 一种民航丢失行李辅助找回方法 |
CN110807803A (zh) * | 2019-10-11 | 2020-02-18 | 北京文香信息技术有限公司 | 一种摄像机定位方法、装置、设备及存储介质 |
CN110738689A (zh) * | 2019-10-22 | 2020-01-31 | 武汉工程大学 | 一种小车自动跟随和躲避目标的方法、***及装置 |
CN110738689B (zh) * | 2019-10-22 | 2024-01-26 | 武汉工程大学 | 一种小车自动跟随和躲避目标的方法、***及装置 |
CN113228044A (zh) * | 2019-12-23 | 2021-08-06 | 商汤国际私人有限公司 | 目标对象的识别方法、装置和*** |
CN112150505A (zh) * | 2020-09-11 | 2020-12-29 | 浙江大华技术股份有限公司 | 目标对象***的更新方法和装置、存储介质及电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107292907B (zh) | 2020-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107292907A (zh) | 一种对跟随目标进行定位的方法以及跟随设备 | |
CN110427905B (zh) | 行人跟踪方法、装置以及终端 | |
CN105405154B (zh) | 基于颜色-结构特征的目标对象跟踪方法 | |
CN106650630B (zh) | 一种目标跟踪方法及电子设备 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及*** | |
Li et al. | Robust visual tracking based on convolutional features with illumination and occlusion handing | |
CN106682598A (zh) | 一种基于级联回归的多姿态的人脸特征点检测方法 | |
CN108052624A (zh) | 点云数据处理方法、装置及计算机可读存储介质 | |
CN111931764B (zh) | 一种目标检测方法、目标检测框架及相关设备 | |
CN103218605B (zh) | 一种基于积分投影与边缘检测的快速人眼定位方法 | |
CN103927511B (zh) | 基于差异特征描述的图像识别方法 | |
CN107909059A (zh) | 一种面向复杂城市场景中协同仿生视觉的交通标志牌检测与识别方法 | |
CN104200200B (zh) | 融合深度信息和灰度信息实现步态识别的***及方法 | |
CN105046206B (zh) | 基于视频中运动先验信息的行人检测方法及装置 | |
CN106446862A (zh) | 一种人脸检测方法及*** | |
CN110008913A (zh) | 基于姿态估计与视点机制融合的行人再识别方法 | |
CN104504723B (zh) | 基于视觉显著特征的图像配准方法 | |
CN102982341A (zh) | 一种可跨摄像机的自适应人群密度估计方法 | |
CN106682641A (zh) | 基于fhog‑lbph特征的图像行人识别方法 | |
CN106204223B (zh) | 图像处理方法及*** | |
CN106530340A (zh) | 一种指定物体跟踪方法 | |
CN106203237A (zh) | 集装箱拖车编号的识别方法和装置 | |
CN108681711A (zh) | 一种面向移动机器人的自然路标提取方法 | |
CN108154147A (zh) | 基于视觉注意模型的感兴趣区域检测方法 | |
CN108090486A (zh) | 一种台球比赛中的图像处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231121 Address after: No. 066, Building 22, Pingfang, Beijing Hydraulic Casting Factory, South of Qinghe Xindu East Station, Haidian District, Beijing, 100096 Patentee after: Beijing Lingdong Speed Technology Co.,Ltd. Address before: Room 2607-02, 22nd Floor, Building 1, No. 66 Zhongguancun East Road, Haidian District, Beijing, 100094 Patentee before: LINGDONG TECHNOLOGY (BEIJING) Co.,Ltd. |
|
TR01 | Transfer of patent right |