CN109523551B - 一种获取机器人行走姿态的方法及*** - Google Patents

一种获取机器人行走姿态的方法及*** Download PDF

Info

Publication number
CN109523551B
CN109523551B CN201811221729.6A CN201811221729A CN109523551B CN 109523551 B CN109523551 B CN 109523551B CN 201811221729 A CN201811221729 A CN 201811221729A CN 109523551 B CN109523551 B CN 109523551B
Authority
CN
China
Prior art keywords
image
robot
point
sequence
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811221729.6A
Other languages
English (en)
Other versions
CN109523551A (zh
Inventor
杨灿军
朱元超
魏谦笑
杨巍
武鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201811221729.6A priority Critical patent/CN109523551B/zh
Publication of CN109523551A publication Critical patent/CN109523551A/zh
Application granted granted Critical
Publication of CN109523551B publication Critical patent/CN109523551B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种获取机器人行走姿态的方法及***,属于图像处理技术领域。方法包括以下步骤:(1)采集背景场景的图像、标记点的图像及机器人在背景场景中行走过程的图像序列,标记点固设在机器人上用于标记所固定位置处的行走轨迹;(2)以背景场景的图像为参考帧,从图像序列中分割出局部图像构成前景图像序列,该局部图像包括机器人的图像;(3)以标记点的图像为模板,从前景图像序列中匹配出各标记点并获取其坐标数据;(4)依据各标记点的坐标数据计算机器人在行走过程中的行走姿态。该方法能够有效的降低获取行走姿态所需设备的成本及减少后续图像处理的计算量,可广泛应用机器人等领域。

Description

一种获取机器人行走姿态的方法及***
本申请是申请号为CN201711394246.1、发明名称为“一种获取目标物行走姿态的方法与***”的发明专利的分案申请。
技术领域
本发明涉及图像处理技术领域,具体地说,涉及一种用于获取机器人行走姿态的方法与***。
背景技术
穿戴式外骨骼机器人适用于脑卒中、偏瘫、中风等病人的康复治疗,为了获取康复治疗数据,通常是通过捕捉康复人员关节处的运动姿态,以判断外骨骼机器人在负载后的康复人员肢体姿态,并基于至少一个行走周期中的肢体姿态变化数据,重构出康复人员的行走姿态。
通常采用光学跟踪式运动测量方法获取康复人员关节处的运动姿态,该测量方法基于计算机视觉技术,通过摄像头等装置对目标物上特定标记点的跟踪和计算来完成对目标物的运动测量,常用标记点有反光标记点和发光标点两种,标记点的大小和形状可以根据需要进行设置。
典型的光学跟踪式运动测量***通常使用多个摄像头环绕表演场地排列,摄像头的视野重叠区为工作空间。为了便于后续图像处理,通常要求被测者会穿上黑色紧身衣,在主要的关节等关键部位贴上特制的光学标记点。在进行测量之前,***首先要完成标定,摄像头才能开始拍摄被测者的动作,保存并进行分析、处理所拍摄到的图像序列,以识别出图像中的光学标志点并计算其在每一瞬间的空间位置,进而重构出目标物的运动轨迹。为了获取目标物的准确运动轨迹,要求摄像头以较高的拍摄速率进行拍摄。
现有常用测量***要求采用多个摄像头而导致其成本较高,且后续图像处理计算量大,此外,其对试验场地的光照与反射要求较高,限制了其应用场景,而不利于穿戴式骨骼机器人在前述病人康复治疗中的应用。
发明内容
本发明的主要目的是提供一种获取机器人行走姿态的方法,以降低所需设备成本的同时,减少后续图像处理的计算量;本发明的另一目的是提供一种获取机器人行走姿态的***,以降低所需设备成本的同时,减少后续图像处理的计算量。
为了实现上述主要目的,本发明提供获取机器人行走姿态的方法包括采集步骤、分割步骤、匹配步骤及计算步骤;其中,采集步骤包括采集背景场景的图像、标记点的图像及机器人在背景场景中行走过程的图像序列,标记点固设在机器人上用于标记所固定位置处的行走轨迹;分割步骤包括以背景场景的图像为参考帧,从图像序列中分割出局部图像构成前景图像序列,该局部图像包括机器人的图像;匹配步骤包括以标记点的图像为模板,从前景图像序列中匹配出各标记点并获取其坐标数据;计算步骤包括依据各标记点的坐标数据计算机器人在行走过程中的行走姿态。
以背景场景为参考帧,从图像序列的各帧图像中分割出至少包含机器人的图像局部,并以该图像局部区域作为后续图像处理的对象—前景图像,以在后续处理中无需对大部分背景图像进行处理而有效地减少后续图像处理的计算量;同时,采用标记点的图像为模板,从分割出的图像局部上匹配出标记点的位置,从而可使用图标式标记点进行标记,同时可采用单目摄像头进行采集图像***而有效地降低所需设备成本。
具体的方案为在采集步骤之后及分割步骤之前进行去色步骤,该去色步骤包括将背景场景的图像、标记点的图像及图像序列转换成灰度图。在后续分割步骤及匹配步骤以灰度图为对象进行处理,可进一步减少后续处理的计算量。
更具体的方案为分割步骤包括构建步骤、二值化步骤与裁选步骤;其中,构建步骤包括对经去色处理后的图像序列中每帧图像与参考帧上对应像素点的灰度值进行求差取绝对值处理,构建出差值帧序列;二值化步骤包括基于预定阈值,对差值帧序列进行二值化处理,而用黑白两色分别表征机器人与背景场景;裁选步骤包括基于机器人颜色区域的坐标数据,利用矩形边界从经去色处理后的图像序列上裁出前景区域序列,矩形边界完全包容机器人颜色区域,机器人颜色区域为表征机器人的颜色区域。
再具体的方案为在二值化步骤之后及裁选步骤之前,对二值化处理后的差值帧进行膨胀处理,以进一步明晰机器人与背景之间的边界线,便于后续的裁选处理;机器人颜色区域为经膨胀处理后的颜色区域;在去色步骤之后及分割步骤之前,对经去色处理后的图像序列进行平滑处理,以降低拍摄等过程中所引入的噪声。
优选的方案为标记点包括固设在机器人的行走机构的各关节位置处关节标记点,匹配步骤包括预匹配步骤与再匹配步骤;其中,预匹配步骤包括以模板为基准,遍历前景区域,计算前景区域中以坐标(x,y)是的像素点为中心的局部区域与模板的负相关度R(x,y),并依据负相关度小于预设阈值为基准,获取像素点簇构成用于表征所述局部区域具有一个标记点的预选标记点簇;再匹配步骤包括在一个预选标记点簇中,以负相关度最小的像素点表征局部区域内标记点的坐标;负相关度R(x,y)的计算公式为:
Figure BDA0001834939230000041
其中,T(x′,y′)为模板中坐标为(x′,y′)像素点的灰度值,模板上像素点坐标以其中心点为原点所构建坐标系中的坐标,I(x+x′,y+y′)为前景区域中坐标为(x+x′,y+y′)的像素点的灰度值,前景区域上像素点坐标为该像素点在图像序列中的坐标。
更优选的方案为标记点的图像包括标记点的正视图像、左斜视角图像及右斜视角图像,以解决单目摄像头在视角不正时所拍摄图像的处理;在再匹配步骤之后及计算步骤之前,根据匹配出的标记点坐标,获取图像序列中彩色图像上对应点处的局部区域颜色,对该局部区域与标记点上的颜色是否匹配而筛选出真实标记点。利用彩色图像中颜色信息,对获取的标记点进行筛选,有效地避免因在匹配步骤中匹配出虚假标记点的问题。
另一个优选的方案为图像序列由单目摄像机采集。
再一个优选的方案为标记点包括圆心部及环绕圆心部的环形部,所述圆心部与所述环形部中,一者表面为白色,另一者表面为黑色。将标记点设置成由两部分色差明显且相互套嵌的圆形部分与环形步骤组成,有效地提高其识别精度,同时无需对机器人的外表颜色进行限定。
为了实现上述另一个目的,本发明提供的获取机器人行走姿态的***包括处理器及存储器,存储器存储有计算机程序,计算机程序被处理器执行时,能实现以下接收步骤、分割步骤、匹配步骤及计算步骤;其中,接收步骤包括接收由摄像头所采集的背景场景的图像与标记点的图像,及接收由单目摄像头所采集的机器人在背景场景中行走过程的图像序列,标记点固定在机器人上用于标记固定位置处的行走轨迹;分割步骤包括以背景场景的图像为参考,从图像序列中分割出局部图像构成待处理图像序列,局部图像包括机器人的图像;匹配步骤包括以标记点的图像为模板,从前景图像序列中匹配出各标记点并获取其坐标数据;计算步骤包括依据各标记点的坐标数据计算机器人在行走过程中的行走姿态。
具体的方案为在采集步骤之后及分割步骤之前,将背景场景的图像、标记点的图像及图像序列转换成灰度图;标记点包括固设在机器人的行走机构的各关节位置处关节标记点;标记点包括圆心部及环绕圆心部的环形部,圆心部与环形部中,一者表面为白色,另一者表面为黑色。
附图说明
图1为本发明获取目标物行走姿态的方法实施例的工作流程图;
图2为本发明获取目标物行走姿态的方法实施例中对图像进行分割处理的过程示意图,其中,图2(a)是作为分割参考帧的背景场景图像,图2(b)为待分割处理的图像序列中的一帧,图2(c)经差值帧的示意图,图2(d)为经二值化处理后的图像,图2(e)为经膨胀处理后的图像,图2(f)为以矩形边界从该图像中分割出前景图像的示意图;
图3为本发明获取目标物行走姿态的方法实施例中识别步骤的不同方向视角下标记点的模板,其中,图3(a)为右斜视角下模板图像,图3(b)为正对视角下的模板图像,图3(c)为左斜视角下模板图像;
图4为本发明获取目标物行走姿态的方法实施例中预匹配步骤的过程示意图;
图5为本发明获取目标物行走姿态的方法实施例中计算步骤进行行走姿态计算的过程示意图;
图6为本发明行走姿态检测***实施例的原理结构框图。
以下结合实施例及其附图对本发明作进一步说明。
具体实施方式
在下述实施例中,以穿戴式外骨骼机器人在负载后的人员为目标人员,以获取其下肢的行走姿态为例,对本发明获取目标物行走姿态的方法与***进行示例性说明,但本发明的方法与***的应用场景并不局限于下述实施例所示应用场景,其还可用于获取机器人、机器狗等其他目标物的行走姿态。
方法实施例
参见图1,本发明获取目标物行走姿态的方法包括采集步骤S1、去色步骤S2、去噪步骤S3、分割步骤S4、匹配步骤S5、筛选步骤S6及计算步骤S7。
一、采集步骤S1,采集背景场景的图像、标记点的图像及目标物在背景场景中行走过程的图像序列,标记点固设在目标物上用于标记所固定位置处的行走轨迹。
如图2(b)所示,为标记出人在行走过程中的下肢姿态,至少需在人下肢体的踝关节、膝关节及髋关节的三个关节处各设置一个标记点;在本实施例中,标记点采用图标式标记点,如图4所示,具体地包括白色的圆心部及环绕该圆心部布置的黑色环形部,当然也可设置成包括黑色的圆心部及环绕该圆心部布置的白色环形部,通过将标记点设置成黑白两色差较大的部分组成,便于在经去色步骤S2中的去色处理后,在该标记点图像处仍保留原色差以便于后续识别处理;此外,将该图像标记点设置成圆心部与环绕该圆心部的圆环部组成,便于在取像视角不正时的校正以获取圆心部的中心点位置。当然了,可只设置单色或三色以上的标记点,对单色图像标记点优选采用与所固定位置处周围颜色在去色处理后仍存在较大色差的颜色;对于两色以上的多色拼合结构,其各部分结构并不局限于上述圆形结构,例如,还可设置成四块正方形拼接成,且相邻的两块正方形中,一块为黑色而另一块为白色,到时通过获取有色差块交点处为标记点的中心位置。对于后续需对图像进行去色处理的,优选为黑白反差色;当然可设成其他在去色处理后仍具有较大色差的多色拼合结构;若无需对图像进行去色处理,则也可采用具有较大色差的彩色结构进行拼合。
摄像头所采集的图像以数据帧的形式被捕获,多帧图像依序快速迭代形成视频流,视频流中每帧图像都包含了目标物的步态信息。在视频流的存储数据中,摄像头捕获到的每帧图像均是以矩阵数组的形式存在。在本实施例中,用于获取背景场景图像与图像序列的摄像头为安装在人行走路径侧旁的单目摄像头,人行走路径优选为直线路径,且人的整个检测行走过程及整体背景场景图像均在该单目摄像头的视角内,可将该单目摄像头安装在整体背景场景图像的中轴位置处。
通常,摄像头所采集到的每帧图像默认使用BGR色彩空间格式表示。BGR有三个通道,即数组中的三个矩阵,分别表示三基色蓝色、绿色、红色部分,每个像素的颜色可以拆分为这三种颜色按照不同比例色光的混合,拆分后每一种颜色的比例数据在每个通道的对应位置保存。
二、去色步骤S2,对采集到的背景场景图像、标记点图像及图像序列进行去色处理,以将彩色图转换成灰度图。
虽然BGR格式的图像数据保留了最多的光学信息,但是在寻找标记点的过程中,并不是所有操作都需利用全部光学信息。将三通道的矩阵数组压缩为一个通道,虽然会以丢失一部分数据为代价,但能够将真正有用的信息更好地呈现出来,加快标记点的搜索速度。表现为图像的形式,就是将彩色图片压缩为灰度图片,但灰度图像的描述与彩色图像一样仍然反映了整幅图像的整体和局部的色度和亮度等级的分布和特征。矩阵转换按照如下式1进行:
Y=0.114·B+0.587·G+0.299·R
其中,Y表示灰度图片的矩阵,其数值越大,表征该位置处的像素越白,反之越黑。
三、降噪步骤S3,对经去色处理后的图像序列进行平滑处理。
由于自然震动、光照变化或者硬件自身问题等因素,使采集获取的每帧图像均存噪声。通过对数据帧进行平滑处理,可有效去除噪声、避免噪声对后续检测过程产生干扰。
在本实施例中,平滑处理为使用高斯模糊对图像的每个像素进行处理,即,对任意一个像素点,都取它周边像素的加权平均,权值按照正态分布分配,距离越近的点权重越大,距离越远的点权重越小。在实际平滑操作中发现,以目标像素点为中心,取21×21的矩阵,对矩阵内的周边像素加权平均得到的结果去除噪声效果最好。
四、分割步骤S4,以所述背景场景的图像为参考帧,从图像序列中分割出局部图像构成前景图像序列,局部图像包括目标物的图像。
在实际拍摄环境中,目标人员将从左到右完整地走过单目摄像头的镜头视野,并在这个过程中将固设自己下肢三个关节点处的标记点暴露给该摄像头。单目摄像头捕获光学信息的过程中,将三维环境映射为了二维平面。从得到的二维视频的角度来看,由于摄像头是静止的,从而可将整个视频流中的每帧图像大致划分为前景与背景两个部分;其中,前景是指运动着的目标人员所在的局部区域,背景是指除了目标人员之外,填充在整个环境场景中的区域,即除了前景区域以外的其它区域;随着目标人员从镜头视野的一端走入取景框,又从另一端走出该取景框,前景区域相对背景区域在视频中表现为不断地滑动,而背景区域在整段视频中保持静止不动,并不同区域被移动着的前景区域所遮挡。从整个视频帧的面积占比方面来看,前景区域所占面积较小,而背景区域所占面积较大。由于所要定标的目标标记点所在区域为前景区域,扫描背景区域不仅会白白消耗算力、浪费时间,在匹配阈值设置较低时甚至还可能会解出错误的结果,进一步干扰标记点数据的提取。
而如果能够将前景区域从整个数据帧中分割出来,接下来就可以只针对这个区域进行标记点的搜索,而不必理会面积占大多数的背景区域,这样在很大程度上能够提高搜索效率。
因此,在本实施例中,通过将前景区域从数据帧分割出来作为后续图像处理对象,可有效地降低了其计算量的同时,提高对目标标记点的定位精确度。根据实际情况,在视频的一开始测试者尚未走入镜头,则约定该视频流的第一帧图像都属于背景区域,即构成背景场景图像,以该帧图像为参考背景帧,在后续数据帧的图像处理中,以参考背景帧为依据划分前景与背景。
在本实施例中,前景区域的分割依据是阈值二值化,具体包括构建步骤S41、二值化步骤S42、膨胀化步骤S43及裁选步骤S44。
(1)构建步骤S41,对经去色处理后的图像序列中每帧图像与所述参考帧上对应像素点的灰度值进行求差取绝对值处理,构建出差值帧序列。
对任意一个数据帧M,按照下式2计算:
absdiff(I)=|M(I)-Mo(I)|
其中,Mo为参考背景帧,M(I)代表待处理帧,I代表数据帧中的某一具***置,absdiff是一个矩阵数组,其元素表示I位置处的像素点的灰度值之差的绝对值。
在经去色处理所获得的灰度图像中,各元素点的取值范围为0-255,易知absdiff中各元素取值也都在0-255的范围内,absdiff也可以看成一个灰度图像,结果如图2(c)所示。
(2)二值化步骤S42,基于预定阈值,对差值帧序列进行二值化处理,而用黑白两色分别表征所述目标物与所述背景场景。
通过设定阈值,以将absdiff二值化为纯黑白图像,白色区域和黑色区域大致就代表了前景和背景的分布,结果如图2(d)所示。
(3)膨胀化步骤S43,对二值化处理后的差值帧进行膨胀处理。
经二值化处理后的图像不可避免地会有很多噪点,这是由于在前景与背景交界处的区域内的各个数据点相对于阈值总是有大有小,很难划分出理想的黑-白分界线。可以通过膨胀来修剪毛刺、消除噪点。
首先,定义一个大小为5×5的结构矩阵{Eij,i、j=1、2、3、4、5},该结构矩阵的生成规则如下式3所示:
Figure BDA0001834939230000111
可根据实际情形调整结构矩阵大小,与之对应,生成规则的
Figure BDA0001834939230000112
也要改成合适的数字,其中
Figure BDA0001834939230000113
是个经验值。
其次,生成结构元素后,用它遍历整个图像,按照如下规则得到经过膨胀处理的二值图像:
dilate(x,y)=max absdiff(x+x′,y+y′),E(x′,y′)≠0
其中,(x,y)为待处理像素点的坐标,E(x′,y′)为矩阵{Eij}的元素。
得到的dilate图像中,白色部分膨胀为较为连续的一块区域,边界也更为明显,结果如图2(e)所示。
(4)裁选步骤S44,基于目标物颜色区域的坐标数据,利用矩形边界从经去色处理后的图像序列上裁出前景区域序列,矩形边界完全包容目标物颜色区域,目标物颜色区域为表征目标物的颜色区域。
根据白色部分的分布,用矩形边界在图像序列的数据帧上框出一块完整的区域,将其作为前景区域,剩余区域即为背景区域,结果如图2(f)所示。
五、匹配步骤S5,以所述标记点的图像为模板,从前景图像序列中匹配出各标记点并获取其坐标数据。
在该步骤中,以事先采集的三个标记点图像作为匹配模板,接着将以这三个匹配模板为基准遍历前述步骤所分割到的前景区域。具体包括预匹配步骤S51与再匹配步骤S52。
(1)预匹配步骤S51,以模板为基准,遍历前景区域,计算前景区域中以坐标(x,y)是的像素点为中心的局部区域与模板的负相关度R(x,y),并依据该负相关度小于预设阈值为基准,获取像素点簇构成用于表征局部区域具有一个标记点的预选标记点簇。
在模板遍历到前景区域以(x,y)为中心的某一局部区域时,利用以下式4计算它们的标准化差值平方和(SQDIFF_NORMED):
Figure BDA0001834939230000121
其中,R该局部为与模板相关程度有关的变量,用于表示负相关度,其中,R值越小,对应像素点及其周围区域与模板匹配程度越好;T(x′,y′)为模板中坐标为(x′,y′)像素点的灰度值,模板上像素点坐标以其中心点为原点所构建坐标系中的坐标,I(x+x′,y+y′)为前景区域中坐标为(x+x′,y+y′)的像素点的灰度值,前景区域上像素点坐标为该像素点在所述图像序列中的坐标,通常以图像中的左上角点或左下角点为原点。
由于,在实际情况检测中,目标人员身上的标记点不可能总是正对着摄像头,因此,被摄像头所捕获的标记点图像并不总是如图3(b)所示几何形态良好的同心圆,还可能出现如图3(a)及图3(c)所示的不规则椭圆形态。所以针对每一种标记点就其正视、左斜与右斜三种视角情况,分别设计三个模板分别如图3(b)、3(a)及3(c)所示。
遍历的时候分别计算三个模板与前景区域局部的匹配度,保留结果最小的一项,匹配度采用如下式5进行计算:
Figure BDA0001834939230000131
在遍历完成后,大多数像素点对应的R值都是偏大的,表示该区域不能与模板相匹配;少数像素点R值降到一个很小的范围内,说明该区域与模板很接近。在本实施例中,取0.1为阈值,R值大于该值的像素区域被舍弃,反之认为该区域为标记点所在区域,将其中心像素坐标数据记录下来。
(2)再匹配步骤S52,在一个所述预选标记点簇中,以负相关度R最小的像素点表征该局部区域内标记点的坐标。
检查模板匹配层得到的坐标数据,可以发现有较大的重叠现象,即匹配程度较好的点往往是扎堆出现的,它们的差值平方和都小于阈值,因此都被记录下来,但是,这些点对应的匹配窗口会发生明显的重叠,重叠中心一般就是某一个标记点。既然这一簇坐标点都是表示同一个标记点,那么就可以从一簇中选出一个代表性最好的,用来表示这个标记点,将剩下的坐标作为噪音丢弃掉。采用下式6进行筛选标记点:
(x,y)=minR(x′,y′),(x′,y′)∈Range
其中,Range为一簇坐标点所在区域,选出其中R值最低的坐标点,作为该簇坐标点中匹配度最好的结果代表此处的标记点。
六、筛选步骤S6,根据匹配出的标记点坐标,获取图像序列中彩色图像上对应点处的局部区域颜色,对该局部区域与标记点上的颜色是否匹配而筛选出真实标记点。
在匹配步骤S5中,所获取的坐标点在理论上就是各个标记点所在位置,但在极少数情况下仍不排除因为前景区域中其它区域变化而导致匹配过程中的误判。
由于,前景区域是不断变化的,而误判区域不会持续造成干扰,所以这种误判是随机不间断发生的。为了消除这一干扰,对每一个目标区域采取色域筛选作为一种简单的附加判别规则。
色域筛选利用了之前一直没有参与标记点识别的彩色图像,在该筛选步骤中,通过对坐标点颜色的比对,将这部分信息利用了起来,进一步优化了识别结果。
色域筛选具体过程如下:
首先,通过以下式7至式9将BGR格式的图像转换为HSV格式图像:
V=max(R,G,B)
Figure BDA0001834939230000141
Figure BDA0001834939230000151
在HSV色彩空间中,H、S、V三个参数分别表示色调、饱和度、明度,相比BGR空间来说,它更适合比较两个颜色的相近程度。规定对一个待测坐标点来说,其核心颜色若为白色,则通过检测,若核心颜色不是白色,则不通过检测,则该坐标点被舍弃。判定一个颜色属不属于白色范围内,是根据S和V参数。规定满足以下式10与式11则属于白色:
0≤S≤0.5
0.5≤V≤1
该方法可作为一个快速筛选所定位标记点是否符合要求的辅助手段,因为它所面对的数据已经在之前几层经过了相对可靠的筛选,所以对精度要求不用太高。
七、计算步骤S7,依据获取的各标记点坐标数据计算目标物在行走过程中的行走姿态。
如图5所示,依据获取三个标记点在某一时刻的坐标,即目标人员的髋关节21、膝关节22及踝关节23的坐标值,该三个关节的坐标分别为(x1,y1)、(x2,y2)及(x3,y3),从而可计算出大腿中轴线24与垂向之间的夹角θ及大腿中轴线24与小腿中轴线25之间夹角α,用于该两个角度值表征此刻目标人员下肢的行走姿态。夹角与夹角的具体计算公式如下式12、13所示:
Figure BDA0001834939230000152
Figure BDA0001834939230000161
其中,向量r1=(0,1),向量r2=(x2-x1,y2-y1),向量r3=(x3-x2,y3-y2)。
当然可用其他夹角组合表征行走人员的下肢的行走姿态,也可采用夹角之外的其他物理量表征目标人员的行走姿态。
***实施例
参见图6,本发明获取目标物行走姿态的***1包括单目摄像头、处理器及存储器,存储器存储有计算机程序,该计算机程序被处理器执行时,能实现接收步骤S1、去色步骤S2、降噪步骤S3、分割步骤S4、匹配步骤S5、筛选步骤S6及计算步骤S8。
接收步骤S1为接收由摄像头采集到的。该接收步骤S1中的具体采集过程及去色步骤S2至计算步骤S7的具体内容在上述方法实施例中已经详细阐述,在此不再赘述。
在上述实施例中,去色步骤S2、降噪步骤S3及筛选步骤S6并非必选步骤,而是可选的优化步骤,即通过去色步骤S2可进一步减少后续图像处理的计算量,通过降噪步骤S3进一步提高后续匹配准确度,而通过筛选步骤S7可排除误判标记点。

Claims (6)

1.一种获取机器人行走姿态的方法,其特征在于,包括:
采集步骤,采集背景场景的图像、标记点的图像及所述机器人在所述背景场景中行走过程的图像序列,所述标记点固设在所述机器人上用于标记所固定位置处的行走轨迹;所述图像序列由单目摄像机采集;
去色步骤,将所述背景场景的图像、所述标记点的图像及所述图像序列转换成灰度图;
分割步骤,以所述背景场景的图像为参考帧,从所述图像序列中分割出局部图像构成前景图像序列,所述局部图像包括所述机器人的图像;所述分割步骤包括构建步骤、二值化步骤及裁选步骤;所述构建步骤包括对经去色处理后的图像序列中每帧图像与所述参考帧上对应像素点的灰度值进行求差取绝对值处理,构建出差值帧序列;所述二值化步骤包括基于预定阈值,对所述差值帧序列进行二值化处理,而用黑白两色分别表征所述机器人与所述背景场景;所述裁选步骤包括基于机器人颜色区域的坐标数据,利用矩形边界从经去色处理后的图像序列上裁出前景区域序列,所述矩形边界完全包容所述机器人颜色区域,所述机器人颜色区域为表征所述机器人的颜色区域;
匹配步骤,以所述标记点的图像为模板,从所述前景图像序列中匹配出各标记点并获取其坐标数据;所述标记点包括固设在所述机器人的行走机构的各关节位置处关节标记点,所述匹配步骤包括预匹配步骤与再匹配步骤;
所述预匹配步骤包括以所述模板为基准,遍历所述前景区域序列的前景区域,计算所述前景区域中以坐标(x,y)是的像素点为中心的局部区域与所述模板的负相关度R(x,y),并依据所述负相关度小于预设阈值为基准,获取像素点簇构成用于表征所述局部区域具有一个标记点的预选标记点簇;
所述再匹配步骤包括在一个所述预选标记点簇中,以所述负相关度最小的像素点表征所述局部区域内标记点的坐标;
所述负相关度R(x,y)的计算公式为:
Figure FDA0002598708660000021
其中,T(x′,y′)为所述模板中坐标为(x′,y′)像素点的灰度值,所述模板上像素点坐标以其中心点为原点所构建坐标系中的坐标,I(x+x′,y+y′)为所述前景区域中坐标为(x+x′,y+y′)的像素点的灰度值,所述前景区域上像素点坐标为该像素点在所述图像序列中的坐标;
计算步骤,依据所述各标记点的坐标数据计算所述机器人在行走过程中的行走姿态。
2.根据权利要求1所述的方法,其特征在于:
在所述二值化步骤之后及所述裁选步骤之前,对二值化处理后的差值帧进行膨胀处理;
所述机器人颜色区域为经膨胀处理后的颜色区域;
在所述去色步骤之后及所述分割步骤之前,对经去色处理后的图像序列进行平滑处理;
所述平滑处理为使用高斯模糊对图像的每个像素进行处理。
3.根据权利要求1所述的方法,其特征在于:
所述标记点的图像包括所述标记点的正视图像、左斜视角图像及右斜视角图像;
在所述再匹配步骤之后及所述计算步骤之前,根据匹配出的标记点坐标,获取所述图像序列中彩色图像上对应点处的局部区域颜色,对该局部区域与标记点上的颜色是否匹配而筛选出真实标记点。
4.根据权利要求1至3任一项权利要求所述的方法,其特征在于:
所述标记点包括圆心部及环绕所述圆心部的环形部,所述圆心部与所述环形部中,一者表面为白色,另一者表面为黑色。
5.一种获取机器人行走姿态的***,包括处理器及存储器,所述存储器存储有计算机程序,其特征在于,所述计算机程序被所述处理器执行时,能实现以下步骤:
接收步骤,接收由摄像头所采集的背景场景的图像与标记点的图像,及接收由单目摄像头所采集的所述机器人在所述背景场景中行走过程的图像序列,所述标记点固定在所述机器人上用于标记固定位置处的行走轨迹;
去色步骤,将所述背景场景的图像、所述标记点的图像及所述图像序列转换成灰度图;
分割步骤,以所述背景场景的图像为参考帧,从所述图像序列中分割出局部图像构成前景图像序列,所述局部图像包括所述机器人的图像;所述分割步骤包括构建步骤、二值化步骤及裁选步骤;所述构建步骤包括对经去色处理后的图像序列中每帧图像与所述参考帧上对应像素点的灰度值进行求差取绝对值处理,构建出差值帧序列;所述二值化步骤包括基于预定阈值,对所述差值帧序列进行二值化处理,而用黑白两色分别表征所述机器人与所述背景场景;所述裁选步骤包括基于机器人颜色区域的坐标数据,利用矩形边界从经去色处理后的图像序列上裁出前景区域序列,所述矩形边界完全包容所述机器人颜色区域,所述机器人颜色区域为表征所述机器人的颜色区域;
匹配步骤,以所述标记点的图像为模板,从所述前景图像序列中匹配出各标记点并获取其坐标数据;所述标记点包括固设在所述机器人的行走机构的各关节位置处关节标记点,所述匹配步骤包括预匹配步骤与再匹配步骤;
所述预匹配步骤包括以所述模板为基准,遍历所述前景区域序列的前景区域,计算所述前景区域中以坐标(x,y)是的像素点为中心的局部区域与所述模板的负相关度R(x,y),并依据所述负相关度小于预设阈值为基准,获取像素点簇构成用于表征所述局部区域具有一个标记点的预选标记点簇;
所述再匹配步骤包括在一个所述预选标记点簇中,以所述负相关度最小的像素点表征所述局部区域内标记点的坐标;
所述负相关度R(x,y)的计算公式为:
Figure FDA0002598708660000041
其中,T(x′,y′)为所述模板中坐标为(x′,y′)像素点的灰度值,所述模板上像素点坐标以其中心点为原点所构建坐标系中的坐标,I(x+x′,y+y′)为所述前景区域中坐标为(x+x′,y+y′)的像素点的灰度值,所述前景区域上像素点坐标为该像素点在所述图像序列中的坐标;
计算步骤,依据所述各标记点的坐标数据计算所述机器人在行走过程中的行走姿态。
6.根据权利要求5所述的***,其特征在于:
所述标记点包括圆心部及环绕所述圆心部的环形部,所述圆心部与所述环形部中,一者表面为白色,另一者表面为黑色。
CN201811221729.6A 2017-12-21 2017-12-21 一种获取机器人行走姿态的方法及*** Active CN109523551B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811221729.6A CN109523551B (zh) 2017-12-21 2017-12-21 一种获取机器人行走姿态的方法及***

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811221729.6A CN109523551B (zh) 2017-12-21 2017-12-21 一种获取机器人行走姿态的方法及***
CN201711394246.1A CN107967687B (zh) 2017-12-21 2017-12-21 一种获取目标物行走姿态的方法与***

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201711394246.1A Division CN107967687B (zh) 2017-12-21 2017-12-21 一种获取目标物行走姿态的方法与***

Publications (2)

Publication Number Publication Date
CN109523551A CN109523551A (zh) 2019-03-26
CN109523551B true CN109523551B (zh) 2020-11-10

Family

ID=61995662

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201711394246.1A Active CN107967687B (zh) 2017-12-21 2017-12-21 一种获取目标物行走姿态的方法与***
CN201811221729.6A Active CN109523551B (zh) 2017-12-21 2017-12-21 一种获取机器人行走姿态的方法及***

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201711394246.1A Active CN107967687B (zh) 2017-12-21 2017-12-21 一种获取目标物行走姿态的方法与***

Country Status (1)

Country Link
CN (2) CN107967687B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110405777B (zh) * 2018-04-28 2023-03-31 深圳果力智能科技有限公司 一种机器人的交互控制方法
CN109102527B (zh) * 2018-08-01 2022-07-08 甘肃未来云数据科技有限公司 基于标识点的视频动作的获取方法和装置
CN110334595B (zh) * 2019-05-29 2021-11-19 北京迈格威科技有限公司 一种犬尾运动的识别方法、装置、***及存储介质
CN110969747A (zh) * 2019-12-11 2020-04-07 盛视科技股份有限公司 一种防尾随门禁***及防尾随方法
CN111491089A (zh) * 2020-04-24 2020-08-04 厦门大学 一种利用图像采集装置监测背景物上目标物的方法
CN113916445A (zh) * 2021-09-08 2022-01-11 广州航新航空科技股份有限公司 旋翼共锥度的测量方法、***、装置及存储介质
CN115530813B (zh) * 2022-10-20 2024-05-10 吉林大学 用于人体上身多关节三维运动测试分析的标记***
CN115880783B (zh) * 2023-02-21 2023-05-05 山东泰合心康医疗科技有限公司 用于儿科保健的儿童运动姿态识别方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100475140C (zh) * 2006-11-29 2009-04-08 华中科技大学 一种基于单目视频的计算机辅助步态分析方法
CN101853333B (zh) * 2010-05-26 2012-11-07 中国科学院遥感应用研究所 医疗机器人导航定位图像中的标记拾取方法
US9975248B2 (en) * 2012-03-21 2018-05-22 Kenneth Dean Stephens, Jr. Replicating the remote environment of a proxy robot
CN103577795A (zh) * 2012-07-30 2014-02-12 索尼公司 检测设备和方法、检测器生成设备和方法及监控***
CN103198492A (zh) * 2013-03-28 2013-07-10 沈阳航空航天大学 一种人体运动捕获方法
CN103473539B (zh) * 2013-09-23 2015-07-15 智慧城市***服务(中国)有限公司 步态识别方法和装置
CN104408718B (zh) * 2014-11-24 2017-06-30 中国科学院自动化研究所 一种基于双目视觉测量的步态数据处理方法
CN105468896B (zh) * 2015-11-13 2017-06-16 上海逸动医学科技有限公司 关节运动检测***及方法
TW201727418A (zh) * 2016-01-26 2017-08-01 鴻海精密工業股份有限公司 分析地面紋理並結合資料記錄的自動行走建議系統及方法
CN106373140B (zh) * 2016-08-31 2020-03-27 杭州沃朴物联科技有限公司 一种基于单目视觉的透明及半透明液体杂质检测方法
CN107273611B (zh) * 2017-06-14 2020-11-10 北京航空航天大学 一种基于下肢行走特点的下肢康复机器人的步态规划方法

Also Published As

Publication number Publication date
CN107967687B (zh) 2018-11-23
CN107967687A (zh) 2018-04-27
CN109523551A (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
CN109523551B (zh) 一种获取机器人行走姿态的方法及***
US6072903A (en) Image processing apparatus and image processing method
Neal et al. Measuring shape
CN101702233B (zh) 视频帧中基于三点共线标记点的三维定位方法
CN109215063A (zh) 一种事件触发相机与三维激光雷达的配准方法
CN103914699A (zh) 一种基于色彩空间的自动唇彩的图像增强的方法
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN105869115B (zh) 一种基于kinect2.0的深度图像超分辨率方法
CN111462128A (zh) 一种基于多模态光谱图像的像素级图像分割***及方法
JP2002216129A (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
CN110941996A (zh) 一种基于生成对抗网络的目标及轨迹增强现实方法和***
CN110021029A (zh) 一种适用于rgbd-slam的实时动态配准方法及存储介质
KR20150105190A (ko) 컬러-코드화된 구조를 사용하는 카메라 캘리브레이션 방법 및 장치
CN116030519A (zh) 一种直播教学平台的学习注意力检测与评估方法
Shioyama et al. Measurement of the length of pedestrian crossings and detection of traffic lights from image data
JP3919722B2 (ja) 肌形状計測方法及び肌形状計測装置
CN108876755B (zh) 一种改进的灰度图像的彩色背景的构建方法
CN109523594A (zh) 一种视觉托盒特征点坐标定位方法及***
CN108830804A (zh) 基于线扩展函数标准差的虚实融合模糊一致性处理方法
JPH0273471A (ja) 三次元形状推定方法
JPH07146937A (ja) パターンマッチング方法
JP2005173128A (ja) 輪郭形状抽出装置
Gimel’farb et al. Image Processing and Analysis: A Primer
JP2000270343A (ja) 画像合成用識別パタンパネルを備えた仮想スタジオシステム及び画像合成用識別パタンパネルを用いた識別方法
CN114359328B (zh) 一种利用单深度相机和人体约束的运动参数测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant