CN113255455A - 基于矢量去光照影响算法的单目相机物体识别与定位方法 - Google Patents

基于矢量去光照影响算法的单目相机物体识别与定位方法 Download PDF

Info

Publication number
CN113255455A
CN113255455A CN202110463617.7A CN202110463617A CN113255455A CN 113255455 A CN113255455 A CN 113255455A CN 202110463617 A CN202110463617 A CN 202110463617A CN 113255455 A CN113255455 A CN 113255455A
Authority
CN
China
Prior art keywords
image
target object
illumination
robot
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110463617.7A
Other languages
English (en)
Other versions
CN113255455B (zh
Inventor
萧毅鸿
李俊
王道伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Speed China Technology Co Ltd
Original Assignee
Speed Space Time Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Speed Space Time Information Technology Co Ltd filed Critical Speed Space Time Information Technology Co Ltd
Priority to CN202110463617.7A priority Critical patent/CN113255455B/zh
Publication of CN113255455A publication Critical patent/CN113255455A/zh
Application granted granted Critical
Publication of CN113255455B publication Critical patent/CN113255455B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于矢量去光照影响算法的单目相机物体的识别与定位方法,包括步骤:S1采用机器人采集影像图,并对影像图进行去光照处理;S2对经去光照处理后的影像图进行滤波处理,获得滤波后的图像;S3将图像进行色彩空间转换,再根据目标物体的颜色阈值,获得二值图像;S4排除目标区域外的干扰物,确定目标物体,获得目标物体的图像坐标;S5根据目标物体的图像坐标,判断目标区域内是否存在目标物体,若不存在则返回空并结束此次识别与定位;若存在则返回目物体的中心坐标,再调整机器人的头部角度和身***姿,使目标物体的中心坐标与图像的中心位置重合,然后根据计算模型求出目标物体到机器人的距离,获得目标物体的识别结果。

Description

基于矢量去光照影响算法的单目相机物体识别与定位方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于矢量去光照影响算法的单目相机物体识别与定位方法。
背景技术
基于计算机视觉的定位识别研究是近些年发展迅速的一项前沿科技课题,其在诸多领域都有着多方面的应用和十分广阔的开发前景。但是光照对于物体的识别总有着极大的影响,同样的物体,在不同的光照强度,不同的光照角度,其识别的成功率相差甚远。在物体的定位测距方面,通常需要双目相机、RGBD深度相机或者激光雷达等设备,设备昂贵且易受外界因素干扰。
因此,有必要开发一种基于矢量运算去光照算法的单目相机物体识别与定位,通过矢量算法去除图像的光照影响,再排除目标区域的干扰,从而精准的识别到目标区域内的目标物体,该方法可运用于无人机定位目标物体,或乒乓球、高尔夫球等自动拾取等生活场景,应用效果表明该方法准确可靠,识别率高,识别速度快,定位误差在3厘米范围内。
发明内容
本发明要解决的技术问题是提供一种基于矢量去光照影响算法的单目相机物体的识别与定位方法,通过矢量算法去除图像的光照影响,再排除目标区域的干扰,提高对物体的识别效率,从而精准的识别到目标区域内的目标物体,该方法准确可靠,识别率高,识别速度快,定位误差在3厘米范围内。
为了解决上述技术问题,本发明采用的技术方案是:该基于矢量去光照影响算法的单目相机物体的识别与定位方法,具体包括以下步骤:
具体包括以下步骤:
S1:采用机器人采集影像图,并对所述影像图进行去光照处理;
S2:对所述步骤S1中经去光照处理后的所述影像图进行滤波处理,获得滤波后的图像;
S3:将所述步骤S2的图像进行色彩空间转换,再根据目标物体的颜色阈值,获得二值图像;
S4:排除目标区域外的干扰物,确定目标物体,获得目标物体的图像坐标;
S5:根据所述目标物体的图像坐标,判断目标区域内是否存在目标物体,若不存在,则返回空,并结束此次识别与定位;若存在,则返回目物体的中心坐标,再调整所述机器人的头部角度和身***姿,使得目标物体的中心坐标与图像的中心位置重合,然后根据计算模型求出目标物体到所述机器人的距离,获得目标物体的识别结果。
采用上述技术方案,借助机器人的采集装置,获得有效的影像资料;再通对影像资料的自动分析、识别和定位技术;对机器人所采集到的影像图进行识别、分析和定位,以机器人采集的影像图作为数据源,然后利用影像自动识别技术对影像进行分类,最后对分类图进行目标物体识别判断;从而得知目标物体的具***置,该基于矢量去光照影响算法的单目相机物体识别与定位方法能够有效的减少光照的影响,提高对物体的识别效率,本方法可有效的应用于乒乓球场的乒乓球拾取等生活场景,应用效果表明该方法准确可靠,识别率高,识别速度快,定位误差在3厘米范围内,为生活带来便利。
本发明的进一步改进在于,该基于矢量去光照影响算法的单目相机物体的识别与定位方法还包括步骤S6对步骤S5中获得的目标物体的识别结果进行修正,并输出修正后的识别结果。
作为本发明的优选技术方案,所述步骤S1中机器人通过采集装置采集影像图,并对获得的影像图通过矢量去光照影响的算法进行去光照处理,具体步骤为:
S11:首先假设影图像中的光照由均衡光照和不均衡光照两部分组成,按照坐标将影像图转化成矢量I,即影图像用下式表示:
Figure 550420DEST_PATH_IMAGE001
(1);
其中,
Figure 604963DEST_PATH_IMAGE002
代表均衡光照,
Figure 831545DEST_PATH_IMAGE003
代表不均衡光照;
Figure 338750DEST_PATH_IMAGE004
代表 物体的反射能力,P代表系数,
Figure 676190DEST_PATH_IMAGE005
为影像图矢量坐标;再将式(1)变换成下式(2):
Figure 617864DEST_PATH_IMAGE006
(2);
设:
Figure 484189DEST_PATH_IMAGE007
Figure 9848DEST_PATH_IMAGE008
求解得式(3):
Figure 619821DEST_PATH_IMAGE009
(3);
其中
Figure 914536DEST_PATH_IMAGE010
是物体在均衡光照下的影像图;
Figure 482921DEST_PATH_IMAGE011
是物体在不均衡光 照下的影像图,属于干扰部分,表现为不均衡的亮度;
通过对影像图亮度分布的计算,得出不均衡的光照分量,则定义影像图的亮度
Figure 997341DEST_PATH_IMAGE012
为影像图HSV色彩空间中的亮度V,即:
Figure 411005DEST_PATH_IMAGE013
;再计算平均亮度:
Figure 294647DEST_PATH_IMAGE014
(4);
其中,N和M是一个取平均的范围常量,N和M相等或不等,它与影像图的分辨率有关;
再定义暗度D,即D=D(x,y),其计算公式为:
Figure 33933DEST_PATH_IMAGE015
(5);
通过亮度V、平均亮度Hv和暗度D的高斯核函数加权,获得不均衡的光照分量,计算公式为:
Figure 268605DEST_PATH_IMAGE016
  (6);
其中,σ是一个衰减速度常量,α是补偿参数,α的值决定是光照均衡情况,即表示光照不足或过亮,它的值由平均亮度Hv和亮度V决定;|D-V|表示不均衡的光照分量的绝对值,当亮度V和暗度D相差大时,其值越大,表示光照越不均衡;exp{- ||V-Hv||^2/(2*σ^2) }是个高斯核函数,表示补偿速度;当光照很不均衡时, 即亮度V的最大值与平均亮度Hv相差越大,能让迭代比较快地达到收敛;当亮度V的最大值与平均亮度Hv相差大时,则认为光照很不均衡,则需要进行补偿;相反,当亮度V的最大值与平均亮度Hv相同时,则不需要补偿;
其中当需要进行补偿时,因当亮度V的最大值低于平均亮度Hv的50%时,则认为光照不足,则应当得到正0.5的增益;当亮度V的最大值超过平均亮度Hv的50%时,则认为光照过亮,则应抑制,应当得到负0.5的增益;否则根据亮度V和平均亮度Hv,在-0.5~0.5线性变化;故补偿参数α的计算公式为式(7) 所示,
α={0.5, V≤0.5ΗvΗv-VΗv, 0.5Ηv<V<1.5Ηv-0.5, V≥1.5Ηv} (7);
S12:根据式(6)计算I2(x,y);
S13:根据I2(x,y)计算I1(x,y);即I1(x,y)=I(x,y)-I2(x,y);
S14:设I(x,y)= I1(x,y),并返回步骤S12中进行迭代,直至不满足迭代条件,结束迭代;
S15:再按照坐标将矢量I还原为图像,即获得去光照的影像图。
去除光照影响后得到地影像图仍然是RGB图像,在运用矢量去光照影响的计算方法时,将干扰部分去除得到均衡下的图像,但一次估计是无法完全去除不均衡光照分量的,需要通过设定阈值,进行多次迭代。
作为本发明的优选技术方案,所述步骤S2中对经去光照处理后的所述影像图进行滤波处理的具体过程为:首先进行高斯模糊处理,使得影像图平滑;再进行形态学操作,采用腐蚀膨胀,用以消除小的噪声点,获得滤波后的图像。
作为本发明的优选技术方案,所述步骤S4的具体步骤为:
S41:将目标区域内外以边界线作为分割,利用霍夫直线变换提取边界;
S42:在图像坐标系中,利用点线关系,排除和机器人在边界线的异侧的物体,在同侧的物体则确认为目标物体;
S43:再根据在图像坐标系中目标物体的中心坐标点与边界线的上下关系来判定,假定直线的表示为 L:Ax+By+C=0,目标物体的中心坐标点为P(m,n),由于图像坐标系与常规坐标轴的y轴是相反的;因此在把目标物体的中心坐标P(m,n)代入边界线时,若满足Am+Bn+C>0,则是满足要求的目标物体的中心坐标,从而获得目标物体在图像坐标系中的中心坐标。
作为本发明的优选技术方案,所述步骤S5中当目标区域内存在目标物体,调整所述机器人的头部角度和身***姿时,目标物体的中心与机器人的采集装置的垂直夹角的计算公式为:
Figure 220381DEST_PATH_IMAGE017
其中,g1为目标物体的中心与机器人的采集装置的光轴的垂直夹角;v为目标物体的中心在图像坐标系中的纵坐标,p1为图像垂直像素大小;a1为采集装置垂直视角大小;
目标物体的中心与机器人的采集装置的光轴的水平夹角计算公式为:
Figure 224109DEST_PATH_IMAGE018
其中,g2为目标物体的中心与机器人的采集装置的光轴的水平夹角;u为目标物体的中心在图像坐标系中的横坐标;p2为图像水平像素大小;a2为采集装置水平视角大小;通过g1和g2调整机器人头部的角度可将目标物体的中心置于机器人的视野的中心。
作为本发明的优选技术方案,所述步骤S5中的所述计算模型的公式为:
Figure 647479DEST_PATH_IMAGE019
其中α表示采集装置和水平面之间的夹角,γ表示采集装置的垂直视野角度的一半,H为采集装置距离地面的高度,h为球的半径,d为机器人距离目标物体中心的距离。
作为本发明的优选技术方案,所述步骤S3中图像色彩空间的转换是将图像由RGB色彩空间转换到HSV色彩空间,再根据目标物体的颜色阈值,获得二值图像。
作为本发明的优选技术方案,所述步骤S1中的所述采集装置为摄像头,设置在所述机器人的头部。
作为本发明的优选技术方案,由RGB色彩空间转换到HSV色彩空间的算法为:
Figure 103869DEST_PATH_IMAGE020
Figure 859335DEST_PATH_IMAGE021
Figure 983149DEST_PATH_IMAGE022
Figure 798658DEST_PATH_IMAGE023
其中R为RGB色彩空间中的红色,G为RGB色彩空间中的绿色,B为RGB色彩空间中的蓝色;H为HSV色彩空间的色相(Hue)、S为HSV色彩空间的饱和度(Saturation)、V为HSV色彩空间的亮度(Value);然后根据目标物体的颜色阈值,得到二值图像。
与现有技术相比,本发明具有的有益效果为:在计算机视觉中,光照对于物体的识别总有着极大的影响,同样的物体,在不同的光照强度,不同的光照角度,其识别的成功率相差甚远;利用基于矢量去光照算法,可以有效的减少光照影响,提高检测的准确率,并且运用了特定的计算模型,排除干扰物体,提高检测效率;该基于矢量去光照影响算法的单目相机物体的识别与定位方法可有效的应用于乒乓球场的乒乓球拾取等生活场景,应用效果表明该方法准确可靠,识别率高,识别速度快,定位误差在3厘米范围内,为生活带来便利。
附图说明
图1为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法工作流程图;
图2为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的图像与光照矢量算法示意图;
图3为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的NAO摄像头垂直视角图;
图4为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的NAO摄像头水平视角图;
图5为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的物体距离求解模型图;
图6为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的图片处理过程产生的部分图像,其中:(a)为原图;(b)为根据识别物体红色区域所产生的二值图像,白色部分代表识别的红色;(c)为边界线的提取,标记为黑色线;(d)为识别结果图,最终识别的球体用黑色圆圈标出轮廓,黑色标出球心位置;
图7为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的程序运行结果图。
具体实施方式
下面将结合本发明的实施例图中的附图,对本发明实施例中的技术方案进行清楚、完整的描述。
实施例:如图1所示,该基于矢量去光照影响算法的单目相机物体的识别与定位方法,具体包括以下步骤:
S1:采用机器人采集影像图,并对所述影像图进行去光照处理;
如图2所示,所述步骤S1中机器人通过采集装置即设置在所述机器人的头部的摄像头采集影像图,并对获得的影像图通过矢量去光照影响的算法进行去光照处理,具体步骤为:
S11:首先假设影图像中的光照由均衡光照和不均衡光照两部分组成,按照坐标将影像图转化成矢量I,即影图像用下式表示:
Figure 7922DEST_PATH_IMAGE024
(1);
其中,
Figure 802965DEST_PATH_IMAGE002
代表均衡光照,
Figure 781286DEST_PATH_IMAGE003
代表不均衡光照;
Figure 33275DEST_PATH_IMAGE004
代表 物体的反射能力,P代表系数,
Figure 464257DEST_PATH_IMAGE005
为影像图矢量坐标;再将式(1)变换成下式(2):
Figure 827105DEST_PATH_IMAGE006
(2);
设:
Figure 659932DEST_PATH_IMAGE007
Figure 318709DEST_PATH_IMAGE008
求解得式(3):
Figure 502565DEST_PATH_IMAGE009
(3);
其中
Figure 137946DEST_PATH_IMAGE010
是物体在均衡光照下的影像图;
Figure 90858DEST_PATH_IMAGE011
是物体在不均衡光 照下的影像图,属于干扰部分,表现为不均衡的亮度;
通过对影像图亮度分布的计算,得出不均衡的光照分量,则定义影像图的亮度
Figure 419072DEST_PATH_IMAGE025
为影像图HSV色彩空间中的亮度V,即:
Figure 824645DEST_PATH_IMAGE013
;再计算平均亮度:
Figure 30761DEST_PATH_IMAGE026
(4);
其中,N和M是一个取平均的范围常量,N和M相等或不等,它与影像图的分辨率有关;
再定义暗度D,即D=D(x,y),其计算公式为:
Figure 838180DEST_PATH_IMAGE027
(5);
通过亮度V、平均亮度Hv和暗度D的高斯核函数加权,获得不均衡的光照分量,计算公式为:
Figure 602873DEST_PATH_IMAGE028
  (6);
其中,σ是一个衰减速度常量,α是补偿参数,α的值决定是光照均衡情况,即表示光照不足或过亮,它的值由平均亮度Hv和亮度V决定;|D-V|表示不均衡的光照分量的绝对值,当亮度V和暗度D相差大时,其值越大,表示光照越不均衡;exp{- ||V-Hv||^2/(2*σ^2) }是个高斯核函数,表示补偿速度;当光照很不均衡时, 即亮度V的最大值与平均亮度Hv相差越大,能让迭代比较快地达到收敛;当亮度V的最大值与平均亮度Hv相差大时,则认为光照很不均衡,则需要进行补偿;相反,当亮度V的最大值与平均亮度Hv相同时,则不需要补偿;
其中当需要进行补偿时,因当亮度V的最大值低于平均亮度Hv的50%时,则认为光照不足,则应当得到正0.5的增益;当亮度V的最大值超过平均亮度Hv的50%时,则认为光照过亮,则应抑制,应当得到负0.5的增益;否则根据亮度V和平均亮度Hv,在-0.5~0.5线性变化;故补偿参数α的计算公式为式(7) 所示,
α={0.5, V≤0.5ΗvΗv-VΗv, 0.5Ηv<V<1.5Ηv-0.5, V≥1.5Ηv} (7);
S12:根据式(6)计算I2(x,y);
S13:根据I2(x,y)计算I1(x,y);即I1(x,y)=I(x,y)-I2(x,y);
S14:设I(x,y)= I1(x,y),并返回步骤S12中进行迭代,直至不满足迭代条件,结束迭代;
S15:再按照坐标将矢量I还原为图像,即获得去光照的影像图;
去除光照影响后得到地影像图仍然是RGB图像;
S2:对所述步骤S1中经去光照处理后的所述影像图进行滤波处理,获得滤波后的图像;
所述步骤S2中对经去光照处理后的所述影像图进行滤波处理的具体过程为:首先进行高斯模糊处理,使得影像图平滑;再进行形态学操作,采用腐蚀膨胀,用以消除小的噪声点,获得滤波后的图像;
S3:将所述步骤S2的图像进行色彩空间转换,再根据目标物体的颜色阈值,获得二值图像;
所述步骤S3中图像色彩空间的转换是将图像由RGB色彩空间转换到HSV色彩空间,再根据目标物体的颜色阈值,获得二值图像;
由RGB色彩空间转换到HSV色彩空间的算法为:
Figure 230164DEST_PATH_IMAGE020
Figure 207347DEST_PATH_IMAGE021
Figure 134852DEST_PATH_IMAGE022
Figure 571912DEST_PATH_IMAGE023
其中R为RGB色彩空间中的红色,G为RGB色彩空间中的绿色,B为RGB色彩空间中的蓝色;H为HSV色彩空间的色相(Hue)、S为HSV色彩空间的饱和度(Saturation)、V为HSV色彩空间的亮度(Value);然后根据目标物体的颜色阈值,得到二值图像;
S4:排除目标区域外的干扰物,确定目标物体,获得目标物体的图像坐标;
所述步骤S4的具体步骤为:
S41:将目标区域内外以边界线作为分割,利用霍夫直线变换提取边界;
S42:在图像坐标系中,利用点线关系,排除和机器人在边界线的异侧的物体,在同侧的物体则确认为目标物体;
S43:再根据在图像坐标系中目标物体的中心坐标点与边界线的上下关系来判定,假定直线的表示为 L:Ax+By+C=0,目标物体的中心坐标点为P(m,n),由于图像坐标系与常规坐标轴的y轴是相反的;因此在把目标物体的中心坐标P(m,n)代入边界线时,若满足Am+Bn+C>0,则是满足要求的目标物体的中心坐标,从而获得目标物体在图像坐标系中的中心坐标;
S5:根据所述目标物体的图像坐标,判断目标区域内是否存在目标物体,若不存在,则返回空,并结束此次识别与定位;若存在,则返回目物体的中心坐标,再调整所述机器人的头部角度和身***姿,使得目标物体的中心坐标与图像的中心位置重合,然后根据计算模型求出目标物体到所述机器人的距离,获得目标物体的识别结果;
如图3所示 ,所述步骤S5中当目标区域内存在目标物体,调整所述机器人的头部角度和身***姿时,目标物体的中心与机器人的采集装置的垂直夹角的计算公式为:
Figure 686498DEST_PATH_IMAGE017
其中,g1为目标物体的中心与机器人的采集装置的光轴的垂直夹角;v为目标物体的中心在图像坐标系中的纵坐标,p1为图像垂直像素大小;a1为采集装置垂直视角大小;
目标物体的中心与机器人的采集装置的光轴的水平夹角计算公式为:
Figure 467372DEST_PATH_IMAGE018
其中,g2为目标物体的中心与机器人的采集装置的光轴的水平夹角;u为目标物体的中心在图像坐标系中的横坐标;p2为图像水平像素大小;a2为采集装置水平视角大小;通过g1和g2调整机器人头部的角度可将目标物体的中心置于机器人的视野的中心;
如图5所示,所述步骤S5中的所述计算模型的公式为:
Figure 46121DEST_PATH_IMAGE019
其中α表示采集装置和水平面之间的夹角,γ表示采集装置的垂直视野角度的一半,H为采集装置距离地面的高度,h为球的半径,d为机器人距离目标物体中心的距离;计算结果如图7所示;
S6:对步骤S5中获得的目标物体的识别结果进行修正,并输出修正后的识别结果。
应用实施例:以NAO机器人高尔夫球比赛为例,该基于矢量去光照影响算法的单目相机物体的识别与定位方法,具体包括以下步骤:
S1:采用机器人采集影像图(如图6中的(a)所示),并对所述影像图进行去光照处理;所述步骤S1中机器人通过采集装置即设置在所述机器人的头部的摄像头采集影像图;
由于物体反射能力和光照的有关,相同光照条件下,物体的反射能力越大,图像的 亮度就越高;相同的反射能力,光照越强,图像的亮度就越高。即:
Figure 418197DEST_PATH_IMAGE029
其中,反射能力
Figure 521544DEST_PATH_IMAGE030
由物体的材料、形状、姿态等因素决定,与光照无关;而
Figure 371689DEST_PATH_IMAGE031
代表光照,P代表系数;
从计算公式中可以看出原始图像
Figure 742627DEST_PATH_IMAGE032
、反射能力
Figure 20025DEST_PATH_IMAGE033
和光照
Figure 843624DEST_PATH_IMAGE031
是一 个不定方程组求解问题;一般的算法都是通过增加一个约束条件来解决,因此,约束条件的 不同得出的解就不同;把物体的反射系数与光照分离,完全地从图像中提取出来是很困难 的;如果完全去除光照,把物体放在黑屋子里,那将得到一张全黑得图像;因此,反应物体的 反射系数需要一定得光照,且需要均衡光照,使用光照均衡,减少不均衡的光照对图像得影 响,是处理光照问题的本质;
因此,该矢量去光照影响的算法中,首先假设影图像中的光照由均衡光照和不均衡光照两部分组成,该矢量去光照影响的算法的具体步骤为:
S11:按照坐标将影像图转化成矢量I,即影图像用下式(1)表示:
Figure 497459DEST_PATH_IMAGE001
(1);
其中,
Figure 722904DEST_PATH_IMAGE002
代表均衡光照,
Figure 672668DEST_PATH_IMAGE003
代表不均衡光照;
Figure 780301DEST_PATH_IMAGE004
代表 物体的反射能力,P代表系数,
Figure 972248DEST_PATH_IMAGE005
为影像图矢量坐标;再将式(1)变换成下式(2):
Figure 317779DEST_PATH_IMAGE006
(2);
设:
Figure 202558DEST_PATH_IMAGE007
Figure 502215DEST_PATH_IMAGE008
求解得式(3):
Figure 232274DEST_PATH_IMAGE009
(3);
其中
Figure 432311DEST_PATH_IMAGE010
是物体在均衡光照下的影像图;
Figure 487991DEST_PATH_IMAGE011
是物体在不均衡光 照下的影像图,表现为不均衡的亮度,属于干扰部分;其在高维空间中得关系可以用二位的 矢量图来示意,如图2所示(图中弧线表示迭代过程);
在样本图像中,不均衡光照表现为不均衡的亮度。通过对影像图亮度分布的计算, 得出不均衡的光照分量,则定义影像图的亮度
Figure 507900DEST_PATH_IMAGE025
为影像图HSV色彩空间中的亮度V, 即:
Figure 307229DEST_PATH_IMAGE034
;再计算平均亮度:
Figure 851519DEST_PATH_IMAGE035
(4);
其中,N和M是一个取平均的范围常量,N和M相等或不等,它与影像图的分辨率有关;一般以图像尺寸的1/32比较合适;
再定义暗度D,即D=D(x,y),其计算公式为:
Figure 812521DEST_PATH_IMAGE015
(5);
通过亮度V、平均亮度Hv和暗度D的高斯核函数加权,获得不均衡的光照分量,计算公式为:
Figure 850884DEST_PATH_IMAGE016
  (6);
其中,σ是一个衰减速度常量,其值应根据实际实验决定, 一般取4~8;α是补偿参数,α的值决定是光照均衡情况,即表示光照不足或过亮,它的值由平均亮度Hv和亮度V决定;|D-V|表示不均衡的光照分量的绝对值,当亮度V和暗度D相差大时,其值越大,表示光照越不均衡;exp{- ||V-Hv||^2/(2*σ^2) } 是个高斯核函数,表示补偿速度;当光照很不均衡时, 即亮度V的最大值与平均亮度Hv相差越大,能让迭代比较快地达到收敛;当亮度V的最大值与平均亮度Hv相差大时,则认为光照很不均衡,则需要进行补偿;相反,当亮度V的最大值与平均亮度Hv相同时,则不需要补偿;
其中当需要进行补偿时,因当亮度V的最大值低于平均亮度Hv的50%时,则认为光照不足,则应当得到正0.5的增益;当亮度V的最大值超过平均亮度Hv的50%时,则认为光照过亮,则应抑制,应当得到负0.5的增益;否则根据亮度V和平均亮度Hv,在-0.5~0.5线性变化;故补偿参数α的计算公式为式(7) 所示,
α={0.5, V≤0.5ΗvΗv-VΗv, 0.5Ηv<V<1.5Ηv-0.5, V≥1.5Ηv} (7);
S12:根据式(6)计算I2(x,y);
S13:根据I2(x,y)计算I1(x,y);即I1(x,y)=I(x,y)-I2(x,y);
S14:设I(x,y)= I1(x,y),并返回步骤S12中进行迭代,直至不满足迭代条件,结束迭代;
S15:再按照坐标将矢量I还原为图像,即获得去光照的影像图;
迭代结束条件可设为I2(x,y)的模或者一范数(即max{I2(x,y)}<=threshold;当I2(x,y)的模很小时,I(x,y)和I1(x,y)非常接近,表示图像的光照均匀;另一个I2(x,y)的一范数条件是控制图像噪点的,在迭代过程中,产生噪点的时候就应该停止迭代;去除光照影响后得到地影像图仍然是RGB图像;
S2:对所述步骤S1中经去光照处理后的所述影像图进行滤波处理,获得滤波后的图像;所述步骤S2中对经去光照处理后的所述影像图进行滤波处理的具体过程为:首先进行高斯模糊处理,使得影像图平滑;再进行形态学操作,采用腐蚀膨胀,用以消除小的噪声点,获得滤波后的图像;
S3:将所述步骤S2的图像进行色彩空间转换,再根据目标物体的颜色阈值,获得二值图像;
所述步骤S3中图像色彩空间的转换是将图像由RGB色彩空间转换到HSV色彩空间,HSV即色相(Hue)、饱和度(Saturation)、明度(Value),明度V表示颜色明亮的程度,对于光源色,明度值与发光体的光亮度有关;对于物体色,此值和物体的透射比或反射比有关;再根据目标物体的颜色阈值,获得二值图像;
由RGB色彩空间转换到HSV色彩空间的算法为:
Figure 453904DEST_PATH_IMAGE020
Figure 628534DEST_PATH_IMAGE021
Figure 760438DEST_PATH_IMAGE036
Figure 521982DEST_PATH_IMAGE023
其中R为RGB色彩空间中的红色,G为RGB色彩空间中的绿色,B为RGB色彩空间中的蓝色;H为HSV色彩空间的色相(Hue)、S为HSV色彩空间的饱和度(Saturation)、V为HSV色彩空间的亮度(Value);然后根据目标物体的颜色阈值,得到二值图像;我们可以得到二值图像如图6中的(b)所示,在二值图像中白色的部分对应的是备选球(可能是我们要找的球);
S4:排除目标区域外的干扰物,确定目标物体,获得目标物体的图像坐标;
所述步骤S4的具体步骤为:
S41:将目标区域内外以边界线作为分割,利用霍夫直线变换提取边界,如图6中的(c)所示,黑色线条即为提取到的白色边界线;
S42:在图像坐标系中,利用点线关系,排除和机器人在边界线的异侧的物体,在同侧的物体则确认为目标物体;
S43:再根据在图像坐标系中目标物体的中心坐标点与边界线的上下关系来判定,假定直线的表示为 L:Ax+By+C=0,目标物体的中心坐标点为P(m,n),由于图像坐标系与常规坐标轴的y轴是相反的;因此在把目标物体的中心坐标P(m,n)代入边界线时,若满足Am+Bn+C>0,则是满足要求的目标物体的中心坐标,从而获得目标物体在图像坐标系中的中心坐标;
在一般的xy直角坐标系中,任何一条直线的方程可以用Ay+Bx+C=0来表示,一个点M的坐标为(a,b),则将点M带入方程,若Ab+Ba+C>0,则说明点M在直线的上方,若Ab+Ba+C<0则说明点M在直线的下方;当图像中存在白色边线,则机器人是在白色线的下方,而机器人总是在场地内的,所以,可以得出,只要球心坐标也处在白线的下方,则可以说明球心是在球场内的;而在图像的坐标中,原点是图像的左上角,横轴的右方为y轴增大方向,纵轴下方为x周增大的方向; 这与一般的坐标轴是相反的;所以当把球心的坐标(m,n)代入白色边线时,满足An+Bm+C>0 时,就是满足要求的球心坐标;如图6中的(d)所示,目标球体检测结果用黑色圆圈标记;
S5定位目标物体:根据所述目标物体的图像坐标,判断目标区域内是否存在目标物体,若不存在,则返回空,并结束此次识别与定位;若存在,则返回目物体的中心坐标,再调整所述机器人的头部角度和身***姿,使得目标物体的中心坐标与图像的中心位置重合,然后根据计算模型求出目标物体到所述机器人的距离,获得目标物体的识别结果;
如图3所示,NAO摄像头的垂直视角范围为34.80度,如图4所示,NAO摄像头的水平视角范围为60.97度,由于NAO摄像头光轴与图像平面的交点为图像平面的中心点,所以根据NAO摄像头成像的视角范围以及图像的大小可以从目标中心在图像坐标系的位置推导出目标与摄像头光轴的垂直、水平夹角;因此,所述步骤S5中当目标区域内存在目标物体,调整所述机器人的头部角度和身***姿时,目标物体的中心与机器人的采集装置的垂直夹角的计算公式为:
Figure 397535DEST_PATH_IMAGE017
其中,g1为目标物体的中心与机器人的采集装置的光轴的垂直夹角;v为目标物体的中心在图像坐标系中的纵坐标,p1为图像垂直像素大小;由于本实验在捕获图像时采用的大小为640*480分线率,所以p1的值为480;a1的为NAO摄像头垂直视角大小,其值为47.64度;
目标物体的中心与机器人的采集装置的光轴的水平夹角计算公式为:
Figure 692250DEST_PATH_IMAGE037
其中,g2为目标物体的中心与机器人的采集装置的光轴的水平夹角;u为目标物体的中心在图像坐标系中的横坐标;p2为图像水平像素大小,值为640;a2的为NAO摄像头水平视角大小,其值为60.97度;通过g1和g2调整机器人头部的角度可将红球的中心置于机器人视野的中心;
如图5所示,所述步骤S5中的所述计算模型的公式为:
Figure 729476DEST_PATH_IMAGE038
其中α表示采集装置和水平面之间的夹角,γ表示采集装置的垂直视野角度的一半,H为采集装置距离地面的高度,h为球的半径,d为机器人距离目标物体中心的距离;计算结果如图7所示;
S6:对步骤S5中获得的目标物体的识别结果进行修正,并输出修正后的识别结果。
应用效果表明该方法准确可靠,识别率高,识别速度快,定位误差在3厘米范围内。
以上所述仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,具体包括以下步骤:
S1:采用机器人采集影像图,并对所述影像图进行去光照处理;
S2:对所述步骤S1中经去光照处理后的所述影像图进行滤波处理,获得滤波后的图像;
S3:将所述步骤S2的图像进行色彩空间转换,再根据目标物体的颜色阈值,获得二值图像;
S4:排除目标区域外的干扰物,确定目标物体,获得目标物体的图像坐标;
S5:根据所述目标物体的图像坐标,判断目标区域内是否存在目标物体,若不存在,则返回空,并结束此次识别与定位;若存在,则返回目物体的中心坐标,再调整所述机器人的头部角度和身***姿,使得目标物体的中心坐标与图像的中心位置重合,然后根据计算模型求出目标物体到所述机器人的距离,获得目标物体的识别结果;
所述步骤S1中机器人通过采集装置采集影像图,并对获得的影像图通过矢量去光照影响的算法进行去光照处理,具体步骤为:
S11:首先假设影图像中的光照由均衡光照和不均衡光照两部分组成,按照坐标将影像图转化成矢量I,即影图像用下式表示:
Figure 213185DEST_PATH_IMAGE001
(1);
其中,
Figure 735303DEST_PATH_IMAGE002
代表均衡光照,
Figure 401907DEST_PATH_IMAGE003
代表不均衡光照;
Figure 903558DEST_PATH_IMAGE004
代表物体 的反射能力,P代表系数,
Figure 339219DEST_PATH_IMAGE005
为影像图矢量坐标;再将式(1)变换成下式(2):
Figure 579707DEST_PATH_IMAGE006
(2);
设:
Figure 717296DEST_PATH_IMAGE007
Figure 537485DEST_PATH_IMAGE008
求解得式(3):
Figure 578384DEST_PATH_IMAGE009
(3);
其中
Figure 724195DEST_PATH_IMAGE010
是物体在均衡光照下的影像图;
Figure 349080DEST_PATH_IMAGE011
是物体在不均衡光照下 的影像图,属于干扰部分,表现为不均衡的亮度;
通过对影像图亮度分布的计算,得出不均衡的光照分量,则定义影像图的亮度
Figure 441801DEST_PATH_IMAGE012
为影像图HSV色彩空间中的亮度V,即:
Figure 868365DEST_PATH_IMAGE013
;再计算平均亮度:
Figure 388339DEST_PATH_IMAGE014
(4);
其中,N和M是一个取平均的范围常量,N和M相等或不等,它与影像图的分辨率有关;
再定义暗度D,即D=D(x,y),其计算公式为:
Figure 500521DEST_PATH_IMAGE015
(5);
通过亮度V、平均亮度Hv和暗度D的高斯核函数加权,获得不均衡的光照分量,计算公式为:
Figure 459249DEST_PATH_IMAGE016
  (6);
其中,σ是一个衰减速度常量,α是补偿参数,α的值决定是光照均衡情况,即表示光照不足或过亮,它的值由平均亮度Hv和亮度V决定;|D-V|表示不均衡的光照分量的绝对值,当亮度V和暗度D相差大时,其值越大,表示光照越不均衡;exp{- ||V-Hv||^2/(2*σ^2) } 是个高斯核函数,表示补偿速度;当亮度V的最大值与平均亮度Hv相差大时,则认为光照很不均衡,则需要进行补偿;相反,当亮度V的最大值与平均亮度Hv相同时,则不需要补偿;
其中当需要进行补偿时,因当亮度V的最大值低于平均亮度Hv的50%时,则认为光照不足,则应当得到正0.5的增益;当亮度V的最大值超过平均亮度Hv的50%时,则认为光照过亮,则应抑制,应当得到负0.5的增益;否则根据亮度V和平均亮度Hv,在-0.5~0.5线性变化;故补偿参数α的计算公式为式(7) 所示,
α={0.5, V≤0.5ΗvΗv-VΗv, 0.5Ηv<V<1.5Ηv-0.5, V≥1.5Ηv} (7);
S12:根据式(6)计算I2(x,y);
S13:根据I2(x,y)计算I1(x,y);即I1(x,y)=I(x,y)-I2(x,y);
S14:设I(x,y)= I1(x,y),并返回步骤S12中进行迭代,直至不满足迭代条件,结束迭代;
S15:再按照坐标将矢量I还原为图像,即获得去光照的影像图。
2.根据权利要求1所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,该基于矢量去光照影响算法的单目相机物体的识别与定位方法还包括步骤S6对步骤S5中获得的目标物体的识别结果进行现场核实,根据现场核实对所述识别结果进行修正,并输出修正后的识别结果。
3.根据权利要求2所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,所述步骤S2中对经去光照处理后的所述影像图进行滤波处理的具体过程为:首先进行高斯模糊处理,使得影像图平滑;再进行形态学操作,采用腐蚀膨胀,用以消除小的噪声点,获得滤波后的图像。
4.根据权利要求3所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于, 所述步骤S4的具体步骤为:
S41:将目标区域内外以边界线作为分割,利用霍夫直线变换提取边界;
S42:在图像坐标系中,利用点线关系,排除和机器人在边界线的异侧的物体,在同侧的物体则确认为目标物体;
S43:再根据在图像坐标系中目标物体的中心坐标点与边界线的上下关系来判定,假定直线的表示为 L:Ax+By+C=0,目标物体的中心坐标点为P(m,n),由于图像坐标系与常规坐标轴的y轴是相反的;因此在把目标物体的中心坐标P(m,n)代入边界线时,若满足Am+Bn+C>0,则是满足要求的目标物体的中心坐标,从而获得目标物体在图像坐标系中的中心坐标。
5.根据权利要求4所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,所述步骤S5中当目标区域内存在目标物体,调整所述机器人的头部角度和身***姿时,目标物体的中心与机器人的采集装置的垂直夹角的计算公式为:
Figure 209162DEST_PATH_IMAGE017
其中,g1为目标物体的中心与机器人的采集装置的光轴的垂直夹角;v为目标物体的中心在图像坐标系中的纵坐标,p1为图像垂直像素大小;a1为采集装置垂直视角大小;
目标物体的中心与机器人的采集装置的光轴的水平夹角计算公式为:
Figure 431196DEST_PATH_IMAGE018
其中,g2为目标物体的中心与机器人的采集装置的光轴的水平夹角;u为目标物体的中心在图像坐标系中的横坐标;p2为图像水平像素大小;a2为采集装置水平视角大小;通过g1和g2调整机器人头部的角度可将目标物体的中心置于机器人的视野的中心。
6.根据权利要求5所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,所述步骤S5中的所述计算模型的公式为:
Figure 578143DEST_PATH_IMAGE019
其中α表示采集装置和水平面之间的夹角,γ表示采集装置的垂直视野角度的一半,H为采集装置距离地面的高度,h为球的半径,d为机器人距离目标物体中心的距离。
7.根据权利要求6所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,所述步骤S3中图像色彩空间的转换是将图像由RGB色彩空间转换到HSV色彩空间,再根据目标物体的颜色阈值,获得二值图像。
8.根据权利要求6所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,所述步骤S1中的所述采集装置为摄像头,设置在所述机器人的头部。
9.根据权利要求7所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,由RGB色彩空间转换到HSV色彩空间的算法为:
Figure 527514DEST_PATH_IMAGE020
Figure 381200DEST_PATH_IMAGE021
Figure 536587DEST_PATH_IMAGE022
Figure 170830DEST_PATH_IMAGE023
其中R为RGB色彩空间中的红色,G为RGB色彩空间中的绿色,B为RGB色彩空间中的蓝色;H为HSV色彩空间的色相(Hue)、S为HSV色彩空间的饱和度(Saturation)、V为HSV色彩空间的亮度(Value);然后根据目标物体的颜色阈值,得到二值图像。
CN202110463617.7A 2021-04-28 2021-04-28 基于矢量去光照影响算法的单目相机物体识别与定位方法 Active CN113255455B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110463617.7A CN113255455B (zh) 2021-04-28 2021-04-28 基于矢量去光照影响算法的单目相机物体识别与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110463617.7A CN113255455B (zh) 2021-04-28 2021-04-28 基于矢量去光照影响算法的单目相机物体识别与定位方法

Publications (2)

Publication Number Publication Date
CN113255455A true CN113255455A (zh) 2021-08-13
CN113255455B CN113255455B (zh) 2021-10-22

Family

ID=77222325

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110463617.7A Active CN113255455B (zh) 2021-04-28 2021-04-28 基于矢量去光照影响算法的单目相机物体识别与定位方法

Country Status (1)

Country Link
CN (1) CN113255455B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114558308A (zh) * 2022-03-04 2022-05-31 东莞理工学院 一种球门瞄准装置的控制方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107009357A (zh) * 2017-04-05 2017-08-04 武汉科技大学 一种基于nao机器人抓取物体的方法
CN110648367A (zh) * 2019-08-15 2020-01-03 大连理工江苏研究院有限公司 一种基于多层深度与彩色视觉信息的几何体目标定位方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107009357A (zh) * 2017-04-05 2017-08-04 武汉科技大学 一种基于nao机器人抓取物体的方法
CN110648367A (zh) * 2019-08-15 2020-01-03 大连理工江苏研究院有限公司 一种基于多层深度与彩色视觉信息的几何体目标定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张墨逸等: "移动单目相机下基于单应的动态手势轨迹识别", 《华中科技大学学报》 *
朱君波等: "基于矢量运算的图像光照处理算法", 《计算机应用》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114558308A (zh) * 2022-03-04 2022-05-31 东莞理工学院 一种球门瞄准装置的控制方法及***

Also Published As

Publication number Publication date
CN113255455B (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
US10607106B2 (en) Object symmetry axis detection method based on RGB-D camera
WO2021138995A1 (zh) 一种棋盘格角点全自动检测方法
CN108319973B (zh) 一种树上柑橘果实检测方法
CN111415363B (zh) 一种图像边缘识别方法
WO2022205525A1 (zh) 基于双目视觉自主式水下机器人回收导引伪光源去除方法
CN110866903B (zh) 基于霍夫圆变换技术的乒乓球识别方法
CN110232389B (zh) 一种基于绿色作物特征提取不变性的立体视觉导航方法
CN107784669A (zh) 一种光斑提取及其质心确定的方法
CN111915704A (zh) 一种基于深度学习的苹果分级识别方法
CN112819094A (zh) 一种基于结构相似度度量的目标检测与识别方法
CN112991302A (zh) 基于超像素的柔性ic基板变色缺陷检测方法和装置
CN111144207A (zh) 一种基于多模态信息感知的人体检测和跟踪方法
CN112861654A (zh) 一种基于机器视觉的名优茶采摘点位置信息获取方法
CN114241438B (zh) 一种基于先验信息的交通信号灯快速精确的识别方法
CN113255455B (zh) 基于矢量去光照影响算法的单目相机物体识别与定位方法
Han et al. Target positioning method in binocular vision manipulator control based on improved canny operator
CN102024264B (zh) 一种基于直方图统计的触摸笔颜色识别方法
CN111161219B (zh) 一种适用于阴影环境的鲁棒单目视觉slam方法
CN113554672B (zh) 一种基于机器视觉的气密性检测中相机位姿检测方法及***
KR100703528B1 (ko) 영상 인식 장치 및 방법
Xiang et al. Research on target detection method based on HSV fusion Gaussian mixture model
CN115661110A (zh) 一种透明工件识别与定位的方法
CN112541471B (zh) 一种基于多特征融合的遮挡目标识别方法
CN114820718A (zh) 一种视觉动态定位跟踪算法
CN114066993A (zh) 基于机器视觉的配电柜控制面板分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 210042 8 Blocks 699-22 Xuanwu Avenue, Xuanwu District, Nanjing City, Jiangsu Province

Patentee after: Speed Technology Co.,Ltd.

Address before: 210042 8 Blocks 699-22 Xuanwu Avenue, Xuanwu District, Nanjing City, Jiangsu Province

Patentee before: SPEED TIME AND SPACE INFORMATION TECHNOLOGY Co.,Ltd.

CP01 Change in the name or title of a patent holder