CN110135387B - 一种基于传感器融合的图像快速识别方法 - Google Patents
一种基于传感器融合的图像快速识别方法 Download PDFInfo
- Publication number
- CN110135387B CN110135387B CN201910437779.6A CN201910437779A CN110135387B CN 110135387 B CN110135387 B CN 110135387B CN 201910437779 A CN201910437779 A CN 201910437779A CN 110135387 B CN110135387 B CN 110135387B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- traffic sign
- axis
- camera
- inertial navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于传感器融合的图像快速识别方法,该方法基于高精度地图离线数据和惯性导航设备定位信息实时获取自动驾驶车辆相对于交通标志的距离和方位信息,并据此确定交通标志在图像中的对应位置,辅助视觉识别算法。本发明利用高精度地图和定位信息辅助视觉定位,可以为视觉识别提供目标位置先验信息,降低计算量,提高识别精度,且无需增加任何硬件成本。
Description
技术领域
本发明涉及组合导航及交通标志识别技术领域,尤其涉及一种基于传感器融合的图像快速识别方法。
背景技术
随着DARPA重启无人车技术研究,并先后于2004年、2005年和2007年举办了三届智能车挑战赛,谷歌大力投入自动驾驶技术研究,近年来全球范围内掀起了自动驾驶技术研究的热潮,自动驾驶领域创业公司也如雨后春笋般应运而生。
自动驾驶技术经过十多年发展,逐渐从实验室研究、到封闭环境技术竞赛、再到固定场景示范应用,虽然取得了长足的进展,但距离实际应用仍有较大距离,只能在封闭场景低速驾驶状态下执行简单确定性任务,并且可靠性较低。并且随着城市化进展及汽车的普及,城市交通拥挤加剧,无人驾驶有可能导致的交通安全问题变得日益突出。
基于计算机视觉的驾驶员支持***是解决交通安全问题的重要措施之一,主要在交通标志识别、道路识别等领域发挥重要作用。目前,交通标志识别主要是采用计算机视觉***在没有任何先验信息下的实时检测,然而由于交通标志种类繁多,实时检测情况下抓取的图片背景复杂,光照强度及角度的影响都有可能影响交通标志的正确分类识别;此外实时检测在没有交通标志时也进行识别工作,浪费了大量的计算资源。
发明内容
针对上述不足,本文提供一种基于传感器融合的图像快速识别方法,利用惯导/高精度数字地图导航,预先获取交通标志在图片中的位置,能较为准确地提取交通标志关键特征,解决了传统方法中存在着无交通标志先验信息及计算资源浪费的问题。在预先获取交通标志信息后,再利用机器学习或者深度学习算法,对交通标志进行分类识别。
本发明所采用的技术方案如下:一种基于传感器融合的图像快速识别方法,包括如下步骤:
(1)根据惯导和高精度地图,获得车载惯导和交通标志的经度、纬度高、高度信息,通过姿态矩阵转换和坐标变换,得到相机与交通标志的相对位置和姿态关系;
(2)根据相机坐标系与像平面坐标系的关系,获取交通标志在像平面坐标系的位置,并转换成像素坐标系坐标;
(3)根据交通标志在像素坐标系中位置,提取图片中交通标志重要特征;
(4)对交通标志进行识别。
进一步的,所述步骤(1)具体如下:
(1.1)通过惯导在线解算,获得载体的实时精度Ba、维度La、高度Ha,据此获得高精度地图中相对应的交通标志及其经度Bs、纬度Ls、高度Hs,并将载体及对应的交通标志的经度、纬度、高度信息分别转换为WGS84地心坐标系的坐标(xia,yia,zia)和(xis,yis,zis);
(1.2)建立以惯导载体中心为原点O,以东向为X轴,北向为Y轴,天向为Z轴的导航坐标系Oan-XanYanZan,通过坐标系转换,得到交通标志位置信息在导航坐标系Oan-XanYanZan中的坐标(xan,yan,zan);
(1.3)根据惯导输出的姿态信息:偏航角φab、俯仰角θab和滚转角γab,建立载体姿态矩阵,并将步骤(1.2)中载体导航坐标系Oan-XanYanZan转换得到载体本体坐标系Oab-XabYabZab,其中传感器中心为原点O,沿纵轴向前为Y轴,垂直于纵轴指向右侧为X轴,垂直于O-XY平面向上为Z轴,通过姿态矩阵转换得到交通标志位置信息在载体本体坐标系中的坐标(xab,yab,zab);
(1.4)建立以相机光心为原点,光轴为Z轴的相机坐标系Ocb-XcbYcbZcb,通过姿态转换矩阵得到交通标志位置信息在相机坐标系Ocb-XcbYcbZcb的坐标。
进一步的,所述步骤(2)具体如下:
(2.1)根据相机坐标系Ocb-XcbYcbZcb-图像平面坐标系O-XY转换关系以及相焦距f,获取交通标志在图像平面坐标系O-XY坐标(x,y);
(2.2)根据图像平面坐标系O-XY-像素坐标系Ouv-UV关系,利用转换矩阵及相机解像力Rex、Rey获取交通标志在像素坐标系坐标(u,v)。
进一步的,所述步骤(3)具体如下:
(3.1)以步骤(2)所确定的交通标志在像素坐标系位置为中心,截取给定范围的尺寸,以准确获取交通标志特征。
进一步的,所述步骤(4)具体如下:
(4.1)采用双三次插值算法或其他算法将采集的训练集原始图片尺寸归一化;
(4.2)对归一化后的图片增强对比度,减少光照强度带来的影响;
(4.3)将处理后的图片及标签存储为TFRecord格式;
(4.4)利用深度学习算法对图片进行识别。
进一步的,所述步骤(4.4)具体如下:
(4.4.1)利用深度学习模型对步骤(4.3)所存储的TFRecords数据进行训练;
(4.4.2)计算模型损失函数,该损失函数采用交叉熵损失函数;
(4.4.3)采用梯度下降法结合滑动平均,以损失函数为目标函数进行迭代计算;
(4.4.4)将训练好的模型存储为ckpt模型,迁移到无人车上对步骤(3)所获取的特征图片进行识别。
进一步的,所述步骤(4.4.1)中的深度学习模型优选自AlexNet、SqueezeNet、GooLeNet、ImageNet、Faster R-CNN、R-FCN、YOLO卷积神经网络模型。
本发明的有益效果如下:自动驾驶车辆感知***中,基于视觉的交通标志图像识别是一项关键技术,但是,由于目前硬件计算资源限制和外界光照条件变化对图像质量的影响,在没有先验知识辅助前提下,难以实现交通标志的准确识别和工程化应用。针对这一问题,本发明提出了一种基于传感器融合的图像快速识别方法。将惯导、卫星导航设备、视觉、高精度地图数据融合,对交通标志图像信息预处理,得到目标区域,通过深度学习模型相处理,实现对交通标志信息识别,在不提高计算量基础之上,大幅提高识别精度,同时,由于通过其他传感器获取到目标区域,可以有效降低光线条件对图像识别的影响,因此,本发明模型鲁棒性好、抗干扰性能强,在光线条件复杂的环境中优势更加明显。
附图说明
图1为相机坐标系-图像坐标系关系;
图2为图像坐标系-像素坐标系关系;
图3为AlexNet网络结构。
具体实施方式
下面通过实施例对本发明做进一步的详细说明。
本发明提供一种基于传感器融合的图像快速识别方法,包括如下步骤:
(1)惯导/高精度地图辅助导航信息解算:
根据惯导和高精度地图,获得车载惯导和交通标志的经度、纬度高、高度信息,通过姿态矩阵转换和坐标变换,得到相机与交通标志的相对位置和姿态关系。当交通标志与相机的距离及与光轴角度满足视觉范围条件时,相机开始工作。
(2)根据相机坐标系与像平面坐标系的关系,获取交通标志在像平面坐标系的位置,并转换成像素坐标系坐标;
(3)训练数据集预处理:对训练数据集进行一系列处理,使其标准化、归一化。
(4)采用机器学习或深度学习模型(本发明以AlexNet为例)对步骤(3)处理后的交通标志图像进行训练;
(5)根据步骤(2)获取交通标志在像素坐标系位置为中心,将图片截取为224*224大小,输入到步骤(4)训练好的模型,用来识别交通标志类别。
进一步的,所述步骤(1)具体如下:
(1.1)经纬高与WGS84坐标系转换
假设Ha、Hs分别代表惯导载体和交通标志的高度;Ba、Bs分别代表惯导载体和交通标志的经度;La、Ls分别代表惯导载体和交通标志的纬度,则惯导载体和交通标志在WGS84地心坐标系下的坐标分别为:
(1.2)WGS84地心坐标系与惯导导航坐标系转换
因此交通标志在惯导导航坐标系下的坐标为:
(1.3)惯导导航坐标系与惯导本体坐标系转换
其中φab、θab、γab分别为惯导偏航角、俯仰角和滚转角,由惯导***输出。
因此求得交通标志在天线本体坐标系下的坐标为:
(1.4)惯导导航坐标系与天线本体坐标系转换
为获取交通标志从惯导本体坐标系Oab-XabYabZab到相机本体坐标系Ocb-XcbYcbZcb的坐标转换关系,需要获取Ocb-XcbYcbZcb与Oab-XabYabZab的三个姿态角和三个平移量。假设:
因此求得交通标志在惯导本体坐标系下的坐标为:
进一步的,所述步骤(2)具体如下:
图2为相机坐标系到像平面坐标系的成像投影关系示意图,其中p(x,y)为交通标志P(xcb,ycb,zcb)在像平面坐标系O-XY的投影,f是焦距。根据三角形相似原理,可得:
因此通过式(9)可根据交通标志在相机坐标系的位置求解其在像平面坐标系的位置。
图3为像平面坐标系与像素坐标系的转换关系示意图。像平面坐标系原点O在像素坐标系的位置为(u0,v0),假设相机在水平方向和垂直方向的解像力分别为Rex和Rey,因此求得交通标志在像素坐标系中的位置为:
式(9)中焦距f与式(10)中u0、v0、Rex、Rey均为相机内参。
进一步的,所述步骤(4)具体如下:
(4.1)采用双三次插值算法将原始图片尺寸归一化为224*224,便于网络的读取;
(4.2)对归一化后的图片增强对比度,减少光照强度带来的影响;
(4.3)将处理后的图片及标签存储为TFRecord格式,以减少存储空间,加速模型的读写及训练速度。
(4.4)利用深度学习算法对图片进行识别。
进一步的,所述步骤(4.4)具体如下:
(4.4.1)利用深度学习模型(深度学习模型可以采用自AlexNet、SqueezeNet、GooLeNet、ImageNet、Faster R-CNN、R-FCN、YOLO卷积神经网络模型等,本实施例中采用AlexNet卷积神经网络模型作为示例)对步骤(3)所存储的TFRecords数据进行计算;
(4.4.2)计算模型损失函数,该损失函数采用交叉熵损失函数,具体定义如下:
(4.4.3)采用梯度下降法结合滑动平均,以损失函数为目标函数进行迭代计算;
(4.4.4)将训练好的,模型存储为ckpt模型,迁移到无人车上对步骤(3)所获取的特征图片进行识别,便于持久化和迁移学习。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (6)
1.一种基于传感器融合的图像快速识别方法,其特征在于,包括如下步骤:
步骤(1)根据惯导和高精度地图,获得车载惯导和交通标志的经度、纬度、高度信息,通过姿态矩阵转换和坐标变换,得到相机与交通标志的相对位置和姿态关系;
步骤(2)根据相机坐标系与像平面坐标系的关系,获取交通标志在像平面坐标系的位置,并转换成像素坐标系坐标;
步骤(3)根据交通标志在像素坐标系中位置,提取图片中交通标志重要特征;
步骤(4)对交通标志进行识别;
所述步骤(1)具体如下:
步骤(1.1)通过惯导在线解算,获得载体的实时精度Ba、维度La、高度Ha,据此获得高精度地图中相对应的交通标志及其经度Bs、纬度Ls、高度Hs,并将载体及对应的交通标志的经度、纬度、高度信息分别转换为WGS84地心坐标系的坐标(xia,yia,zia)和(xis,yis,zis);
步骤(1.2)建立以惯导载体中心为原点O,以东向为X轴,北向为Y轴,天向为Z轴的导航坐标系Oan-XanYanZa,通过坐标系转换,得到交通标志位置信息在导航坐标系Oan-XanYanZa中的坐标(xan,yan,zan);
步骤(1.3)根据惯导输出的姿态信息:偏航角φab、俯仰角θab和滚转角γab,建立载体姿态矩阵,并将步骤(1.2)中载体导航坐标系Oan-XanYanZan转换得到载体本体坐标系Oab-XabYabZab,其中传感器中心为原点O,沿纵轴向前为Y轴,垂直于纵轴指向右侧为X轴,垂直于O-XY平面向上为Z轴,通过姿态矩阵转换得到交通标志位置信息在载体本体坐标系中的坐标(xab,yab,zab);
步骤(1.4)建立以相机光心为原点,光轴为Z轴的相机坐标系Ocb-XcbYcbZcb,通过姿态转换矩阵得到交通标志位置信息在相机坐标系Ocb-XcbYcbZcb的坐标。
2.根据权利要求1所述的一种基于传感器融合的图像快速识别方法,其特征在于,所述步骤(2)具体如下:
步骤(2.1)根据相机坐标系Ocb-XcbYcbZcb-图像平面坐标系O-XY转换关系以及相焦距f,获取交通标志在图像平面坐标系O-XY坐标(x,y);
步骤(2.2)根据图像平面坐标系O-XY-像素坐标系Ouv-UV关系,利用转换矩阵及相机解像力Rex、Rey获取交通标志在像素坐标系坐标(u,v)。
3.根据权利要求1所述的一种基于传感器融合的图像快速识别方法,其特征在于,所述步骤(3)具体如下:
步骤(3.1)以步骤(2)所确定的交通标志在像素坐标系位置为中心,截取给定范围的尺寸,以准确获取交通标志特征。
4.根据权利要求1所述的一种基于传感器融合的图像快速识别方法,其特征在于,所述步骤(4)具体如下:
步骤(4.1)采用双三次插值算法或其他算法将采集的训练集原始图片尺寸归一化;
步骤(4.2)对归一化后的图片增强对比度,减少光照强度带来的影响;
步骤(4.3)将处理后的图片及标签存储为TFRecord格式;
步骤(4.4)利用深度学习算法对图片进行识别。
5.根据权利要求4所述的一种基于传感器融合的图像快速识别方法,其特征在于,所述步骤(4.4)具体如下:
步骤(4.4.1)利用深度学习模型对步骤(4.3)所存储的TFRecords数据进行训练;
步骤(4.4.2)计算模型损失函数,该损失函数采用交叉熵损失函数;
步骤(4.4.3)采用梯度下降法结合滑动平均,以损失函数为目标函数进行迭代计算;
步骤(4.4.4)将训练好的模型存储为ckpt模型,迁移到无人车上对步骤(3)所获取的特征图片进行识别。
6.根据权利要求5所述的一种基于传感器融合的图像快速识别方法,其特征在于,所述步骤(4.4.1)中的深度学习模型选自AlexNet、SqueezeNet、GooLeNet、ImageNet、Faster R-CNN、R-FCN、YOLO卷积神经网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910437779.6A CN110135387B (zh) | 2019-05-24 | 2019-05-24 | 一种基于传感器融合的图像快速识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910437779.6A CN110135387B (zh) | 2019-05-24 | 2019-05-24 | 一种基于传感器融合的图像快速识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110135387A CN110135387A (zh) | 2019-08-16 |
CN110135387B true CN110135387B (zh) | 2021-03-02 |
Family
ID=67572988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910437779.6A Active CN110135387B (zh) | 2019-05-24 | 2019-05-24 | 一种基于传感器融合的图像快速识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110135387B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113465608B (zh) * | 2021-07-22 | 2024-05-03 | 清华大学苏州汽车研究院(吴江) | 一种路侧传感器标定方法及*** |
CN115164912A (zh) * | 2022-06-24 | 2022-10-11 | 宁波均胜智能汽车技术研究院有限公司 | 一种车辆位置的定位方法、装置和可读存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103207090B (zh) * | 2013-04-09 | 2016-02-24 | 北京理工大学 | 一种无人驾驶车辆环境模拟测试***及测试方法 |
CN103942546B (zh) * | 2014-05-08 | 2017-09-12 | 奇瑞汽车股份有限公司 | 一种城市环境中导向交通标线识别***及方法 |
CN106560835B (zh) * | 2015-09-30 | 2019-05-24 | 高德软件有限公司 | 一种路牌识别方法及装置 |
CN106326858A (zh) * | 2016-08-23 | 2017-01-11 | 北京航空航天大学 | 一种基于深度学习的公路交通标志自动识别与管理*** |
CN107782335B (zh) * | 2016-08-31 | 2021-07-13 | 北京自动化控制设备研究所 | 一种非接触式线路检测***惯导与激光测距仪自标定方法 |
CN106407947B (zh) * | 2016-09-29 | 2019-10-22 | 百度在线网络技术(北京)有限公司 | 用于无人驾驶车辆的目标物体识别方法和装置 |
CN106559755B (zh) * | 2016-11-08 | 2019-10-22 | 长安大学 | 基于冲突检测下QoS保障的车联网电子交通标识广播方法 |
CN107422730A (zh) * | 2017-06-09 | 2017-12-01 | 武汉市众向科技有限公司 | 基于视觉导引的agv运输***及其驾驶控制方法 |
CN107957266B (zh) * | 2017-11-16 | 2020-09-01 | 北京小米移动软件有限公司 | 定位方法、装置及存储介质 |
CN108717712B (zh) * | 2018-05-29 | 2021-09-03 | 东北大学 | 一种基于地平面假设的视觉惯导slam方法 |
CN108628324B (zh) * | 2018-07-12 | 2021-03-02 | 中国科学院深圳先进技术研究院 | 基于矢量地图的无人车导航方法、装置、设备及存储介质 |
CN108983219B (zh) * | 2018-08-17 | 2020-04-07 | 北京航空航天大学 | 一种交通场景的图像信息和雷达信息的融合方法及*** |
CN109753949B (zh) * | 2019-01-31 | 2022-08-12 | 南京邮电大学 | 一种基于深度学习的多视窗交通标志检测方法 |
-
2019
- 2019-05-24 CN CN201910437779.6A patent/CN110135387B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110135387A (zh) | 2019-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109945858B (zh) | 用于低速泊车驾驶场景的多传感融合定位方法 | |
CN108802785B (zh) | 基于高精度矢量地图和单目视觉传感器的车辆自定位方法 | |
CN106919915B (zh) | 基于adas***的地图道路标记及道路质量采集装置及方法 | |
CN111830953B (zh) | 车辆自定位方法、装置及*** | |
CN108416808B (zh) | 车辆重定位的方法及装置 | |
CN109949439B (zh) | 行车实景信息标注方法、装置、电子设备和介质 | |
CN108388641B (zh) | 一种基于深度学习的交通设施地图生成方法与*** | |
CN109961522B (zh) | 图像投射方法、装置、设备和存储介质 | |
WO2020083103A1 (zh) | 一种基于深度神经网络图像识别的车辆定位方法 | |
CN114413881B (zh) | 高精矢量地图的构建方法、装置及存储介质 | |
US10872246B2 (en) | Vehicle lane detection system | |
JP2020508528A (ja) | 撮像システム | |
US11430199B2 (en) | Feature recognition assisted super-resolution method | |
Pepperell et al. | Towards persistent visual navigation using smart | |
CN110135387B (zh) | 一种基于传感器融合的图像快速识别方法 | |
CN114663852A (zh) | 车道线图的构建方法、装置、电子设备及可读存储介质 | |
Tian et al. | Road marking detection based on mask R-CNN instance segmentation model | |
CN110751693A (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
CN116997771A (zh) | 车辆及其定位方法、装置、设备、计算机可读存储介质 | |
CN113343875A (zh) | 一种用于机器人的可行驶区域感知方法 | |
CN113743163A (zh) | 交通目标识别模型训练方法、交通目标定位方法、装置 | |
CN113673386A (zh) | 一种交通信号灯在先验地图中的标注方法 | |
CN116403186A (zh) | 基于FPN Swin Transformer与Pointnet++ 的自动驾驶三维目标检测方法 | |
CN113837064B (zh) | 道路识别方法、***和可读存储介质 | |
US11461944B2 (en) | Region clipping method and recording medium storing region clipping program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230808 Address after: Room 410, 4th Floor, No. 4, Yard 19, Huangping Road, Changping District, Beijing 102200 Patentee after: Beijing Kunpeng Borui Technology Co.,Ltd. Address before: 100039 times Instruments Co., Ltd., Ministry of space, No. 50, Yongding Road, Haidian District, Beijing Patentee before: Li Ziyue |
|
TR01 | Transfer of patent right |