CN113129370B - 结合生成数据和无标注数据的半监督物***姿估计方法 - Google Patents
结合生成数据和无标注数据的半监督物***姿估计方法 Download PDFInfo
- Publication number
- CN113129370B CN113129370B CN202110241227.5A CN202110241227A CN113129370B CN 113129370 B CN113129370 B CN 113129370B CN 202110241227 A CN202110241227 A CN 202110241227A CN 113129370 B CN113129370 B CN 113129370B
- Authority
- CN
- China
- Prior art keywords
- data
- training
- point cloud
- pose
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种结合生成数据和无标注数据的半监督物***姿估计方法,包括以下步骤:1)生成带有位姿标签的点云数据,即生成数据;2)获取目标物体不带标签的彩色图像和深度图像,将彩色图像输入到训练好的实例分割网络,得到实例分割结果,根据分割结果从深度图像中得到目标物体的点云,即无标签的真实数据;3)每个训练周期内,采用生成数据对位姿估计网络模型进行有监督训练,采用无标签的真实数据对位姿估计网络模型进行自监督训练;4)在每个训练周期结束后,采用部分真实数据计算位姿估计网络模型的准确度。与现有技术相比,本发明主要解决了6D位姿标签获取困难的问题,只需利用合成数据和无标注真实数据,即可实现准确的物***姿估计。
Description
技术领域
本发明涉及机器人视觉领域,尤其是涉及一种结合生成数据和无标注数据的半监督物***姿估计方法。
背景技术
基于计算机视觉的物***姿估计技术是实现机器人抓取和灵巧操作的关键技术,对于提高机器人的环境和任务适应性,拓宽机器人的应用领域,提升机器人在智能制造、仓储物流、家庭服务等场景中的灵活性和应用效能具有重要意义。此外,该技术在自动驾驶、增强现实、虚拟现实等领域,也有广阔的应用前景。
近年来,随着深度学习技术的蓬勃发展,基于深度学习的物***姿估计取得了较好的效果。在背景杂乱、物体堆叠遮挡、光照变化等非结构化场景下,深度学习方法的鲁棒性、准确性和实时性都优于传统的位姿估计方法。但是,深度学习方法是一类数据驱动的算法,要取得理想的效果,需要大量带有标签的训练数据,然而在物***姿估计领域,6D标签的获取难度较大,费时费力。
为了解决数据获取问题,现阶段主要有两类方法。一类是使用物体的CAD模型人工合成数据。但是直接合成的数据和真实数据之间存在领域差异,导致在合成数据上训练的模型在真实场景中效果不理想。为了消除领域差异,已出现了领域随机化、领域自适应和高度真实感图像生成等几类方法,尽管这些方法取得了一定的效果,但是始终未达到利用真实数据训练出的模型的效果。第二类是基于自监督和半监督学习的方法。自监督和半监督学习是近年来的研究热点,已在图像分类、人***姿估计等领域开展了较为广泛的研究,而在物***姿估计领域仅有少数尝试,现有的一种方法根据网络预测的位姿,通过模型渲染的方式生成相应的掩膜图、彩色图和深度图,将之和实际输入进行视觉对齐和几何对齐,以此作为网络的监督学习目标,进而实现网络的自监督训练。尽管不需要进行位姿标注,该方法依然需要利用生成的彩色图像来进行监督,领域差异的影响未消除,该方法的准确性也不能满足实际应用的需求。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种结合生成数据和无标注数据的半监督物***姿估计方法。
本发明的目的可以通过以下技术方案来实现:
一种结合生成数据和无标注数据的半监督物***姿估计方法,包括以下步骤:
1)根据目标物体的CAD模型,生成带有位姿标签的点云数据,即生成数据;
2)获取目标物体不带标签的彩色图像和深度图像,将彩色图像输入到训练好的实例分割网络,得到实例分割结果,根据分割结果从深度图像中得到目标物体的点云,即无标签的真实数据;
3)在每个训练周期内,采用生成数据对位姿估计网络模型进行有监督训练,采用无标签的真实数据对位姿估计网络模型进行自监督训练;
4)在每个训练周期结束后,采用部分真实数据计算位姿估计网络模型的准确度,并据此选择最终的位姿估计网络模型,根据最终的位姿估计网络模型实现物体的位姿估计。
所述的步骤3)中,在每个训练周期内,先进行有监督训练,再进行自监督训练。
在采用生成数据对位姿估计网络模型进行有监督训练的过程中,分别根据位姿估计网络模型预测得到的位姿与位姿标签上的真实位姿对输入的点云数据进行转换,计算转换后两个点云之间的平均距离,作为有监督训练的损失函数。
在采用无标签的真实数据对位姿估计网络模型进行自监督训练的过程中,根据位姿估计网络模型预测得到的位姿对模型点云进行转换,并计算转换后的模型点云和实际输入的真实数据之间的平均距离,以此形成一个自监督训练的损失函数。
计算转换后的模型点云和实际输入的真实数据之间的平均距离具体为:
对于实际输入真实数据点云中的每一个点,在由位姿估计网络模型转换后的模型点云中获取与其空间距离最近的点,形成最近点点集,然后计算实际点云与最近点点集中对应点的平均距离,即转换后的模型点云和实际输入的真实数据之间的平均距离。
自监督训练的损失函数L的表达式为:
在采用无标签的真实数据对位姿估计网络模型进行自监督训练的过程中,对输入的真实数据进行一个随机齐次变换,得到一个新的点云,将随机齐次变换前后的两个点云分别输入到位姿估计网络模型中进行位姿变换,并分别根据预测的位姿计算两个自监督损失函数,共同进行训练。
在自监督训练中,完整的自监督损失函数的表达式为:
其中,下标1和2分别对应表示随机齐次变换前后的两个点云。
所述的步骤4)中,每个训练周期结束后,在一个测试集上计算实际点云和转换模型点云之间的平均距离,作为位姿估计网络模型准确性的评价指标,平均距离越小,则认为模型越准确。
在第一个训练周期结束后,将计算出的平均距离作为最优距离,对于之后的训练周期,若计算得到的平均距离小于最优距离,则更新最优距离值,若平均距离大于最优距离,且差值大于设定阈值,则舍弃该周期训练出的模型,下个周期继续在前一个周期模型的基础上进行训练。
与现有技术相比,本发明具有以下优点:
一、本发明提出的使用生成数据和无标注真实数据的半监督训练方法,解决了现有基于深度学习的物***姿估计方法对于大规模标注真实数据的依赖问题,极大提升了位姿估计应用的灵活性。
二、本发明在自监督训练的过程中,采用点云变换策略,同时计算两个自监督损失对网络进行训练,有效防止了点云之间的误对齐对于网络训练的影响。
三、本发明在每个训练周期,依次利用生成数据进行有监督训练,利用真实数据进行自监督训练,此种训练方式,有效防止了网络陷入局部最优的情况,极大提高了网络模型的准确性。
附图说明
图1为本发明的半监督位姿估计方法的流程图。
图2为部分位姿估计结果图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本实施例提供了一种基于生成数据和无标注真实数据的半监督物***姿估计方法,该方法的框架示意图如图1所示,具体包括以下步骤:
S1、利用物体的CAD模型,生成带有位姿标签的物体点云数据;
S2、获取目标物体不带标签的彩色图像和深度图像,将彩色图像输入到训练好的实例分割网络,得到实例分割结果,根据分割结果从深度图像中得到目标物体的点云;
S3、在每个训练周期,利用带标签的生成数据对位姿估计网络进行有监督训练,利用无标签的真实数据对网络进行自监督训练。
S4、每个训练周期结束,利用部分真实数据计算位姿估计模型的准确度,据此选择最终的网络模型。
在步骤S1实施过程中,使用OpenGL对物体CAD模型进行渲染输出,得到带标签的不同位姿下的物体点云数据。
在步骤S2实施过程中,首先使用带2D掩膜标签的真实彩色图像训练实例分割网络;之后利用训练好的分割网络对真实彩色图像进行分割,根据分割结果,结合相机内参,把深度图中的物体部分转换成物体点云,作为下一步位姿估计网络的输入。
在步骤S3实施过程中,在每个训练周期,先利用生成数据对位姿估计网络进行有监督训练,再利用无标签的真实数据对网络进行自监督训练,如图1所示。其中,在使用带标签的生成数据进行有监督训练时,分别利用网络预测的位姿和真实位姿对物体模型点云进行转换,计算两个转换模型点云之间的平均距离,作为有监督训练的损失函数。在使用真实数据对网络进行自监督训练时,利用网络预测的位姿对物体模型点云进行转换,然后计算转换模型点云和实际输入点云之间的平均距离,以此形成一个自监督训练的损失函数。转换模型点云和实际输入点云之间的平均距离通过如下方式计算:
对于实际输入点云中的每一个点,在转换模型点云中找到和它空间距离最近的点,形成最近点点集;然后计算实际点云和最近点点集中对应点的平均距离,作为转换模型点云和实际输入点云之间的平均距离。计算公式如下:
此外,在自监督训练过程中,首先对输入点云进行一个随机齐次变换,得到一个新的点云,将这两个点云分别输入到网络中进行位姿变换,并根据分别预测的位姿计算两个自监督损失,共同对网络进行训练。完整的自监督损失函数如下式:
在步骤S4实施过程中,每个训练周期结束后,在一个测试集上计算实际点云和转换模型点云之间的平均距离,作为模型准确性的评价指标。平均距离越小,则认为模型越准确。在第一个训练周期,将计算出的平均距离作为最优距离。之后的训练周期,如果平均距离小于最优距离,则更新最优距离值;如果平均距离大于最优平均距离,且差值大于设定阈值,则舍弃此周期训练出的模型,下个周期继续在前一个周期模型的基础上进行训练。
综上,与现有技术中的位姿估计方法相比,本发明最大的创新点包括以下三点:
一、本发明仅需要生成数据和未标注的真实数据即可对位姿估计网络进行训练,解决了现有方法中6D位姿标签获取困难的问题,极大提升了位姿估计应用的灵活性。
二、本发明提出了一种基于点云的物***姿估计自监督训练方法,通过将变换模型点云和实际物体点云对齐,实现了网络的自监督;并且提出了点云变换策略,同时计算两个自监督损失对网络进行训练,有效防止了点云之间的误对齐对于网络训练的影响。
三、本发明提出了半监督的训练方法,即在每个训练周期,依次利用生成数据进行有监督训练,利用真实数据进行自监督训练,此种训练方式,有效防止了网络陷入局部最优的情况,极大提高了网络模型的准确性。部分位姿估计的结果如图2所示。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (4)
1.一种结合生成数据和无标注数据的半监督物***姿估计方法,其特征在于,包括以下步骤:
1)根据目标物体的CAD模型,生成带有位姿标签的点云数据,即生成数据;
2)获取目标物体不带标签的彩色图像和深度图像,将彩色图像输入到训练好的实例分割网络,得到实例分割结果,根据分割结果从深度图像中得到目标物体的点云,即无标签的真实数据;
3)在每个训练周期内,采用生成数据对位姿估计网络模型进行有监督训练,采用无标签的真实数据对位姿估计网络模型进行自监督训练,在每个训练周期内,先进行有监督训练,再进行自监督训练,在采用无标签的真实数据对位姿估计网络模型进行自监督训练的过程中,根据位姿估计网络模型预测得到的位姿对模型点云进行转换,并计算转换后的模型点云和实际输入的真实数据之间的平均距离,以此形成一个自监督训练的损失函数,计算转换后的模型点云和实际输入的真实数据之间的平均距离具体为:
对于实际输入真实数据点云中的每一个点,在由位姿估计网络模型转换后的模型点云中获取与其空间距离最近的点,形成最近点点集,然后计算实际点云与最近点点集中对应点的平均距离,即转换后的模型点云和实际输入的真实数据之间的平均距离;
自监督训练的损失函数L的表达式为:
在采用无标签的真实数据对位姿估计网络模型进行自监督训练的过程中,对输入的真实数据进行一个随机齐次变换,得到一个新的点云,将随机齐次变换前后的两个点云分别输入到位姿估计网络模型中进行位姿变换,并分别根据预测的位姿计算两个自监督损失函数,共同进行训练,在自监督训练中,完整的自监督损失函数的表达式为:
其中,下标1和2分别对应表示随机齐次变换前后的两个点云;
4)在每个训练周期结束后,采用部分真实数据计算位姿估计网络模型的准确度,并据此选择最终的位姿估计网络模型,根据最终的位姿估计网络模型实现物体的位姿估计。
2.根据权利要求1所述的一种结合生成数据和无标注数据的半监督物***姿估计方法,其特征在于,在采用生成数据对位姿估计网络模型进行有监督训练的过程中,分别根据位姿估计网络模型预测得到的位姿与位姿标签上的真实位姿对输入的点云数据进行转换,计算转换后两个点云之间的平均距离,作为有监督训练的损失函数。
3.根据权利要求1所述的一种结合生成数据和无标注数据的半监督物***姿估计方法,其特征在于,所述的步骤4)中,每个训练周期结束后,在一个测试集上计算实际点云和转换模型点云之间的平均距离,作为位姿估计网络模型准确性的评价指标,平均距离越小,则认为模型越准确。
4.根据权利要求3所述的一种结合生成数据和无标注数据的半监督物***姿估计方法,其特征在于,在第一个训练周期结束后,将计算出的平均距离作为最优距离,对于之后的训练周期,若计算得到的平均距离小于最优距离,则更新最优距离值,若平均距离大于最优距离,且差值大于设定阈值,则舍弃该周期训练出的模型,下个周期继续在前一个周期模型的基础上进行训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110241227.5A CN113129370B (zh) | 2021-03-04 | 2021-03-04 | 结合生成数据和无标注数据的半监督物***姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110241227.5A CN113129370B (zh) | 2021-03-04 | 2021-03-04 | 结合生成数据和无标注数据的半监督物***姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113129370A CN113129370A (zh) | 2021-07-16 |
CN113129370B true CN113129370B (zh) | 2022-08-19 |
Family
ID=76772511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110241227.5A Active CN113129370B (zh) | 2021-03-04 | 2021-03-04 | 结合生成数据和无标注数据的半监督物***姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113129370B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023206268A1 (zh) * | 2022-04-28 | 2023-11-02 | 西门子股份公司 | 训练数据集的生成方法、装置、电子设备和可读介质 |
CN115953410B (zh) * | 2023-03-15 | 2023-05-12 | 安格利(成都)仪器设备有限公司 | 一种基于目标检测监督学习的腐蚀坑自动检测方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845515A (zh) * | 2016-12-06 | 2017-06-13 | 上海交通大学 | 基于虚拟样本深度学习的机器人目标识别和位姿重构方法 |
CN108491880A (zh) * | 2018-03-23 | 2018-09-04 | 西安电子科技大学 | 基于神经网络的物体分类和位姿估计方法 |
CN109816725A (zh) * | 2019-01-17 | 2019-05-28 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度学习的单目相机物***姿估计方法及装置 |
EP3500897A1 (en) * | 2016-08-29 | 2019-06-26 | Siemens Aktiengesellschaft | Method and system for anomaly detection in a manufacturing system |
CN110490928A (zh) * | 2019-07-05 | 2019-11-22 | 天津大学 | 一种基于深度神经网络的相机姿态估计方法 |
CN110503680A (zh) * | 2019-08-29 | 2019-11-26 | 大连海事大学 | 一种基于非监督的卷积神经网络单目场景深度估计方法 |
CN110910451A (zh) * | 2019-10-23 | 2020-03-24 | 同济大学 | 一种基于变形卷积网络的物***姿估计方法及*** |
CN111797692A (zh) * | 2020-06-05 | 2020-10-20 | 武汉大学 | 一种基于半监督学习的深度图像手势估计方法 |
CN111931591A (zh) * | 2020-07-15 | 2020-11-13 | 北京百度网讯科技有限公司 | 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质 |
-
2021
- 2021-03-04 CN CN202110241227.5A patent/CN113129370B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3500897A1 (en) * | 2016-08-29 | 2019-06-26 | Siemens Aktiengesellschaft | Method and system for anomaly detection in a manufacturing system |
CN106845515A (zh) * | 2016-12-06 | 2017-06-13 | 上海交通大学 | 基于虚拟样本深度学习的机器人目标识别和位姿重构方法 |
CN108491880A (zh) * | 2018-03-23 | 2018-09-04 | 西安电子科技大学 | 基于神经网络的物体分类和位姿估计方法 |
CN109816725A (zh) * | 2019-01-17 | 2019-05-28 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度学习的单目相机物***姿估计方法及装置 |
CN110490928A (zh) * | 2019-07-05 | 2019-11-22 | 天津大学 | 一种基于深度神经网络的相机姿态估计方法 |
CN110503680A (zh) * | 2019-08-29 | 2019-11-26 | 大连海事大学 | 一种基于非监督的卷积神经网络单目场景深度估计方法 |
CN110910451A (zh) * | 2019-10-23 | 2020-03-24 | 同济大学 | 一种基于变形卷积网络的物***姿估计方法及*** |
CN111797692A (zh) * | 2020-06-05 | 2020-10-20 | 武汉大学 | 一种基于半监督学习的深度图像手势估计方法 |
CN111931591A (zh) * | 2020-07-15 | 2020-11-13 | 北京百度网讯科技有限公司 | 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113129370A (zh) | 2021-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111179324B (zh) | 基于颜色和深度信息融合的物体六自由度位姿估计方法 | |
CN109816725A (zh) | 一种基于深度学习的单目相机物***姿估计方法及装置 | |
CN111145253B (zh) | 一种高效的物体6d姿态估计算法 | |
CN108648274B (zh) | 一种视觉slam的认知点云地图创建*** | |
CN113129370B (zh) | 结合生成数据和无标注数据的半监督物***姿估计方法 | |
CN109815847B (zh) | 一种基于语义约束的视觉slam方法 | |
Wang et al. | Occlusion-aware self-supervised monocular 6D object pose estimation | |
CN113012122B (zh) | 一种类别级6d位姿与尺寸估计方法及装置 | |
Liang et al. | A survey of 3D object detection | |
CN111797692B (zh) | 一种基于半监督学习的深度图像手势估计方法 | |
CN113408584B (zh) | Rgb-d多模态特征融合3d目标检测方法 | |
CN113297988B (zh) | 一种基于域迁移和深度补全的物体姿态估计方法 | |
US20240144515A1 (en) | Weakly paired image style transfer method based on pose self-supervised generative adversarial network | |
CN114613013A (zh) | 一种基于骨骼节点的端到端人类行为识别方法与模型 | |
Du et al. | Stereo-matching network for structured light | |
Xu | The research on applying artificial intelligence technology to virtual youtuber | |
CN117011380A (zh) | 一种目标物体的6d位姿估计方法 | |
CN114022602B (zh) | 一种基于渲染的三维物体检测器训练方法 | |
CN115578511A (zh) | 一种半监督单视角3d物体重建方法 | |
CN112489218B (zh) | 一种基于半监督学习的单视图三维重建***及其方法 | |
Qiu et al. | HGG-CNN: the generation of the optimal robotic grasp pose based on vision | |
Xie et al. | ADFNet: A two-branch robotic grasping network based on attention mechanism | |
Niu et al. | Real-time recognition and location of indoor objects | |
Xie et al. | Research on self-supervised depth estimation algorithm of driving scene based on monocular vision | |
CN114266900B (zh) | 一种基于动态卷积的单目3d目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |