CN110136175A - 一种基于神经网络的室内典型场景匹配定位方法 - Google Patents
一种基于神经网络的室内典型场景匹配定位方法 Download PDFInfo
- Publication number
- CN110136175A CN110136175A CN201910422946.XA CN201910422946A CN110136175A CN 110136175 A CN110136175 A CN 110136175A CN 201910422946 A CN201910422946 A CN 201910422946A CN 110136175 A CN110136175 A CN 110136175A
- Authority
- CN
- China
- Prior art keywords
- neural network
- typical scene
- deep neural
- similarity
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于神经网络的室内典型场景匹配定位方法,包括:步骤一、在服务器端建立标准典型场景定位图像库;步骤二、采用Siamese深度神经网络模型,通过大量数据训练,使神经网络从数据中学习判断相似性度量的方法;步骤三、深度神经网络输出特征向量,利用特征向量计算与标准典型场景图像库的相似度,通过相似度大小来判断典型场景匹配程度的高低,评估模型的好坏;步骤四、将训练好的模型搭载入服务器,获取视频数据送入服务器中训练好的深度神经网络进行计算相似度,判别当前所在的位置。本发明所述方法具有训练效率高、收敛性强、建模精度高、匹配效果好、满足复杂环境等优点,可准确、高效地实现设备在线室内典型场景中的匹配定位。
Description
技术领域
本发明涉及计算机视觉领域,特别涉及基于神经网络的室内典型场景匹配定位方法。
背景技术
随着科学技术的进步和人们经济实力的提高,位置定位服务越发受到人们的重视,目前,室外的定位***已经十分的成熟,而在室内环境中,由于屋内的墙壁遮挡和人流移动等因素,GPS***等室外定位***并不能有效定位。已有的基于iBeacon蓝牙模块室内定位的方法、利用Wi-Fi定位技术的方法等,容易受诸如定位方式自身定位精度低、建筑物遮挡等因素的影响,无法准确地定位用户当前位置。
现如今兴起的基于视觉的定位技术由于其所需设备简单,受影响因素较小而得到广泛关注。由于摄像头已经成为手机的标配,因此视觉定位无需添加附加设备,同时由于建筑成型后变化小,使基于视觉的定位受到影响因素较小。在本***中,利用用户获得的图像与标准典型场景数据库中的图像进行匹配,进而得到摄像头在线照片的位置信息。可以看出图像匹配的速率、精度和鲁棒性直接影响了定位的速率、精度以及鲁棒性。
在基于视觉的室内定位方法中,图像匹配技术是最为重要的技术环节,传统的图像匹配技术(比如直方图,SIFT算法)已经很难满足现在数据量大、环境复杂的要求。然而,大量的实验已经证明,深度学习技术采用了深度神经网络模型,在图像匹配技术方面能达到良好的效果。深度神经网络模型通过大量数据进行训练,并经过反向传播算法更新网络参数,训练好的深度神经网络可以获得摄像头的实时图像数据,并通过网络模型计算图像的特征和标准的典型场景图像之间的相似度,可以返回典型场景图像的对应位置信息。基于此,本发明提出了一种基于神经网络的室内典型场景匹配定位方法。
发明内容
本发明提出了一种基于神经网络的室内典型场景匹配定位方法,具有训练效率高、收敛性强、建模精度高、匹配效果好、满足复杂环境等优点。
为实现上述技术目的,本发明采用以下技术方案:
首先在服务器端建立标准的典型场景定位图像库,库中的图像均标记有对应的位置信息。其次,训练一个深度卷积神经网络模型,功能是用于提取图像的特征并计算图像间的相似度。神经网络通过大量数据训练,计算损失函数后反向传播,更新网络参数,提高监测效果的准确性。再次,在服务器内搭建已训练完成的神经网络,移动摄像头获取实时视频数据,经过数据预处理后输入神经网络,神经网络输出特征向量,利用特征向量分别计算输入视频帧与标准典型场景图像库中的n个典型场景图像的相似度s1,...,sn,当相似度大于设定的阈值时,证明输入的视频帧匹配上了典型场景,并且返回相似度s1,...,sn中最大值对应的典型场景的位置。最后,通过计算相似度可以实现室内典型场景匹配定位功能。
与现有的室内典型场景匹配定位方法相比,本发明的有益效果是:
1)采用深度学习技术,建立深度神经网络模型,并通过大量数据对深度神经网络模型进行训练,提高了检测准确率、检测效率。
2)采用了移动摄像头与深度神经网络结合,能够实时地进行场景匹配,有效地弥补了室内定位的缺点和不足,可以实现室内典型场景匹配的功能。
3)采用深度学习技术,比传统的图像匹配技术(比如直方图,SIFT算法)更能满足环境复杂的要求。一旦设备部署完毕,可以长时间高效地工作,完成室内典型场景的匹配,返回当前所在位置的功能,为室内定位提供了一种新型解决方案。
附图说明
图1本发明所述方法采用的设备结构示意图。
图2本发明的深度神经网络模型示意图。
图3本发明的视频数据采集流程示意图。
图4本发明的典型场景判别器流程示意图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
如图1所示,本实施例所述方法采用视频数据采集装置、计算机/服务器和典型场景判别器,服务器与视频采集装置连接;如图3所示,视频数据采集装置包括移动摄像头、视频帧格式化处理模块和图像预处理模块,移动摄像头用于获取视频数据,视频帧格式化处理模块用于将实时视频数据转换为格式化的视频帧f(x,t),其中t表示时间,函数f(·)表示视频数据格式化函数;图像预处理模块根据视频采集装置采集的视频图像,判断是否需要对采集图像进行预处理,其他功能与现有视频采集技术相同,在此不做赘述。
本发明所述一种基于神经网络的室内典型场景匹配定位方法,包含以下步骤:
步骤一、在服务器端建立标准典型场景定位图像库,库中的图像均标记有对应的位置信息。并制作大量的典型场景数据集,用于训练深度神经网络;
为获得较高的监测准确率,深度神经网络需要经过大量的数据进行训练,通过大量数据的训练,可以获取数据的特征向量并且计算与标准图像的相似度。为此,在搭建深度神经网络之前,需要制作一个定位图像库和完善的训练数据集,分别用于场景匹配和训练深度神经网络。
步骤二、采用Siamese深度神经网络模型,通过大量数据训练,使神经网络从数据中学习判断相似性度量的方法;
本发明采用了Siamese深度神经网络模型,该模型广泛用于图像视觉领域并且表现优异,其功能是用于度量输入数据之间的相似性。
其网络结构如图2所示:
Siamese网络的特点是左右两边两个网络是完全相同的网络结构,它们共享相同的权值W,输入数据为一对图片(X1,X2,Y),其中Y=0表示X1和X2属于同一个类别的图片,Y=1则表示不为同一个类别的图片。网络将输出低维空间结果为GW(X1)和GW(X2),它们是由X1和X2经过网络映射得到的。然后将得到的这两个输出结果使用函数EW(X1,X2)进行比较。
网络的损失函数定义为:
其中(Y,X1,X2)i是第i组样本,是由一对图片和一个标签Y组成的,W为网络的权重,m为设定的阈值,DW为网络在低维空间中输出的特征向量。对比损失函数可以驱使相似的样本靠近,不相似的样本远离,采用欧式距离就可以判断两张图片的相似度,欧式距离越小,样本越相似;欧式距离越大,样本不相似。训练时,将一组图像和标签输入神经网络,神经网络将图像映射到新的空间,形成特征向量。将成对的训练数据输入神经网络,计算输出和训练数据标签之间的损失函数,再根据反向传播算法,更新网络中的各个参数,可以使神经网络从数据中学习判断相似性度量的方法,用这个学习得到的度量去比较和匹配新的未知类别的样本。
步骤三、深度神经网络输出特征向量,利用特征向量计算与标准典型场景图像库的相似度,通过相似度大小来判断典型场景匹配程度的高低,评估模型的好坏;
训练完的神经网络输出数据的特征向量,通过计算摄像头输入的视频帧与标准典型场景图像库的中n个图像的相似度s1,...,sn,当相似度大于设定的阈值时,证明摄像头输入的视频帧匹配上了典型场景,并且返回相似度s1,...,sn中最大值对应的典型场景的位置来判断当前所在的位置,并与真实的位置信息比较,验证模型的好坏。如果模型不好,修改网络的参数,重新训练。
步骤四、将训练好的并且达到精度要求的模型搭载入服务器,使用视频数据采集装置获取视频数据,送入服务器中训练好的深度神经网络进行计算,通过神经网络提取的特征向量计算与标准的n个典型场景图像的相似度,判别当前所在的位置。
在服务器上搭建已训练好的深度神经网络模型,通过视频数据采集装置获取当前所在处的实时视频数据。如图4所示,将处理好的视频数据输入服务器内已搭建好的深度神经网络,通过神经网络提取的特征向量计算与标准的n个典型场景图像的相似度s,相似度s经归一化处理后,s的取值范围从0到1;经过典型场景判别器可以判别当前所在的位置。通过上述方法,以实现室内典型场景匹配定位的功能。
Claims (7)
1.一种基于神经网络的室内典型场景匹配定位方法,其特征在于,包含以下步骤:
步骤一、在服务器端建立标准典型场景定位图像库,定位图像库中的图像均标记有对应的位置信息,并制作典型场景训练数据集,用于训练深度神经网络;
步骤二、采用Siamese深度神经网络模型,通过大量数据训练,使深度神经网络从数据中学习判断相似性度量的方法;
步骤三、深度神经网络输出特征向量,利用特征向量计算与标准典型场景图像库的相似度,通过相似度大小来判断典型场景匹配程度的高低,评估模型的好坏;
步骤四、将训练好的并且达到精度要求的Siamese深度神经网络模型搭载入服务器,使用视频数据采集装置获取视频数据,送入服务器中训练好的深度神经网络进行计算,通过深度神经网络提取的特征向量计算与标准的n个典型场景图像的相似度,判别当前所在的位置。
2.如权利要求1所述的一种基于神经网络的室内典型场景匹配定位方法,其特征在于,步骤二中,通过大量数据训练时,将一组图像和标签输入神经网络,深度神经网络将图像映射到新的空间,形成特征向量;将成对的训练数据输入神经网络,计算输出和训练数据标签之间的损失函数,再根据反向传播算法,更新网络中的各个参数,使深度神经网络从数据中学习判断相似性度量的方法。
3.如权利要求1所述的一种基于神经网络的室内典型场景匹配定位方法,其特征在于,所述视频数据采集装置包括移动摄像头、视频帧格式化处理模块和图像预处理模块。
4.如权利要求3所述的一种基于神经网络的室内典型场景匹配定位方法,其特征在于,步骤三具体为:
训练完的深度神经网络输出数据的特征向量,利用特征向量计算移动摄像头输入的视频帧与标准典型场景图像库的中n个图像的相似度s1,...,sn,当相似度大于设定的阈值时,证明移动摄像头输入的视频帧匹配上了典型场景,并且返回相似度s1,...,sn中最大值对应的典型场景的位置来判断当前所在的位置,并与真实的位置信息比较,验证模型的好坏;如果模型不好,修改深度神经网络的参数,重新训练。
5.如权利要求4所述的一种基于神经网络的室内典型场景匹配定位方法,其特征在于,所述移动摄像头输入的视频帧,由视频帧格式化处理模块获得,视频帧格式化处理模块将实时视频数据转换为格式化的视频帧f(x,t),其中t表示时间,函数f(·)表示视频数据格式化函数。
6.如权利要求5所述的一种基于神经网络的室内典型场景匹配定位方法,其特征在于:步骤四中,所述服务器连接视频采集装置,视频采集装置将格式化后的视频帧f(x,t)传送至服务器进行处理:
将视频帧f(x,t)输入服务器内的深度神经网络,通过深度神经网络计算视频帧与标准典型场景图像的相似度s;相似度s经归一化处理后,s的取值范围从0到1;通过典型场景判别器,返回当前所在的位置,实现室内典型场景匹配定位。
7.如权利要求3所述的一种基于神经网络的室内典型场景匹配定位方法,其特征在于:所述图像预处理模块根据视频采集设备采集的视频图像,判断是否需要对采集图像进行预处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910422946.XA CN110136175A (zh) | 2019-05-21 | 2019-05-21 | 一种基于神经网络的室内典型场景匹配定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910422946.XA CN110136175A (zh) | 2019-05-21 | 2019-05-21 | 一种基于神经网络的室内典型场景匹配定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110136175A true CN110136175A (zh) | 2019-08-16 |
Family
ID=67571826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910422946.XA Pending CN110136175A (zh) | 2019-05-21 | 2019-05-21 | 一种基于神经网络的室内典型场景匹配定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110136175A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110704712A (zh) * | 2019-09-20 | 2020-01-17 | 武汉大学 | 基于图像检索的场景图片拍摄位置范围识别方法及*** |
CN111050294A (zh) * | 2020-02-24 | 2020-04-21 | 张早 | 一种基于深度神经网络的室内定位***及方法 |
CN111127532A (zh) * | 2019-12-31 | 2020-05-08 | 成都信息工程大学 | 基于深度学习特征光流的医学图像形变配准方法及*** |
CN111563564A (zh) * | 2020-07-20 | 2020-08-21 | 南京理工大学智能计算成像研究院有限公司 | 基于深度学习的散斑图像逐像素匹配方法 |
CN111738993A (zh) * | 2020-06-05 | 2020-10-02 | 吉林大学 | 一种基于g-w距离的蚁群图形匹配方法 |
CN112446799A (zh) * | 2019-09-03 | 2021-03-05 | 全球能源互联网研究院有限公司 | 一种基于ar设备虚拟交互的电网调度方法和*** |
CN112985419A (zh) * | 2021-05-12 | 2021-06-18 | 中航信移动科技有限公司 | 室内导航方法、装置、计算机设备及存储介质 |
CN113256541A (zh) * | 2021-07-16 | 2021-08-13 | 四川泓宝润业工程技术有限公司 | 利用机器学***台监控画面进行去水雾的方法 |
CN113554754A (zh) * | 2021-07-30 | 2021-10-26 | 中国电子科技集团公司第五十四研究所 | 一种基于计算机视觉的室内定位方法 |
CN113984055A (zh) * | 2021-09-24 | 2022-01-28 | 北京奕斯伟计算技术有限公司 | 室内导航定位方法和相关装置 |
CN114510044A (zh) * | 2022-01-25 | 2022-05-17 | 北京圣威特科技有限公司 | Agv导航船导航方法、装置、电子设备及存储介质 |
CN115201833A (zh) * | 2021-04-08 | 2022-10-18 | 中强光电股份有限公司 | 物件定位方法及物件定位*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106683195A (zh) * | 2016-12-30 | 2017-05-17 | 上海网罗电子科技有限公司 | 一种基于室内定位的ar场景渲染方法 |
CN107131883A (zh) * | 2017-04-26 | 2017-09-05 | 中山大学 | 基于视觉的全自动移动终端室内定位*** |
US9854206B1 (en) * | 2016-12-22 | 2017-12-26 | TCL Research America Inc. | Privacy-aware indoor drone exploration and communication framework |
CN108805149A (zh) * | 2017-05-05 | 2018-11-13 | 中兴通讯股份有限公司 | 一种视觉同步定位与地图构建的回环检测方法及装置 |
CN109506658A (zh) * | 2018-12-26 | 2019-03-22 | 广州市申迪计算机***有限公司 | 机器人自主定位方法和*** |
CN109671119A (zh) * | 2018-11-07 | 2019-04-23 | 中国科学院光电研究院 | 一种基于slam的室内定位方法及装置 |
-
2019
- 2019-05-21 CN CN201910422946.XA patent/CN110136175A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9854206B1 (en) * | 2016-12-22 | 2017-12-26 | TCL Research America Inc. | Privacy-aware indoor drone exploration and communication framework |
CN106683195A (zh) * | 2016-12-30 | 2017-05-17 | 上海网罗电子科技有限公司 | 一种基于室内定位的ar场景渲染方法 |
CN107131883A (zh) * | 2017-04-26 | 2017-09-05 | 中山大学 | 基于视觉的全自动移动终端室内定位*** |
CN108805149A (zh) * | 2017-05-05 | 2018-11-13 | 中兴通讯股份有限公司 | 一种视觉同步定位与地图构建的回环检测方法及装置 |
CN109671119A (zh) * | 2018-11-07 | 2019-04-23 | 中国科学院光电研究院 | 一种基于slam的室内定位方法及装置 |
CN109506658A (zh) * | 2018-12-26 | 2019-03-22 | 广州市申迪计算机***有限公司 | 机器人自主定位方法和*** |
Non-Patent Citations (2)
Title |
---|
MENGYUN LIU ET AL: ""Unsupervised Visual Representation Learning for Indoor Scenes with a Siamese ConvNet and Graph Constraints"", 《PREPRINTS.ORG》 * |
R. HADSELL ET AL.: ""Dimensionality Reduction by Learning an Invariant Mapping"", 《2006 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112446799A (zh) * | 2019-09-03 | 2021-03-05 | 全球能源互联网研究院有限公司 | 一种基于ar设备虚拟交互的电网调度方法和*** |
CN112446799B (zh) * | 2019-09-03 | 2024-03-19 | 全球能源互联网研究院有限公司 | 一种基于ar设备虚拟交互的电网调度方法和*** |
CN110704712A (zh) * | 2019-09-20 | 2020-01-17 | 武汉大学 | 基于图像检索的场景图片拍摄位置范围识别方法及*** |
CN111127532A (zh) * | 2019-12-31 | 2020-05-08 | 成都信息工程大学 | 基于深度学习特征光流的医学图像形变配准方法及*** |
CN111050294A (zh) * | 2020-02-24 | 2020-04-21 | 张早 | 一种基于深度神经网络的室内定位***及方法 |
CN111738993A (zh) * | 2020-06-05 | 2020-10-02 | 吉林大学 | 一种基于g-w距离的蚁群图形匹配方法 |
CN111563564A (zh) * | 2020-07-20 | 2020-08-21 | 南京理工大学智能计算成像研究院有限公司 | 基于深度学习的散斑图像逐像素匹配方法 |
CN115201833A (zh) * | 2021-04-08 | 2022-10-18 | 中强光电股份有限公司 | 物件定位方法及物件定位*** |
CN112985419A (zh) * | 2021-05-12 | 2021-06-18 | 中航信移动科技有限公司 | 室内导航方法、装置、计算机设备及存储介质 |
CN112985419B (zh) * | 2021-05-12 | 2021-10-01 | 中航信移动科技有限公司 | 室内导航方法、装置、计算机设备及存储介质 |
CN113256541A (zh) * | 2021-07-16 | 2021-08-13 | 四川泓宝润业工程技术有限公司 | 利用机器学***台监控画面进行去水雾的方法 |
CN113554754A (zh) * | 2021-07-30 | 2021-10-26 | 中国电子科技集团公司第五十四研究所 | 一种基于计算机视觉的室内定位方法 |
CN113984055A (zh) * | 2021-09-24 | 2022-01-28 | 北京奕斯伟计算技术有限公司 | 室内导航定位方法和相关装置 |
CN114510044A (zh) * | 2022-01-25 | 2022-05-17 | 北京圣威特科技有限公司 | Agv导航船导航方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136175A (zh) | 一种基于神经网络的室内典型场景匹配定位方法 | |
CN106845357B (zh) | 一种基于多通道网络的视频人脸检测和识别方法 | |
CN103530881B (zh) | 适用于移动终端的户外增强现实无标志点跟踪注册方法 | |
CN110532970B (zh) | 人脸2d图像的年龄性别属性分析方法、***、设备和介质 | |
CN109785337A (zh) | 一种基于实例分割算法的栏内哺乳动物清点方法 | |
CN109344813B (zh) | 一种基于rgbd的目标识别和场景建模方法 | |
CN109190446A (zh) | 基于三元组聚焦损失函数的行人再识别方法 | |
CN109635875A (zh) | 一种基于深度学习的端到端网口检测方法 | |
US20220180534A1 (en) | Pedestrian tracking method, computing device, pedestrian tracking system and storage medium | |
CN111209892A (zh) | 一种基于卷积神经网络的人群密度及数量估计方法 | |
CN108921057B (zh) | 基于卷积神经网络的对虾形态测量方法、介质、终端设备及装置 | |
CN104700408B (zh) | 一种基于摄像机网络的室内单目标定位方法 | |
CN107977656A (zh) | 一种行人重识别方法及*** | |
CN110874583A (zh) | 一种客流统计的方法、装置、存储介质及电子设备 | |
CN109886356A (zh) | 一种基于三分支神经网络的目标追踪方法 | |
CN112016497A (zh) | 基于人工智能的单视角太极拳动作分析及考核*** | |
CN108960142B (zh) | 基于全局特征损失函数的行人再识别方法 | |
CN107590460B (zh) | 人脸分类方法、装置及智能终端 | |
CN108470178B (zh) | 一种结合深度可信度评价因子的深度图显著性检测方法 | |
CN108961330A (zh) | 基于图像的猪体长测算方法及*** | |
CN113435282A (zh) | 基于深度学习的无人机影像麦穗识别方法 | |
CN109886242A (zh) | 一种行人重识别的方法及*** | |
CN107679469A (zh) | 一种基于深度学习的非极大值抑制方法 | |
CN109711267A (zh) | 一种行人重识别、行人运动轨迹生成方法及装置 | |
CN109117753A (zh) | 部位识别方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190816 |
|
RJ01 | Rejection of invention patent application after publication |