CN111680602A - 基于双流分级特征修正的行人重识别方法及模型架构 - Google Patents

基于双流分级特征修正的行人重识别方法及模型架构 Download PDF

Info

Publication number
CN111680602A
CN111680602A CN202010486379.7A CN202010486379A CN111680602A CN 111680602 A CN111680602 A CN 111680602A CN 202010486379 A CN202010486379 A CN 202010486379A CN 111680602 A CN111680602 A CN 111680602A
Authority
CN
China
Prior art keywords
features
feature
appearance
level
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010486379.7A
Other languages
English (en)
Inventor
高英
林文根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202010486379.7A priority Critical patent/CN111680602A/zh
Publication of CN111680602A publication Critical patent/CN111680602A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种基于双流分级特征修正的行人重识别方法,采用的步骤为:步骤一:在双流特此提取器的输入端分别输入RGB序列和光流序列,分别提取外观特征和光流特征;步骤二:将所述步骤一中所提取的外观特征和光流特征输入帧级特征修正器,按照视频流逐帧修正信息,得到帧级修正特征;步骤三:得到段级外观连续性和运动模式的特征表征;步骤四:将帧级修正特征与段级修正特征进行融合,得到最终的视频表征,进行视频分类。一种基于双流分级特征修正的行人重识别方法的***,由双流特征提取器、外观段级特征修正器连接、光流段级特征修正器、帧级特征修正器和通道融合模块连接四部分组成。

Description

基于双流分级特征修正的行人重识别方法及模型架构
技术领域
本发明涉及图像处理技术领域,具体涉及基于双流分级特征修正的行人重识别方法及模型架构。
背景技术
行人重识别:指在多个摄像机下准确查询和匹配同一个行人。主要包含基于图像的行人重识别和基于视频的行人重识别,本技术针对基于视频的行人重识别,具有连续帧、运动复杂的特点。
现有的视频行人重识别技术存在如下缺点:
1、现有的多数视频重识别架构都缺乏多模态融合的考虑。随着时序特征池化和时空注意力机制的广泛应用,多数重识别架构采取选取关键帧、提取关键帧的关键特征的方式,捕捉重要的时序信息。这种思路在单一输入模态下可以取得良好的效果,却也局限了视频丰富信息的效果上限。视频作为时空信息丰富的数据源,可以从多个角度分析其内容,构建多个数据模态,描述视频内容不同方面的特征,从而对其中的人物建模更加全面而仔细。
2、现有的多模态融合架构缺乏跨模态学习和特征修正的考虑。在考虑到多模态融合的少数技术架构中,多采用双流网络的架构,将上述两种模态作为双流输入进行特征提取,主要有前融合和后融合两种方式。前融合是指在输入特征提取网络之前,将两种模态在通道维度上进行融合,并作为一个输入进行特征提取;后融合是指在模型提取的过程中,将两种模态用对应元素相加的方式进行加成,输出模态融合的特征。然而这两种方式都缺乏两种模态之间的信息交互,即外观信息对于捕捉运动特征、运动信息对于区分外观特征的作用。
3、现有基于时空注意力机制的模型缺乏视频特征帧内和帧间的上下文联系。对于视频运动过程而言,躯体各个部位是有协同效果的,同个注意力机制提取的关键特征在不同帧之中有时序的上下文关系,这两类关联关系可以有效区别不同人的协同效应,对特征的判别效果有促进作用。但多数基于时空注意力机制的方法并不能达到这种效果。
发明内容
本发明针对现有技术的不足,提出一种双流跨模态多级行人重识别算法,用于捕捉视频流多维度信息之间的特征关联,增加特征的判别力和鲁棒性,用于视频行人重识别和行人检索的基于双流分级特征修正的行人重识别方法及模型架构,具体技术方案如下:
一种基于双流分级特征修正的行人重识别方法,采用的步骤为:
步骤一:在双流特此提取器的输入端分别输入RGB序列和光流序列,分别提取外观特征和光流特征;
步骤二:将所述步骤一中所提取的外观特征和光流特征输入帧级特征修正器,按照视频流逐帧修正信息,得到帧级修正特征;
步骤三:将所述步骤一中提取的外观特征和光流特征与所述步骤二中经过修正后的外观特征和光流特征用注意力机制提取考虑外观和运动信息情况下所有特征之间的关联关系,捕捉外观特征与运动模式在整个视频段所有帧之间的关联关系,通过权重系数的方式对特征进行修正,得到段级外观连续性和运动模式的特征表征;
步骤四:将帧级修正特征与段级修正特征进行融合,得到最终的视频表征,进行视频分类。
作为优选:所述步骤一具体为,双流特征提取器采用在大规模数据集预训练后的深度卷积模型提取特征,对于RGB图像和光流图像而言,其初始输入具有不同的尺度,RGB图像输入具有三个维度而光流为两个维度,将二者的维度对齐。
一种基于双流分级特征修正的行人重识别方法的***,设置有双流特征提取器,该双流特征提取器由外观特征提取器和运动特征提取器组成,其中外观特征提取器和运动特征提取器的输入端分别连接RGB序列和光流序列输入口;
所述外观特征提取器的第一输出端与外观段级特征修正器连接,运动特征提取器的第一输出端与光流段级特征修正器连接;所述外观特征提取器和运动特征提取器的第二输出端分别与帧级特征修正器的输入端连接;所述帧级特征修正器的RGB特征输出端分别与所述外观段级特征修正器和通道融合模块连接;所述帧级特征修正器的光流特征输出端分别与所述光流段级特征修正器和通道融合模块连接;所述外观段级特征修正器和光流段级特征修正器的输出端分别与所述通道融合模块连接。
本发明的有益效果为:1、利用双流模型处理RGB序列输入和光流序列输入两种模态,同时考虑运动人物外观特征和运动特征,多模态的信息融合可以使模型的鲁棒性更强。2、特征修正是特征学习的进一步补充,可以在基础深度模型提取的特征基础上获得更强的特征表征。3、分级的特征处理方式可以提取不同时序长度内的特征关系,通过同模态的逐帧信息传输可以获得前后帧之间的特征关系,保留有代表性的表征信息,去除冗余噪声,通过跨模态的逐帧信息交互学习可以获得模态间对应帧之间的关系,是衡量外观信息在运动模态上的突出表征,也是运动信息在整体外观上突出的重点观察位置,这种协同学习的方式打破模态间的信息隔阂,实现真正的跨模态学习。4、分级的特征处理方式在获取长序列帧与帧之间的关系上具有重要作用,传统的长序列特征提取多采用“选取重要帧-提取单帧重要信息”的方式构建长序列时序表征,却忽略了多帧连续帧之间特征的时空关联关系,譬如一个动作的发生是身体各个部位在多帧的时间跨度上协同合作的,不同帧的不同关键特征之间可能具有相互关联的关系,通过长序列的特征关联关系学习,可以在原特征的基础上进行修正,获得更具判别力的长序列特征表征。5、通过使用注意力机制,可以提取重要的特征位置和关联关系,并能够实现良好的特征对齐效果。
附图说明
图1为本发明的框架示意图。
图2为本发明中双流输入初始网络层处理示意图。
图3为本发明中基于LSTM设计的跨模态帧级特征修正器示意图。
图4为本发明中段级特征修正器的结构示意图。
具体实施方式
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
如图1、图2、图3和图4所示:一种基于双流分级特征修正的行人重识别方法,采用的步骤为:
步骤一:在双流特此提取器的输入端分别输入RGB序列和光流序列,分别提取外观特征和光流特征;
具体为,基础并行双流特征提取器是通过两个并行的基础网络对RGB图像序列和光流序列分别进行特征提取,实现每一帧基础图像特征的表征,基础特征提取器采用在大规模数据集,如ImageNet等预训练后的深度卷积模型提取特征。对于RGB图像和光流图像而言,其初始输入具有不同的尺度,RGB输入具有三个维度而光流为两个维度,本实施例采用图2的方式进行处理,使得二者的维度对齐。RGB模态的基础特征提取网络为ImageNet预训练的ResNet50,光流序列的基础特征提取网络为修改了输入卷积层的ImageNet预训练ResNet50,对于RGB图像序列,保持原有网络最初始的网络层输入不变,对于光流图像序列,我们采用一个输入维度为二输出维度相同的卷积层替代提取网络的初始卷积层,达到双流输入维度的统一。
步骤二:将所述步骤一中所提取的外观特征和光流特征输入帧级特征修正器,按照视频流逐帧修正信息,得到帧级修正特征;
具体为,在这个阶段,我们将双流输入在前一阶段特征提取器得到的特征按视频流逐帧修正信息。每一帧的特征都在前一已修正帧和另一个模态的对应帧的特征下进行修正,得到融合双模态信息和连续帧上下文信息的修正特征。值得注意的是,对于初始帧,由于没有前一帧,我们采用该帧本身作为其上下文连续帧。图2的帧级特征修正器是一种RNN式的串联结构,其是在LSTM的基础上进行改进的设计结构,每个时间戳的单元详细结构如图3所示,假设当前时间戳的RGB特征和光流特征Xt,Ft,中间的细胞状态Ct,前一细胞状态为Ct-1,细胞状态用于上下文信息的记忆和传递,隐状态Ht则是每个时间戳的修正信息,是在上下文信息和跨模态学习的监督下优化的信息,Ht-1是上一时间戳的隐状态,是时序信息的记忆和传递,σ是Sigmoid函数。帧级修正器的单元同样可以分成三个门,忘记门、输入门和输出门。以RGB模态为例,在忘记门决定上一细胞状态的信息保留和丢弃,忘记门的学习参数为Wf,输入为上一隐状态和当前 RGB帧的特征,则忘记门得到的权重为
ft=σ(Wf*[Ht-1,Xt]+bf)
忘记门与LSTM一致,而输入门与输出门与LSTM的不同,在于加入另一模态的当前帧的特征,对于RGB模型即加入光流模态对应的特征。输入门在于根据上一隐状态Ht-1、当前两种模态特征Xt,Ft学习更新哪些信息,利用上一隐状态Ht-1和当前模态帧的特征Xt得到新的候选细胞状态
Figure RE-GDA0002591841330000051
代表更新的候选信息。
这两个步骤的计算为
it=σ(Wi*[Ht-1,Xt,Ft]+bi)
Figure RE-GDA0002591841330000061
通过忘记门选择上一细胞状态的信息加上输入门的更新信息,可以得到包含上下文信息和跨模态学习的新的细胞状态Ct
Figure RE-GDA0002591841330000062
其后在输出门亦与LSTM的输出门不同,在于需要根据上一隐状态上一隐状态Ht-1、当前两种模态特征Xt,Ft判断输出细胞的最终信息,即生成当前状态输出信息的判断权重
ot=σ(Wo*[Ht-1,Xt,Ft]+b0)
最终当前时间戳的隐状态输出为
ht=ot*tanh(Ct)
由上步骤可知,本发明的帧级跨模态特征修正器是在LSTM的基础上加入了多模态的监督,因此具有上下文的信息感知和多模态的交互学习双重的信息优化效果,实现逐帧的信息修正。
步骤三:将所述步骤一中提取的外观特征和光流特征与所述步骤二中经过修正后的外观特征和光流特征用注意力机制提取考虑外观和运动信息情况下所有特征之间的关联关系,捕捉外观特征与运动模式在整个视频段所有帧之间的关联关系,通过权重系数的方式对特征进行修正,得到段级外观连续性和运动模式的特征表征;
具体为,在这个阶段,输入为原始双流图像序列在第一阶段并行特征提取器提取的特征和经过第二阶段帧级修正后的特征,我们将第一阶段得到的特征视为表示外观和运动的原始特征,将第二阶段得到的特征视为每一帧均考虑外观连续性和运动相关性的特征,第三阶段便是通过第二阶段的特征监督,用注意力机制提取考虑外观和运动信息情况下段内所有特征之间的关联关系,捕捉外观特征与运动模式在整个视频段所有帧之间的关联关系,通过权重系数的方式对特征进行修正,得到段级外观连续性和运动模式的特征表征。将图2中的段级特征修正器独立出来如图4所示,其是根据自注意力机制改进而来的双流空间注意力结构,通过前面的帧级修正特征作为输入,通过两个卷积神经网络生成对应模态段级的权重掩码矩阵分别为“RGB mask”和“光流mask”,基础特征经过卷积神经网络后与Mask相乘,可以得到该模态的段级优化特征。
步骤四:将帧级修正特征与段级修正特征进行融合,得到最终的视频表征,进行视频分类,将帧级修正特征和段级修正特征沿通道融合得到最终的视频表征,通过全连接层进行行人重识别的分类,可以实现良好的性能。
一种基于双流分级特征修正的行人重识别方法的***,设置有双流特征提取器,该双流特征提取器由外观特征提取器和运动特征提取器组成,其中外观特征提取器和运动特征提取器的输入端分别连接RGB序列和光流序列输入口;
所述外观特征提取器的第一输出端与外观段级特征修正器连接,运动特征提取器的第一输出端与光流段级特征修正器连接;所述外观特征提取器和运动特征提取器的第二输出端分别与帧级特征修正器的输入端连接;所述帧级特征修正器的RGB特征输出端分别与所述外观段级特征修正器和通道融合模块连接;所述帧级特征修正器的光流特征输出端分别与所述光流段级特征修正器和通道融合模块连接;所述外观段级特征修正器和光流段级特征修正器的输出端分别与所述通道融合模块连接。

Claims (3)

1.一种基于双流分级特征修正的行人重识别方法,其特征在于,采用的步骤为:
步骤一:在双流特此提取器的输入端分别输入RGB序列和光流序列,分别提取外观特征和光流特征;
步骤二:将所述步骤一中所提取的外观特征和光流特征输入帧级特征修正器,按照视频流逐帧修正信息,得到帧级修正特征;
步骤三:将所述步骤一中提取的外观特征和光流特征与所述步骤二中经过修正后的外观特征和光流特征用注意力机制提取考虑外观和运动信息情况下所有特征之间的关联关系,捕捉外观特征与运动模式在整个视频段所有帧之间的关联关系,通过权重系数的方式对特征进行修正,得到段级外观连续性和运动模式的特征表征;
步骤四:将帧级修正特征与段级修正特征进行融合,得到最终的视频表征,进行视频分类。
2.根据权利要求1所述基于双流分级特征修正的行人重识别方法,其特征在于:所述步骤一具体为,双流特征提取器采用在大规模数据集预训练后的深度卷积模型提取特征,对于RGB图像和光流图像而言,其初始输入具有不同的尺度,RGB图像输入具有三个维度而光流为两个维度,将二者的维度对齐。
3.一种基于双流分级特征修正的行人重识别方法的***,其特征在于:设置有双流特征提取器,该双流特征提取器由外观特征提取器和运动特征提取器组成,其中外观特征提取器和运动特征提取器的输入端分别连接RGB序列和光流序列输入口;
所述外观特征提取器的第一输出端与外观段级特征修正器连接,运动特征提取器的第一输出端与光流段级特征修正器连接;
所述外观特征提取器和运动特征提取器的第二输出端分别与帧级特征修正器的输入端连接;
所述帧级特征修正器的RGB特征输出端分别与所述外观段级特征修正器和通道融合模块连接;
所述帧级特征修正器的光流特征输出端分别与所述光流段级特征修正器和通道融合模块连接;
所述外观段级特征修正器和光流段级特征修正器的输出端分别与所述通道融合模块连接。
CN202010486379.7A 2020-06-01 2020-06-01 基于双流分级特征修正的行人重识别方法及模型架构 Pending CN111680602A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010486379.7A CN111680602A (zh) 2020-06-01 2020-06-01 基于双流分级特征修正的行人重识别方法及模型架构

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010486379.7A CN111680602A (zh) 2020-06-01 2020-06-01 基于双流分级特征修正的行人重识别方法及模型架构

Publications (1)

Publication Number Publication Date
CN111680602A true CN111680602A (zh) 2020-09-18

Family

ID=72453439

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010486379.7A Pending CN111680602A (zh) 2020-06-01 2020-06-01 基于双流分级特征修正的行人重识别方法及模型架构

Country Status (1)

Country Link
CN (1) CN111680602A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113515996A (zh) * 2020-12-22 2021-10-19 阿里巴巴集团控股有限公司 图像处理方法、识别模型及电子设备
CN114998995A (zh) * 2022-06-13 2022-09-02 西安电子科技大学 基于度量学习和时空双流网络的跨视角步态识别方法
CN117612711A (zh) * 2024-01-22 2024-02-27 神州医疗科技股份有限公司 一种分析肝癌复发数据的多模态预测模型构建方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740419A (zh) * 2018-11-22 2019-05-10 东南大学 一种基于Attention-LSTM网络的视频行为识别方法
CN109961034A (zh) * 2019-03-18 2019-07-02 西安电子科技大学 基于卷积门控循环神经单元的视频目标检测方法
CN110135386A (zh) * 2019-05-24 2019-08-16 长沙学院 一种基于深度学习的人体动作识别方法和***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740419A (zh) * 2018-11-22 2019-05-10 东南大学 一种基于Attention-LSTM网络的视频行为识别方法
CN109961034A (zh) * 2019-03-18 2019-07-02 西安电子科技大学 基于卷积门控循环神经单元的视频目标检测方法
CN110135386A (zh) * 2019-05-24 2019-08-16 长沙学院 一种基于深度学习的人体动作识别方法和***

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113515996A (zh) * 2020-12-22 2021-10-19 阿里巴巴集团控股有限公司 图像处理方法、识别模型及电子设备
CN114998995A (zh) * 2022-06-13 2022-09-02 西安电子科技大学 基于度量学习和时空双流网络的跨视角步态识别方法
CN117612711A (zh) * 2024-01-22 2024-02-27 神州医疗科技股份有限公司 一种分析肝癌复发数据的多模态预测模型构建方法及***
CN117612711B (zh) * 2024-01-22 2024-05-03 神州医疗科技股份有限公司 一种分析肝癌复发数据的多模态预测模型构建方法及***

Similar Documents

Publication Publication Date Title
CN111340814B (zh) 一种基于多模态自适应卷积的rgb-d图像语义分割方法
CN111680602A (zh) 基于双流分级特征修正的行人重识别方法及模型架构
CN113673307A (zh) 一种轻量型的视频动作识别方法
CN108133188A (zh) 一种基于运动历史图像与卷积神经网络的行为识别方法
CN109977893B (zh) 基于层次显著性通道学习的深度多任务行人再识别方法
CN110580472B (zh) 一种基于全卷积网络和条件对抗网络的视频前景检测方法
CN109948721B (zh) 一种基于视频描述的视频场景分类方法
CN109214001A (zh) 一种中文语义匹配***及方法
CN113140020B (zh) 一种基于伴随监督生成对抗网络的文本生成图像的方法
CN113240683B (zh) 基于注意力机制的轻量化语义分割模型构建方法
CN111339908A (zh) 基于多模态信息融合与决策优化的组群行为识别方法
CN113052017B (zh) 一种基于多粒度特征表示和域自适应学习的无监督行人重识别方法
CN111768354A (zh) 基于多尺度人脸部位特征字典的人脸图像复原***
CN111401247A (zh) 一种基于级联卷积神经网络的人像分割方法
CN115719510A (zh) 基于多模态融合及隐式交互关系学习的群组行为识别方法
CN111241963A (zh) 基于交互建模的第一人称视角视频交互行为识别方法
CN115330620A (zh) 一种基于循环生成对抗网络的图像去雾方法
CN115346261A (zh) 基于改进ConvMixer网络和动态焦点损失的视听情感分类方法
Zhang et al. Multi-scale spatiotemporal feature fusion network for video saliency prediction
Dastbaravardeh et al. Channel Attention‐Based Approach with Autoencoder Network for Human Action Recognition in Low‐Resolution Frames
CN113033283A (zh) 一种改进的视频分类***
Prakash et al. Recent advancements in automatic sign language recognition (SLR)
CN113609923B (zh) 基于注意力的连续手语语句识别方法
CN113159007B (zh) 一种基于自适应图卷积的步态情感识别方法
CN113269068B (zh) 一种基于多模态特征调节与嵌入表示增强的手势识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200918