CN115359222A - 一种基于扩展现实的无人交互控制方法及*** - Google Patents

一种基于扩展现实的无人交互控制方法及*** Download PDF

Info

Publication number
CN115359222A
CN115359222A CN202211008633.8A CN202211008633A CN115359222A CN 115359222 A CN115359222 A CN 115359222A CN 202211008633 A CN202211008633 A CN 202211008633A CN 115359222 A CN115359222 A CN 115359222A
Authority
CN
China
Prior art keywords
unmanned system
unmanned
real
virtual
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211008633.8A
Other languages
English (en)
Inventor
黄辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Bangkang Industrial Robot Technology Co ltd
Original Assignee
Shenzhen Bangkang Industrial Robot Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Bangkang Industrial Robot Technology Co ltd filed Critical Shenzhen Bangkang Industrial Robot Technology Co ltd
Priority to CN202211008633.8A priority Critical patent/CN115359222A/zh
Publication of CN115359222A publication Critical patent/CN115359222A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computer Graphics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于扩展现实的无人交互控制方法,其包括有如下步骤:步骤S1,构建虚拟无人***模型,之后将虚拟无人***模型导入Unity3D游戏引擎中;步骤S2,采取点云匹配方式或者AR标记方式将虚拟无人***与真实无人***重叠;步骤S3,由搭载虚拟无人***的混合现实设备构成的本地端与由真实无人***构成的远程端通过Ros‑sharp功能包进行通讯,混合现实设备利用工控机对真实无人***的电机控制板发出信号,再由电机控制板控制电机运动,从而驱动真实无人***完成相应动作;步骤S4,混合现实设备与真实无人***通信成功后,混合现实设备识别多模态交互方式并实时发送至真实无人***。本发明能满足复杂多变任务环境的应用要求,更具易用性和易操作性。

Description

一种基于扩展现实的无人交互控制方法及***
技术领域
本发明涉及无人控制***技术领域,尤其涉及一种基于扩展现实的无人交互控制方法及***。
背景技术
无人***是指具有一定自治能力和自主性的无人控制***,它是人工智能与机器人技术以及实时控制决策***的结合产物。其中,地面无人***融合了动力、机动、控制、传感器、人工智能等多学科先进技术于一体,地面无人***发展过程中,起步阶段的无人***仅能移动数米距离,现代无人***则能够探测与规避障碍,可自主“跟随”车辆或人员行进,之后相继开展了移动机器人、智能车辆和地面无人平台的关键技术研究。但是传统无人***中,人与无人***交互方式单一,友好性不高,导致的操作员易产生疲劳和精神压力,影响作业效率,容易出现操作偏差等问题。
发明内容
本发明要解决的技术问题在于,针对现有技术的不足,提供一种能满足复杂多变任务环境的应用要求,能提高作业人员与真实无人***的契合度,有助于减轻工作压力,更具易用性和易操作性的基于扩展现实的无人交互控制方法及***。
为解决上述技术问题,本发明采用如下技术方案。
一种基于扩展现实的无人交互控制方法,其包括有如下步骤:步骤S1,构建虚拟无人***模型,之后将虚拟无人***模型导入Unity3D游戏引擎中;步骤S2,采取点云匹配方式或者AR标记方式将虚拟无人***与真实无人***重叠;步骤S3,由搭载虚拟无人***的混合现实设备构成的本地端与由真实无人***构成的远程端通过Ros-sharp功能包进行通讯,混合现实设备利用工控机对真实无人***的电机控制板发出信号,再由电机控制板控制电机运动,从而驱动真实无人***完成相应动作;步骤S4,混合现实设备与真实无人***通信成功后,混合现实设备识别多模态交互方式并实时发送至真实无人***。
优选地,所述步骤S1中,通过3DMAX或Solidworks软件构建虚拟无人***模型。
优选地,所述步骤S1中,为所述虚拟无人***模型添加贴近真实无人***的组件。
优选地,所述步骤S1中,开发混合现实场景,所述混合现实场景包括控制面板和显示面板,诉述控制面板用于为识别多模态交互方式提供接口,所述显示面板用于实时显示真实无人***反馈的数据。
优选地,所述步骤S2中,所述点云匹配方式包括:利用操作者头戴的混合现实设备扫描面空间环境,以及利用移动机器人的车载3D雷达扫描周围环境,得到一次点云数据,再利用最近点迭代法计算旋转矩阵和平移矩阵。
优选地,所述步骤S2中,所述AR标记方式包括通过混合现实设备读取基准参照物,计算真实无人***与虚拟无人***之间的坐标信息后,自动将虚拟无人***叠加至真实无人***上。
优选地,所述步骤S3中,所述真实无人***包括SLAM算法、自主避障算法以及路径规划算法,所述虚拟无人***利用工控设备进行运动控制以及与混合现实设备建立通讯。
优选地,所述步骤S3中,所述虚拟无人***的数据信息通过TCP/TP通讯方式传送至混合现实设备并实时显示。
优选地,所述步骤S4中,所述多模态交互方式基于手势交互模块、语音交互模块和图像交互模块实现。
一种基于扩展现实的无人交互控制***,所述无人交互控制***用于实现上述无人交互控制方法。
本发明公开的基于扩展现实的无人交互控制方法及***中,扩展现实无人***控制技术分成了3个部分,混合现实设备、无人***部分、多模态交互控制***部分。扩展现实部分提供了MR接口和虚拟环境,多模态交互控制***部分主要组成为点云匹配器、移动机器人控制器,基于ROS实现的无人机器人控制,使用混合现实设备上的深度相机扫描得到的空间映射和移动机器人上的3D雷达得到的点云发送到点云匹配器,计算两者之间的转换,对机器人的控制是通过坐标变换使用轨迹控制器实现的,具体的交互方式包括语音交互、手势交互等;无人***具有SLAM、定位和控制的软件模块,同时在该***上装配了传感器和驱动器。相比现有技术而言,本发明较好地满足了复杂多变任务环境的应用要求,能显著提高作业人员与真实无人***的契合度,有助于减轻工作压力,同时更具易用性和易操作性。
附图说明
图1为本发明基于扩展现实的无人交互控制***的架构图;
图2为地面真实无人***的架构图。
具体实施方式
下面结合附图和实施例对本发明作更加详细的描述。
本发明公开了一种基于扩展现实的无人交互控制方法,请参见图1,其包括有如下步骤:
步骤S1,构建虚拟无人***模型,之后将虚拟无人***模型导入Unity3D游戏引擎中;进一步地:
所述步骤S1中,通过3DMAX或Solidworks软件构建虚拟无人***模型;
所述步骤S1中,为所述虚拟无人***模型添加贴近真实无人***的组件;
所述步骤S1中,开发混合现实场景,所述混合现实场景包括控制面板和显示面板,诉述控制面板用于为识别多模态交互方式提供接口,所述显示面板用于实时显示真实无人***反馈的数据;
步骤S2,采取点云匹配方式或者AR标记方式将虚拟无人***与真实无人***重叠;具体地,在所述步骤S2中:
所述点云匹配方式包括:利用操作者头戴的混合现实设备扫描面空间环境,以及利用移动机器人的车载3D雷达扫描周围环境,得到一次点云数据,再利用最近点迭代法计算旋转矩阵和平移矩阵;进而改变虚拟移动机器人的位置;
所述AR标记方式包括通过混合现实设备读取基准参照物,计算真实无人***与虚拟无人***之间的坐标信息后,自动将虚拟无人***叠加至真实无人***上。
步骤S3,由搭载虚拟无人***的混合现实设备构成的本地端与由真实无人***构成的远程端通过Ros-sharp功能包进行通讯,混合现实设备利用工控机对真实无人***的电机控制板发出信号,再由电机控制板控制电机运动,从而驱动真实无人***完成相应动作;进一步地:
所述步骤S3中,所述真实无人***包括SLAM算法、自主避障算法以及路径规划算法,所述虚拟无人***利用工控设备进行运动控制以及与混合现实设备建立通讯;
所述步骤S3中,所述虚拟无人***的数据信息通过TCP/TP通讯方式传送至混合现实设备并实时显示;
步骤S4,混合现实设备与真实无人***通信成功后,混合现实设备识别多模态交互方式并实时发送至真实无人***;
所述步骤S4中,所述多模态交互方式基于手势交互模块、语音交互模块和图像交互模块实现。
上述方法中,请参见图1,扩展现实无人***控制技术分成了3个部分,扩展现实部分(混合现实设备)、无人***部分、多模态交互控制***部分。扩展现实部分提供了MR接口和虚拟环境,多模态交互控制***部分主要组成为点云匹配器、移动机器人控制器,基于ROS实现的无人机器人控制,使用混合现实设备上的深度相机扫描得到的空间映射(Spatialmapping,深度相机周围的详细的环境信息)和移动机器人上的3D雷达得到的点云发送到点云匹配器,计算两者之间的转换,对机器人的控制是通过坐标变换使用轨迹控制器实现的,具体的交互方式包括语音交互、手势交互等;无人***具有SLAM、定位和控制的软件模块,同时在该***上装配了传感器和驱动器。相比现有技术而言,本发明较好地满足了复杂多变任务环境的应用要求,能显著提高作业人员与真实无人***的契合度,有助于减轻工作压力,同时更具易用性和易操作性。
关于地面无人***,请参见图2,其关键技术体系包括总体设计模块、机动平台、自主行为模块、指挥控制模块。其中:
总体设计模块用于研究如何利用平台“无人”的优势、规避其劣势,通过综合各分***技术水平,实现各分***优化匹配,并制定总体设计流程和顶层规范,是设计最优地面无人***总体方案、促进模块化、通用化、系列化与标准化发展的关键;
地面无人机动平台是实现自主机动的物理基础,该技术是研制具有高机动能力、长时间续航能力和高负载能力的地面无人***的支撑技术,也是降低无人平台对自主***依赖程度的关键;
自主行为模块用于解决无人平台的智能问题,包括环境感知、路径规划与跟踪、实时行为规划与决策等多个方面;
地面无人***指挥控制模块主要研究地面无人***与指挥人员以及操控人员之间的交互机制、多个平台之间的协作机制以及所必需的其它支撑技术。
在此基础上,本发明还公开了一种基于扩展现实的无人交互控制***,所述无人交互控制***用于实现以上所述的无人交互控制方法。请参见图1,在本发明的优选实施例中,所述无人交互控制***可实现如下功能:
1、坐标***的初始化和点云匹配:为实现人员对无人***的控制,使用点云的匹配算法,将人员、机器人和虚拟机器人统一在一个坐标***中,本发明提供了混合现实设备和界面,将虚拟和真实的两个世界连接在一起,控制单元与各部分相连,实现计算、界面与机器人之间的指令传递、虚拟物体的运动和机器人控制。进一步地,无人***和扩展现实部分发送点云到点云匹配节点,点云匹配节点计算从一个坐标***到另一个坐标***的转换,然后计算全息透镜到真实空间坐标的转换,经过轴系比较的步骤,所有元件可以在一个共同的空间内工作。
2、多模态交互功能:在大数据可视化交互过程中,多模态交互结合单一模态的优点,充分发挥了人员对各个感知通道传达信息的高度接收与处理能力,有助于增强用户对交互行为的理解,进而提高对大数据可视化的探索与分析效率。在本发明的优选实施例中,多模态人机交互可实现利用语音、图像、文本、眼动和触觉等多模态信息进行人员与计算机之间的信息交换,本实施例以手势交互和语音交互为主,其中:
手势交互:可采用MediaPipe手势识别算法。MediaPipe是一种基于机器学习技术的手势识别算法,其特点是准确率高,支持五指和手势追踪,可根据一帧图像推断出单手21个立体节点,并且还能同时追踪多只手,可识别遮挡。MediaPipe框架有3个模型组成,包括:手掌识别模型BlazePalm(用于识别手的整体框架和方向)、Landmark模型(识别立体手部节点)、手势识别模型(将识别到的节点分类成一系列手势)。其中,BlazePalm是一个可识别单帧图像的模型,主要为Landmark模型提供准确剪裁的手掌图像。而Landmark模型,则是在BlazePalm基础上识别到的21个立体节点坐标,这些节点之间的位置遮挡也可被识别。接下来,通过手势识别模型,从Landmark提取的数据来推断每根手指伸直或弯曲等动作,接着将这些动作与预设的手势匹配,以预测基础的静态手势。
语音交互:利用改进深度神经网络的自动语音识别模块将采集到的语音数据转换为文本数据,并经过一个文本数据理解模块,将语音信号翻译成控制指令。
多模态融合的方法可分为3种:特征层融合方法、决策层融合方法以及混合融合方法,特征层融合方法将从多个模态中抽取的特征通过某种变换映射为一个特征向量,而后送入分类模型中,获得最终决策;决策层融合方法将不同模态信息获得的决策合并来获得最终决策;混合融合方法同时采用特征层融合方法和决策层融合方法,例如可以将两种模态特征通过特征层融合获得的决策与第3种模态特征获得的决策进行决策层融合来得到最终决策。
3、无人***的SLAM建图、路径规划功能:ROS开源社区中集成了众多的SLAM算法可以直接使用或者进行二次开发,其中最为常用和成熟的当属gmapping功能包。gmapping功能包集成了Rao-Blackwellized粒子滤波算法,为开发者隐取去了复杂的内部实现,该功能包订阅机器人的深度信息、IMU信息和里程计信息,同时完成一些必要的参数配置,即可创建并输出基于概率地图。SLAM算法已经在gmapping功能包中实现。实际上SLAM解决的问题主要是构图和定位,而无人平台想要自动行驶就必须具备自主导航的能力。在无人平台明确了自身的位姿后需要通过一定的策略,规划从当前位置到目标位置的合适路径。在作业场景下,需要使用雷达等传感装备实时对环境周围采样,并生成地图,即SLAM技术,路径的规划问题使用启发式搜索的思想,比如A*算法等,使用全局路径规划和局部路径相互结合的方式实现从起点到终点的整个自主行驶;
4、混合现实接口下的交互与控制功能:虚拟空间和现实空间的连接通过MR混合现实的接口完成,通过改进的ICP点云匹配得到统一的世界坐标系,项目基于Unity3D软件开发了移动机器人交互界面,使用智能头盔,搭建了混合现实的交互环境,通过头显可以看到虚拟的移动机器人,该接口叠加在真实的机器人上,并显示与之交互对象的附加信息,可以通过操纵杆、语音、手势、脑电来控制虚拟机器人移动直至到达目的地,并显示其移动的路径,同样真实的移动机器人自主规划路径,最终到达目的地,以再次实现虚拟和真实机器人的相叠加。
本发明公开的基于扩展现实的无人交互控制方法及***,其解决了现有地面无人***在执行任务中采集的相机、雷达等画面后,依靠服务器达到控制效果会引发沉浸感低、认知时间长、操作出现偏差等问题,以及单一交互方式无法满足复杂多变任务环境等问题。相比现有技术而言,本发明能提高作业人员与真实无人***的契合度,能满足复杂多变任务环境的应用要求,有助于减轻工作压力,更具易用性和易操作性,较好地满足了应用需求。
以上所述只是本发明较佳的实施例,并不用于限制本发明,凡在本发明的技术范围内所做的修改、等同替换或者改进等,均应包含在本发明所保护的范围内。

Claims (10)

1.一种基于扩展现实的无人交互控制方法,其特征在于,包括有如下步骤:
步骤S1,构建虚拟无人***模型,之后将虚拟无人***模型导入Unity3D游戏引擎中;
步骤S2,采取点云匹配方式或者AR标记方式将虚拟无人***与真实无人***重叠;
步骤S3,由搭载虚拟无人***的混合现实设备构成的本地端与由真实无人***构成的远程端通过Ros-sharp功能包进行通讯,混合现实设备利用工控机对真实无人***的电机控制板发出信号,再由电机控制板控制电机运动,从而驱动真实无人***完成相应动作;
步骤S4,混合现实设备与真实无人***通信成功后,混合现实设备识别多模态交互方式并实时发送至真实无人***。
2.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S1中,通过3DMAX或Solidworks软件构建虚拟无人***模型。
3.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S1中,为所述虚拟无人***模型添加贴近真实无人***的组件。
4.如权利要求3所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S1中,开发混合现实场景,所述混合现实场景包括控制面板和显示面板,诉述控制面板用于为识别多模态交互方式提供接口,所述显示面板用于实时显示真实无人***反馈的数据。
5.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S2中,所述点云匹配方式包括:利用操作者头戴的混合现实设备扫描面空间环境,以及利用移动机器人的车载3D雷达扫描周围环境,得到一次点云数据,再利用最近点迭代法计算旋转矩阵和平移矩阵。
6.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S2中,所述AR标记方式包括通过混合现实设备读取基准参照物,计算真实无人***与虚拟无人***之间的坐标信息后,自动将虚拟无人***叠加至真实无人***上。
7.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S3中,所述真实无人***包括SLAM算法、自主避障算法以及路径规划算法,所述虚拟无人***利用工控设备进行运动控制以及与混合现实设备建立通讯。
8.如权利要求7所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S3中,所述虚拟无人***的数据信息通过TCP/TP通讯方式传送至混合现实设备并实时显示。
9.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S4中,所述多模态交互方式基于手势交互模块、语音交互模块和图像交互模块实现。
10.一种基于扩展现实的无人交互控制***,其特征在于,所述无人交互控制***用于实现权利要求1至9任一项所述的无人交互控制方法。
CN202211008633.8A 2022-08-22 2022-08-22 一种基于扩展现实的无人交互控制方法及*** Pending CN115359222A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211008633.8A CN115359222A (zh) 2022-08-22 2022-08-22 一种基于扩展现实的无人交互控制方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211008633.8A CN115359222A (zh) 2022-08-22 2022-08-22 一种基于扩展现实的无人交互控制方法及***

Publications (1)

Publication Number Publication Date
CN115359222A true CN115359222A (zh) 2022-11-18

Family

ID=84002837

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211008633.8A Pending CN115359222A (zh) 2022-08-22 2022-08-22 一种基于扩展现实的无人交互控制方法及***

Country Status (1)

Country Link
CN (1) CN115359222A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116520997A (zh) * 2023-07-05 2023-08-01 中国兵器装备集团自动化研究所有限公司 一种混合现实的增强显示与交互***

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116520997A (zh) * 2023-07-05 2023-08-01 中国兵器装备集团自动化研究所有限公司 一种混合现实的增强显示与交互***
CN116520997B (zh) * 2023-07-05 2023-09-26 中国兵器装备集团自动化研究所有限公司 一种混合现实的增强显示与交互***

Similar Documents

Publication Publication Date Title
US11079897B2 (en) Two-way real-time 3D interactive operations of real-time 3D virtual objects within a real-time 3D virtual world representing the real world
Moniruzzaman et al. Teleoperation methods and enhancement techniques for mobile robots: A comprehensive survey
US20050256611A1 (en) Method and a system for programming an industrial robot
CN110082781A (zh) 基于slam技术与图像识别的火源定位方法及***
CN103389699A (zh) 基于分布式智能监测控制节点的机器人监控及自主移动***的运行方法
CN114815654A (zh) 一种面向无人车控制的数字孪生***及其搭建方法
CN110794844B (zh) 自动驾驶方法、装置、电子设备及可读存储介质
Li et al. A framework and method for human-robot cooperative safe control based on digital twin
Chen et al. A multichannel human-swarm robot interaction system in augmented reality
CN115359222A (zh) 一种基于扩展现实的无人交互控制方法及***
Wang et al. Gpa-teleoperation: Gaze enhanced perception-aware safe assistive aerial teleoperation
Bechar et al. A review and framework of laser-based collaboration support
CN111134974B (zh) 一种基于增强现实和多模态生物信号的轮椅机器人***
CN114791765B (zh) 一种基于混合现实技术的ros智能车交互方法
US11534909B2 (en) Displaying method of robot simulator
CN114935340A (zh) 一种室内导航机器人、控制***及方法
Helmert et al. Design and Evaluation of an AR Voice-based Indoor UAV Assistant for Smart Home Scenarios
Han et al. Novel cartographer using an oak-d smart camera for indoor robots location and navigation
Fournier et al. Immersive virtual environment for mobile platform remote operation and exploration
Safia et al. Visual path following by an omnidirectional mobile robot using 2d visual servoing
Lahemer et al. HoloSLAM: A novel approach to virtual landmark-based SLAM for indoor environments
Pareigis et al. Artificial Intelligence in Autonomous Systems. A Collection of Projects in Six Problem Classes
Ayyagari Comparative Study of Model-based Lateral Controllers with Selected Deep Learning Methods for Autonomous Driving
Brenner et al. Towards gesture-based cooperation with cargo handling unmanned aerial vehicles: A conceptual approach
CN216697069U (zh) 基于ros2的移动机器人控制***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination