CN110162089B - 一种无人驾驶的仿真方法及装置 - Google Patents

一种无人驾驶的仿真方法及装置 Download PDF

Info

Publication number
CN110162089B
CN110162089B CN201910462332.4A CN201910462332A CN110162089B CN 110162089 B CN110162089 B CN 110162089B CN 201910462332 A CN201910462332 A CN 201910462332A CN 110162089 B CN110162089 B CN 110162089B
Authority
CN
China
Prior art keywords
detection range
sensor
simulation
data
simulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910462332.4A
Other languages
English (en)
Other versions
CN110162089A (zh
Inventor
董立龙
冯建华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN201910462332.4A priority Critical patent/CN110162089B/zh
Publication of CN110162089A publication Critical patent/CN110162089A/zh
Application granted granted Critical
Publication of CN110162089B publication Critical patent/CN110162089B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请公开了一种无人驾驶的仿真方法及装置,在该方法中读取预先存储的同一仿真环境对应的各传感器数据集,并根据仿真车辆传感器的探测范围和记录的各传感器数据集对应的实际车辆传感器的探测范围,在各传感器数据集中选取仿真数据集,而后,针对该仿真车辆传感器的每个单位探测范围,在该仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据,根据每个单位探测范围对应的传感器数据,得到仿真数据,并根据该仿真数据对仿真车辆进行仿真。该方法无需进行三维建模,无需要求仿真时仿真车辆与实际车辆的状态相一致,提高仿真的灵活性。同时选取出的仿真数据集是实际车辆所采集到的真实数据,有效的保证了仿真的真实性。

Description

一种无人驾驶的仿真方法及装置
技术领域
本申请涉及无人驾驶技术领域,尤其涉及一种无人驾驶的仿真方法及装置。
背景技术
目前的无人驾驶仿真方法主要包括两种,一种是三维建模仿真,另一种是实采数据回放仿真。
三维建模仿真需要预先对被仿区域进行1:1等比例三维建模,得到三维的虚拟仿真环境。在仿真过程中,根据摄像头、雷达等传感器当前的空间位置及姿态,基于虚拟环境中的三维模型数据,输出传感器采集到的传感器数据,并将该传感器数据输入到自动驾驶***中,得到仿真结果。
实采数据回放仿真需要预先驾驶车辆在被仿区域按照预定路线行驶,然后使用车上摄像头、雷达等传感器对行驶轨迹上的图像、点云等信息进行采集,并将采集到的传感器数据保存到数据库中。在仿真过程中,将传感器数据从数据库中读取出来,然后按照时间先后顺序依次将读取的传感器数据输入到自动驾驶***中,得到仿真结果。
但是,三维建模仿真在建立三维的虚拟仿真环境时,若使用软件自动建模,则会导致建立的三维模型精度较低,当前主流的三维引擎渲染效果较差,若采用人工手动建模,则工作量较大。另外,此方法在仿真时输出的传感器数据过于理想,与实际的传感器数据偏差较大,导致仿真结果准确性较低。
而对于实采数据回放仿真方法来说,由于其使用的传感器数据是实际车辆在相对固定的状态下(如,车辆的速度、行驶轨迹、传感器的朝向等)采集到的,因此要求仿真时仿真车辆与实际车辆的状态一致,这就降低了仿真的灵活性和真实度。
发明内容
本申请实施例提供一种无人驾驶的仿真方法及装置,用以部分解决现有技术中存在的上述问题。
本申请采用下述技术方案:
本申请提供了一种无人驾驶的仿真方法,包括:
读取预先存储的同一仿真环境对应的各传感器数据集,其中,不同的传感器数据集中的传感器数据是不同状态下的实际车辆在所述仿真环境中采集到的;
根据仿真车辆传感器的探测范围和记录的所述各传感器数据集对应的实际车辆传感器的探测范围,在所述各传感器数据集中选取仿真数据集;
针对所述仿真车辆传感器的每个单位探测范围,在所述仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据;
根据所述每个单位探测范围对应的传感器数据,得到仿真数据,并根据所述仿真数据对仿真车辆进行仿真。
可选地,针对每个传感器数据集,该传感器数据集中包含点云数据和图像数据。
可选地,预先存储同一仿真环境对应的各传感器数据集,具体包括:
针对实际车辆的不同状态,获取实际车辆在该状态下行驶在所述仿真环境中时采集到的点云数据和图像数据;
根据所述点云数据的空间坐标、采集到所述点云数据的雷达的探测范围以及采集到所述图像数据的摄像头的探测范围,确定所述图像数据的空间坐标;
存储所述点云数据、所述图像数据、所述点云数据的空间坐标和所述图像数据的空间坐标。
可选地,根据所述点云数据的空间坐标、采集到所述点云数据的雷达的探测范围以及采集到所述图像数据的摄像头的探测范围,确定所述图像数据的空间坐标,具体包括:
针对所述图像数据中的每个像素,根据所述摄像头的探测范围,确定该像素对应的空间射线;
判断该像素对应的空间射线与所述雷达的探测范围是否存在交点;
若存在,则将所述交点对应的点云数据的空间坐标,确定为该像素的空间坐标;
否则,根据所述实际车辆在该状态下的状态参数以及所述图像数据,确定该像素的空间坐标。
可选地,根据仿真车辆传感器的探测范围和记录的所述各传感器数据集对应的实际车辆传感器的探测范围,在所述各传感器数据集中选取仿真数据集,具体包括:
确定仿真车辆传感器的探测范围和所述各传感器数据集对应的实际车辆传感器的探测范围的重合度;
根据仿真车辆传感器的探测范围和所述各传感器数据集对应的实际车辆传感器的探测范围的重合度,在所述各传感器数据集中选取仿真数据集。
可选地,针对所述仿真车辆传感器的每个单位探测范围,在所述仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据,具体包括:
确定所述仿真数据集包含的点云数据对应的雷达的探测范围;
针对所述仿真车辆的摄像头的每个单位探测范围,确定该单位探测范围对应的空间射线与确定的雷达的探测范围的交点;
确定所述交点对应的点云数据的空间坐标;
在所述仿真数据集包含的图像数据中,确定所述空间坐标对应的像素,作为所述仿真车辆的摄像头在该单位探测范围探测到的传感器数据。
可选地,针对所述仿真车辆传感器的每个单位探测范围,在所述仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据,具体包括:
确定所述仿真数据集包含的点云数据对应的雷达的探测范围;
针对所述仿真车辆的雷达的每个单位探测范围,确定该单位探测范围对应的空间射线与仿真数据集包含的点云数据对应的雷达的探测范围的交点;
将所述交点对应的点云数据作为所述仿真车辆的雷达在该单位探测范围探测到的传感器数据。
本申请提供了一种无人驾驶的仿真装置,包括:
读取模块,用于读取预先存储的同一仿真环境对应的各传感器数据集,其中,不同的传感器数据集中的传感器数据是不同状态下的实际车辆在所述仿真环境中采集到的;
选取模块,用于根据仿真车辆传感器的探测范围和记录的所述各传感器数据集对应的实际车辆传感器的探测范围,在所述各传感器数据集中选取仿真数据集;
确定模块,用于针对所述仿真车辆传感器的每个单位探测范围,在所述仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据;
仿真模块,用于根据所述每个单位探测范围对应的传感器数据,得到仿真数据,并根据所述仿真数据对仿真车辆进行仿真。
本申请提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述无人驾驶的仿真方法。
本申请提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述无人驾驶的仿真方法。
本申请采用的上述至少一个技术方案能够达到以下有益效果:
从上述方法中可以看出,读取预先存储的同一仿真环境对应的各传感器数据集,并根据仿真车辆传感器的探测范围和记录的各传感器数据集对应的实际车辆传感器的探测范围,在各传感器数据集中选取仿真数据集,而后,针对该仿真车辆传感器的每个单位探测范围,在该仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据,根据每个单位探测范围对应的传感器数据,得到仿真数据,并根据该仿真数据对仿真车辆进行仿真。
相对于现有技术来说,本申请提供的无人驾驶的仿真方法,无需进行三维建模,并且,在对仿真车辆进行仿真时,无需要求仿真时仿真车辆与实际车辆的状态相一致,从而有效的提高了仿真的灵活性。与此同时,在给定仿真车辆传感器的探测范围下,即可以确定出该探测范围对应的实际车辆所采集到的传感器数据集有哪些。也就是说,通过仿真车辆传感器的探测范围所选取出的仿真数据集实际上即是实际车辆所采集到的真实数据,所以,在对仿真车辆进行仿真时,无需通过仿真车辆进行实采数据,因此,在极大提高了仿真效率的同时,也有效的保证了仿真的真实性。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例中一种无人驾驶的仿真方法的流程示意图;
图2为本申请实施例提供的通过像素的空间射线确定该像素的空间坐标的示意图;
图3为本申请实施例提供的通过仿真车辆传感器的探测范围以及各传感器数据集对应的实际车辆传感器的探测范围的重合度选取仿真数据集的示意图;
图4为本申请实施例提供的通过各实际车辆传感器的探测范围相对于该仿真车辆传感器的探测范围的优先级选取仿真数据集的示意图;
图5为本申请提供的一种无人驾驶的仿真装置示意图;
图6为本申请提供的对应于图1的电子设备示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1为本申请实施例中一种无人驾驶的仿真方法的流程示意图,具体包括以下步骤:
S101:读取预先存储的同一仿真环境对应的各传感器数据集,其中,不同的传感器数据集中的传感器数据是不同状态下的实际车辆在所述仿真环境中采集到的。
在本申请实施例中,数据库中预先存储有多个传感器数据集,这些传感器数据集是由实际车辆在仿真环境中采集到的。其中,实际车辆在仿真环境的行驶过程中,可以通过设置在该实际车辆上的雷达以及摄像头进行数据采集,通过雷达采集到的数据为点云数据,通过摄像头采集到的数据为图像数据。所以,实际车辆对应的传感器数据集中包含有该实际车辆采集到的点云数据和图像数据。
在实际应用中,不同实际车辆在同一仿真环境进行行驶时,其所处的状态可能各不相同。这里所谓的状态是指在仿真环境中,实际车辆自身以及安装在该实际车辆上的各种传感器所处的状态,该状态具体可以通过一些参数来进行表征。例如,实际车辆上设置的摄像头的摆放角度、雷达的探测范围、实际车辆在仿真环境中的行进轨迹等。
从这里可以看出,这些参数将对实际车辆在仿真环境中采集到哪些传感器数据造成影响,即,实际车辆在仿真环境中的行进轨迹不同、实际车辆上设置的摄像头的摆放角度不同、实际车辆上设置的雷达的探测范围不同,其采集到的点云数据和图像数据也不同。
所以,对于同一仿真环境来说,可以将不同实际车辆在该仿真环境中采集到的点云数据和图像数据分别作为在该仿真环境中所采集到的传感器数据集进行保存。换句话说,一个传感器数据集,其实就对应于实际车辆以一种状态在该仿真环境下所采集到的传感器数据。
在本申请实施例中,仿真环境可以是指实际车辆进行数据采集时所处的实际环境。由于实际车辆在不同仿真环境所采集到的点云数据和图像数据有所不同(即传感器数据集有所不同),所以,在数据库中可以将不同仿真环境和不同的传感器数据集进行对应保存。也就是说,每个仿真环境均对应有多个传感器数据集。基于此,在对仿真车辆进行仿真时,可以先确定出该仿真车辆在仿真时所处的仿真环境,并从数据库中读取出预先存储的该仿真环境所对应的各传感器数据集,进而在后续过程中,根据该仿真车辆上传感器的探测范围,在这些传感器数据集中选取传感器数据集作为仿真数据集。
需要说明的是,对仿真车辆进行仿真所采用的执行主体可以是电脑、专用仿真装置等终端设备,可以是服务器。为了便于后续描述,下面将仅以电脑等终端设备为执行主体,对本申请提供的无人驾驶的仿真方法进行说明。
在本申请实施例中,传感器数据集中除了记录有实际车辆在该仿真环境中采集到的点云数据和图像数据外,还可以记录点云数据的空间坐标以及图像数据的空间坐标。具体的,对于实际车辆的不同状态,终端设备可以获取实际车辆在该状态下行驶在该仿真环境中采集到的点云数据和图像数据,而后,可以根据点云数据的空间坐标、采集该点云数据时雷达的探测范围以及采集该图像数据时的摄像头的探测范围,确定出该图像数据的空间坐标。
其中,点云数据的空间坐标可以由点云数据直接转换得到,具体的转换方式为现有的常规方式,在此就不详细说明了。而对于图像数据的空间坐标,其实是基于点云数据的空间坐标,结合雷达和摄像头的探测范围进行转换后得到的。
具体的,针对该图像数据中的每个像素,终端设备可以根据该实际车辆的摄像头的探测范围,确定出该像素对应的空间射线。而后,终端设备可以判断该像素对应的空间射线与该实际车辆的雷达的探测范围是否存在交点,若存在,则可将该交点对应的点云数据的空间坐标,确定为该像素的空间坐标,若不存在,则可以根据该实际车辆在该状态下的状态参数以及该图像数据,确定出该像素的空间坐标。
对于图像数据中的每个像素来说,该像素所对应的空间射线其实可以看作是以摄像头为源点出发,到该像素之间的连线。在得到该空间射线后,终端设备可以判断该空间射线与该雷达的探测范围所处平面之间是否存在交点,以及该交点是否位于该雷达的探测范围内(其实就是确定该空间射线能不能打在该雷达的探测范围内,以及能够打在该雷达的探测范围内的哪一点上),若交点位于该雷达的探测范围,则可以将该交点对应的点云数据的空间坐标,确定为该像素的空间坐标,如图2所示。
图2为本申请实施例提供的通过像素的空间射线确定该像素的空间坐标的示意图。
假设,终端设备确定图像数据中像素点A的空间坐标时,可以摄像头为源点,将该源点与像素点A之间的连线作为像素点A的空间射线。而后,终端设备可将该空间射线打向该雷达的探测范围所在的平面。从图2可以看出,该空间射线相交于雷达的探测范围内的B点,则终端设备可以将交点B所对应的点云数据的空间坐标,确定为像素点A的空间坐标。
需要说明的是,由于点云数据的特性,导致该雷达的探测范围内的所有点上并不一定都存在与之对应的点云数据,所以,若是终端设备确定该交点处不存在与之对应的点云数据,则终端设备可以通过其他的方式,确定该像素的空间坐标。
例如,终端设备可以从该雷达的探测范围内包含的具有点云数据的所有点中选取与该交点距离最近的点,并将选取的该点对应的点云数据的空间坐标,作为该像素的空间坐标。再例如,终端设备可以从该雷达的探测范围内包含的具有点云数据的所有点中选取与该交点相距较近的三个点,并确定出这三个点的重心。若确定该重心存在与之对应的点云数据,则可将该重心对应的点云数据的空间坐标,作为该像素的空间坐标。其他的方式在此就不详细举例说明了。
若确定该像素对应的空间射线与该雷达的探测范围内不存在交点,则终端设备可以通过图像分析技术,来确定该像素的空间坐标。其中,由于实际车辆在采集包含有该像素的图像数据时所处的地理坐标可以确定出来,则终端设备可以基于该实际车辆的地理坐标,通过该实际车辆在该仿真环境中所处状态的状态参数(如,实际车辆上摄像头的摆放角度、雷达的探测范围等),对该图像数据进行图像分析,从而确定出该像素的空间坐标。具体的,终端设备可以确定出该图像数据的景深,然后根据该摄像头的视锥矩阵、该摄像头相对于实际车辆的偏移矩阵、该景深、该像素的方向以及实际车辆采集该图像数据时所基于的地理坐标,通过图像分析确定出该像素的空间坐标。具体的过程为现有的常规技术,在此就不详细说明了。
S102:根据仿真车辆传感器的探测范围和记录的所述各传感器数据集对应的实际车辆传感器的探测范围,在所述各传感器数据集中选取仿真数据集。
在本申请实施例中,数据库中记录的各传感器数据集其实是指实际车辆在不同状态下所采集到的传感器数据,而实际车辆的状态其实反映了实际车辆传感器的探测范围。其中,由于实际车辆上摄像头的摆放角度、雷达的探测范围、实际车辆的行进轨迹决定了实际车辆进行数据采集时对应于仿真环境中的哪一采集区域,所以,这里提到的实际车辆传感器的探测范围其实是指实际车辆按照该状态进行数据采集时在仿真环境中所对应的采集区域。
在本申请实施例中,数据库中保存有该仿真环境的多个传感器数据集,每个传感器数据集对应的实际车辆传感器的探测范围可能各不相同。所以,在对仿真车辆进行仿真时,需要根据该仿真车辆在该仿真环境中仿真车辆传感器的探测范围,从这些传感器数据集中选取哪一或哪些传感器数据集作为仿真数据集。
也就是说,终端设备需要根据仿真车辆传感器的探测范围,来决定应该选取实际车辆所采集到的哪些传感器数据集,来用于对该仿真车辆进行仿真。其中,这里提到的仿真车辆传感器的探测范围与上述提到的实际车辆传感器的探测范围基本相同,即,仿真车辆传感器按照一定的状态下,在仿真环境中所对应的采集区域。
具体的,终端设备可以确定仿真车辆传感器的探测范围与各传感器数据集对应的实际车辆传感器的探测范围的重合度,进而根据确定出的仿真车辆传感器的探测范围与各传感器数据集对应的实际车辆传感器的探测范围的重合度,在该仿真环境中的各传感器数据集中选取仿真数据集,如图3所示。
图3为本申请实施例提供的通过仿真车辆传感器的探测范围以及各传感器数据集对应的实际车辆传感器的探测范围的重合度选取仿真数据集的示意图。
假设,有三个实际车辆,这三个实际车辆在该仿真环境中按照不同的轨迹采集到三个传感器数据集,三个传感器数据集分别对应于A、B、C这三个实际车辆传感器的探测范围。通过仿真车辆的行进轨迹、摄像头的摆放角度、雷达的探测范围等能够表征该仿真车辆所处状态的参数,可以确定出该仿真车辆传感器的探测范围为D。从图3中可以看出,该仿真车辆传感器的探测范围D,与实际车辆传感器的探测范围A的重合度最高,因此,可以选取实际车辆传感器的探测范围A所对应的传感器数据集作为仿真数据集。
由于该仿真车辆传感器的探测范围可能与多个实际车辆传感器的探测范围有所重合,所以,在本申请实施例中,终端设备可以分别确定出该仿真车辆传感器的探测范围与各实际车辆传感器的探测范围之间的重合度,并根据确定出的各重合度,确定出各实际车辆传感器的探测范围相对于该仿真车辆传感器的探测范围的优先级,进而根据各优先级,从各传感器数据集中选取仿真数据集,如图4所示。
图4为本申请实施例提供的通过各实际车辆传感器的探测范围相对于该仿真车辆传感器的探测范围的优先级选取仿真数据集的示意图。
图4中展示了多个实际车辆传感器的探测范围,仿真车辆传感器的探测范围与多个实际车辆传感器的探测范围存在重合,而对于虚线框所包围的那部分仿真车辆传感器的探测范围,该探测范围与实际车辆传感器的探测范围A和实际车辆传感器的探测范围B存在重合。从图4中可以看出,实际车辆传感器的探测范围A与仿真车辆传感器的探测范围之间重合较多,实际车辆传感器的探测范围B与仿真车辆传感器的探测范围之间重合较小。所以,实际车辆传感器的探测范围A的优先级比实际车辆传感器的探测范围B的优先级高。
终端设备可以将实际车辆传感器的探测范围A和实际车辆传感器的探测范围B所对应的传感器数据集进行选取作为仿真数据集。对于图4中所展示的虚线框所包围的那部分探测范围来说,这部分探测范围可以看作是由实际车辆传感器的探测范围A和图4中实际车辆传感器的探测范围B的那部分阴影区域组成的。所以,在利用选取的仿真数据集得到仿真数据时,终端设备可以先根据实际车辆传感器的探测范围A所对应的传感器数据集确定出一部分仿真数据,而后,再根据实际车辆传感器的探测范围B的那部分阴影区域所对应的传感器数据集,确定出相应的仿真数据。
也就是说,终端设备根据仿真车辆传感器的探测范围以及各传感器数据集对应的实际车辆传感器的探测范围之间的重合度以及各优先级,来确定后续需要基于哪些实际车辆传感器的探测范围所对应的传感器数据集,来拼成对仿真车辆进行仿真时所需的仿真数据集。
S103:针对所述仿真车辆传感器的每个单位探测范围,在所述仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据。
终端设备选取出仿真数据集后,可以针对该仿真车辆上安装的仿真车辆传感器的每个单位探测范围,在仿真数据集包含的传感器数据中,确定出该单位探测范围对应的传感器数据。这里主要是基于选取出的仿真数据集,来确定出若是以该仿真车辆传感器的探测范围进行数据采集,应该会采集到哪些具体的数据。
仿真车辆上设置有雷达和摄像头,雷达和摄像头分别对应有各自的探测范围,所以,终端设备需要分别确定出雷达的单位探测范围所对应的传感器数据和摄像头的单位探测范围所对应的传感器数据。
具体的,在本申请实施例中,数据库中记录有各传感器数据集与各实际车辆传感器的探测范围之间的对应关系,所以,终端设备可以确定出仿真数据集包含的点云数据所对应的雷达的探测范围。而后,终端设备可以针对该仿真车辆的雷达的每个单位探测范围,确定出该单位探测范围对应的空间射线与仿真数据集包含的点云数据对应的雷达的探测范围的交点,进而可将该交点对应的点云数据作为该仿真车辆的雷达在该单位探测范围探测到的传感器数据。
这里提到的该单位探测范围对应的空间射线,与步骤S101中提到的空间射线基本上相同,即,可以将该雷达作为源点,该源点到该单位探测范围之间的连线即为该单位探测范围对应的空间射线。终端设备可以将该空间射线打向仿真数据集包含的点云数据对应的雷达的探测范围,以确定出该空间射线打在仿真数据集包含的点云数据对应的雷达的探测范围的哪一点上(即,交点),进而可以该交点对应的点云数据确定为该仿真车辆的雷达在该单位探测范围探测到的传感器数据。
对于仿真车辆上的摄像头来说,终端设备确定出仿真数据集包含的点云数据所对应的雷达的探测范围后,可以针对仿真车辆的摄像头的每个单位探测范围,确定出该单位探测范围对应的空间射线与确定出的雷达的探测范围的交点。终端设备可以进一步地确定出该交点对应的点云数据的空间坐标,并在该仿真数据集包含的图像数据中,确定出该空间坐标所对应的像素,进而将该像素作为该仿真车辆的摄像头在该单位探测范围探测到的传感器数据。
其中,这里提到的仿真车辆的摄像头的单位探测范围所对应的空间射线,与上述提到的空间射线基本上相同,即,可以看作是以该摄像头为源点,从该源点射向该单位探测范围的射线即为该空间射线。终端设备可以进一步地确定出该空间射线指向该雷达的探测范围内的哪一点上(即,交点)。由于点云数据和点云数据的空间坐标可以通过常规的方式进行相互转换,所以,终端设备可以直接确定出该交点所对应的点云数据的空间坐标。
终端设备确定出交点所对应的点云数据的空间坐标后,可以在仿真数据集包含的图像数据中,确定出该空间坐标对应的像素,进而将该像素作为该仿真车辆的摄像头在该单位探测范围探测到的传感器数据。换句话说,终端设备其实是根据该交点对应的点云数据的空间坐标,确定出该交点对应于该图像数据中的哪一像素,并将该像素作为仿真车辆的摄像头按照该单位探测范围对实际环境进行图像采集时所采集到的像素。
需要说明的是,雷达的单位探测范围和摄像头的单位探测范围可以通过预设的划分方式进行划分,例如,通过角度均分得到,或是通过指定单位面积进行划分得到等,在此就不详细举例说明了。
S104:根据所述每个单位探测范围对应的传感器数据,得到仿真数据,并根据所述仿真数据对仿真车辆进行仿真。
终端设备确定出各单位探测范围所对应的传感器数据后,可以将这些传感器数据作为仿真数据,并基于这些仿真数据对仿真车辆进行仿真。
从上述方法中可以看出,终端设备可以通过预先存储的实际车辆在不同状态下采集到的传感器数据集,来确定若按照仿真车辆传感器的探测范围,该仿真车辆在实际环境中将采集到的哪些点云数据和图像数据,进而将确定出的这些数据作为仿真数据对该仿真车辆进行仿真。相对于现有技术来说,本申请提供的无人驾驶的仿真方法,无需进行三维建模,并且,在对仿真车辆进行仿真时,无需要求仿真时仿真车辆与实际车辆的状态相一致,从而有效的提高了仿真的灵活性。
与此同时,在给定仿真车辆传感器的探测范围下,即可以确定出该探测范围对应的实际车辆所采集到的传感器数据集有哪些。也就是说,通过本申请提供的无人驾驶的仿真方法对仿真车辆进行仿真时,基于仿真车辆传感器的探测范围所选取出的仿真数据集即为实际车辆所采集到的真实数据,所以,无需通过仿真车辆进行实采数据,因此,极大提高了仿真效率,同时也有效的保证了仿真的真实性。
以上为本申请的一个或多个实施例提供的无人驾驶的仿真方法,基于同样的思路,本申请还提供了相应的无人驾驶的仿真装置,如图5所示。
图5为本申请提供的一种无人驾驶的仿真装置示意图,具体包括:
读取模块501,用于读取预先存储的同一仿真环境对应的各传感器数据集,其中,不同的传感器数据集中的传感器数据是不同状态下的实际车辆在所述仿真环境中采集到的;
选取模块502,用于根据仿真车辆传感器的探测范围和记录的所述各传感器数据集对应的实际车辆传感器的探测范围,在所述各传感器数据集中选取仿真数据集;
确定模块503,用于针对所述仿真车辆传感器的每个单位探测范围,在所述仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据;
仿真模块504,用于根据所述每个单位探测范围对应的传感器数据,得到仿真数据,并根据所述仿真数据对仿真车辆进行仿真。
可选地,针对每个传感器数据集,该传感器数据集中包含点云数据和图像数据。
可选地,所述装置还包括:
存储模块505,用于针对实际车辆的不同状态,获取实际车辆在该状态下行驶在所述仿真环境中时采集到的点云数据和图像数据;根据所述点云数据的空间坐标、采集到所述点云数据的雷达的探测范围以及采集到所述图像数据的摄像头的探测范围,确定所述图像数据的空间坐标;存储所述点云数据、所述图像数据、所述点云数据的空间坐标和所述图像数据的空间坐标。
可选地,所述存储模块505具体用于,针对所述图像数据中的每个像素,根据所述摄像头的探测范围,确定该像素对应的空间射线;判断该像素对应的空间射线与所述雷达的探测范围是否存在交点;若存在,则将所述交点对应的点云数据的空间坐标,确定为该像素的空间坐标;否则,根据所述实际车辆在该状态下的状态参数以及所述图像数据,确定该像素的空间坐标。
可选地,选取模块502具体用于,确定仿真车辆传感器的探测范围和所述各传感器数据集对应的实际车辆传感器的探测范围的重合度;根据仿真车辆传感器的探测范围和所述各传感器数据集对应的实际车辆传感器的探测范围的重合度,在所述各传感器数据集中选取仿真数据集。
可选地,确定模块503具体用于,确定所述仿真数据集包含的点云数据对应的雷达的探测范围;针对所述仿真车辆的摄像头的每个单位探测范围,确定该单位探测范围对应的空间射线与确定的雷达的探测范围的交点;确定所述交点对应的点云数据的空间坐标;在所述仿真数据集包含的图像数据中,确定所述空间坐标对应的像素,作为所述仿真车辆的摄像头在该单位探测范围探测到的传感器数据。
可选地,确定模块503具体用于,确定所述仿真数据集包含的点云数据对应的雷达的探测范围;针对所述仿真车辆的雷达的每个单位探测范围,确定该单位探测范围对应的空间射线与仿真数据集包含的点云数据对应的雷达的探测范围的交点;将所述交点对应的点云数据作为所述仿真车辆的雷达在该单位探测范围探测到的传感器数据。
本申请实施例还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的无人驾驶的仿真方法。
本申请实施例还提供了图6所示的电子设备的示意结构图。如图6所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的无人驾驶的仿真方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (9)

1.一种无人驾驶的仿真方法,其特征在于,所述方法包括:
读取预先存储的同一仿真环境对应的各传感器数据集,其中,不同的传感器数据集中的传感器数据是不同状态下的实际车辆在所述仿真环境中采集到的;
确定仿真车辆传感器的探测范围和所述各传感器数据集对应的实际车辆传感器的探测范围的重合度,根据仿真车辆传感器的探测范围和所述各传感器数据集对应的实际车辆传感器的探测范围的重合度,在所述各传感器数据集中选取仿真数据集,选取出的传感器数据集所对应的实际车辆传感器的探测范围可与所述仿真车辆传感器的探测范围不完全重合;
针对所述仿真车辆传感器的每个单位探测范围,在所述仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据;
根据所述每个单位探测范围对应的传感器数据,得到仿真数据,并根据所述仿真数据对仿真车辆进行仿真。
2.如权利要求1所述的方法,其特征在于,针对每个传感器数据集,该传感器数据集中包含点云数据和图像数据。
3.如权利要求2所述的方法,其特征在于,预先存储同一仿真环境对应的各传感器数据集,具体包括:
针对实际车辆的不同状态,获取实际车辆在该状态下行驶在所述仿真环境中时采集到的点云数据和图像数据;
根据所述点云数据的空间坐标、采集到所述点云数据的雷达的探测范围以及采集到所述图像数据的摄像头的探测范围,确定所述图像数据的空间坐标;
存储所述点云数据、所述图像数据、所述点云数据的空间坐标和所述图像数据的空间坐标。
4.如权利要求3所述的方法,其特征在于,根据所述点云数据的空间坐标、采集到所述点云数据的雷达的探测范围以及采集到所述图像数据的摄像头的探测范围,确定所述图像数据的空间坐标,具体包括:
针对所述图像数据中的每个像素,根据所述摄像头的探测范围,确定该像素对应的空间射线;
判断该像素对应的空间射线与所述雷达的探测范围是否存在交点;
若存在,则将所述交点对应的点云数据的空间坐标,确定为该像素的空间坐标;
否则,根据所述实际车辆在该状态下的状态参数以及所述图像数据,确定该像素的空间坐标。
5.如权利要求3所述的方法,其特征在于,针对所述仿真车辆传感器的每个单位探测范围,在所述仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据,具体包括:
确定所述仿真数据集包含的点云数据对应的雷达的探测范围;
针对所述仿真车辆的摄像头的每个单位探测范围,确定该单位探测范围对应的空间射线与确定的雷达的探测范围的交点;
确定所述交点对应的点云数据的空间坐标;
在所述仿真数据集包含的图像数据中,确定所述空间坐标对应的像素,作为所述仿真车辆的摄像头在该单位探测范围探测到的传感器数据。
6.如权利要求3所述的方法,其特征在于,针对所述仿真车辆传感器的每个单位探测范围,在所述仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据,具体包括:
确定所述仿真数据集包含的点云数据对应的雷达的探测范围;
针对所述仿真车辆的雷达的每个单位探测范围,确定该单位探测范围对应的空间射线与仿真数据集包含的点云数据对应的雷达的探测范围的交点;
将所述交点对应的点云数据作为所述仿真车辆的雷达在该单位探测范围探测到的传感器数据。
7.一种无人驾驶的仿真装置,其特征在于,所述装置包括:
读取模块,用于读取预先存储的同一仿真环境对应的各传感器数据集,其中,不同的传感器数据集中的传感器数据是不同状态下的实际车辆在所述仿真环境中采集到的;
选取模块,用于确定仿真车辆传感器的探测范围和所述各传感器数据集对应的实际车辆传感器的探测范围的重合度,根据仿真车辆传感器的探测范围和所述各传感器数据集对应的实际车辆传感器的探测范围的重合度,在所述各传感器数据集中选取仿真数据集,选取出的传感器数据集所对应的实际车辆传感器的探测范围可与所述仿真车辆传感器的探测范围不完全重合;
确定模块,用于针对所述仿真车辆传感器的每个单位探测范围,在所述仿真数据集包含的传感器数据中,确定该单位探测范围对应的传感器数据;
仿真模块,用于根据所述每个单位探测范围对应的传感器数据,得到仿真数据,并根据所述仿真数据对仿真车辆进行仿真。
8.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1-6任一所述的方法。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1-6任一所述的方法。
CN201910462332.4A 2019-05-30 2019-05-30 一种无人驾驶的仿真方法及装置 Active CN110162089B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910462332.4A CN110162089B (zh) 2019-05-30 2019-05-30 一种无人驾驶的仿真方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910462332.4A CN110162089B (zh) 2019-05-30 2019-05-30 一种无人驾驶的仿真方法及装置

Publications (2)

Publication Number Publication Date
CN110162089A CN110162089A (zh) 2019-08-23
CN110162089B true CN110162089B (zh) 2020-11-03

Family

ID=67630094

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910462332.4A Active CN110162089B (zh) 2019-05-30 2019-05-30 一种无人驾驶的仿真方法及装置

Country Status (1)

Country Link
CN (1) CN110162089B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110908387A (zh) * 2019-12-13 2020-03-24 齐鲁工业大学 一种动态环境水面无人艇路径规划方法、介质及电子设备
CN111324945B (zh) * 2020-01-20 2023-09-26 阿波罗智能技术(北京)有限公司 传感器方案确定方法、装置、设备及存储介质
CN111339649B (zh) * 2020-02-20 2022-02-08 西南交通大学 一种采集车辆轨迹数据的仿真方法、***及设备
CN111563185A (zh) * 2020-03-19 2020-08-21 平安城市建设科技(深圳)有限公司 基于gis***的视频画面显示方法、装置、终端及存储介质
CN112061131B (zh) * 2020-11-13 2021-01-15 奥特酷智能科技(南京)有限公司 一种基于道路数据的仿真车避开障碍行驶的方法
CN113650616B (zh) * 2021-07-20 2022-11-25 武汉光庭信息技术股份有限公司 一种基于采集数据的车辆行为预测方法及***

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101825442A (zh) * 2010-04-30 2010-09-08 北京理工大学 一种基于移动平台的彩色激光点云成像***
US8718858B2 (en) * 2011-03-28 2014-05-06 Khaled Abdullah M. Al-Mahnna GPS navigation system
CN103049912B (zh) * 2012-12-21 2015-03-11 浙江大学 一种基于任意三面体的雷达-相机***外部参数标定方法
CN103226833B (zh) * 2013-05-08 2015-08-05 清华大学 一种基于三维激光雷达的点云数据分割方法
CN109211575B (zh) * 2017-07-05 2020-11-20 百度在线网络技术(北京)有限公司 无人驾驶汽车及其场地测试方法、装置及可读介质
CN108509918B (zh) * 2018-04-03 2021-01-08 中国人民解放军国防科技大学 融合激光点云与图像的目标检测与跟踪方法

Also Published As

Publication number Publication date
CN110162089A (zh) 2019-08-23

Similar Documents

Publication Publication Date Title
CN110162089B (zh) 一种无人驾驶的仿真方法及装置
CN110414098B (zh) 一种仿真测试环境的生成方法及装置
CN112001456B (zh) 一种车辆定位方法、装置、存储介质及电子设备
CN111238450B (zh) 视觉定位方法及装置
CN111311709A (zh) 一种生成高精地图的方法及装置
CN110660103B (zh) 一种无人车定位方法及装置
CN111797698A (zh) 目标物的识别方法及识别装置
CN112327864A (zh) 一种无人驾驶设备的控制方法及控制装置
CN111127551A (zh) 一种目标检测的方法及装置
CN113674424B (zh) 一种电子地图绘制的方法及装置
CN116012483A (zh) 一种图像渲染的方法、装置、存储介质及电子设备
CN110530398B (zh) 一种电子地图精度检测的方法及装置
CN111192303A (zh) 一种点云数据处理方法及装置
US11495021B2 (en) Picture annotation method, apparatus, processing device, and system
CN117197781B (zh) 一种交通标志识别的方法、装置、存储介质及电子设备
CN111426299B (zh) 一种基于目标物的景深进行测距的方法及装置
CN112489522A (zh) 一种仿真场景数据的播放方法、设备、介质及电子设备
CN112362084A (zh) 一种数据标定方法、装置及数据标定***
CN112734851B (zh) 一种位姿确定的方法以及装置
CN113643321A (zh) 一种无人驾驶设备的传感器数据采集方法及装置
CN113703352A (zh) 一种基于远程驾驶的安全预警方法及装置
CN112684720A (zh) 一种仿真测试的方法及装置
CN111798489A (zh) 一种特征点跟踪方法、设备、介质及无人设备
CN110550025A (zh) 一种自动泊车的方法及装置
CN115798204A (zh) 一种异常交通场景事件的回放视频生成方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant