CN111754564B - 视频展示方法、装置、设备及存储介质 - Google Patents

视频展示方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111754564B
CN111754564B CN201910245057.0A CN201910245057A CN111754564B CN 111754564 B CN111754564 B CN 111754564B CN 201910245057 A CN201910245057 A CN 201910245057A CN 111754564 B CN111754564 B CN 111754564B
Authority
CN
China
Prior art keywords
reference object
video
position information
data
target point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910245057.0A
Other languages
English (en)
Other versions
CN111754564A (zh
Inventor
金海善
李勇
王威
裴建军
王欢
邹辉
李睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision System Technology Co Ltd
Original Assignee
Hangzhou Hikvision System Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision System Technology Co Ltd filed Critical Hangzhou Hikvision System Technology Co Ltd
Priority to CN201910245057.0A priority Critical patent/CN111754564B/zh
Publication of CN111754564A publication Critical patent/CN111754564A/zh
Application granted granted Critical
Publication of CN111754564B publication Critical patent/CN111754564B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请公开了一种视频展示方法、装置、设备及存储介质。方法包括:获取视频图像,视频图像由一个或多个摄像机拍摄的图像得到;确定视频图像中的参照物,参照物的数量为多个;获取不同数据采集方式所采集的包括参照物的相关数据;根据相关数据,确定参照物的物理位置信息;根据参照物的物理位置信息及参照物在视频图像中的位置信息,确定视频图像中目标点的物理位置信息;基于视频图像中目标点的物理位置信息关联展示目标点的基础数据。本申请能够将不同类型的数据及应用进行互通,实现了多种数据采集方式的融合,丰富了视频展示方式,进而可提升用户体验。

Description

视频展示方法、装置、设备及存储介质
技术领域
本申请实施例涉及数据处理技术领域,特别涉及一种视频展示方法、装置、设备及存储介质。
背景技术
随着视频应用的不断发展,视频采集方式越来越多,采集的视频类型也越来越多。
由于采集方式、视频类型的多样化,针对采集的视频如何进行展示,成为了视频应用面临的一个关键问题。
发明内容
本申请实施例提供了一种视频展示方法、装置、设备及存储介质,可用于解决相关技术中的问题。所述技术方案如下:
一方面,本申请实施例提供了一种视频展示方法,所述方法包括:
获取视频图像,所述视频图像由一个或多个摄像机拍摄的图像得到;
确定所述视频图像中的参照物,所述参照物的数量为多个;
获取不同数据采集方式所采集的包括所述参照物的相关数据;
根据所述相关数据,确定所述参照物的物理位置信息;
根据所述参照物的物理位置信息及所述参照物在所述视频图像中的位置信息,确定所述视频图像中目标点的物理位置信息;
基于所述视频图像中目标点的物理位置信息关联展示所述目标点的基础数据。
在本申请的可能实现方式中,所述获取不同数据采集方式所采集的包括所述参照物的相关数据,包括:
根据视频展示的应用场景及所述参照物的类型确定目标数据采集方式;
获取所述目标数据采集方式所采集的包括所述参照物的相关数据。
在本申请的可能实现方式中,所述根据所述相关数据,确定所述参照物的物理位置信息,包括:
当所述目标数据采集方式为第一数据采集方式时,所述相关数据中包括根据所述第一数据采集方式获得的三维视频;
将所述视频图像与所述三维视频进行融合,得到融合后的待处理视频;
确定所述参照物在所述待处理视频中的位置信息;
根据所述参照物在所述待处理视频中的位置信息,从所述相关数据中确定所述参照物的物理位置信息。
在本申请的可能实现方式中,所述根据所述相关数据,确定所述参照物的物理位置信息,包括:
根据所述参照物的属性信息,从所述相关数据中匹配确定所述参照物的物理位置信息。
在本申请的可能实现方式中,所述基于所述视频图像中目标点的物理位置信息关联展示所述目标点的基础数据,包括:
在第一展示区域展示所述视频图像,在所述视频图像中显示所述目标点信息;
在第二展示区域展示所述目标点的基础数据。
在本申请的可能实现方式中,所述在第二展示区域展示所述目标点的基础数据,包括:
若所述目标点的基础数据为多个,对所述目标点的多个基础数据进行时空叠加,在所述第二展示区域展示所述目标点的叠加后的基础数据。
在本申请的可能实现方式中,所述在第二展示区域展示所述目标点的基础数据,包括:
若所述目标点的基础数据为多个,确定所述目标点的多个基础数据之间的级别关系,在所述第二展示区域中,按照所述多个基础数据之间的级别关系分级展示所述目标点的基础数据。
在本申请的可能实现方式中,所述根据所述参照物的物理位置信息及所述参照物在所述视频图像中的位置信息,确定所述视频图像中目标点的物理位置信息,包括:
根据所述参照物的物理位置信息及所述参照物在所述视频图像中的位置信息,建立位置映射模型;
基于所述位置映射模型确定所述视频图像中目标点的物理位置信息。
一方面,提供了一种视频展示装置,所述装置包括:
第一获取模块,用于获取视频图像,所述视频图像由一个或多个摄像机拍摄的图像得到;
第一确定模块,用于确定所述视频图像中的参照物,所述参照物的数量为多个;
第二获取模块,用于获取不同数据采集方式所采集的包括所述参照物的相关数据;
第二确定模块,用于根据所述相关数据,确定所述参照物的物理位置信息;
第三确定模块,用于根据所述参照物的物理位置信息及所述参照物在所述视频图像中的位置信息,确定所述视频图像中目标点的物理位置信息;
展示模块,用于基于所述视频图像中目标点的物理位置信息关联展示所述目标点的基础数据。
在本申请的可能实现方式中,所述第二获取模块,用于根据视频展示的应用场景及所述参照物的类型确定目标数据采集方式;获取所述目标数据采集方式所采集的包括所述参照物的相关数据。
在本申请的可能实现方式中,所述第二获取模块,用于当所述目标数据采集方式为第一数据采集方式时,所述相关数据中包括根据所述第一数据采集方式获得的三维视频;将所述视频图像与所述三维视频进行融合,得到融合后的待处理视频;确定所述参照物在所述待处理视频中的位置信息;根据所述参照物在所述待处理视频中的位置信息,从所述相关数据中确定所述参照物的物理位置信息。
在本申请的可能实现方式中,所述第二获取模块,用于根据所述参照物的属性信息,从所述相关数据中匹配确定所述参照物的物理位置信息。
在本申请的可能实现方式中,所述展示模块,用于在第一展示区域展示所述视频图像,在所述视频图像中显示所述目标点信息;在第二展示区域展示所述目标点的基础数据。
在本申请的可能实现方式中,所述展示模块,用于若所述目标点的基础数据为多个,对所述目标点的多个基础数据进行时空叠加,在所述第二展示区域展示所述目标点的叠加后的基础数据。
在本申请的可能实现方式中,所述展示模块,用于若所述目标点的基础数据为多个,确定所述目标点的多个基础数据之间的级别关系,在所述第二展示区域中,按照所述多个基础数据之间的级别关系分级展示所述目标点的基础数据。
在本申请的可能实现方式中,所述第三确定模块,用于根据所述参照物的物理位置信息及所述参照物在所述视频图像中的位置信息,建立位置映射模型;基于所述位置映射模型确定所述视频图像中目标点的物理位置信息。
一方面,提供了一种计算机设备,计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令在被所述处理器执行时实现如上任一所述的视频展示方法。
一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令在被执行时实现如上任一所述的视频展示方法。
本申请实施例提供的技术方案至少带来如下有益效果:
通过不同数据采集方式所采集的包括参照物的相关数据,确定参照物的物理位置信息后,基于该参照物的物理位置信息及该参照物在视频图像中的位置信息来确定视频图像中目标点的物理位置信息,从而通过物理位置信息关联展示目标点的基础数据,能够将不同类型的数据及应用进行互通,实现了多种数据采集方式的融合,丰富了视频展示方式,进而可提升用户体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种实施环境的示意图;
图2是本申请实施例提供的一种视频展示方法流程图;
图3是本申请实施例提供的一种视频展示界面示意图;
图4是本申请实施例提供的一种视频展示界面示意图;
图5是本申请实施例提供的一种视频展示装置的结构示意图;
图6是本申请实施例提供的一种视频展示设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
随着视频应用的不断发展,围绕着智慧城市数字化,衍生了很多各种各样的应用生态,比如GIS(Geographic Information System,地理信息***)、高精度GIS、3D(三维)GIS,政府各部门一张图等,均围绕采集基于统一地理空间的城市数据。城市数据种类多,数据量大,复杂度高,所以至今仍没有一种合适的逻辑能够实现统一。而视频智能化应用更是多种多样,虚拟现实、增强现实,混合现实,各种可穿戴设备,智能设备等。
针对多种数据采集方式、视频数据类型多样化的情况,本申请实施例提供了一种视频展示方法,该方法通过将不同类型的数据及应用进行互通,实现多种数据采集方式的融合。该方法可应用于图1所示的视频展示***中。如图1所示,该***包括:数据采集设备11、数据处理设备12和视频展示设备13。
其中,数据采集设备11用于采集视频数据。例如,数据采集设备11可以是摄像机,采集到的数据可以是视频图像。数据采集设备11也可以是无人机,可以进行3D倾斜摄影。数据采集设备11还可以是配置带有高精度定位、激光雷达、视频等多种传感器的数据采集车等,可以采集得到高精度地图。本申请实施例不对数据采集设备11的种类以及数据采集设备11采集数据的方式进行限定。此外,本申请实施例提供的视频展示***中,数据采集设备11的数量可以为两个或多个。
由于高精度地图通过车辆在道路上行驶,采集行驶沿途带明显特征的目标的视频并可提取出目标的GPS位置,因而采集的目标位置均是绝对GPS位置,采集范围大。但是,高精度地图的采集范围有限,理论上只能采集道路沿途数据,对于三维特征目标如大楼缺少精细化描述。
而三维倾斜摄影通过无人机携带一组互成角度摄像机,以5个摄像机或7个摄像机为主,其中一个摄像机垂直照射,其他4个或6个互成一定角度照射。由此,无人机沿采集区域飞一圈即可获取该区域3D数据,通过建模获取3D视频。3D场景更接近真实环境,沿途采集数据量大,没有道路的区域依然可以获取对应数据。但是,三维倾斜摄影的成本相对较高,超大范围采集受制无人机续航性能,通信距离等问题无法达到理想预期,无人机飞行高度不一致导致分辨率不一致,目标GPS精度会有较大影响,而且采集的3D视频目标位置以相对位置为准,最终与统一的世界坐标系融合存在困难。
基于上述分析,三维倾斜摄影与高精度地图采集手段、技术形态、成本均不同,对此,本申请实施例通过数据处理设备12将采集到的数据进行处理。例如,针对不同的数据采集手段,基于目标唯一时空特征的属性实现多种采集手段采集的数据的融合,实现不同场景多种采集手段的整合,打通数据化的逻辑。
基于目标唯一时空特征属性实现多种采集手段所采集的数据的融合后,通过视频中的位置与真实位置(即物理位置)对应,可通过视频展示设备13进行视频展示,以实现视频与BIM(Building Information Modeling,建筑信息模型)、3D GIS、高精度GIS、AR(Augmented Reality,增强现实)、VR(Virtual Reality,虚拟现实)、可穿戴设备等融合应用及展示。
接下来,结合上述***,将通过下述的方法实施例,对本申请实施例提供的视频展示方法进行说明。
本申请实施例提供了一种视频展示方法,示例性的,该方法可由上述图1所示的视频处理设备实施。如图2所示,该方法包括如下几个步骤。
在步骤201中,获取视频图像,视频图像由一个或多个摄像机拍摄的图像得到。
其中,获取的视频图像可作为后续视频展示的基础,该视频图像可以通过一个或多个摄像机拍摄的图像得到。例如,获取一个摄像机拍摄的图像,得到视频图像。或者,获取多个摄像机拍摄的图像,之后将获取到的图像进行拼接,得到视频图像。
在步骤202中,确定视频图像中的参照物,参照物的数量为多个。
针对获取到的视频图像,通过图像识别技术可将视频画面进行结构化处理,自动识别出视频图像中的目标点,该目标点的位置可以是固定的,且可用于后续展示关联信息的目标点。例如,对于道路视频图像,可将该道路视频图像中的标志标线、车道线、标牌、井盖、道路上的摄像机、建筑物等作为目标点。在识别多个目标点后,从多个目标点中选取参照物。例如,在目标点中,将易于进行坐标转换的目标点选取为参照物。也可以由人工指定的方式来选取参照物,本申请实施例对此不加以限定。由于参照物可在后续用于确定视频图像中其他目标点的物理位置信息,因而选取的参照物的数量可以为多个,关于选取的参照物及参照物的数量,本申请实施例不加以限定,以至少为三个为例。
在步骤203中,获取不同数据采集方式所采集的包括参照物的相关数据。
由于视频图像是通过摄像机拍摄得到的,该视频图像中各个目标点的位置是在视频图像中的相对位置,且摄像机拍摄到的视频的坐标系与世界坐标系不同。而通过世界坐标系所确定的物理位置信息作为唯一的物理时空关系,能够将视频图像中的目标点的各种类型数据及数据显示方式互通,因此,本申请实施例提供的方法采取了确定视频图像中的各个目标点的物理位置信息的方式,从而基于目标点的物理位置信息来关联展示目标点的多种类型的基础数据。
对此,本申请实施例提供的方法在视频图像中选取参照物,确定视频图像中参照物的物理位置信息后,通过参照物的物理位置信息来确定视频图像中的目标点的物理位置信息。在确定参照物的物理位置信息时,本申请实施例提供的方法通过不同数据采集方式来采集包括参照物的相关数据,从而通过包括物理位置信息的相关数据来确定视频图像中的参照物的物理位置信息。其中,本申请实施例不对不同数据采集方式进行限定,该数据采集方式能够获取参照物的物理位置信息即可。
此外,由于参照物的类型不同,适用的数据采集方式也不同,而不同的数据采集方式能够采集的数据类型不同,且不同的视频展示的应用场景,对采集的数据需求也不同。例如,针对位于道路沿途位置的参照物,能够被高精度地图采集到,且由于高精度地图采集的位置均是绝对GPS位置,即物理位置,因而对于该类型的参照物可适用于高精度地图的数据采集方式。而位于社区、重点场所等车辆不能到达的区域内的参照物,能够采用3D倾斜摄影的方式进行采集。
因此,在本申请可能的实施方式中,获取不同数据采集方式所采集的包括参照物的相关数据,包括:根据视频展示的应用场景及参照物的类型确定目标数据采集方式;获取目标数据采集方式所采集的包括参照物的相关数据。该包含参照物的相关数据中,包括参照物的物理位置信息,以及参照物的除物理位置信息之外的属性信息。该属性信息包括但不限于参照物的长度、宽度、大小、与其他参照物之间的距离及三维空间的角度等信息,本申请实施例对此不加以限定。
例如,道路场景下,可以将高精度地图的数据采集方式作为目标数据采集方式。例如采集道路上的井盖,路灯,垃圾桶,绿化带、标志标牌杆、环形岛等目标点的相关数据,该相关数据包括各个目标点的GPS位置数据,即物理位置信息,还包括各个目标点的属性信息。如果路灯是参照物,则能够获取到通过高精度地图的数据采集方式所采集的包括路灯的相关数据。
又例如,在大楼、社区、重点场所等车辆不能方便到达的区域以及三维空间无法采集的区域,以3D倾斜摄影的数据采集方式作为目标数据采集方式来采集包括参照物的相关数据。
3D倾斜摄影的数据采集方式下,在无人机起飞采集数据前,通过预先标定无人机的GPS位置、采集区域内若干标定点的GPS位置,之后通过3D倾斜摄影技术采集3D视频。3D视频中除了预先标定的若干标定点之外的其他点位的GPS位置可通过与标定点GPS、无人机GPS转化得到,从而获取到带位置数据的3D视频。该3D视频中包括参照物的GPS位置信息,即物理位置信息。除此之外,也可以包括除物理位置信息之外的属性信息,如参照物的长度、宽度、大小、与其他参照物之间的距离及三维空间的角度等信息。
在步骤204中,根据相关数据,确定参照物的物理位置信息。
由于同一参照物既可以在视频图像中出现,也可以在不同数据采集方式所采集的数据中出现,而同一参照物的属性信息应该是一致的。又由于相关数据中包括参照物的物理位置信息,因此,本实施例提供的方法根据参照物的属性信息可将视频图像中的参照物与目标数据采集方式中的参照物进行匹配。匹配成功即意味着是同一参照物,因而可将相关数据中该参照物的物理位置信息作为视频图像中的参照物的物理位置信息。
在本申请可能的实施方式中,根据相关数据,确定参照物的物理位置信息,包括但不限于如下两种情况:
第一种情况:当目标数据采集方式为第一数据采集方式时,相关数据中包括根据第一数据采集方式获得的三维视频;将视频图像与三维视频进行融合,得到融合后的待处理视频;确定参照物在待处理视频中的位置信息;根据参照物在待处理视频中的位置信息,从相关数据中确定参照物的物理位置信息。
以第一数据采集方式为3D倾斜摄影的数据采集方式为例,由于该第一数据采集方式所采集到的包括参照物的相关数据中包括根据第一数据采集方式获得的3D视频。通过纹理映射等算法可将视频图像与3D视频融合,得到融合后的待处理视频。
该种情况下,融合后的待处理视频实现了3D视频与视频图像的对应,融合后的待处理视频的融合部分即可展示实时摄像机视频。此外,对于位置固定的物体以及不会随着时间变化的一些区域而言,融合后的内容与3D视频中的内容存在对应。得到融合后的待处理视频之后,确定参照物在待处理视频中的位置信息,根据参照物在待处理视频中的位置信息,从相关数据中确定参照物的物理位置信息。例如,融合后的待处理视频中包括参照物B,该参照物B同样在3D视频中,因此,可从相关数据中确定参照物B的物理位置信息。
第二种情况:根据参照物的属性信息,从相关数据中匹配确定参照物的物理位置信息。
以目标数据采集方式为高精度地图的数据采集方式为例,将通过高精度地图的数据采集方式所采集的参照物的属性信息与视频图像中的参照物的属性信息进行匹配,若匹配成功,则认为二者是同一参照物。而通过高精度地图的数据采集方式所采集的参照物的相关数据中包括该参照物的物理位置信息,因此,将相关数据中的该参照物的物理位置信息对应到视频图像中,得到视频图像中该参照物的物理位置信息。
例如,将通过高精度地图的数据采集方式所采集的参照物A的属性信息与视频图像中的参照物A’的属性信息进行匹配,若匹配成功,则认为参照物A与参照物A’是同一参照物。而通过高精度地图的数据采集方式所采集的参照物A的相关数据中包括该参照物A的物理位置信息,因此,将该参照物A的物理位置信息对应到视频图像中,得到视频图像中参照物A’的物理位置信息。
需要说明的是,如果目标采集方式为3D倾斜摄影的数据采集方式,则根据参照物的属性信息,从相关数据中匹配确定参照物的物理位置信息的方式,与上述高精度地图的方式原理一致,可参见上述内容,此处不再赘述。
在步骤205中,根据参照物的物理位置信息及参照物在视频图像中的位置信息,确定视频图像中目标点的物理位置信息。
参照物在视频图像中的位置信息是以视频的坐标系来确定的,而参照物的物理位置信息是以世界坐标系来确定的,可基于参照物的物理位置信息及参照物在视频图像中的位置信息建立视频坐标系与世界坐标系的映射关系,即得到位置映射模型。之后,便可以基于该映射关系来确定视频图像中目标点的物理位置信息。在本申请可能的实施方式中,根据参照物的物理位置信息及参照物在视频图像中的位置信息,确定视频图像中目标点的物理位置信息,包括:根据参照物的物理位置信息及参照物在视频图像中的位置信息,建立位置映射模型;基于位置映射模型确定视频图像中目标点的物理位置信息。
应当理解的是,视频图像可以是摄像机拍摄的图像,如果摄像机的位置固定,针对不同时间拍摄的图像之间会有不同。比如,以拍摄道路图像为例,在早上8点拍摄的图像中可能包括2辆车,在早上9点拍摄的图像中可能包括5辆车。但尽管不同时间拍摄的图像有所不同,对于道路上固定的参照物而言,其在每个图像中都可能会被拍到。因此,本申请实施例提供的方法可以适用于内容不断变化的视频图像,即可以展示视频图像中位置不固定的目标点的基础数据。因为应用本申请实施例提供的方法,可基于参照物的物理位置信息确定图像中各个目标点的物理位置信息。
在步骤206中,基于视频图像中目标点的物理位置信息关联展示目标点的基础数据。
由于目标点的基础数据承载在各自的业务***中,在获取到视频图像中目标点的物理位置信息后,通过该物理位置信息即可将该目标点的各种基础数据形成关联,从而在视频展示时,可以关联展示目标点的基础数据。在本申请可能的实施方式中,该目标点的基础数据包括但不限于目标点的业务数据、AR数据、BIM数据、地图数据等等,本申请实施例不对目标点的基础数据加以限定。
在本申请可能的实施方式中,基于视频图像中目标点的物理位置信息关联展示目标点的基础数据,包括:在第一展示区域展示视频图像,在视频图像中显示目标点信息;在第二展示区域展示目标点的基础数据。
其中,目标点信息包括但不限于目标点对应的内容,以及目标点的描述信息,或者目标点的标识等等,本申请实施例对此不加以限定。例如,以图3所示的展示界面为例,左侧第一展示区域所展示的视频图像上包括3个目标点,分别为目标点A、目标点B及目标点C。右侧第二展示区域展示这3个目标点的基础数据。其中,3个目标点的基础数据的类型不同,目标点A的基础数据为地下管网BIM信息,目标点B的基础数据为基于在目标点B拍摄到的图像获取的AR数据,目标点C的基础数据为包括目标点C的地图信息。图3所示的界面中的内容,结合实际场景,可如图4所示。
如果目标点的数量较多,或者目标点的基础数据较多时,在第二展示区域可能无法展示全部的目标点的基础数据。在本申请可能的实施方式中,可以在视频图像中显示目标点信息时,为每个目标点设置控件,检测到哪个交互点的控件被选中,再将该目标点的基础信息展示在第二展示区域中。或者,检测到哪个交互点的控件被选中后,再展示该目标点的基础数据标识,每个基础数据标识对应一种基础数据。将被选中的基础数据标识所对应的基础数据展示在第二展示区域。
除上述展示方式外,由于有的目标点的基础数据之间是存在时空关系的,因此,在本申请可能的实施方式中,在第二展示区域展示目标点的基础数据,包括:若目标点的基础数据为多个,对目标点的多个基础数据进行时空叠加,在第二展示区域展示目标点的叠加后的基础数据。
例如,目标点是一幢大楼,基于该目标点的物理位置信息,可以关联到的基础数据包括大楼的3D、BIM信息。此外,大楼中的各楼层安装有视频拍摄设备,因而该目标点的基础数据还可以包括大楼各楼层的监控视频。大楼的3D、BIM信息与大楼中各楼层的监控视频之间具有时空关系,从而可以将这些基础数据进行时空叠加。例如,在第二展示区域展示大楼的3D、BIM信息时,在大楼旁边每个楼层的对应位置显示楼层的监控视频。此外,该目标点的基础数据还可以包括业务数据,例如该业务数据包括这个大楼的第9层某个住户的身份信息,则在展示大楼的同时,叠加展示该住户的身份信息等。
在本申请可能的实施方式中,在第二展示区域展示目标点的基础数据,包括:若目标点的基础数据为多个,确定目标点的多个基础数据之间的级别关系,在第二展示区域中,按照多个基础数据之间的级别关系分级展示目标点的基础数据。
仍以上述目标点为大楼为例,大楼与各个楼层之间具有级别关系,在第二展示区域仅展示大楼的3D、BIM信息,并展示各楼层的指示点,基于指示点再递进展示大楼里楼层的监控视频,由此实现按照多个基础数据之间的级别关系分级展示目标点的基础数据。
本申请实施例提供的方法,通过不同数据采集方式所采集的包括参照物的相关数据,确定参照物的物理位置信息后,基于该参照物的物理位置信息及该参照物在视频图像中的位置信息来确定视频图像中目标点的物理位置信息,从而通过物理位置信息关联展示目标点的基础数据,实现了多种数据采集方式的融合,能够将不同类型的数据及应用进行互通,丰富了视频展示方式,进而可提升用户体验。
基于相同的技术构思,参见图5,本申请实施例提供了一种视频展示装置,该装置包括:
第一获取模块501,用于获取视频图像,视频图像由一个或多个摄像机拍摄的图像得到;
第一确定模块502,用于确定视频图像中的参照物,参照物的数量为多个;
第二获取模块503,用于获取不同数据采集方式所采集的包括参照物的相关数据;
第二确定模块504,用于根据相关数据,确定参照物的物理位置信息;
第三确定模块505,用于根据参照物的物理位置信息及参照物在视频图像中的位置信息,确定视频图像中目标点的物理位置信息;
展示模块506,用于基于视频图像中目标点的物理位置信息关联展示目标点的基础数据。
在本申请的可能实现方式中,第二获取模块503,用于根据视频展示的应用场景及参照物的类型确定目标数据采集方式;获取目标数据采集方式所采集的包括参照物的相关数据。
在本申请的可能实现方式中,第二获取模块503,用于当所述目标数据采集方式为第一数据采集方式时,所述相关数据中包括根据所述第一数据采集方式获得的三维视频;将所述视频图像与所述三维视频进行融合,得到融合后的待处理视频;确定所述参照物在所述待处理视频中的位置信息;根据所述参照物在所述待处理视频中的位置信息,从所述相关数据中确定所述参照物的物理位置信息。
在本申请的可能实现方式中,第二获取模块503,用于根据参照物的属性信息,从相关数据中匹配确定参照物的物理位置信息。
在本申请的可能实现方式中,展示模块506,用于在第一展示区域展示视频图像,在视频图像中显示目标点信息;在第二展示区域展示目标点的基础数据。
在本申请的可能实现方式中,展示模块506,用于若目标点的基础数据为多个,对目标点的多个基础数据进行时空叠加,在第二展示区域展示目标点的叠加后的基础数据。
在本申请的可能实现方式中,展示模块506,用于若目标点的基础数据为多个,确定目标点的多个基础数据之间的级别关系,在第二展示区域中,按照多个基础数据之间的级别关系分级展示目标点的基础数据。
在本申请的可能实现方式中,第三确定模块505,用于根据参照物的物理位置信息及参照物在视频图像中的位置信息,建立位置映射模型;基于位置映射模型确定视频图像中目标点的物理位置信息。
需要说明的是,上述实施例提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图6是本申请实施例提供的一种视频展示设备的结构示意图。该设备可以为终端,例如可以是:智能手机、平板电脑、笔记本电脑或台式电脑。终端还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端包括有:处理器601和存储器602。
处理器601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器601可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器601所执行以实现本申请中方法实施例提供的视频展示方法。
在一些实施例中,终端还可选包括有:***设备接口603和至少一个***设备。处理器601、存储器602和***设备接口603之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口603相连。具体地,***设备包括:射频电路604、触摸显示屏605、摄像头606、音频电路607、定位组件608和电源609中的至少一种。
***设备接口603可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器601和存储器602。在一些实施例中,处理器601、存储器602和***设备接口603被集成在同一芯片或电路板上;在一些其他实施例中,处理器601、存储器602和***设备接口603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路604包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏605是触摸显示屏时,显示屏605还具有采集在显示屏605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器601进行处理。此时,显示屏605还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏605可以为一个,设置终端的前面板;在另一些实施例中,显示屏605可以为至少两个,分别设置在终端的不同表面或呈折叠设计;在再一些实施例中,显示屏605可以是柔性显示屏,设置在终端的弯曲表面上或折叠面上。甚至,显示屏605还可以设置成非矩形的不规则图形,也即异形屏。显示屏605可以采用LCD(Liquid CrystalDisplay,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件606用于采集图像或视频。可选地,摄像头组件606包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器601进行处理,或者输入至射频电路604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器601或射频电路604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路607还可以包括耳机插孔。
定位组件608用于定位终端的当前地理位置,以实现导航或LBS(Location BasedService,基于位置的服务)。定位组件608可以是基于美国的GPS(Global PositioningSystem,全球定位***)、中国的北斗***、俄罗斯的格雷纳斯***或欧盟的伽利略***的定位组件。
电源609用于为终端中的各个组件进行供电。电源609可以是交流电、直流电、一次性电池或可充电电池。当电源609包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端还包括有一个或多个传感器610。该一个或多个传感器610包括但不限于:加速度传感器611、陀螺仪传感器612、压力传感器613、指纹传感器614、光学传感器615以及接近传感器616。
加速度传感器611可以检测以终端建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器611可以用于检测重力加速度在三个坐标轴上的分量。处理器601可以根据加速度传感器611采集的重力加速度信号,控制触摸显示屏605以横向视图或纵向视图进行用户界面的显示。加速度传感器611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器612可以检测终端的机体方向及转动角度,陀螺仪传感器66可以与加速度传感器611协同采集用户对终端的3D动作。处理器601根据陀螺仪传感器612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器613可以设置在终端的侧边框和/或触摸显示屏605的下层。当压力传感器613设置在终端的侧边框时,可以检测用户对终端的握持信号,由处理器601根据压力传感器613采集的握持信号进行左右手识别或快捷操作。当压力传感器613设置在触摸显示屏605的下层时,由处理器601根据用户对触摸显示屏605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器614用于采集用户的指纹,由处理器601根据指纹传感器614采集到的指纹识别用户的身份,或者,由指纹传感器614根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器614可以被设置终端的正面、背面或侧面。当终端上设置有物理按键或厂商Logo时,指纹传感器614可以与物理按键或厂商Logo集成在一起。
光学传感器66用于采集环境光强度。在一个实施例中,处理器601可以根据光学传感器66采集的环境光强度,控制触摸显示屏605的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏605的显示亮度;当环境光强度较低时,调低触摸显示屏605的显示亮度。在另一个实施例中,处理器601还可以根据光学传感器66采集的环境光强度,动态调整摄像头组件606的拍摄参数。
接近传感器616,也称距离传感器,通常设置在终端的前面板。接近传感器616用于采集用户与终端的正面之间的距离。在一个实施例中,当接近传感器616检测到用户与终端的正面之间的距离逐渐变小时,由处理器601控制触摸显示屏605从亮屏状态切换为息屏状态;当接近传感器616检测到用户与终端的正面之间的距离逐渐变大时,由处理器601控制触摸显示屏605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图6中示出的结构并不构成对终端的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例中实施例中,还提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令。所述至少一条指令经配置以由一个或者一个以上处理器执行,以实现上述任一种视频展示方法。
在示例性实施例中,还提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令在被计算机设备的处理器执行时实现上述任一种视频展示方法。
可选地,上述计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (7)

1.一种视频展示方法,其特征在于,所述方法包括:
获取视频图像,所述视频图像由一个或多个摄像机拍摄的图像得到;
确定所述视频图像中的参照物,所述参照物的数量为多个;
根据视频展示的应用场景及所述参照物的类型确定目标数据采集方式,不同参照物类型适用不同的数据采集方式,所述目标数据采集方式能够获取所述参照物的物理位置信息;
获取所述目标数据采集方式所采集的包括所述参照物的相关数据,所述相关数据包括所述参照物的物理位置信息以及所述参照物的除物理位置信息之外的属性信息;
根据所述相关数据,确定所述参照物的物理位置信息;
根据所述参照物的物理位置信息及所述参照物在所述视频图像中的位置信息,建立位置映射模型,基于所述位置映射模型确定所述视频图像中目标点的物理位置信息;
基于所述视频图像中目标点的物理位置信息关联展示所述目标点的基础数据;
所述根据所述相关数据,确定所述参照物的物理位置信息,包括:
当所述目标数据采集方式为第一数据采集方式时,所述相关数据中包括根据所述第一数据采集方式获得的三维视频;
将所述视频图像与所述三维视频进行融合,得到融合后的待处理视频,所述融合后的待处理视频实现了所述三维视频与所述视频图像对应;
确定所述参照物在所述待处理视频中的位置信息;
根据所述参照物在所述待处理视频中的位置信息,从所述相关数据中确定所述参照物的物理位置信息;
或者,
当所述目标数据采集方式为高精度地图的数据采集方式时,所述根据所述相关数据,确定所述参照物的物理位置信息,包括:
根据所述参照物的属性信息,从所述相关数据中匹配确定所述参照物的物理位置信息。
2.根据权利要求1所述的方法,其特征在于,所述基于所述视频图像中目标点的物理位置信息关联展示所述目标点的基础数据,包括:
在第一展示区域展示所述视频图像,在所述视频图像中显示所述目标点信息;
在第二展示区域展示所述目标点的基础数据。
3.根据权利要求2所述的方法,其特征在于,所述在第二展示区域展示所述目标点的基础数据,包括:
若所述目标点的基础数据为多个,对所述目标点的多个基础数据进行时空叠加,在所述第二展示区域展示所述目标点的叠加后的基础数据。
4.根据权利要求2所述的方法,其特征在于,所述在第二展示区域展示所述目标点的基础数据,包括:
若所述目标点的基础数据为多个,确定所述目标点的多个基础数据之间的级别关系,在所述第二展示区域中,按照所述多个基础数据之间的级别关系分级展示所述目标点的基础数据。
5.一种视频展示装置,其特征在于,所述装置包括:
第一获取模块,用于获取视频图像,所述视频图像由一个或多个摄像机拍摄的图像得到;
第一确定模块,用于确定所述视频图像中的参照物,所述参照物的数量为多个;
第二获取模块,用于根据视频展示的应用场景及所述参照物的类型确定目标数据采集方式,不同参照物类型适用不同的数据采集方式,所述目标数据采集方式能够获取所述参照物的物理位置信息;获取所述目标数据采集方式所采集的包括所述参照物的相关数据,所述相关数据包括所述参照物的物理位置信息以及所述参照物的除物理位置信息之外的属性信息;
第二确定模块,用于当所述目标数据采集方式为第一数据采集方式时,所述相关数据中包括根据所述第一数据采集方式获得的三维视频;将所述视频图像与所述三维视频进行融合,得到融合后的待处理视频,所述融合后的待处理视频实现了所述三维视频与所述视频图像对应;确定所述参照物在所述待处理视频中的位置信息;根据所述参照物在所述待处理视频中的位置信息,从所述相关数据中确定所述参照物的物理位置信息;或者,所述第二确定模块,用于当所述目标数据采集方式为高精度地图的数据采集方式时,根据所述参照物的属性信息,从所述相关数据中匹配确定所述参照物的物理位置信息;
第三确定模块,用于根据所述参照物的物理位置信息及所述参照物在所述视频图像中的位置信息,建立位置映射模型,基于所述位置映射模型确定所述视频图像中目标点的物理位置信息;
展示模块,用于基于所述视频图像中目标点的物理位置信息关联展示所述目标点的基础数据。
6.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令在被所述处理器执行时实现如权利要求1至4任一所述的视频展示方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令在被执行时实现如权利要求1至4任一所述的视频展示方法。
CN201910245057.0A 2019-03-28 2019-03-28 视频展示方法、装置、设备及存储介质 Active CN111754564B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910245057.0A CN111754564B (zh) 2019-03-28 2019-03-28 视频展示方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910245057.0A CN111754564B (zh) 2019-03-28 2019-03-28 视频展示方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN111754564A CN111754564A (zh) 2020-10-09
CN111754564B true CN111754564B (zh) 2024-02-20

Family

ID=72672402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910245057.0A Active CN111754564B (zh) 2019-03-28 2019-03-28 视频展示方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111754564B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112945207B (zh) * 2021-02-24 2021-11-26 上海商汤临港智能科技有限公司 目标定位方法及装置、电子设备和存储介质
CN115375683A (zh) * 2022-10-24 2022-11-22 江西省大气探测技术中心 基于图像处理的涝点检测方法、***、存储介质及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791613A (zh) * 2016-11-30 2017-05-31 江苏省邮电规划设计院有限责任公司 一种基于3dgis和视频相结合的智能监控***
CN106815678A (zh) * 2016-12-16 2017-06-09 武汉微诚科技股份有限公司 基于增强现实和虚拟现实技术的资产管控方法及***
CN108447042A (zh) * 2018-03-06 2018-08-24 北京建筑大学 城市景观影像数据的融合方法及***
CN108573522A (zh) * 2017-03-14 2018-09-25 腾讯科技(深圳)有限公司 一种标志数据的展示方法及终端
CN108847026A (zh) * 2018-05-31 2018-11-20 安徽四创电子股份有限公司 一种基于矩阵坐标转换实现数据叠加显示的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791613A (zh) * 2016-11-30 2017-05-31 江苏省邮电规划设计院有限责任公司 一种基于3dgis和视频相结合的智能监控***
CN106815678A (zh) * 2016-12-16 2017-06-09 武汉微诚科技股份有限公司 基于增强现实和虚拟现实技术的资产管控方法及***
CN108573522A (zh) * 2017-03-14 2018-09-25 腾讯科技(深圳)有限公司 一种标志数据的展示方法及终端
CN108447042A (zh) * 2018-03-06 2018-08-24 北京建筑大学 城市景观影像数据的融合方法及***
CN108847026A (zh) * 2018-05-31 2018-11-20 安徽四创电子股份有限公司 一种基于矩阵坐标转换实现数据叠加显示的方法

Also Published As

Publication number Publication date
CN111754564A (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
CN110095128B (zh) 获取缺失道路情报的方法、装置、设备及存储介质
CN109886208B (zh) 物体检测的方法、装置、计算机设备及存储介质
CN113627413B (zh) 数据标注方法、图像比对方法及装置
CN112406707B (zh) 车辆预警方法、车辆、装置、终端和存储介质
CN111754564B (zh) 视频展示方法、装置、设备及存储介质
CN111127541B (zh) 车辆尺寸的确定方法、装置及存储介质
CN112991439B (zh) 定位目标物体的方法、装置、电子设备及介质
CN111179628B (zh) 自动驾驶车辆的定位方法、装置、电子设备及存储介质
CN112241987B (zh) 确定防区的***、方法、装置及存储介质
CN112734346B (zh) 航线覆盖范围的确定方法、装置、设备及可读存储介质
CN112365088B (zh) 行程关键点的确定方法、装置、设备及可读存储介质
CN111369684B (zh) 目标跟踪方法、装置、设备及存储介质
CN113592874B (zh) 图像显示方法、装置和计算机设备
CN112381729B (zh) 图像处理方法、装置、终端及存储介质
CN112990424B (zh) 神经网络模型训练的方法和装置
CN112699906B (zh) 获取训练数据的方法、装置及存储介质
CN114566064B (zh) 停车位的位置确定方法、装置、设备及存储介质
CN112804481B (zh) 监控点位置的确定方法、装置及计算机存储介质
CN113590877B (zh) 获取标注数据的方法及装置
CN113689484B (zh) 深度信息的确定方法、装置、终端及存储介质
CN111984755B (zh) 确定目标停车点的方法、装置、电子设备及存储介质
CN110633335B (zh) 获取poi数据的方法、终端和可读存储介质
CN112507051B (zh) 行政区划的识别方法、装置、设备及计算机可读存储介质
CN112000899A (zh) 景点信息的展示方法、装置、电子设备及存储介质
CN117173520A (zh) 三维融合数据的确定方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant