CN111325783A - 一种基于WebGIS的可视域分析方法及装置 - Google Patents
一种基于WebGIS的可视域分析方法及装置 Download PDFInfo
- Publication number
- CN111325783A CN111325783A CN202010102445.6A CN202010102445A CN111325783A CN 111325783 A CN111325783 A CN 111325783A CN 202010102445 A CN202010102445 A CN 202010102445A CN 111325783 A CN111325783 A CN 111325783A
- Authority
- CN
- China
- Prior art keywords
- camera
- perspective projection
- visual
- webgis
- projection camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于WebGIS的可视域分析方法及装置,其包括:构造视椎体透视投影相机,并为所述视椎体透视投影相机设置各项参数;将所述视椎体透视投影相机作为光源相机,并根据Shadow Map算法生成所述视椎体透视投影相机产生投影的颜色图;将所述颜色图绘制渲染在铯***中得到可视化分析结果。本发明省去了转换为矢量元素再可视化的过程,直接在管线渲染中进行可视化,效率高,效果好,准确度高。
Description
技术领域
本发明涉及WebGIS技术领域,特别涉及一种基于WebGIS的可视域分析方法及装置。
背景技术
空间可视化分析一直是GIS业界的难点,尤其是在相对薄弱的WebGIS领域。即在地形数据/建筑数据等空间数据构建的GIS***中如何模拟人的视觉特征,在某个特定位置和高度观察这些有空间遮蔽关系的物体(通俗来说就是人在某个地方以某个高度能看到什么,哪些被遮挡了看不到),并可视化出正确的可见/不可见关系。
通常在GIS***可视化中对数据可视化一般要经过如下流程:对矢量数据进行加载,加载成功后由CPU对矢量数据进行串行计算,全部计算完成后交给GPU进行管线渲染,通过顶点着色器和片元着色器的管线渲染流程,绘制到屏幕上呈现。但可视域分析涉及的数据量非常大,这个过程非常耗时。
因而现有技术还有待改进和提高。
发明内容
本发明要解决的技术问题在于,针对现有技术的不足,提供一种基于WebGIS的可视域分析方法及装置,以解决现有技术中对数据进行可视化时消耗时间长、效率低的问题。
为了解决上述技术问题,本发明所采用的技术方案如下:
一种基于WebGIS的可视域分析方法,其包括:
构造视椎体透视投影相机,并为所述视椎体透视投影相机设置各项参数;
将所述视椎体透视投影相机作为光源相机,并根据Shadow Map算法生成所述视椎体透视投影相机产生投影的颜色图;
将所述颜色图绘制渲染在铯***中得到可视化分析结果。
所述基于WebGIS的可视域分析方法,其中,所述构造视椎体透视投影相机,并为所述视椎体透视投影相机设置各项参数具体包括:
构造视椎体透视投影相机,并获取视椎体透视投影相机对应的各项参数值;
根据所述获取到的各项参数值为所述视椎体透视投影相机设置各项参数。
所述基于WebGIS的可视域分析方法,其中,所述参数包括视椎体透视投影相机的位置,俯仰角,高度,可观测视角,以及可观测距离。
所述基于WebGIS的可视域分析方法,其中,将所述视椎体透视投影相机作为光源相机,并根据Shadow Map算法生成所述视椎体透视投影相机产生投影的颜色图具体包括:
将所述视椎体透视投影相机作为光源相机,获取所述视椎体透视投影相机的投影各顶点的深度值;
根据所述各顶点的深度值确定该投影的可见区域和不可见区域;
根据所述可见区域和不可见区域生成颜色图。
所述基于WebGIS的可视域分析方法,其中,根据所述各顶点的深度值确定该投影的可见区域和不可见区域具体包括:
若投影的顶点的深度值大于Shadow Map上的深度值,则该顶点为投影的可见区域;
若投影的顶点的深度值大于Shadow Map上的深度值,则该顶点为投影的不可见区域。
所述基于WebGIS的可视域分析方法,其中,所述基于WebGIS的可视域分析方法还包括:
获取所述视椎体透视投影相机当前视角的地形高度,并以该高度重新构造视椎体透视投影相机。
所述基于WebGIS的可视域分析方法,其中,所述基于WebGIS的可视域分析方法还包括:
将铯***自带的相机设置成与所述视椎体透视投影相机相同的参数,以验证可见区域的合理性。
一种计算机可读存储介质,其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上任意一项所述的基于WebGIS的可视域分析方法中的步骤。
一种基于WebGIS的可视域分析装置,其中,包括:处理器和存储器;所述存储器上存储有可被所述处理器执行的计算机可读程序;所述处理器执行所述计算机可读程序时实现如上任意一项所述的基于WebGIS的可视域分析方法中的步骤。
有益效果:与现有技术相比,本发明提供了一种基于WebGIS的可视域分析方法及装置,其包括:构造视椎体透视投影相机,并为所述视椎体透视投影相机设置各项参数;将所述视椎体透视投影相机作为光源相机,并根据Shadow Map算法生成所述视椎体透视投影相机产生投影的颜色图;将所述颜色图绘制渲染在铯***中得到可视化分析结果。本发明省去了转换为矢量元素再可视化的过程,直接在管线渲染中进行可视化,效率高,效果好,准确度高。
附图说明
图1为本发明提供的基于WebGIS的可视域分析方法的流程图。
图2为本发明提供的视椎体透视投影相机结构原理图。
图3为本发明提供的基于WebGIS的可视域分析装置较佳实施例的结构原理图。
具体实施方式
本发明提供一种基于WebGIS的可视域分析方法及装置,为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
下面结合附图,通过对实施例的描述,对发明内容作进一步说明。
本实施例提供了一种基于WebGIS的可视域分析方法,如图1所示,所述方法包括:
S100、构造视椎体透视投影相机,并为所述视椎体透视投影相机设置各项参数。
具体地,本发明使用视椎体构建一个透视投影相机,如图2所示,视椎体是一种三维几何体。业界常用来模拟人体的透视情况,它符合近大远小的透视学原理,并且必须在图2中的FrontClippint Plane近剪裁面和BackClipping Plane之间的View Frustum可视区域的物体才可以被正确渲染,正好可以用来模拟人眼在GIS***中观察事物的特性。相应的,所述构造视椎体透视投影相机,并为所述视椎体透视投影相机设置各项参数具体包括:
S101、构造视椎体透视投影相机,并获取视椎体透视投影相机对应的各项参数值;
S102、根据所述获取到的各项参数值为所述视椎体透视投影相机设置各项参数。
具体地,所述参数包括视椎体透视投影相机的位置,俯仰角,高度,可观测视角,以及可观测距离。相应的,本发明可以先构造视椎体透视投影相机,并获取视椎体透视投影相机对应的各项参数值,例如,可以将所述视椎体透视投影相机的可观测角度设置为360度,可观测距离设置为5000米等,示例性的,具体构造视椎体的实现代码如下:
//直接构造视椎体透视投影相机
this.spotLightCamera=new Cesium.Camera(this.scene);
//设置相机的fov可视角,即上图中从摄像机出来的视椎体原点展开的角度。范围为0-360度。
this.spotLightCamera.frustum.fov=Cesium.Math.toRadians(1/2*Math.PI);
//设置视椎体相机的far可观测距离,即图1中从摄像机出来的视椎体BackClipping的远近,它必须比FrontClippint Plane远。
this.spotLightCamera.frustum.far=5000
//相机望向指定的坐标点,相当于设置相机位置
this.spotLightCamera.lookAt(this._center,this.offset);
除此之外还可以设置pitch(俯仰角)height(高度)
这样,根据上述步骤构建的构造视椎体透视投影相机,并获取视椎体透视投影相机对应的各项参数值,再根据获取到的各项参数值为所述视椎体透视投影相机设置各项参数,从而可以非常好的模拟人眼在GIS***中观察事物的特性。此外,通过改变视椎体透视投影相机的视角,从而可以自由灵活为相机定制视角,可更好的模拟无人机摄像头真实的投影。
S200、将所述视椎体透视投影相机作为光源相机,并根据Shadow Map算法生成所述视椎体透视投影相机产生投影的颜色图。
具体地,所述颜色图指的是根据可视分析要求,将原本只有明(可见)、暗(不可见)两色渲染为绿色、红色,以强化凸显出可见和不可见区域,比明、暗的可视化效果要好很多。本实施例中,光源相机在生成这个颜色图中的作用是,描述实际要分析的区域,并根据Shadow Map算法计算出的阴影贴图覆盖此区域,最终由GPU进行z值判断,渲染出可见和不可见区域。既描述了分析区域,也为Shadow Map算法的使用描述了位置。
进一步,仅有一个视椎体透视投影相机是不够的的,这个相机实际上在Cesium.js中是不可见的。它不是实体,虽然可以模拟人眼中真实的投影模样,但是无法将其见到的东西描绘出来让人看到,无法起到可视化分析的作用。因此,本发明需要用到ShadowMap。ShadowMap是图形学中的一个常用算法,它的原理非常简单,就是假设有一个摄像机在灯光的位置,从灯光的位置往物体看,这时候会有一张光源空间的深度信息图,这就是ShadowMap。相应的,本实施例的一个实现方式中,将所述视椎体透视投影相机作为光源相机,并根据Shadow Map算法生成所述视椎体透视投影相机产生投影的颜色图具体包括:
S201、将所述视椎体透视投影相机作为光源相机,获取所述视椎体透视投影相机的投影各顶点的深度值;
S202、根据所述各顶点的深度值确定该投影的可见区域和不可见区域;
S203、根据所述可见区域和不可见区域生成颜色图。
具体地,凡是物体的深度值大于Shadow Map上的深度值的都是被遮挡的部分,都要显示阴影。通过这种判断方式,我们就可以知道该在什么位置绘制阴影了。这里这个假设的摄像机其实就是我们刚构造的视椎体相机,那么物体的深度值取决于地形模型和建筑模型在webgl程序中已经存储的z深度值。
示例性的,所述根据所述各顶点的深度值确定该投影的可见区域和不可见区域具体包括:
S2021、若投影的顶点的深度值大于Shadow Map上的深度值,则该顶点为投影的可见区域;
S2022、若投影的顶点的深度值大于Shadow Map上的深度值,则该顶点为投影的不可见区域。
具体地,我们用一个画笔在视椎体相机上画画,在z深度值大于ShadowMap的地方(被其他物体遮盖的部分)绘制红色,在z深度值小于ShadowMap的地方(未被遮挡的部分)绘制绿色。这样就完成了可视化的部分,我们看到了一个有着红色(不可见)绿色(可见)构成的一个大三角(其实是FrontClippint Plane近剪裁面和BackClipping Plane之间ViewFrustum可视区域中地形/建筑的投影),可视化完成。
主要代码如下:
//将刚刚构建的相机作为参数,传入ShadowMap构造函数,等于使用该相机作为ShadowMap的光源相机生成ShadowMap颜色图
this.scene.shadowMap=new Cesium.ShadowMap(shadowOptions)。
S300、将所述颜色图绘制渲染在铯***中得到可视化分析结果。
具体地,所述铯***为Cesium是一款面向三维地球和地图的,世界级的JavaScript开源产品。它提供了基于JavaScript语言的开发包,方便用户快速搭建一款零插件的虚拟地球Web应用,并在性能,精度,渲染质量以及多平台,易用性上都有高质量的保证。
通过Cesium提供的JS API,可以实现以下功能:例如,全球级别的高精度的地形和影像服务;矢量以及模型数据;基于时态的数据可视化;多种场景模式(3D,2.5D以及2D场景)的支持,真正的二三维一体化;1.35版推出3D Tiles规范,支持海量模型数据(倾斜,BIM,点云等);地形影像、模型、倾斜、二三维场景与时态数据。
本实施例中,选用Cesium.js作为背景的GIS***,Cesium.js是一款全球开源的WebGIS***,能够加载全球各地区不同精度的地形以及基于倾斜摄影模型生成的建筑数据。需要说明的是,其他主流的WebGis***由于不支持地形数据和倾斜摄影模型加载,无法应用可视化分析。如果支持则以相同的方式实现即可。
此外,ShadowMap颜色图的计算是在GPU完成的,通过GPU的并行计算才能在毫秒级完成ShadowMap逐顶点深度值与地形逐顶点深度值的比较计算,得到视椎体相机并覆盖ShadowMap颜色图后,在Cesium.js中渲染,渲染前同样利用了GPU片元着色器将顶点信息经过光栅化形成片元,逐片元绘制出结果,十分高效。因此,本发明得到视椎体相机并覆盖ShadowMap颜色图后,还要在Cesium.js中进行渲染,例如,在澜沧江某段的可视域分析,红色为不可见,绿色为可见。
进一步,本实施例的一个实现方式中,所述基于WebGIS的可视域分析方法还包括:获取所述视椎体透视投影相机当前视角的地形高度,并以该高度重新构造视椎体透视投影相机。以模拟人眼为例,由于当前视点的实际高度可能未考虑到人的身高,这样,无法模拟出人体更真实的透视情况,因此本发明要获取所述视椎体透视投影相机当前视角的地形高度,并以该高度重新构造视椎体透视投影相机,通过为该相机重新赋值,从而模拟出人体更真实的透视情况,效果更好。
本实施例的一个实现方式中,所述基于WebGIS的可视域分析方法还包括:
将铯***自带的相机设置成与所述视椎体透视投影相机相同的参数,以验证可见区域的合理性。
具体地,所述铯***自带有相机,并可以为该相机设置成与所述视椎体透视投影相机相同的参数,铯***自带有相机的镜头与视点方向高度俯仰角重合,如果完全看不到红色的区域,眼前所见全部是绿色可见区域,那么即可验证可见区域的合理性,证明本发明所提供的视椎体透视投影相机可以准确的投影出真实的场景。
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述实施例所述的基于WebGIS的可视域分析方法中的步骤。
本发明还提供了一种基于WebGIS的可视域分析装置,如图3所示,其包括至少一个处理器(processor)20;显示屏21;以及存储器(memory)22,还可以包括通信接口(Communications Interface)23和总线24。其中,处理器20、显示屏21、存储器22和通信接口23可以通过总线24完成相互间的通信。显示屏21设置为显示初始设置模式中预设的用户引导界面。通信接口23可以传输信息。处理器20可以调用存储器22中的逻辑指令,以执行上述实施例中的方法。
此外,上述的存储器22中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器22作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令或模块。处理器30通过运行存储在存储器22中的软件程序、指令或模块,从而执行功能应用以及数据处理,即实现上述实施例中的方法。
存储器22可包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器。例如,U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
此外,上述存储介质以及装置中的多条指令处理器加载并执行的具体过程在上述方法中已经详细说明,在这里就不再一一陈述。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种基于WebGIS的可视域分析方法,其特征在于,其包括:
构造视椎体透视投影相机,并为所述视椎体透视投影相机设置各项参数;
将所述视椎体透视投影相机作为光源相机,并根据Shadow Map算法生成所述视椎体透视投影相机产生投影的颜色图;
将所述颜色图绘制渲染在铯***中得到可视化分析结果。
2.根据权利要求1所述基于WebGIS的可视域分析方法,其特征在于,所述构造视椎体透视投影相机,并为所述视椎体透视投影相机设置各项参数具体包括:
构造视椎体透视投影相机,并获取视椎体透视投影相机对应的各项参数值;
根据所述获取到的各项参数值为所述视椎体透视投影相机设置各项参数。
3.根据权利要求1所述基于WebGIS的可视域分析方法,其特征在于,所述参数包括视椎体透视投影相机的位置,俯仰角,高度,可观测视角,以及可观测距离。
4.根据权利要求1所述基于WebGIS的可视域分析方法,其特征在于,将所述视椎体透视投影相机作为光源相机,并根据Shadow Map算法生成所述视椎体透视投影相机产生投影的颜色图具体包括:
将所述视椎体透视投影相机作为光源相机,获取所述视椎体透视投影相机的投影各顶点的深度值;
根据所述各顶点的深度值确定该投影的可见区域和不可见区域;
根据所述可见区域和不可见区域生成颜色图。
5.根据权利要求4所述基于WebGIS的可视域分析方法,其特征在于,根据所述各顶点的深度值确定该投影的可见区域和不可见区域具体包括:
若投影的顶点的深度值大于Shadow Map上的深度值,则该顶点为投影的可见区域;
若投影的顶点的深度值大于Shadow Map上的深度值,则该顶点为投影的不可见区域。
6.根据权利要求1所述基于WebGIS的可视域分析方法,其特征在于,所述基于WebGIS的可视域分析方法还包括:
获取所述视椎体透视投影相机当前视角的地形高度,并以该高度重新构造视椎体透视投影相机。
7.根据权利要求4所述基于WebGIS的可视域分析方法,其特征在于,所述基于WebGIS的可视域分析方法还包括:
将铯***自带的相机设置成与所述视椎体透视投影相机相同的参数,以验证可见区域的合理性。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1~7任意一项所述的基于WebGIS的可视域分析方法中的步骤。
9.一种基于WebGIS的可视域分析装置,其特征在于,包括:处理器和存储器;所述存储器上存储有可被所述处理器执行的计算机可读程序;所述处理器执行所述计算机可读程序时实现如权利要求1~7任意一项所述的基于WebGIS的可视域分析方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010102445.6A CN111325783A (zh) | 2020-02-19 | 2020-02-19 | 一种基于WebGIS的可视域分析方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010102445.6A CN111325783A (zh) | 2020-02-19 | 2020-02-19 | 一种基于WebGIS的可视域分析方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111325783A true CN111325783A (zh) | 2020-06-23 |
Family
ID=71171084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010102445.6A Pending CN111325783A (zh) | 2020-02-19 | 2020-02-19 | 一种基于WebGIS的可视域分析方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111325783A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112325857A (zh) * | 2020-10-22 | 2021-02-05 | 中国电子科技集团公司第五十四研究所 | 基于倾斜摄影的无人机障碍预警方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520557A (zh) * | 2018-04-10 | 2018-09-11 | 中国人民解放军战略支援部队信息工程大学 | 一种图形图像融合的海量建筑绘制方法 |
CN108959434A (zh) * | 2018-06-12 | 2018-12-07 | 中国科学院电子学研究所苏州研究院 | 一种多地理信息平台下的场景融合可视化方法 |
CN110706341A (zh) * | 2019-09-17 | 2020-01-17 | 广州市城市规划勘测设计研究院 | 一种城市信息模型的高性能渲染方法、装置及存储介质 |
CN110796742A (zh) * | 2019-10-25 | 2020-02-14 | 西安建筑科技大学 | 一种基于面向对象的三维场景视锥体剔除方法 |
-
2020
- 2020-02-19 CN CN202010102445.6A patent/CN111325783A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520557A (zh) * | 2018-04-10 | 2018-09-11 | 中国人民解放军战略支援部队信息工程大学 | 一种图形图像融合的海量建筑绘制方法 |
CN108959434A (zh) * | 2018-06-12 | 2018-12-07 | 中国科学院电子学研究所苏州研究院 | 一种多地理信息平台下的场景融合可视化方法 |
CN110706341A (zh) * | 2019-09-17 | 2020-01-17 | 广州市城市规划勘测设计研究院 | 一种城市信息模型的高性能渲染方法、装置及存储介质 |
CN110796742A (zh) * | 2019-10-25 | 2020-02-14 | 西安建筑科技大学 | 一种基于面向对象的三维场景视锥体剔除方法 |
Non-Patent Citations (1)
Title |
---|
李小敏: "WebGIS三维实景地图在城市规划管理中的应用研究" * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112325857A (zh) * | 2020-10-22 | 2021-02-05 | 中国电子科技集团公司第五十四研究所 | 基于倾斜摄影的无人机障碍预警方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170186219A1 (en) | Method for 360-degree panoramic display, display module and mobile terminal | |
US10593096B2 (en) | Graphics processing employing cube map texturing | |
US9684997B2 (en) | Efficient rendering of volumetric elements | |
US8878849B2 (en) | Horizon split ambient occlusion | |
US8294713B1 (en) | Method and apparatus for illuminating objects in 3-D computer graphics | |
US20230230311A1 (en) | Rendering Method and Apparatus, and Device | |
CN109544674B (zh) | 一种体积光实现方法及装置 | |
CN116485984B (zh) | 全景影像车辆模型全局光照模拟方法、装置、设备及介质 | |
US9886790B2 (en) | System and method of shadow effect generation for concave objects with dynamic lighting in three-dimensional graphics | |
KR20140000170A (ko) | 관여 매질에 의해 수광된 광의 양을 추정하기 위한 방법 및 대응하는 장치 | |
CN114022349A (zh) | 一种基于透视投影的平面图像处理方法及装置 | |
CN111325783A (zh) | 一种基于WebGIS的可视域分析方法及装置 | |
KR100489572B1 (ko) | 화상 처리 방법 | |
KR20140144714A (ko) | 장면 내의 참여 매체를 표현하는 방법 및 대응 장치 | |
JP2007272847A (ja) | 照明シミュレーション方法及び画像合成方法 | |
CN109427084B (zh) | 一种地图显示方法、装置、终端及存储介质 | |
KR101227155B1 (ko) | 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법 | |
CN111710044A (zh) | 图像处理方法、装置和计算机可读存储介质 | |
CN116958390A (zh) | 一种图像渲染方法、装置、设备、存储介质及程序产品 | |
CN115131513A (zh) | 一种三维地形裁剪方法、装置、设备及可读存储介质 | |
EP3241186B1 (en) | System and method of shadow effect generation for concave objects with dynamic lighting in three-dimensional graphics | |
Höll et al. | Augmented reality oculus rift | |
WO2023197689A1 (zh) | 一种数据处理的方法、***和设备 | |
Chochlík | Scalable multi-GPU cloud raytracing with OpenGL | |
CN118397160A (zh) | 一种用于油田站场逆向建站***的自主化三维渲染引擎 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |