CN108037995A - 基于gpu的分布式电磁态势仿真计算*** - Google Patents
基于gpu的分布式电磁态势仿真计算*** Download PDFInfo
- Publication number
- CN108037995A CN108037995A CN201711174176.9A CN201711174176A CN108037995A CN 108037995 A CN108037995 A CN 108037995A CN 201711174176 A CN201711174176 A CN 201711174176A CN 108037995 A CN108037995 A CN 108037995A
- Authority
- CN
- China
- Prior art keywords
- data
- gpu
- computing
- task
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Geometry (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开的一种基于GPU的分布式电磁态势仿真计算***,提供一种能够获得更高的并行计算能力,更高的灵活性及鲁棒性,更低成本的电磁态势仿真计算***。本发明通过下述技术方案予以实现:综合数据管理层从文件***中读取电磁态势仿真计算需要的基础数据:设备数据、环境数据和地形数据,将基础数据综合以后形成运算数据推送给分布式实时运算层进行处理。分布式实时运算层调用硬件设备层中的GPU计算卡和CPU板卡的计算资源对运算数据进行处理,处理结果数据返回给综合数据管理层形成电磁数据,将基础数据和电磁数据综合后形成态势显示数据推送给态势显示层,将态势显示数据送入GPU显示卡,进行态势数据的可视化,并提供人机交互接口。
Description
技术领域
本发明提出一种基于GPU的分布式电磁态势仿真计算***。
背景技术
无线电电磁态势仿真与分析在无线通信领域具有举足轻重的作用,其通过研究各类电磁设备的信号模型、电磁波的传播模型及综合考虑各类干扰对电磁波传播的影响,使其能够较准确地预测电磁波的传播距离、受干扰情况及某区域的电波覆盖情况等。只有能形象、准确地描述电磁态势才能高效合理的对无线电频谱进行管理和利用。由于要求模拟的通信及其他电磁设备种类众多,且可能数量巨大,辐射效能受天气、地形、设备或目标运动轨迹等影响,同时要考虑不同辐射源之间的干扰,使得电磁态势仿真的计算复杂度非常高,普通计算机根本不能满足电磁态势仿真的需求。随着商业云计算的极大成功,应用也越来越广泛。云计算技术通过网络将大量的计算设备连接起来,虚拟化为资源池,并可进行自我维护和管理。云计算可以将计算任务智能地分布在大量计算机构成的资源池上,使用户能够获得强大的计算力、存储空间和信息服务。因此,利用云计算技术可以为电磁态势仿真计算提供强大的计算、存储等能力支撑。
传统的电磁态势仿真计算大多采用CPU来实现。由于CPU体系结构的制约,其计算能力早已无法满足“摩尔定律”的增长预期,而多核CPU所能容纳的核数亦十分有限,这导致基于CPU的并行仿真难以满足未来无线电电磁态势***仿真分析的发展需求。与此同时,由于硬件条件的制约,传统的电磁态势并行算法在计算效率上很难有实质性的突破。近年来,GPU(Graphics Processing Unit)作为传统图形处理领域并行计算的重要硬件基础,逐渐在通用科学计算领域展示出强大的计算潜力,其计算性能早已超过同时期的CPU。同时,由于数量众多的计算核心集成在一块GPU卡上,基于GPU的并行计算不仅价格便宜,占地面积小,而且更节能。GPU的设计理念为大规模并行计算在大吞吐量应用中的性能优势,即更大带宽的Memory(即显存),将获取比单纯利用CPU进行并行计算的性能更加优异。
现有的电磁态势仿真***架构多基于CPU计算,由于CPU的计算核心较少,控制模块和缓存占据了芯片的大部分空间,适合处理并行度低、数据局部性明显、操作复杂、包含大量分支结构的计算问题。GPU则由大量的计算核心组成,控制模块和缓存的比例很小,适合处理运算强度大、并行度高、控制流程简单。并且GPU核心的工作频率比传统的CPU更快,这样就使得GPU比单个CPU的处理能力强大许多。近年来,GPU因其巨大的计算潜力在通用计算领域正受到越来越多的关注,有学者预测,基于GPU的并行计算代表着未来高性能计算的发展趋势。由GPU和CPU的特点比较可知:CPU中大部分(大概70%)晶体管用来构建Cache还有一部分控制单元,负责逻辑算数的部分并不多,而GPU整个就是一个庞大的计算阵列,因此GPU中负责逻辑算数的部分要远远大于CPU,在逻辑运算上比CPU强很多;而且GPU对Cache的依赖比CPU小,因为GPU用的是高速度总线,而CPU需要处理不同类型的数据,更需要存储器的配合来执行load/store指令,因此通过在CPU内部构建一个Cache作为片上存储器,配合DRAM、ROM整个存储器体系结构为配合CPU处理load/store指令;还有一点是CPU的总线速度非常落后。此外,GPU需要做的工作在复杂度上远不如CPU,GPU需要处理的数据之间没有任何的关联,所以可以并行执行。综上,CPU设计初衷更适合串行计算,而GPU适合大规模并行计算,因此使用GPU的并行计算能力能大幅提高电磁态势仿真的计算速度。
目前国内外多家公司已经开发出许多优秀的电磁场仿真软件,例如MWS、Mafia和HFSS等,这些软件具有操作简单、功能强大等优点,成为从事科研工作有力的工具。但这些软件大多只能在单机上运行,在单独处理大型电磁计算时显得力不从心。即便是有些软件支持分布式运算,但也只能是对单一的计算任务进行处理,无法完成多任务的批量计算而且价格非常昂贵,性价比不高。为了利用分布式并行机制来减少计算时间,人们常采用MPI等机制编制具体程序进行计算。但是此时,虽然计算时间减少了,但编程时间却增加了,总的开发时间未必减少,且算法比较单一,通用性也比较差。而且这种方法也无法支持多用户、多任务操作,限制了分布式集群的性能,无法实现资源的高效共享。另外,分布式***经常采用一些作业调度***,例如PBS软件。但这些作业调度***与一般电磁计算软件直接融合比较困难。可见,在电磁场计算领域,计算任务一般比较复杂,需要耗费大量的计算机资源,只用单台计算机会耗时太长,严重影响计算效率,故需要分布式集群的支持。云计算技术对资源的智能管理、任务的智能调度能力、以及云计算分布式***的容错能力等都有助于联网计算资源的高效利用,能为电磁态势仿真提供更加强大的计算能力,满足其需求。且云计算技术以统一接口、界面提供云服务的特点,也利于电磁仿真***的开发与维护。
电磁态势仿真***的实时性要求。目前商业应用最成功的Hadoop等云计算技术不满足应用的实时性要求。虽然全量数据处理使用的大多是著名的hadoop或者hive,作为一个批处理***,hadoop以其吞吐量大、自动容错等优点,在海量数据处理上得到了广泛的使用。但是,hadoop不擅长实时计算,因为它天然就是为批处理而生的,这也是业界一致的共识。否则最近两年也不会有s4、storm和puma这些实时计算***涌现出来。而Hadoop等目前最成功的云计算技术虽然吞吐量高、具备海量数据的处理能力,但它的缺点和优点也同样鲜明:延迟大、响应缓慢、运维复杂,并不适用于实时性要求高的计算应用环境。
发明内容
为了弥补目前电磁态势仿真***的不足之处,本发明的目的是提供一种可降低整个***耦合度,获得更高的并行计算能力,更高的灵活性及鲁棒性,更低成本满足电磁态势仿真***实时性要求的基于GPU计算集群的分布式电磁态势仿真计算***。
本发明的上述目的通过以下措施来达到。一种基于GPU的分布式电磁态势仿真计算***,包括:基于模型-视图-控制器(MVC,Model-View-Controller)框架,从上至下依次分为:态势显示层、综合数据管理层、分布式实时运算层和硬件设备层,四层结构,其特征在于:综合数据管理层从文件***中读取电磁态势仿真计算需要的基础数据:设备数据、环境数据和地形数据,将基础数据综合以后形成运算数据推送给分布式实时运算层进行处理。分布式实时运算层调用GPU计算卡和CPU板卡的计算资源对运算数据进行处理,处理后的结果数据返回给综合数据管理层形成电磁数据;综合数据管理层将基础数据和电磁数据综合后形成态势显示数据推送给态势显示层;态势显示层将态势显示数据送入GPU显示卡,进行态势数据的可视化,并提供人机交互接口。
本发明相比现有技术方法的有益效果是:
可降低整个***的耦合度。本发明基于模型-视图-控制器(MVC,Model-View-Controller)框架,结合GPU与云计算技术进行设计,用一种业务逻辑、数据和界面显示分离的方法组织代码,将业务逻辑聚集到一个***部件里面,提供具备实时计算能力的电磁态势仿真计算***架构,在改进和个性化定制界面及用户交互的同时,不需要重新编写业务逻辑。采用MVC架构进行设计的优势在于将数据传输与数据处理进行分离,数据管理、数据处理与数据显示进行分离,可降低整个***的耦合度,提高***的健壮性。
可获得更高的并行计算能力。本发明根据电磁态势仿真计算***的特点,基于storm分布式实时计算框架对***的计算模型、任务调度管理和计算流程进行设计。基于模型-视图-控制器(MVC,Model-View-Controller)框架,将***从上至下分为态势显示层、综合数据管理层、分布式实时运算层和硬件设备层的四层结构,以GPU为计算核心,以数据流的方式进行电磁态势数据计算。在这种分层方法的基础上基于云计算的架构对***资源进行互联和管理,实践了数据管理、数据处理和数据显示的分离,可大大提高***的并行计算能力,满足电磁态势仿真***的计算复杂度及实时计算能力要求。
***管理、任务调度的智能化及更高的灵活性和鲁棒性。本发明采用MVC架构设计的软件重用性高、生命周期成本低、部署快、可维护性高。综合数据管理层读取磁盘或网络接入的数据,调度计算***资源,通过对外接口将设备数据、环境数据和地形数据打包发送至分布式实时运算层完成数据运算和处理。利用云计算技术对资源的智能管理、对任务的智能调度能力,***的资源管理及利用能力将大大超越普通的计算机联网。在不考虑网络传输为瓶颈的情况下,无论任务的大小与复杂度,均可通过增加计算节点数量的方式来达到任务执行的实时性。基于storm分布式实时计算框架的云技术中,每个计算节点都是无状态的,因此每个计算节点均可被其他任意节点替代,具备分布式框架中的节点同一性。计算过程中,根据计算资源的需求,框架中的计算节点可以任意增加或减少,也可在任务执行过程中随时加入或由于故障等其他原因退出,这些操作均不会影响任务的执行结果,大大提高了***的灵活性及鲁棒性。此外,云计算服务资源访问具有接口统一、界面统一的特性,也利于电磁仿真***算法的开发和维护。
更低的成本满足电磁态势仿真计算的实时性要求。本发明的分布式实时运算层利用云计算的资源管理技术对***硬件设备资源进行调度和管理,同时提供***的异常捕获、日志管理、运行状态监视、分***管控、任务调度、算法分片决策、算法过程管理和数据整合等服务;综合数据管理层从文件***读取数据库、本地文件和远程文件等基础数据,将分布式实时运算层反馈的电磁数据处理结果进行综合后发送至态势显示层,完成电磁态势信息的可视化。利用云计算技术将众多能力不同的资源和设备进行智能互联、高效地协同完成计算,无需单独购买昂贵的高性能服务器作为计算资源。基于storm分布式实时计算框架的云技术中,每个计算节点均可被其他任意节点替代,具备分布式框架中的节点同一性,因此具有不同特点和性能的计算资源均可成为云的计算节点。同时,在不考虑网络传输为瓶颈的情况下,无论任务的大小与复杂度,均可通过增加计算节点数量的方式来达到任务执行的实时性。
附图说明
图1是基于GPU的分布式电磁态势仿真计算***分层示意图。
图2是图1实施例的数据流程图。
图3是图1分布式实时运算层的硬件结构图。
图4是图3分布式实时运算层的工作流程图。
下面结合附图和具体实施方式对本方法进一步说明。
具体实施方式
参阅图1。在以下描述的实施例中,一种基于GPU的分布式电磁态势仿真计算***,包括:基于模型-视图-控制器(MVC,Model-View-Controller)框架,从上至下依次分为:态势显示层、综合数据管理层、分布式实时运算层和硬件设备层,四层结构,其特征在于:综合数据管理层从文件***中读取电磁态势仿真计算需要的基础数据:设备数据、环境数据和地形数据,将基础数据综合以后形成运算数据推送给分布式实时运算层进行处理。分布式实时运算层调用硬件设备层中的GPU计算卡和CPU板卡的计算资源对运算数据进行处理,处理后的结果数据返回给综合数据管理层形成电磁数据;综合数据管理层将基础数据和电磁数据综合后形成态势显示数据推送给态势显示层;态势显示层将态势显示数据送入GPU显示卡,进行态势数据的可视化,并提供人机交互接口。
态势显示层从综合数据管理层获取需要显示的地形、环境、设备部署和电磁场信息等态势显示数据进行可视化,提供电磁态势仿真***的人机交互接口、显示区域调整、镜头切换、焦点设备切换,以及***的告警、调试、运行等日志信息的功能。
综合数据管理层通过对外接口从文件***读取电磁态势仿真***计算所需的基础数据包括设备数据、环境数据和地形数据等,将基础数据综合后送入分布式实时运算层并获得反馈的数据处理结果,并通过对外接口将基础数据和电磁数据打包发送至态势显示层完成电磁态势信息的可视化。
分布式实时运算层利用云计算的资源管理技术对***硬件设备资源进行调度和管理,同时提供***的异常捕获、日志管理、运行状态监视、分***管控、任务调度、算法分片决策、算法过程管理和数据整合等服务。
硬件设备层的硬件支持整个***的计算处理、数据交换和态势显示。硬件设备层包含:CPU板卡、多个GPU计算卡和GPU显示卡。CPU板卡是***的核心管理硬件单元,支持***的管理、资源调度和少量计算任务。GPU计算卡是***的计算核心,支持***大部分的数据处理任务。GPU板卡是***的显示核心,支持最终电磁态势数据的显示。CPU板卡通过磁盘或网络传输方式获取数据,并调度GPU计算卡执行大部分的计算任务,最后通过GPU显示卡对综合的计算结果数据进行地形渲染、态势显示等可视化工作。结合当前业务需求和后续***复杂度扩展,硬件设备的选择可考虑预留较大资源冗余。
参阅图2。基于GPU的分布式电磁态势仿真计算***的数据流可分为三类:基础数据、运算数据和态势显示数据。基础数据是指电磁态势计算所需的基础信息数据,主要包括:设备数据、环境数据和地形数据。运算数据是指综合数据管理层送入分布式实时运算层,在运算层中流动的中间数据(结果数据为运算数据的一部分);态势显示数据指综合数据管理层的综合数据管理模块将分布式电磁态势仿真***内基础数据和电磁数据进行整合,传递至态势显示层用于态势信息可视化的数据。综合数据管理层是电磁态势仿真***的数据管理核心,从文件***读取电磁态势仿真计算需要的基础数据,包括设备数据、环境数据和地形数据;将需要计算的电磁态势数据(即运算数据)推送给分布式实时运算层进行处理后,运算结果数据返回给综合数据管理层形成电磁数据。综合数据管理层将基础数据和电磁数据综合后形成的态势显示数据推送给态势显示层。态势显示层将态势显示数据送入GPU显示卡进行可视化。其中,分布式实时运算层会根据数据和任务的特点,将大部分运算任务推送给GPU运算集群,少部分运算任务推送给CPU。GPU运算集群和CPU将数据运算结果反馈给分布式实时运算层。
参阅图3。本实例分布式实时运算层的硬件结构主要由经高速背板连接的CPU板卡,多个GPU计算板卡及SSD高速固态硬盘存储板卡等组成。CPU板卡是整个运算层的核心管理单元,支持其他板卡的上、下电管理,一键开、关机和重启功能。CPU板卡可通过读取硬盘、网络接口等进行本地或远程的数据交互,通过运行在CPU板卡上的操作***和管理软件实现GPU计算集群的调度。GPU计算板卡是整个运算层的计算核心,GPU选择高性能的核心单元、大容量的显存、并通过高速总线相连,提高GPU与外部以及GPU计算单元之间的数据吞吐带宽,有助于提高整个GPU计算集群的并行处理能力。SSD高速固态硬盘是本地存储的接口,利用SSD固态硬盘的高速读写性能,可提高本地数据读取和存储的性能。高达10G的网络接口扩展板,为***提供高速的网络交互带宽,可大幅度提高网络数据的传输能力,有助于提高网络待处理文件的传输能力和分布式运算层的扩展,满足高速分布式计算***对计算节点间网络带宽的高要求。
参见图4。分布式实时运算层主要包括:任务调度模块、配置管理模块、业务发布模块、状态管理模块、管控服务模块、GPU计算集群和CPU计算模块。在分布式实时运算层中,综合数据管理层向分布式实时运算层发起任务请求。任务调度模块接收综合数据管理层的任务请求,并向配置管理模块请求资源。配置管理模块根据任务请求和运算数据的类型为任务调度模块分配计算资源和算法。任务调度模块在获得计算资源和算法后,将可分片任务发送给业务发布模块,将不可分片任务直接发送给GPU计算集群的计算单元或CPU计算模块的计算单元。业务发布模块接受任务调度模块的分片任务列表获取运算任务,按照任务的运算要求,向GPU计算集群的计算单元或CPU计算模块的计算单元分发运算任务包。同时将任务运行指令发送给GPU计算集群或CPU计算模块,采集GPU计算集群或CPU计算模块的日志,并将指令和日志同步汇报给状态管理模块;GPU计算集群和CPU计算模块接受运算任务后,根据业务发布模块的运算请求,动态加载相应的任务包并执行。任务执行完成后的运算数据经过数据整合,返回给综合数据管理层;状态管理模块收集业务发布模块的运行速度信息,对业务发布模块的状态进行管理,并将实时监控GPU计算集群和CPU计算模块的会话状态信息送入管控服务模块。管控服务模块通过人机交互接口,对业务发布模块、GPU计算集群和CPU计算模块处理任务的状态信息进行展示。处理任务的状态信息包括处理任务包总量、当前任务包速度和当前处理的任务类型等。
分布式实时运算层是态势仿真***的计算核心,根据任务和数据类型,数据的计算任务将主要交给并行处理能力强大的GPU计算集群进行,少部分任务交给CPU计算模块处理。在本实施例的GPU计算集群和CPU计算模块中,每个计算单元即计算节点都是无状态的,因此任何计算节点均可由其他节点替代,满足分布式框架中的节点同一性。此外,本实施例中的计算节点可以任意增加或减少,也可在任务执行过程中随时加入或退出,这些操作均不会影响任务的执行结果。在不考虑网络传输为瓶颈的情况下,任务的执行效率与计算节点的数量成正比,因此无论任务的大小与复杂度,均可通过增加计算节点的数量来达到任务执行的实时性。
本发明说明书,包括任何附权利要求、摘要和附图中公开的任一特征,除非特别叙述,均可被其他等效或者具有类似目的的替代特征加以替换。
Claims (10)
1.一种基于GPU的分布式电磁态势仿真计算***,包括:基于模型-视图-控制器(MVC,Model-View-Controller)框架,从上至下依次分为:态势显示层、综合数据管理层、分布式实时运算层和硬件设备层,四层结构,其特征在于:综合数据管理层从文件***中读取电磁态势仿真计算需要的基础数据:设备数据、环境数据和地形数据,将基础数据综合以后形成运算数据推送给分布式实时运算层进行处理;分布式实时运算层调用硬件设备层中的GPU计算卡和CPU板卡的计算资源对运算数据进行处理,处理后的结果数据返回给综合数据管理层形成电磁数据;综合数据管理层将基础数据和电磁数据综合后形成态势显示数据推送给态势显示层;态势显示层将态势显示数据送入GPU显示卡,进行态势数据的可视化,并提供人机交互接口。
2.如权利要求1所述的基于GPU的分布式电磁态势仿真计算***,其特征在于:态势显示层从综合数据管理层获取需要显示的地形、环境、设备部署和电磁场信息的态势显示数据进行可视化,提供电磁态势仿真***的人机交互接口、显示区域调整、镜头切换、焦点设备切换,以及***的告警、调试、运行的日志信息。
3.如权利要求1所述的基于GPU的分布式电磁态势仿真计算***,其特征在于:综合数据管理层通过对外接口从文件***读取电磁态势仿真***计算所需的基础数据包括设备数据、环境数据和地形数据,将基础数据综合后送入分布式实时运算层并获得反馈的数据处理结果,并通过对外接口将基础数据和电磁数据打包发送至态势显示层完成电磁态势信息的可视化。
4.如权利要求1所述的基于GPU的分布式电磁态势仿真计算***,其特征在于:分布式实时运算层利用云计算的资源管理技术对***硬件设备资源进行调度和管理,同时提供***的异常捕获、日志管理、运行状态监视、分***管控、任务调度、算法分片决策、算法过程管理和数据整合服务。
5.如权利要求1所述的基于GPU的分布式电磁态势仿真计算***,其特征在于:硬件设备层包含:CPU板卡、多个GPU计算卡和GPU显示卡;CPU板卡是***的核心管理硬件单元,支持***的管理、资源调度和少量计算任务;GPU计算卡是***的计算核心,支持***大部分的数据处理任务;GPU显示卡是***的显示核心,支持最终电磁态势数据的显示;CPU板卡通过磁盘或网络传输方式获取数据,调度GPU计算卡执行大部分的计算任务,最后通过GPU显示卡对综合的计算结果数据进行地形渲染、态势显示等可视化工作。
6.如权利要求1所述的基于GPU的分布式电磁态势仿真计算***,其特征在于:CPU板卡通过读取硬盘、网络接口进行本地或远程的数据交互,通过运行在CPU板卡上的操作***和管理软件实现GPU计算集群的调度。
7.如权利要求1所述的基于GPU的分布式电磁态势仿真计算***,其特征在于:分布式实时运算层包括:任务调度模块、配置管理模块、业务发布模块、状态管理模块、管控服务模块、GPU计算集群和CPU计算模块;任务调度模块接收综合数据管理层的任务请求,并向配置管理模块请求资源;配置管理模块根据任务请求和运算数据的类型为任务调度模块分配计算资源和算法;任务调度模块在获得计算资源和算法后,将可分片任务发送给业务发布模块,将不可分片任务直接发送给GPU计算集群的计算单元或CPU计算模块的计算单元。
8.如权利要求1所述的基于GPU的分布式电磁态势仿真计算***,其特征在于:业务发布模块接受任务调度模块的分片任务列表获取运算任务,按照任务的运算要求,向GPU计算集群的计算单元或CPU计算模块的计算单元分发运算任务包,同时将任务运行指令发送给GPU计算集群或CPU计算模块,采集GPU计算集群或CPU计算模块的日志,并将指令和日志同步汇报给状态管理模块。
9.如权利要求1所述的基于GPU的分布式电磁态势仿真计算***,其特征在于:GPU计算集群和CPU计算模块接受运算任务后,根据业务发布模块的运算请求,动态加载相应的任务包并执行任务,任务执行完成后的运算数据经过数据整合,返回给综合数据管理层。
10.如权利要求1所述的基于GPU的分布式电磁态势仿真计算***,其特征在于:状态管理模块收集业务发布模块的运行速度信息,对业务发布模块的状态进行管理,并将实时监控GPU计算集群和CPU计算模块的会话状态信息送入管控服务模块;管控服务模块通过人机交互接口,对业务发布模块、GPU计算集群和CPU计算模块处理任务的状态信息进行展示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711174176.9A CN108037995A (zh) | 2017-11-22 | 2017-11-22 | 基于gpu的分布式电磁态势仿真计算*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711174176.9A CN108037995A (zh) | 2017-11-22 | 2017-11-22 | 基于gpu的分布式电磁态势仿真计算*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108037995A true CN108037995A (zh) | 2018-05-15 |
Family
ID=62094187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711174176.9A Pending CN108037995A (zh) | 2017-11-22 | 2017-11-22 | 基于gpu的分布式电磁态势仿真计算*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108037995A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115904738A (zh) * | 2023-01-05 | 2023-04-04 | 摩尔线程智能科技(北京)有限责任公司 | 数据处理装置集群的管理***和控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102799708A (zh) * | 2012-06-18 | 2012-11-28 | 苏州超集信息科技有限公司 | 应用于电磁仿真的gpu高性能计算平台装置 |
CN102981064A (zh) * | 2012-10-09 | 2013-03-20 | 中国人民解放军63892部队 | 飞机外部射频电磁环境预测方法及预测*** |
CN105049485A (zh) * | 2015-06-09 | 2015-11-11 | 中国石油大学(华东) | 一种面向实时视频处理的负载感知云计算*** |
EP3023873A1 (en) * | 2014-11-24 | 2016-05-25 | Samsung Electronics Co., Ltd. | Electronic device and method for providing map service |
US20170288980A1 (en) * | 2016-04-05 | 2017-10-05 | Bit Lion, LLC | System for visualization of electromagnetic wave distribution and collaborative web-based design for optimal distribution of emitters |
-
2017
- 2017-11-22 CN CN201711174176.9A patent/CN108037995A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102799708A (zh) * | 2012-06-18 | 2012-11-28 | 苏州超集信息科技有限公司 | 应用于电磁仿真的gpu高性能计算平台装置 |
CN102981064A (zh) * | 2012-10-09 | 2013-03-20 | 中国人民解放军63892部队 | 飞机外部射频电磁环境预测方法及预测*** |
EP3023873A1 (en) * | 2014-11-24 | 2016-05-25 | Samsung Electronics Co., Ltd. | Electronic device and method for providing map service |
CN105049485A (zh) * | 2015-06-09 | 2015-11-11 | 中国石油大学(华东) | 一种面向实时视频处理的负载感知云计算*** |
US20170288980A1 (en) * | 2016-04-05 | 2017-10-05 | Bit Lion, LLC | System for visualization of electromagnetic wave distribution and collaborative web-based design for optimal distribution of emitters |
Non-Patent Citations (2)
Title |
---|
延伟勤等: "基于HLA的分布式雷达***仿真研究", 《大众科技》 * |
穆兰等: "空间电磁环境可视化***的研究与应用", 《***仿真学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115904738A (zh) * | 2023-01-05 | 2023-04-04 | 摩尔线程智能科技(北京)有限责任公司 | 数据处理装置集群的管理***和控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rausch et al. | Optimized container scheduling for data-intensive serverless edge computing | |
Saxena et al. | A proactive autoscaling and energy-efficient VM allocation framework using online multi-resource neural network for cloud data center | |
JP7322273B2 (ja) | 脳型知能とコグニティブコンピューティングに使用されるスパイキングニューラルネットワーク演算システムおよび方法 | |
CN105978704B (zh) | 用于创建新的云资源指令集体系结构的***和方法 | |
US10963313B2 (en) | Automated reinforcement-learning-based application manager that learns and improves a reward function | |
Fujimoto | Research challenges in parallel and distributed simulation | |
CN104898573B (zh) | 一种基于云计算的数控***数据采集及处理方法 | |
US10802864B2 (en) | Modular reinforcement-learning-based application manager | |
CN104123182B (zh) | 基于主从架构的MapReduce任务跨数据中心调度***及方法 | |
CN110389838A (zh) | 一种适用于虚拟资源的实时调度和在线迁移管控方法 | |
CN104486255B (zh) | 业务资源调度方法和装置 | |
US9239734B2 (en) | Scheduling method and system, computing grid, and corresponding computer-program product | |
CN109684074A (zh) | 物理机资源分配方法及终端设备 | |
CN110753107B (zh) | 天基云雾计算架构下的资源调度***、方法和存储介质 | |
Naskos et al. | Cloud elasticity: a survey | |
US20160380862A1 (en) | Methods and systems to evaluate data center resource allocation costs | |
CN103581339A (zh) | 基于云计算的存储资源分配监控处理方法 | |
US20230028934A1 (en) | Methods and decentralized systems that employ distributed machine learning to automatically instantiate and manage distributed applications | |
CN111814911A (zh) | 一种基于容器化管理的电力ai训练平台及其训练方法 | |
Kijsipongse et al. | A hybrid GPU cluster and volunteer computing platform for scalable deep learning | |
Ataie et al. | Modeling and evaluation of dispatching policies in IaaS cloud data centers using SANs | |
CN108563787A (zh) | 一种数据中心综合管理***的数据交互管理***及方法 | |
CN114490049A (zh) | 在容器化边缘计算中自动分配资源的方法及*** | |
Narantuya et al. | Multi-Agent Deep Reinforcement Learning-Based Resource Allocation in HPC/AI Converged Cluster. | |
Faro et al. | Middleware for Quantum: An orchestration of hybrid quantum-classical systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180515 |
|
WD01 | Invention patent application deemed withdrawn after publication |