CN109992417A - 预计算olap***及实现方法 - Google Patents

预计算olap***及实现方法 Download PDF

Info

Publication number
CN109992417A
CN109992417A CN201910213883.7A CN201910213883A CN109992417A CN 109992417 A CN109992417 A CN 109992417A CN 201910213883 A CN201910213883 A CN 201910213883A CN 109992417 A CN109992417 A CN 109992417A
Authority
CN
China
Prior art keywords
precomputation
data
subsystem
olap
inquiry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910213883.7A
Other languages
English (en)
Other versions
CN109992417B (zh
Inventor
颜磊
李扬
韩卿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yunyun (shanghai) Information Technology Co Ltd
Original Assignee
Yunyun (shanghai) Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yunyun (shanghai) Information Technology Co Ltd filed Critical Yunyun (shanghai) Information Technology Co Ltd
Priority to CN201910213883.7A priority Critical patent/CN109992417B/zh
Publication of CN109992417A publication Critical patent/CN109992417A/zh
Application granted granted Critical
Publication of CN109992417B publication Critical patent/CN109992417B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5021Priority

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种预计算OLAP***及实现方法。该预计算OLAP***包括:至少三个子***,三个所述子***之间通过解耦隔离部署,且在三个所述子***中通过文件通道进行通信。本申请解决了资源率用率较低的技术问题。本申请中的预计算OLAP***通过解耦隔离部署,可以解决组件耦合带来的灵活性问题,在多租户场景下极大的提高了资源利用率,使本申请能应对更加复杂的使用场景。此外,本申请适用于多租户架构,可以让多个用户在共同的环境下共用相同的OLAP预计算工具,且同时确保各用户间数据的隔离性。

Description

预计算OLAP***及实现方法
技术领域
本申请涉及计算机、数据分析领域,具体而言,涉及一种预计算OLAP***及实现方法。
背景技术
通过搭建预计算OLAP***的多维分析平台,可以让多个用户在同一个平台上进行建模开发,从而加速多维分析。
发明人发现,在有多租户时,启动多个服务实例会占用资源。同时,租户实际使用和启动的服务实例不成比例,还造成了资源浪费。进一步,预计算OLAP***中的子***之间相互耦合,从而在开发使用时灵活性较差。
针对相关技术中资源率用率较低的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种预计算OLAP***及实现方法,以解决资源率用率较低的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种预计算OLAP***。
根据本申请的预计算OLAP***包括:至少三个子***,三个所述子***之间通过解耦隔离部署,且在三个所述子***中通过文件通道进行通信。
进一步地,所述子***包括:建模***、预计算***和查询***,所述建模***,用于进行模型开发和数据立方体设计;所述预计算***,用于根据所述模型对数据仓库中的数据进行预聚合并保存预计算数据立方体结果;所述查询***,用于对预计算数据立方体结果进行查询。
进一步地,所述建模***中包括第一数据接口,用于进行数据文件的导入或导出,所述预计算***中包括第二数据接口,用于进行所述预计算数据立方体结果的导出。
进一步地,每个所述子***中按照不同角色配置不同的资源组,每个所述资源组中部署至少一个服务实例,所述资源组被配置为开发模式、构建模式或者查询模式的角色模式。
进一步地,根据预设用户优先级在所述查询***中执行不同优先级的查询请求。
进一步地,三个所述子***之间通过解耦隔离时,不共享每个所述子***中的数据和元数据。
进一步地,所述子***之间还包括调用构建接口的交互方式。
进一步地,所述子***之间还包块模型元数据导入的交互方式。
进一步地,所述子***之间还包括数据同步的交互方式。
为了实现上述目的,根据本申请的另一方面,提供了一种预计算OLAP***实现方法。
根据本申请的预计算OLAP***实现方法包括:根据至少包括一个服务实例的资源组,将建模***、构建***和查询***进行解耦部署;在所述建模***中用于进行模型开发;在所述构建***用于进行数据立方体构建;在所述查询***中用于进行预设优先级查询;其中,在所述子***之间网络隔离,且在所述子***中通过文件通道进行通信。
在本申请实施例中预计算OLAP***及实现方法,采用新型的预计算OLAP***的方式,通过分离出三个子***,三个所述子***之间通过解耦隔离部署,且在三个所述子***中通过文件通道进行通信,达到了在超大型企业中跨网络部署的目的,从而实现了子***间可以网络隔离,同时保留文件上传下载通道,最大化安全隔离性和部署灵活性的技术效果,进而解决了资源率用率较低的技术问题。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据相关技术的多租户集群拓扑示意图;
图2是根据相关技术的服务实例和集群的交互示意图;
图3是根据本申请实施例的基于预计算OLAP***的多租户集群拓扑示意图;
图4是根据本申请实施例的服务实例与Hadoop用户解绑示意图;
图5是根据本申请实施例的配置资源组中的角色模式示意图;
图6是根据本申请实施例的预计算OLAP***解耦示意图;
图7是根据本申请实施例的查询资源组支持不同优先级的使用场景示意图;
图8是根据本申请实施例的预计算OLAP***的实现方法流程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
实施例一
本申请中的预计算OLAP***,在现有的OLAP***多租户架构的基础上,解耦预计算OLAP***中的三大子***,分别包括:建模***、预计算***、查询***。而且在每个子***间不共享任何数据和元数据,只通过文件交换的形式沟通。
如图3所示,本申请实施例中的预计算OLAP***,至少包括:三个子***,三个所述子***之间通过解耦隔离部署,且在三个所述子***中通过文件通道进行通信。对于现有的如图1所示的预计算OLAP***,在本申请实施例中采用解耦的方式将现有模型中的所述子***进行解耦隔离部署,并且在子***之间实现网络隔离,仅通过文件通道进行上传下载文件传输。
具体地,在本申请的实施例中提供了解耦的预计算OLAP***,子***至少包括三个,其具体为:建模***100、预计算***200、查询***300,在所述建模子***、预计算子***、查询子***间相互并不不共享任何数据和元数据,只通过文件交换的形式沟通。从而达到在超大型企业中跨网络部署的目的,即子***间可以网络隔离,只保留文件上传下载通道,最大化安全隔离性和部署灵活性。
从以上的描述中,可以看出,本申请实现了如下技术效果:
在本申请实施例中通过三个所述子***,在所述子***隔离部署达到在超大型企业中跨网络部署的目的,子***间支持网络隔离,只保留文件上传下载通道,最大化安全隔离性和部署灵活性。
作为本实施例中的优选,所述子***包括:建模***100、预计算***200和查询***300,所述建模***100,用于进行模型开发和数据立方体设计;所述预计算***200,用于根据所述模型对数据仓库中的数据进行预聚合并保存预计算数据立方体结果;所述查询***300,用于对预计算数据立方体结果进行查询。优选地,三个所述子***之间通过解耦隔离时,不共享每个所述子***中的数据和元数据。
具体地,所述建模***100、预计算***200、查询***300三个子***完全解耦,可以跨网络部署,子***间不共享任何数据和元数据,只通过文件交换的形式沟通。
优选地,在所述建模***100中包括第一数据接口,用于进行数据文件的导入或导出,在所述预计算***200中包括第二数据接口,用于进行所述预计算数据立方体结果的导出。
所述第一数据接口用于进行数据文件的导入或导出。需要注意的是,在本申请中并不进行限定,只要能够满足导入或导出需求即可。
所述第二数据接口用于进行所述预计算数据立方体结果的导出。需要注意的是,在本申请中并不进行限定,只要能够满足结果导出需求即可。
具体地,所述建模***100中可以支持多租户在统一的建模***中,进行模型开发和cube数据立方体设计,以结构化文件形式存储,同时支持接口导入导出元数据文件,供其他***使用。所述预计算***200中可以根据设计的模型,对数据仓库中的数据按不同的维度组合进行预聚合并保存聚合结果。预计算的Cube结果,支持接口形式导出到其他子***。所述查询***300中可以提供对预计算数据立方体Cube结果的高效查询服务。所述查询***300可以根据优先级划分为不同查询子***。
如图6所示,所述子***之间还包括调用构建接口的交互方式。具体地,在所述建模***和所述预计算***之间会进行调用构建接口的交互操作。在所述建模***中可以同时支持接口导入导出元数据文件,供所述预计算***使用。比如,所述预计算***中用于根据所述模型对数据仓库中的数据进行预聚合并保存预计算数据立方体结果。
如图6所示,所述子***之间还包块模型元数据导入的交互方式。具体地,在所述建模***和所述查询***之间会进模型元数据导入的交互操作。在所述查询***对预计算数据立方体结果进行查询时会对通过模型元数据导入的方式进行交互。
如图6所示,所述子***之间还包括数据同步的交互方式。具体地,在所述预计算***和所述查询***之间会进行数据同步的交互操作。在所述预计算***中保存预计算数据立方体结果会与所述查询***进行数据同步。
由于在所述子***包括:建模***、预计算***和查询***,所述建模***,用于进行模型开发和数据立方体设计;所述预计算***,用于根据所述模型对数据仓库中的数据进行预聚合并保存预计算数据立方体结果;所述查询***,用于对预计算数据立方体结果进行查询。通过在所述建模***、所述预计算***以及所述查询***的三个子***实现解耦,可以跨网络部署,子***间不共享任何数据和元数据,只通过文件交换的形式沟通。
实施例二
预计算OLAP***的使用场景中以资源组形式服务多个租户
根据本申请实施例,作为本实施例中的优选,如图5所示,每个所述子***中按照不同角色配置不同的资源组,每个所述资源组中部署至少一个服务实例,所述资源组被配置为开发模式、构建模式或者查询模式的角色模式。通过在每个所述资源组部署一个或多个实例服务,同时可以配置该资源组的的角色,经过配置后的所述资源组就会按照定义好的角色模型进行运行。
具体地,通过重构资源组,并且以资源组形式服务多个租户,以资源组形式服务多个租户,从而在所述服务实例的部署方式与所述租户的个数不会有相关联性。区别于,现有基于预计算OLAP***的多租户架构,如图2所示,服务实例和租户是完全绑定的形式。如果在租户增多的情况下,服务实例需要部署非常多的实例。所以为了提高资源利用率,在本申请实施例中每个所述子***中按照不同角色配置不同的所述资源组,从而资源组中至少包括的一个服务实例可以支持不同租户的使用。
如图4所示,租户在管理时,会绑定对应Hadoop集群的用户,而服务实例在运行时绑定的是Hadoop超级用户,租户每次去执行开发、构建或查询时,服务实例都会只能访问该用户所对应Hadoop用户的数据权限,这样确保数据隔离。且服务实例的个数不会随着租户的增加而增加。
实施例三
预计算OLAP***使用场景中查询***的资源组支持不同优先级的查询
根据本申请实施例,作为本实施例中的优选,如图5所示,每个所述子***中按照不同角色配置不同的资源组,每个所述资源组中部署至少一个服务实例,所述资源组被配置为开发模式、构建模式或者查询模式的角色模式。优选地,还包括根据预设用户优先级在所述查询***中执行不同优先级的查询请求。
具体地,如图7所示,本申请实施例中的预计算OLAP***作为一个能支持多租户使用的多维分析平台,在租户之间的在查询时一般会有优先级的区分,对于每个查询的资源组,允许按照需求配置所述服务实例的个数。负载均衡模块会根据查询用户所设定的优先级自动路由到不同的查询资源组中,满足不同优先级的查询请求。
区别于现有基于预计算OLAP***中每个租户需要配备固定的Service instance(服务实例),各自使用对应权限的Hadoop集群的kerberos用户。当数据立方体Cube构建作业或查询任务发起时,Load Balance负载均衡服务会自动转发请求到对应的租户的服务实例中运行并返回结果。
根据本申请实施例,还提供了一种用于实施上述预计算OLAP***的预计算OLAP***实现方法,如图8所示,包括如下步骤:
步骤S102,根据至少包括一个服务实例的资源组,将建模***、构建***和查询***进行解耦部署;
在每个所述资源组可以部署一个或多个实例,同时可以配置该资源组的角色,所述配置的资源组可以定义好的模型角色运行。
步骤S104,在所述建模***中用于进行模型开发;
步骤S106,在所述构建***用于进行数据立方体构建;
步骤S108,在所述查询***中用于进行预设优先级查询;
如图8所示,具体地,在上述步骤S104至步骤S108中,在所述建模***中通过对开发资源进行模型开发,同时通过预先配置的Rest API数据接口支持可以将已经开发完成的模型导出。通过在所述构建***构建***进行数据立方体Cube构建,也有独立的接口完成数据同步,查询工具完成数据立方体Cube查询,从而能完成子***的解耦。
在所述子***之间网络隔离,且在所述子***中通过文件通道进行通信。
如图3和图4所示,具体地,在本申请的实施例中提供了解耦的预计算OLAP***,子***至少包括三个,其具体为:建模***、预计算***、查询***,在所述建模子***、预计算子***、查询子***间相互并不不共享任何数据和元数据,只通过文件交换的形式沟通。从而达到在超大型企业中跨网络部署的目的,即子***间可以网络隔离,只保留文件上传下载通道,最大化安全隔离性和部署灵活性。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
本申请的实现原理:
以下通过结合附图1-7对本申请的实现原理进行详细说明。
如图1所示,传统的多租户技术,都是针对不同用户部署不同的工具服务实例,让不同服务实例,单独服务于不同用户。这样每个用户在运行自己的构建或查询任务,都有自己单独的服务实例进行支撑,且配置不同的Hadoop kerberos用户,这样用户在进行模型开发时只使用了自己的认证文件,只能访问自己的数据。这样使得不同用户间的权限和数据隔离变的可能。而当启用不同服务实例服务不同用户,虽然能完全实现多租户,达到数据隔离,当用户多的情况,OLAP预计算工具服务实例就需要部署很多,这样需要很多的计算资源,且每个用户的使用频次和对资源的要求不一致,使得部分服务实例得不到充分的使用,导致了极大的资源浪费。同时预计算OLAP***中的建模、构建、查询工具都耦合在一起,不能根据实际环境隔离部署,在开发使用时不够灵活。
具体地,以金融行业的IT报表开发模式为例,其数仓开发团队需要服务于不同的业务部门,所以数仓团队也有不同的IT部门,每个部门都需要共同使用预计算OLAP平台的资源,但需要实现每个部门的数据和权限的隔离。多用户的环境下共用相同的***或程序组件,并且仍可确保各用户间数据的隔离性,这个称之为多租户。传统的多租户环境每个租户需要配备固定的Service instance(服务实例),各自使用对应权限的Hadoop集群的kerberos用户。当Cube构建作业或查询任务发起时,Load Balance服务会自动转发请求到对应的租户的服务实例中运行并返回结果。
如图2所示,每个预计算OLAP***的服务实例,在部署时需要配置该实例所服务的租户,同时需要配置hadoop集群的kerberos用户,在启动初始化后,该服务实例所执行的操作,包括获取有权限的数据,执行Cube构建和Cube查询操作,都会使用该kerberos用户。由图2中可以看出,由于每个租户的实例所使用的hadoop用户都不相同,而每个kerberos用户所具有的权限都不相同,这样则实现了租户之间的数据隔离。
针对上述缺陷分析可知,在传统的基于预计算OLAP***中的多租户部署方案中,需要配置每个租户对应的服务实例,如果租户很多,则需要启动对应个数的服务实例,需要占用的资源很多。此外,租户在实际使用时,有的租户构建和查询的任务相对较少,启动的服务实例占用了集群的资源,但几乎不被使用,导致了极大的浪费,部署租户时需要初始化和配置实例。
另外,由于在现有的预计算OLAP***中的建模、构建、查询工具都耦合在一起,不能根据实际环境隔离部署,在开发使用时不够灵活。
如图3所示,本申请在已有的预计算OLAP***的多租户架构的基础上,采用解耦预计算OLAP***中的三大子***,包括建模***、预计算***、查询***。子***间不共享任何数据和元数据,只通过文件交换的形式沟通。达到在超大型企业中跨网络部署的目的,即子***间可以网络隔离,只保留文件上传下载通道,最大化安全隔离性和部署灵活性。从而达到在超大型企业中跨网络部署的目的,即子***间可以网络隔离,只保留文件上传下载通道,最大化安全隔离性和部署灵活性。
如图3所示是基于预计算OLAP***的多租户架构方案,可以有效解决现有技术方案的缺陷,用固定的资源组配置方案,服务于更多的租户使用,在解耦架构的同时提高集群的资源的利用率。
由于在传统的多租户架构中,服务实例和租户是完全绑定的形式,这样租户多的情况下,服务实例需要部署非常多的实例。所以为了提高资源利用率,单个服务实例可以支持不同租户的使用。如图4所示,是基于预计算OLAP***以资源组形式服务多个租户的应用场景,具体地,租户在管理时,会绑定对应Hadoop集群的用户,通过在所述服务实例在运行时绑定的是Hadoop超级用户,租户每次去执行开发、构建或查询时,服务实例都会只能访问该用户所对应Hadoop用户的数据权限,这样确保数据隔离。且所述服务实例的个数不会随着租户的增加而增加。查询***的资源组能支持不同优先级的查询。在使用时控制租户能使用到的数据资源,完成隔离数据,在构建时设置资源队列,控制资源隔离。
如图5所示,每个资源组可以部署一个或多个实例,同时可以配置该资源组的的角色模式,所述资源组就会以定义好的角色模型运行。采用资源组形式服务多个租户,服务实例的部署方式与租户的个数可以没有必然关系。如图5所示,角色模型可以包括,开发模式、构建模式或者查询模式等。每个所述建模子***、预计算子***、查询***子***以资源组形式服务多租户场景,每个资源组可独立升缩、线性扩容,提高了整个集群的资源利用率。
如图6所示,建模***100进行模型开发,同时采用独立RestAPI接口支持把开发好的模型导出。预计算***200进行Cube数据立方体构建,也有独立的接口完成数据同步,查询***300完成Cube数据立方体查询,能完成组件解耦。建模***、预计算***、查询***三个子***完全解耦,可以跨网络部署,子***间不共享任何数据和元数据,只通过文件交换的形式沟通。
所述建模***100,支持多租户在统一的建模***中,进行模型开发和cube设计,以结构化文件形式存储,同时支持接口导入导出元数据文件,供其他***使用。所述预计算***200,根据设计的模型,对数据仓库中的数据按不同的维度组合进行预聚合并保存聚合结果。所述预计算的Cube结果,支持接口形式导出到其他子***。查询***300,提供对预计算Cube结果的高效查询服务。在子***解耦隔离后,可以实现部署达到在超大型企业中跨网络部署的目的,子***间支持网络隔离,只保留文件上传下载通道,最大化安全隔离性和部署灵活性。
如图7所示,所述基于预计算OLAP***作为一个能支持多租户使用的多维分析平台,在多租户之间的在查询时一般会有优先级的区分,同时每个查询的资源组,允许按照需求配置实例的个数。负载均衡模块可以根据查询用户所设定的优先级自动路由到不同的查询资源组中,满足不同优先级的查询请求。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种预计算OLAP***,其特征在于,包括:至少三个子***,三个所述子***之间通过解耦隔离部署,且在三个所述子***中通过文件通道进行通信。
2.根据权利要求1所述的预计算OLAP***,其特征在于,所述子***包括:建模***、预计算***和查询***,
所述建模***,用于进行模型开发和数据立方体设计;
所述预计算***,用于根据所述模型对数据仓库中的数据进行预聚合并保存预计算数据立方体结果;
所述查询***,用于对预计算数据立方体结果进行查询。
3.根据权利要求2所述的预计算OLAP***,其特征在于,所述建模***中包括第一数据接口,用于进行数据文件的导入或导出,所述预计算***中包括第二数据接口,用于进行所述预计算数据立方体结果的导出。
4.根据权利要求1所述的预计算OLAP***,其特征在于,每个所述子***中按照不同角色配置不同的资源组,每个所述资源组中部署至少一个服务实例,所述资源组被配置为开发模式、构建模式或者查询模式的角色模式。
5.根据权利要求1或4所述的预计算OLAP***,其特征在于,根据预设用户优先级在所述查询***中执行不同优先级的查询请求。
6.根据权利要求1所述的预计算OLAP***,其特征在于,三个所述子***之间通过解耦隔离时,不共享每个所述子***中的数据和元数据。
7.根据权利要求1所述的预计算OLAP***,其特征在于,所述子***之间还包括调用构建接口的交互方式。
8.根据权利要求1所述的预计算OLAP***,其特征在于,所述子***之间还包块模型元数据导入的交互方式。
9.根据权利要求1所述的预计算OLAP***,其特征在于,所述子***之间还包括数据同步的交互方式。
10.一种预计算OLAP***实现方法,其特征在于,包括如下步骤:
根据至少包括一个服务实例的资源组,将建模***、构建***和查询***进行解耦部署;
在所述建模***中用于进行模型开发;
在所述构建***用于进行数据立方体构建;
在所述查询***中用于进行预设优先级查询;
其中,在所述子***之间网络隔离,且在所述子***中通过文件通道进行通信。
CN201910213883.7A 2019-03-20 2019-03-20 预计算olap***及实现方法 Active CN109992417B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910213883.7A CN109992417B (zh) 2019-03-20 2019-03-20 预计算olap***及实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910213883.7A CN109992417B (zh) 2019-03-20 2019-03-20 预计算olap***及实现方法

Publications (2)

Publication Number Publication Date
CN109992417A true CN109992417A (zh) 2019-07-09
CN109992417B CN109992417B (zh) 2021-07-30

Family

ID=67130697

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910213883.7A Active CN109992417B (zh) 2019-03-20 2019-03-20 预计算olap***及实现方法

Country Status (1)

Country Link
CN (1) CN109992417B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110131176A1 (en) * 2009-11-30 2011-06-02 Eric Williamson Systems and methods for generating iterated distributions of data in a hierarchical database
CN102789488A (zh) * 2012-06-29 2012-11-21 用友软件股份有限公司 数据查询处理***和数据查询处理方法
CN104933114A (zh) * 2015-06-08 2015-09-23 山东蚁巡网络科技有限公司 一种海量日志管理云平台
CN106372185A (zh) * 2016-08-31 2017-02-01 广东京奥信息科技有限公司 一种异构数据源的数据预处理方法
CN106372114A (zh) * 2016-08-23 2017-02-01 电子科技大学 一种基于大数据的联机分析处理***和方法
CN107301206A (zh) * 2017-06-01 2017-10-27 华南理工大学 一种基于预运算的分布式olap分析方法及***
US20180107705A1 (en) * 2016-10-19 2018-04-19 Salesforce.Com, Inc. Streamlined creation and updating of olap analytic databases
CN107948309A (zh) * 2017-12-15 2018-04-20 神思电子技术股份有限公司 一种基于Restful API的服务器资源的集成管理方法和***
CN108446318A (zh) * 2018-02-08 2018-08-24 广州奥佳软件技术有限公司 一种海量数据智能决策分析***
CN109086410A (zh) * 2018-08-02 2018-12-25 中国联合网络通信集团有限公司 流式海量数据的处理方法及***

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110131176A1 (en) * 2009-11-30 2011-06-02 Eric Williamson Systems and methods for generating iterated distributions of data in a hierarchical database
CN102789488A (zh) * 2012-06-29 2012-11-21 用友软件股份有限公司 数据查询处理***和数据查询处理方法
CN104933114A (zh) * 2015-06-08 2015-09-23 山东蚁巡网络科技有限公司 一种海量日志管理云平台
CN106372114A (zh) * 2016-08-23 2017-02-01 电子科技大学 一种基于大数据的联机分析处理***和方法
CN106372185A (zh) * 2016-08-31 2017-02-01 广东京奥信息科技有限公司 一种异构数据源的数据预处理方法
US20180107705A1 (en) * 2016-10-19 2018-04-19 Salesforce.Com, Inc. Streamlined creation and updating of olap analytic databases
CN107301206A (zh) * 2017-06-01 2017-10-27 华南理工大学 一种基于预运算的分布式olap分析方法及***
CN107948309A (zh) * 2017-12-15 2018-04-20 神思电子技术股份有限公司 一种基于Restful API的服务器资源的集成管理方法和***
CN108446318A (zh) * 2018-02-08 2018-08-24 广州奥佳软件技术有限公司 一种海量数据智能决策分析***
CN109086410A (zh) * 2018-08-02 2018-12-25 中国联合网络通信集团有限公司 流式海量数据的处理方法及***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
扎心了老铁: ""RabbitMQ与AMQP协议"", 《HTTPS://CLOUD.TENCENT.COM/DEVELOPER/ARTICLE/1050420》 *
李振华: "《地质灾害数据仓库构建及应用》", 31 August 2018, 中国地质大学出版社 *
陈臣: ""大数据时代基于个性化服务的数字图书馆数据搜索引擎设计"", 《图书馆理论与实践》 *

Also Published As

Publication number Publication date
CN109992417B (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
CN105354076B (zh) 一种应用部署方法及装置
CN112492003B (zh) 一种基于业务编排器的云网融合业务处理方法及装置
CN103530185B (zh) 资源优化方法及装置
CN105162884A (zh) 一种基于微服务架构的云管理平台
CN102937911A (zh) 虚拟机资源的管理方法及***
JP2015537307A (ja) コンポーネント指向ハイブリッドクラウドオペレーティングシステムのアーキテクチャ及びその通信方法
CN105183820A (zh) 一种支持多租户的大数据平台及租户访问方法
CN102611735A (zh) 一种应用服务的负载均衡方法及***
CN105103506A (zh) 用于为云计算网络中的非均匀带宽请求分配带宽的方法和***
CN104754008B (zh) 网络存储节点、网络存储***以及用于网络存储节点的装置和方法
CN101136932A (zh) 一种集群式流媒体组网***及其内容发布和服务方法
CN103780646A (zh) 一种云资源的调度方法及***
CN108492006A (zh) 一种层次控制模式的运维作业调度引擎
CN102611699A (zh) 一种云操作***中访问控制的方法和***
CN105930417B (zh) 一种基于云计算的大数据etl交互式处理平台
CN103945000A (zh) 一种负载均衡方法及负载均衡器
CN114553865A (zh) 异构混合云***架构设计方法
CN106161603B (zh) 一种组网的方法、设备及架构
Ke et al. Aggregation on the fly: Reducing traffic for big data in the cloud
Ayoub et al. Efficient routing and bandwidth assignment for inter-data-center live virtual-machine migrations
CN106789267B (zh) 公有云管理***及管理方法
CN104506630B (zh) 基于用户角色的权限数据生成方法、服务器及***
Akingbesote et al. Performance modeling of proposed guiset middleware for mobile healthcare services in e‐marketplaces
CN102611758B (zh) 一种利用负载均衡器同步集群数据的方法
CN104166581A (zh) 一种面向增量制造设备的虚拟化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant