CN110457392B - 副本读写方法及装置 - Google Patents

副本读写方法及装置 Download PDF

Info

Publication number
CN110457392B
CN110457392B CN201910670843.5A CN201910670843A CN110457392B CN 110457392 B CN110457392 B CN 110457392B CN 201910670843 A CN201910670843 A CN 201910670843A CN 110457392 B CN110457392 B CN 110457392B
Authority
CN
China
Prior art keywords
read
write
updated
copies
copy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910670843.5A
Other languages
English (en)
Other versions
CN110457392A (zh
Inventor
葛凯凯
刘鑫伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910670843.5A priority Critical patent/CN110457392B/zh
Publication of CN110457392A publication Critical patent/CN110457392A/zh
Application granted granted Critical
Publication of CN110457392B publication Critical patent/CN110457392B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • G06F16/273Asynchronous replication or reconciliation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • G06F16/275Synchronous replication
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种副本读写方法及装置。该副本读写方法包括:统计最近的预设时间周期内分布式存储***中读写操作比例;确定分布式存储***中副本读写策略,副本读写策略包括同步更新的副本数和异步更新的副本数;根据同步更新的副本数和异步更新的副本数,进行副本读写操作。本发明实施例中根据预设时间周期内分布式存储***中读写操作比例确定分布式存储***中同步更新的副本数和异步更新的副本数,即分布式存储***运行过程中的读写负载的比例来动态的调整副本实时更新的数量,让分布式存储***适应更加多样化的使用环境,使分布式存储***在云计算中更具有普适性,分布式存储***在副本更新时的一致性、可用性和***性能之间的达到平衡。

Description

副本读写方法及装置
技术领域
本发明涉及通信技术领域,具体涉及一种副本读写方法及装置。
背景技术
分布式存储***,是将数据分散存储在多***立的设备上。传统的网络存储***采用集中的存储服务器存放所有数据,存储服务器成为***性能的瓶颈,也是可靠性和安全性的焦点,不能满足大规模存储应用的需要。分布式网络存储***采用可扩展的***结构,利用多台存储服务器分担存储负荷,利用位置服务器定位存储信息,它不但提高了***的可靠性、可用性和存取效率,还易于扩展。
目前,分布式存储***中保证数据可靠性提供两种方式:副本策略和纠删码策略。一般使用比较多的是副本策略,副本策略中一般采用三副本,而当前副本策略在写操作时使用的是强一致性来保证副本数据之间的一致性,也就是说只有所有副本之间的数据都写完了,才给用户响应完成应答。以分布式存储***中的Ceph***为例,Ceph***使用的主从同步复制策略虽然达到了强一致性,但是写响应时间比较长,必须等待所有的副本响应,写操作才算完成,响应时间太长,可用性较低。
发明内容
本申请提供一种副本读写方法及装置,分布式存储***运行过程中的读写负载的比例来动态的调整副本实时更新的数量,让分布式存储***适应更加多样化的使用环境,使分布式存储***在云计算中更具有普适性,分布式存储***在副本更新时的一致性、可用性和***性能之间的达到平衡。
第一方面,本申请提供一种副本读写方法,所述副本读写方法包括:
统计最近的预设时间周期内分布式存储***中读写操作比例;
根据所述读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略中包括同步更新的副本数和异步更新的副本数;
根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
在本申请一些实施例中,所述根据所述读写操作比例,确定所述分布式存储***中副本读写策略,包括:
获取所述分布式存储***中更新副本总数;
根据所述读写操作比例,确定所述更新副本总数中同步更新的副本数和异步更新的副本数。
在本申请一些实施例中,所述根据所述读写操作比例,确定所述更新副本总数中同步更新的副本数和异步更新的副本数,包括:
根据所述读写操作比例,确定所述分布式存储***当前的读写状态;
根据所述分布式存储***当前的读写状态,确定所述更新副本总数中同步更新的副本数和异步更新的副本数。
在本申请一些实施例中,所述根据所述分布式存储***当前的读写状态,确定所述更新副本总数中同步更新的副本数和异步更新的副本数,包括:
当所述分布式存储***当前的读写状态为写密集型时,则按照第一策略修改所述更新副本总数中同步更新的副本数为第一数量;
当所述分布式存储***当前的读写状态为读密集型时,则修改所述更新副本总数中同步更新的副本数为所述更新副本总数;
当所述分布式存储***当前的读写状态为读写稀松型时,则保持当前所述更新副本总数中同步更新的副本数;
当所述分布式存储***当前的读写状态为读写密集型时,则按照第二策略确定所述更新副本总数中同步更新的副本数为第二数量;
其中,所述第一数量和所述第二数量均为小于所述同步更新的副本数的正整数。
在本申请一些实施例中,所述按照第一策略修改所述更新副本总数中同步更新的副本数为第一数量,包括:
获取预设的写密集型阈值;
获取所述预设时间周期内写操作数和读操作数;
根据所述写密集型阈值以及所述预设时间周期内写操作数和读操作数,计算所述第一数量。
在本申请一些实施例中,所述按照第二策略确定所述更新副本总数中同步更新的副本数为第二数量,包括:
获取预设的写密集型阈值和读密集型阈值;
获取所述预设时间周期内写操作数和读操作数;
根据所述写密集型阈值、读密集型阈值、以及所述预设时间周期内写操作数和读操作数,计算所述第二数量。
第二方面,本申请提供一种一种副本读写装置,所述副本读写装置包括:
统计单元,用于统计最近的预设时间周期内分布式存储***中读写操作比例;
确定单元,用于根据所述读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略中包括同步更新的副本数和异步更新的副本数;
读写单元,用于根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
在本申请一些实施例中,所述确定单元具体用于:
获取所述分布式存储***中更新副本总数;
根据所述读写操作比例,确定所述更新副本总数中同步更新的副本数和异步更新的副本数。
在本申请一些实施例中,所述确定单元具体用于:
根据所述读写操作比例,确定所述分布式存储***当前的读写状态;
根据所述分布式存储***当前的读写状态,确定所述更新副本总数中同步更新的副本数和异步更新的副本数。
在本申请一些实施例中,所述确定单元具体用于:
当所述分布式存储***当前的读写状态为写密集型时,则按照第一策略修改所述更新副本总数中同步更新的副本数为第一数量;
当所述分布式存储***当前的读写状态为读密集型时,则修改所述更新副本总数中同步更新的副本数为所述更新副本总数;
当所述分布式存储***当前的读写状态为读写稀松型时,则保持当前所述更新副本总数中同步更新的副本数;
当所述分布式存储***当前的读写状态为读写密集型时,则按照第二策略确定所述更新副本总数中同步更新的副本数为第二数量;
其中,所述第一数量和所述第二数量均为小于所述同步更新的副本数的正整数。
在本申请一些实施例中,所述确定单元具体用于:
获取预设的写密集型阈值;
获取所述预设时间周期内写操作数和读操作数;
根据所述写密集型阈值以及所述预设时间周期内写操作数和读操作数,计算所述第一数量。
在本申请一些实施例中,所述确定单元具体用于:
获取预设的写密集型阈值和读密集型阈值;
获取所述预设时间周期内写操作数和读操作数;
根据所述写密集型阈值、读密集型阈值、以及所述预设时间周期内写操作数和读操作数,计算所述第二数量。
第三方面,本申请提供一种服务器,包括存储器和处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行以下步骤:
统计最近的预设时间周期内分布式存储***中读写操作比例;
根据所述读写操作比例,确定所述分布式存储***中同步更新的副本数和异步更新的副本数;
根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
第四方面,本申请提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器进行加载,以执行如第一方面中任一项所述的副本读写方法中的步骤。
本发明实施例中通过统计最近的预设时间周期内分布式存储***中读写操作比例;根据读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略包括分布式存储***中同步更新的副本数和异步更新的副本数;根据同步更新的副本数和异步更新的副本数,进行副本读写操作。本发明实施例中根据预设时间周期内分布式存储***中读写操作比例确定分布式存储***中同步更新的副本数和异步更新的副本数,进而进行副本读写操作,具体的,即分布式存储***运行过程中的读写负载的比例来动态的调整副本实时更新的数量,让分布式存储***适应更加多样化的使用环境,使分布式存储***在云计算中更具有普适性,分布式存储***在副本更新时的一致性、可用性和***性能之间的达到平衡。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的分布式存储***的场景示意图;
图2是本发明实施例中提供的副本读写方法的一个实施例流程示意图;
图3是本发明实施例中Ceph***中Monitor端副本读写策略的设计示意图;
图4是本发明实施例中测试读写密集型状态下不同比例下读写带宽和延时的一个实施例示意图;
图5是本发明实施例中分布式存储***的读写状态的一个具体示例图;
图6是本发明实施例中OSD中异步更新模块AsyncReplica的一个实施例示意图;
图7是本发明实施例中客户端读请求策略的一个示例图;
图8是本发明实施例中提供的副本读写方法的另一个实施例流程示意图;
图9是本发明实施例中提供的副本读写装置的一个实施例结构示意图;
图10是本发明实施例提供的服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在以下的说明中,本发明的具体实施例将参考由一部或多部计算机所执行的步骤及符号来说明,除非另有说明。因此,这些步骤及操作将有数次提到由计算机执行,本文所指的计算机执行包括了由代表了以一结构化型式中的数据的电子信号的计算机处理单元的操作。此操作转换该数据或将其维持在该计算机的内存***中的位置处,其可重新配置或另外以本领域测试人员所熟知的方式来改变该计算机的运作。该数据所维持的数据结构为该内存的实***置,其具有由该数据格式所定义的特定特性。但是,本发明原理以上述文字来说明,其并不代表为一种限制,本领域测试人员将可了解到以下所述的多种步骤及操作亦可实施在硬件当中。
本文所使用的术语“模块”或“单元”可看做为在该运算***上执行的软件对象。本文所述的不同组件、模块、引擎及服务可看做为在该运算***上的实施对象。而本文所述的装置及方法优选的以软件的方式进行实施,当然也可在硬件上进行实施,均在本发明保护范围之内。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本发明实施例提供一种副本读写方法及装置。
请参阅图1,图1为本发明实施例所提供的分布式存储***的场景示意图,该分布式存储***可以包括服务器100和存储器200,存储器200用于存储数据,服务器100中集成有副本读写装置,该服务器100可以是分布式存储***对应的服务器(即加载有分布式存储***的服务器),如图1中的服务器,本发明实施例中服务器100主要用于统计最近的预设时间周期内分布式存储***中读写操作比例;根据所述读写操作比例,确定所述分布式存储***中同步更新的副本数和异步更新的副本数;根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
本发明实施例中,该服务器100可以是独立的服务器,也可以是服务器组成的服务器网络或服务器集群,例如,本发明实施例中所描述的服务器100,其包括但不限于计算机、网络主机、单个网络服务器、多个网络服务器集或多个服务器构成的云服务器。其中,云服务器由基于云计算(Cloud Computing)的大量计算机或网络服务器构成。本发明的实施例中,服务器与客户端之间可通过任何通信方式实现通信,包括但不限于,基于第三代合作伙伴计划(3rd Generation Partnership Project,3GPP)、长期演进(Long Term Evolution,LTE)、全球互通微波访问(Worldwide Interoperability for Microwave Access,WiMAX)的移动通信,或基于TCP/IP协议族(TCP/IP Protocol Suite,TCP/IP)、用户数据报协议(User Datagram Protocol,UDP)协议的计算机网络通信等。
本发明实施例中,该存储器200为存储集群,该存储集群中可以包括大量存储节点(如下面描述的OSD)。另外,该分布式存储***可以是ceph***,分布式存储***中的存储集群包含如下结构:客户端(Client)、监视器(Monitor)和对象存储设备(Object-basedStorage Device,OSD)
对于Ceph***来说,对象是***中数据存储的基本单位,一个对象实际上就是文件的数据和一组属性信息(Meta Data)的组合,这些属性信息可以定义基于文件的磁盘阵列(Redundant Arrays of Independent Drives,RAID)参数、数据分布和服务质量等,而传统的存储***中用文件或块作为基本的存储单位,在块存储***中还需要始终检测***中每个块的属性,对象通过与存储***通信维护自己的属性。在存储设备中,所有对象都有一个对象标识,通过对象标识OSD命令访问该对象。通常有多种类型的对象,存储设备上的根对象标识存储设备和该设备的各种属性,组对象是存储设备上共享资源管理策略的对象集合等。
为了有效支持Client支持访问OSD上的对象,需要在计算节点实现分布式存储***的客户端Client,通常提供POSIX文件***接口,允许应用程序像执行标准的文件***操作一样。对象存储设备OSD具有一定的智能,它有自己的CPU、内存、网络和磁盘***,OSD的主要功能包括数据存储和安全访问。目前国际上通常采用刀片式结构实现对象存储设备。
本领域技术人员可以理解,图1中示出的应用环境,仅仅是与本申请方案一种应用场景,并不构成对本申请方案应用场景的限定,其他的应用环境还可以包括比图1中所示更多或更少的服务器,或者服务器网络连接关系,例如图1中仅示出1个服务器,可以理解的,该分布式存储***还可以包括一个或多个其他服务器,或/且一个或多个与服务器网络连接的客户端,具体此处不作限定。
需要说明的是,图1所示的分布式存储***的场景示意图仅仅是一个示例,本发明实施例描述的分布式存储***以及场景是为了更加清楚的说明本发明实施例的技术方案,并不构成对于本发明实施例提供的技术方案的限定,本领域普通技术人员可知,随着分布式存储***的演变和新业务场景的出现,本发明实施例提供的技术方案对于类似的技术问题,同样适用。
下面结合具体实施例进行详细说明。
在本实施例中,将从副本读写装置的角度进行描述,该副本读写装置具体可以集成在服务器100中。
本发明提供一种副本读写方法,该副本读写方法包括:统计最近的预设时间周期内分布式存储***中读写操作比例;根据所述读写操作比例,确定所述分布式存储***中同步更新的副本数和异步更新的副本数;根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
请参阅图2,为本发明实施例中本发明实施例中副本读写方法的一个实施例流程示意图,该副本读写方法包括:
201、统计最近的预设时间周期内分布式存储***中读写操作比例。
其中,预设时间周期可以根据实际应用场景进行设定,如30s、1min或5min等。
具体的,在服务器中可以设置一个定时器,以确定该预设时间周期。以ceph***为例,本发明实施例中副本读写方法主要实现过程即在Monitor端。因为Monitor是Ceph***的管理者,管理着Ceph***大量的状态信息,它能方便的与客户端和OSD进行通信。客户端和OSD都是Monitor的被管理者,每当副本策略变化时,Monitor可以通知OSD和客户端进行策略的变更。如图3所示,在Monitor中可以设置一个定时器,以确定该预设时间周期。
此时,统计最近的预设时间周期内分布式存储***中读写操作比例具体过程如下:
客户端每次进行读写操作时,都会访问Monitor以确认本地的OSD存储地址(OSDMap)是最新的。此时客户端会向Monitor发送一个OSDMap版本确认消息,在该确认消息中附加一个读写标记,读写标记表示客户端本次操作是读操作还是写操作,以便Monitor对读写操作数进行统计,Monitor即可统计预设时间周期内分布式存储***中读写操作比例。
202、根据所述读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略中包括同步更新的副本数和异步更新的副本数。
在目前已有的分布式环境中,不论是分布式计算,还是分布式存储,亦或者是分布式数据库,为了数据的安全性要么采用了副本技术要么采用编码技术,但是编码技术带来的性能下降对某些用户而言不可容忍,因此在生产环境中大多数采用了副本技术,目前已经有很多有关副本一致性的研究,但是固定的单一的副本一致性策略,不论是强一致性,弱一致性,或者是最终一致性,它们只针对特定的用户群或者固定的应用场景。
因此,本发明实施例中研究目前的副本一致性策略,将它改为动态自适应的副本一致性策略,让它能适应更加多样化的使用环境。该策略根据分布式存储***(如Ceph***)运行过程中的读写负载的比例来动态的调整副本实时更新的数量。比如在Ceph的三副本中,***启动时,采用强一致性,实时更新三个副本,如果写负载过重超过一定的阈值,则实时更新主副本和一级副本,此时客户端读只能读这两个副本,如果写负载再次增大则再次减少同步写副本的数量,但是不能小于写副本数的下限。读写副本的数量,在Ceph***运行的过程中根据刷新时间间隔不断动态调整。
在本发明一些实施例中,所述根据所述读写操作比例,确定所述分布式存储***中副本读写策略,包括:获取所述分布式存储***中更新副本总数;根据所述读写操作比例,确定所述更新副本总数中同步更新的副本数和异步更新的副本数。进一步的,所述根据所述读写操作比例,确定所述更新副本总数中同步更新的副本数和异步更新的副本数,包括:根据所述读写操作比例,确定所述分布式存储***当前的读写状态;根据所述分布式存储***当前的读写状态,确定所述更新副本总数中同步更新的副本数和异步更新的副本数。
发明人在研究测试过程中发现,当***处于读密集型时,动态副本策略使用的是强一致性,三个副本同步更新,当***处于读写疏松型时,副本策略不变,只有当***处于写密集型和读写密集型时,才会根据读写的比例来动态的调整副本策略,即调整同步更新的副本数。可以配置读写的比例,从而让分布式存储***处于不同的状态。以读写密集型状态下的测试为例,读写操作的带宽和延时,先在一个阈值时间段中使用该比例的读写操作使***达到相应的测试状态,然后在下一个阈值时间段中进行测试。本次测试主要测试了在读写密集型,不同读写比例时,顺序读(seq_read),顺序写(seq_write)1M大小文件的IO带宽和延时。测试结果如图4所示。
通过图4的数据可以了解到,该动态副本策略可以根据读写操作数所占的比例来动态的调整同步更新的副本数,从而提高不同状态下的用户体验。当读操作数所占的比例越高,即写操作数的比例越低,则读带宽会增大,写延时会提高。反之,当读操作数所占比例越低时,即写操作所占比例越高,则写延时会降低,读带宽也降低。在图中,当读操作数比例小于30%时,***中写操作较多,因此***使用了同步写一个副本,异步更新两个副本的策略,写延时较低。当读操作数的比例大于40%小于60%时,***中的读操作数和写操作数相差不大,因此***使用同步更新两个副本,异步更新一个副本的策略,读带宽提高,写延时也提高。当读操作数的比例大于70%时,***中读操作较多,因此使用了同步更新三副本的策略,读带宽提到最高,写延时也达到最高。
通过以上测试可以表明,该动态副本策略可以根据最近***中读写的比例来调整同步和异步更新的副本数,从而很好的平衡读写的代价。这种副本策略改变了目前分布式存储***使用的单一的强一致性策略,从而能让分布式存储***适应更加复杂更加多样化的云计算环境。
基于此,本发明实施例中,在确定副本读写策略之前首先规定了这样几个配置参数:副本数replicaNum,写副本数目writeNum,是否打开动态副本isDynamic,写副本数目的上限writeNumUp,写副本数目的下限writeNumLower,写密集型阈值writeIntensive,读密集型阈值readIntensive,刷新时间间隔interval。
其中,写副本数目的上限和写副本数目的下限只有在副本策略启用时发挥作用,分布式存储***在动态修改写副本的数量时,写副本数量只能在用户配置的上限和下限之间。写请求的数量超过阈值,则***进入写密集型,读请求的数量超过阈值,则***进入读密集型状态。因此,本发明实施例中分布式存储***在运行的过程中有四种状态,如图5所示:读密集型,写密集型,读写密集型,读写疏松型。不同的状态中确定的副本读写策略也是不同的,具体如下:
(1)读密集型
此时,当R>readIntensive&&W<writeIntensive,整个分布式存储***读请求比较多,客户端对OSD存储节点频繁的发起访问,而更新频率较低,读操作是整个存储集群的性能瓶颈,因此可以采用强一致性,读操作可以发往所有的副本OSD,在每个副本OSD上都能读到最新的数据。而写操作发往主OSD节点,由主OSD同步给副本OSD,所有OSD的数据写入后才算更新完成。
(2)写密集型
此时,R<readIntensive&&W>writeIntensive,写请求数量超过阈值,而读请求数量较少,分布式存储***处于写密集型状态。由于读频率较低,因此同步更新所有副本没有必要,可以根据写操作数所占的比例来设置同步更新的副本的数量,写操作所占的比例越高,则写操作的代价越高,因此同步更新的副本应该越少,相反则越多。因此根据以上的关系,同步更新副本数与写操作所占的比例是成反比的,即与读操作数所占的比例成正比,因此副本读写策略具体如下:
syncWrite=(N-1)R/(W+R-writeIntensive) (1)
其中,syncWrite是主副本需要同步更新的副本数,N是用户设的副本总数,W是该时间段内些操作数,R是该时间段内的读操作数,writeIntensive是设置的写密集型的阈值,R/(W+R-writeIntensive)就是超过阈值后,读操作数所占的比例。因为W>writeIntensive&&R>=0,所以syncWrite大于等于0,小于N-1。当R=0时,即本时间段内全部是写操作,syncWrite等于0,主副本不需要同步更新其他副本,只需要更新主副本即可,其他N-1个副本异步更新。当W等于writeIntensive时,syncWrite等于N-1,主副本需要同步更新其他所有副本。
根据以上的副本读写策略,当***处于写密集型时,写操作数所占的比例越大,同步更新的副本数越少,写操作的延迟更低,表现出更好的写性能。
(3)读写密集型
此时,R>readIntensive&&W>writeIntensive,Ceph***中读写操作数都超过了阈值,数据即存在大量的更新,又存在大量的访问,因此需要在读写性能之间进行权衡。依然是根据超过阈值后,读写操作各自占的比例进行,读操作所占比例越高,则更偏向于读性能,相反则偏向于写性能。
在分布式存储***处于读写密集型时,确定副本读写策略具体如下:
syncWrite = (N-1)(R- readIntensive)/(W+R-writeIntensive-readIntensive) (2)
其中,readIntensive是设置的读密集型的阈值,其他参数同公式3-1。当读写操作数都超过阈值时,若读超过的越多,即(R-readIntensive)越大,则syncWrite越大,反之越小。最终syncWrite的取值依然在0到N-1之间。
根据以上副本读写策略,当***处于读写密集型时,要对读写操作所超过阈值的多少进行比较,读操作超过阈值多则偏向读性能,同步写更多的副本,若写操作超过阈值多,则偏向于写性能,异步写更多的副本。
(4)读写疏松型
此时,R<readIntensive&&W<writeIntensive,分布式存储***中数据的更新和数据的访问频率都很低,更改同步的副本数并不能带来多少性能的提高,每次变换同步更新的副本数都是要消耗一定的代价的,反而可能带来性能的下降,得不偿失。因此,当***处于读写疏松型时,不需要改变***中同步更新的副本数,保持***当前的读写状态即可。
本发明实施例中,所述根据所述分布式存储***当前的读写状态,确定所述更新副本总数中同步更新的副本数和异步更新的副本数的步骤可以包括:当所述分布式存储***当前的读写状态为写密集型时,则按照第一策略修改所述更新副本总数中同步更新的副本数为第一数量;当所述分布式存储***当前的读写状态为读密集型时,则修改所述更新副本总数中同步更新的副本数为所述更新副本总数;当所述分布式存储***当前的读写状态为读写稀松型时,则保持当前所述更新副本总数中同步更新的副本数;当所述分布式存储***当前的读写状态为读写密集型时,则按照第二策略确定所述更新副本总数中同步更新的副本数为第二数量;其中,所述第一数量和所述第二数量均为小于所述同步更新的副本数的正整数。
在本申请一些实施例中,所述按照第一策略修改所述更新副本总数中同步更新的副本数为第一数量,包括:获取预设的写密集型阈值(如上所述writeIntensive);获取所述预设时间周期内写操作数和读操作数;根据所述写密集型阈值以及所述预设时间周期内写操作数和读操作数,计算所述第一数量。具体的,根据所述写密集型阈值以及所述预设时间周期内写操作数和读操作数,计算所述第一数量,可以采用上述公式(1)计算得到该第一数量。
在本发明一些实施例中,所述按照第二策略确定所述更新副本总数中同步更新的副本数为第二数量,包括:获取预设的写密集型阈值(如上所述writeIntensive)和读密集型阈值(如上所述readIntensive);获取所述预设时间周期内写操作数和读操作数;根据所述写密集型阈值、读密集型阈值、以及所述预设时间周期内写操作数和读操作数,计算所述第二数量。具体的,根据所述写密集型阈值、读密集型阈值、以及所述预设时间周期内写操作数和读操作数,计算所述第二数量,可以采用上述公式(2)计算得到该第二数量。
本发明实施例中,以Ceph***为例,根据所述读写操作比例,确定所述分布式存储***中副本读写策略,具体过程如下:
在一个预设时间周期内根据读写操作数判定整个Ceph***所处的读写密状态,根据所述分布式存储***当前的读写状态,计算出需要同步更新的副本数syncWrite的值(具体可以参照上述步骤(1)~(4))。在更新syncWrite的值时,既需要更新客户端的syncWrite又需要更新OSD端的syncWrite。客户端的syncWrite在客户端进行CRUSH Map版本号比对的时候即可完成更新。OSD端的syncWrite更新,可以通过Monitor端的OSDMap,将syncWrite发送给每一个OSD,OSD完成syncWrite的更新后发送回复消息给Monitor端,当收到所有OSD端的回复时,则OSD端的syncWrite更新完成。
OSD端的syncWrite的更新和客户端syncWrite的更新有一个先后顺序,这里分两种情况:第一种是syncWrite增大的情况,此时同步更新副本数增大,要先更新OSD端的syncWrite,更新完成后再更新客户端的syncWrite,若先更新客户端的,OSD端还未更新,客户端可能访问到异步更新的副本。第二种是syncWrite减少的情况,此时先更新客户端的syncWrite,然后更新OSD端的,否则客户端还是可能访问到异步更新的副本。
203、根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
在步骤203中确定所述分布式存储***中副本读写策略之后,即确定分布式存储***中当前需要同步更新的副本数和异步更新的副本数,同样的,确定当前需要同步更新的副本数和异步更新的副本数即确定了副本读写策略。此时即可基于同步更新的副本数和异步更新的副本数,进行副本读写操作。
本发明实施例中通过统计最近的预设时间周期内分布式存储***中读写操作比例;根据读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略包括分布式存储***中同步更新的副本数和异步更新的副本数;根据同步更新的副本数和异步更新的副本数,进行副本读写操作。本发明实施例中根据预设时间周期内分布式存储***中读写操作比例确定分布式存储***中同步更新的副本数和异步更新的副本数,进而进行副本读写操作,具体的,即分布式存储***运行过程中的读写负载的比例来动态的调整副本实时更新的数量,让分布式存储***适应更加多样化的使用环境,使分布式存储***在云计算中更具有普适性,分布式存储***在副本更新时的一致性、可用性和***性能之间的达到平衡。
本发明实施例中,当分布式存储***为Ceph***时,对Monitor端改进的同时,还需要对OSD进行修改。Monitor每次修改副本策略都会对OSD发送同步更新的副本数,OSD端既要处理Monitor发来的消息还要向Monitor发送回复消息。在OSD端,原Ceph***的写操作只能同步更新,需要为他添加一个异步更新的模块,同步更新副本的流程就是Ceph原生的强一致性,但是若是异步更新的副本,则需要将要发送的MOSDSubOp消息以及异步更新的OSD编号加入到异步更新的模块AsyncReplica中,该AsyncReplica模块的的设计如图6所示。
该AsyncReplica模块使用了传统的生产者消费者模型,当Primary OSD(第一个OSD)发送事务消息给副本时先要进行判断,如果是要同步更新的副本则直接发送给副本同时加入队列in_progress_ops中,等待同步确认。如果是要异步更新,则将需要要异步更新的副本以及要发送的消息MOSDSubOp封装成SendNode,并且加入异步更新队列中。AsyncReplica的消费者线程对该队列进行消费,一旦该消息发送给副本,则生成一个CommitNode,加入等待确认队列,等待异步确认。当Replica OSD异步更新完成后,会发送回复给Primary OSD,Primary OSD收到回复后会在AsyncReplica的等待确认队列中进行确认并且删除,这样一次异步更新完成。
异步更新模块不仅需要具有异步更新副本的功能,还需要一个能切换同步更新副本数(syncWrite)的功能。当Ceph集群的读写状态从一种变化成另一种时,同步更新的副本数syncWrite发生变化,这种副本数的变化,即策略的变化是由Monitor统计的,再由它发送消息给所有的OSD节点。当Primary OSD节点接收到syncWrite变化的消息时,需要修改同步更新的副本数,它会在AsyncReplica的发送队列的末尾中加入一个特殊的节点ChangeNode。当消费线程处理到该节点时则表明,策略变化之前的消息已经全部发送,此时将ChangeNode加入确认队列CommitList的末尾,一旦ChangeNode之前的节点全部确认,则表明策略变换完成,可以发送回复消息给Monitor该OSD节点的策略变换完成。
进一步的,当分布式存储***为Ceph***时,对Monitor端改进的同时,还需要对客户端(Client)进行修改。每次客户端(Client)读写数据之前会先访问Monitor以确认它的CRUSH Map(即OSDMap)是最新的,最少会比对一次CRUSH Map的版本号。客户端进行写操作时,会将写操作的副本发送给Primary OSD(主OSD),由Primary OSD进行更新。
如图7所示,为客户端(Client)读请求策略的一个示例图,其中,OSD1(Primary)为主OSD,OSD2(Replica)和OSD3(Replica)为副本OSD,客户端进行读操作时,Ceph***使用的是随机方法random()%N,即客户端会随机读取同步更新的副本OSD中的一个,具体的,如图7所示,客户端client通过CRUSH(Pool_PGID)=(OSD1,OSD2,OSD3)方式在OSD2,OSD3中随机选取一个副本OSD,例如随机选择OSD2,由此可知,Monitor端副本策略的变化对客户端写操作没有影响,仅对读操作有影响。
当Monitor经过一个预设时间周期的读写统计,同步更新的副本数发生变化时,客户端的读请求不能发往异步更新的副本,因为它可能访问到旧的数据而不是最新的数据,因此只能发往同步更新的副本节点。设计客户端的读操作过程具体如下:客户端要想获得最新的同步写副本数就必须与Monitor端进行通信。客户端每次进行读写操作时都会向Monitor端发送消息以比对OSDMap的版本号,该消息中就附加了读写操作的标记,Monitor端收到后会进行读写操作的统计,而返回消息中则附加了最新的同步写副本数syncWrite,客户端收到后可以更新本地的同步写副本数。这样当客户端的读请求发往OSD时,使用随机方法random()%syncWrite,将读请求发往同步更新的OSD节点,从而排除发送给异步更新的OSD节点的可能性,因此总能访问到最新的数据。
下面结合一具体应用场景对本发明实施例中副本读写方法进行描述。
请参阅图8,为本发明实施例中副本读写方法的另一个实施例流程示意图,该副本读写方法应用于服务器,该副本读写方法包括:
801、统计最近的预设时间周期内Ceph***中读写操作比例。
本发明实施例中,以分布式存储***为Ceph***为例进行说明,在Ceph***中,客户端每次进行读写操作时,都会访问Monitor以确认本地的OSD存储地址(OSDMap)是最新的。此时客户端会向Monitor发送一个OSDMap版本确认消息,在该确认消息中附加一个读写标记,读写标记表示客户端本次操作是读操作还是写操作,以便Monitor对读写操作数进行统计,Monitor即可统计预设时间周期内分布式存储***中读写操作比例。
802、获取Ceph***中更新副本总数。
本实施例中可以根据Ceph***中预先配置的参数副本数replicaNum直接获取Ceph***中需要更新的更新副本总数。
803、根据所述读写操作比例,确定Ceph***当前的读写状态。
在步骤801中确定Ceph***在最近的预设时间周期中(如最近1min内)读写操作比例之后,即可Ceph***当前的读写状态,具体可以参照上述实施例中确定Ceph***当前的读写状态的具体过程。
804、根据Ceph***当前的读写状态,确定更新副本总数中同步更新的副本数和异步更新的副本数。
在确定Ceph***当前的读写状态之后,即可根据上述实施例中不同读写状态的确定方式,确定更新副本总数中同步更新的副本数和异步更新的副本数。
805、根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
本发明实施例中,Ceph***运行过程中的读写负载的比例来动态的调整副本实时更新的数量,让Ceph***适应更加多样化的使用环境,使Ceph***在云计算中更具有普适性,Ceph***在副本更新时的一致性、可用性和***性能之间的达到平衡。
为便于更好的实施本发明实施例提供的副本读写方法,本发明实施例还提供一种基于上述副本读写方法的装置。其中名词的含义与上述副本读写方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图9,图9为本发明实施例提供的副本读写装置的结构示意图,其中该副本读写装置900可以包括统计单元901、确定单元902和读写单元903,其中:
统计单元901,用于统计最近的预设时间周期内分布式存储***中读写操作比例;
确定单元902,用于根据所述读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略中包括同步更新的副本数和异步更新的副本数;
读写单元903,用于根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
在本申请一些实施例中,所述确定单元902具体用于:
获取所述分布式存储***中更新副本总数;
根据所述读写操作比例,确定所述更新副本总数中同步更新的副本数和异步更新的副本数。
在本申请一些实施例中,所述确定单元902具体用于:
根据所述读写操作比例,确定所述分布式存储***当前的读写状态;
根据所述分布式存储***当前的读写状态,确定所述更新副本总数中同步更新的副本数和异步更新的副本数。
在本申请一些实施例中,所述确定单元902具体用于:
当所述分布式存储***当前的读写状态为写密集型时,则按照第一策略修改所述更新副本总数中同步更新的副本数为第一数量;
当所述分布式存储***当前的读写状态为读密集型时,则修改所述更新副本总数中同步更新的副本数为所述更新副本总数;
当所述分布式存储***当前的读写状态为读写稀松型时,则保持当前所述更新副本总数中同步更新的副本数;
当所述分布式存储***当前的读写状态为读写密集型时,则按照第二策略确定所述更新副本总数中同步更新的副本数为第二数量;
其中,所述第一数量和所述第二数量均为小于所述同步更新的副本数的正整数。
在本申请一些实施例中,所述确定单元902具体用于:
获取预设的写密集型阈值;
获取所述预设时间周期内写操作数和读操作数;
根据所述写密集型阈值以及所述预设时间周期内写操作数和读操作数,计算所述第一数量。
在本申请一些实施例中,所述确定单元902具体用于:
获取预设的写密集型阈值和读密集型阈值;
获取所述预设时间周期内写操作数和读操作数;
根据所述写密集型阈值、读密集型阈值、以及所述预设时间周期内写操作数和读操作数,计算所述第二数量。
本发明实施例中通过统计单元901统计最近的预设时间周期内分布式存储***中读写操作比例;确定单元902根据读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略包括分布式存储***中同步更新的副本数和异步更新的副本数;读写单元903根据同步更新的副本数和异步更新的副本数,进行副本读写操作。本发明实施例中根据预设时间周期内分布式存储***中读写操作比例确定分布式存储***中同步更新的副本数和异步更新的副本数,进而进行副本读写操作,具体的,即分布式存储***运行过程中的读写负载的比例来动态的调整副本实时更新的数量,让分布式存储***适应更加多样化的使用环境,使分布式存储***在云计算中更具有普适性,分布式存储***在副本更新时的一致性、可用性和***性能之间的达到平衡。
本发明实施例还提供一种服务器,如图10所示,其示出了本发明实施例所涉及的服务器的结构示意图,具体来讲:
该服务器可以包括一个或者一个以上处理核心的处理器1001、一个或一个以上计算机可读存储介质的存储器1002、电源1003和输入单元1004等部件。本领域技术人员可以理解,图10中示出的服务器结构并不构成对服务器的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器1001是该服务器的控制中心,利用各种接口和线路连接整个服务器的各个部分,通过运行或执行存储在存储器1002内的软件程序和/或模块,以及调用存储在存储器1002内的数据,执行服务器的各种功能和处理数据,从而对服务器进行整体检测。可选的,处理器1001可包括一个或多个处理核心;优选的,处理器1001可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作存储介质、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1001中。
存储器1002可用于存储软件程序以及模块,处理器1001通过运行存储在存储器1002的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器1002可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作存储介质、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据服务器的使用所创建的数据等。此外,存储器1002可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器1002还可以包括存储器控制器,以提供处理器1001对存储器1002的访问。
服务器还包括给各个部件供电的电源1003,优选的,电源1003可以通过电源管理存储介质与处理器1001逻辑相连,从而通过电源管理存储介质实现管理充电、放电、以及功耗管理等功能。电源1003还可以包括一个或一个以上的直流或交流电源、再充电存储介质、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该服务器还可包括输入单元1004,该输入单元1004可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,服务器还可以包括显示单元等,在此不再赘述。具体在本实施例中,服务器中的处理器1001会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器1002中,并由处理器1001来运行存储在存储器1002中的应用程序,从而实现各种功能,如下:
统计最近的预设时间周期内分布式存储***中读写操作比例;
根据所述读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略中包括同步更新的副本数和异步更新的副本数;
根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本发明实施例提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器进行加载,以执行本发明实施例所提供的任一种副本读写方法中的步骤。例如,所述计算机程序被处理器进行加载可以执行如下步骤:
统计最近的预设时间周期内分布式存储***中读写操作比例;根据所述读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略中包括同步更新的副本数和异步更新的副本数;根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的指令,可以执行本发明实施例所提供的任一种副本读写方法中的步骤,因此,可以实现本发明实施例所提供的任一种副本读写方法及装置所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本发明实施例所提供的一种副本读写方法及装置进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种副本读写方法,其特征在于,所述副本读写方法包括:
统计最近的预设时间周期内分布式存储***中读写操作比例;
根据所述读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略中包括同步更新的副本数和异步更新的副本数,包括:
获取所述分布式存储***中更新副本总数;
根据所述读写操作比例,确定所述分布式存储***当前的读写状态;
根据所述分布式存储***当前的读写状态,确定所述更新副本总数中同步更新的副本数和异步更新的副本数;
其中,当所述分布式存储***当前的读写状态为读写密集型时,根据读操作数超出读密集型阈值的数量,确定所述更新副本总数中同步更新的副本数和异步更新的副本数;
根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
2.根据权利要求1所述的副本读写方法,其特征在于,所述根据所述分布式存储***当前的读写状态,确定所述更新副本总数中同步更新的副本数和异步更新的副本数,包括:
当所述分布式存储***当前的读写状态为写密集型时,根据读操作数,占读操作数与写操作数之和超出写密集型阈值的数量的比例,确定所述更新副本总数中同步更新的副本数;
当所述分布式存储***当前的读写状态为读密集型时,则修改所述更新副本总数中同步更新的副本数为所述更新副本总数;
当所述分布式存储***当前的读写状态为读写稀松型时,则保持当前所述更新副本总数中同步更新的副本数。
3.根据权利要求2所述的副本读写方法,其特征在于,所述根据读操作数,占读操作数与写操作数之和超出写密集型阈值的数量的比例,确定所述更新副本总数中同步更新的副本数,包括:
获取预设的写密集型阈值;
获取所述预设时间周期内写操作数和读操作数;
根据所述写密集型阈值以及所述预设时间周期内写操作数和读操作数,计算读操作数与写操作数之和超出写密集型阈值的数量;
根据所述读操作数与写操作数之和超出写密集型阈值的数量、所述读操作数以及所述副本总数,确定所述更新副本总数中同步更新的副本数。
4.根据权利要求1所述的副本读写方法,其特征在于,所述根据读操作数超出读密集型阈值的数量,确定所述更新副本总数中同步更新的副本数和异步更新的副本数,包括:
获取预设的写密集型阈值和读密集型阈值;
获取所述预设时间周期内写操作数和读操作数;
根据所述读操作数据和所述读密集型阈值,计算读操作数超出读密集型阈值的数量;
根据所述读操作数超出读密集型阈值的数量、写密集型阈值、读密集型阈值、以及所述预设时间周期内写操作数和读操作数,计算同步更新的副本数。
5.一种副本读写装置,其特征在于,所述副本读写装置包括:
统计单元,用于统计最近的预设时间周期内分布式存储***中读写操作比例;
确定单元,用于根据所述读写操作比例,确定所述分布式存储***中副本读写策略,所述副本读写策略中包括同步更新的副本数和异步更新的副本数,包括:
获取所述分布式存储***中更新副本总数;
根据所述读写操作比例,确定所述分布式存储***当前的读写状态;
根据所述分布式存储***当前的读写状态,确定所述更新副本总数中同步更新的副本数和异步更新的副本数;
其中,当所述分布式存储***当前的读写状态为读写密集型时,根据读操作数超出读密集型阈值的数量,确定所述更新副本总数中同步更新的副本数和异步更新的副本数;
读写单元,用于根据所述同步更新的副本数和异步更新的副本数,进行副本读写操作。
6.根据权利要求5所述的副本读写装置,其特征在于,所述确定单元具体用于:
当所述分布式存储***当前的读写状态为写密集型时,根据读操作数,占读操作数与写操作数之和超出写密集型阈值的数量的比例,确定所述更新副本总数中同步更新的副本数;
当所述分布式存储***当前的读写状态为读密集型时,则修改所述更新副本总数中同步更新的副本数为所述更新副本总数;
当所述分布式存储***当前的读写状态为读写稀松型时,则保持当前所述更新副本总数中同步更新的副本数。
7.一种服务器,其特征在于,包括处理器和存储器,所述存储器存储有多条指令;所述处理器从所述存储器中加载指令,以执行权利要求1~4任一项所述的副本读写方法中的步骤。
8.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行权利要求1~4任一项所述的副本读写方法中的步骤。
CN201910670843.5A 2019-07-24 2019-07-24 副本读写方法及装置 Active CN110457392B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910670843.5A CN110457392B (zh) 2019-07-24 2019-07-24 副本读写方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910670843.5A CN110457392B (zh) 2019-07-24 2019-07-24 副本读写方法及装置

Publications (2)

Publication Number Publication Date
CN110457392A CN110457392A (zh) 2019-11-15
CN110457392B true CN110457392B (zh) 2023-10-31

Family

ID=68483308

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910670843.5A Active CN110457392B (zh) 2019-07-24 2019-07-24 副本读写方法及装置

Country Status (1)

Country Link
CN (1) CN110457392B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103780426A (zh) * 2014-01-13 2014-05-07 南京邮电大学 云存储数据的一致性维护方法及云存储***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405474B2 (en) * 2012-10-03 2016-08-02 Microsoft Technology Licensing, Llc Configurable and tunable data store tradeoffs

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103780426A (zh) * 2014-01-13 2014-05-07 南京邮电大学 云存储数据的一致性维护方法及云存储***

Also Published As

Publication number Publication date
CN110457392A (zh) 2019-11-15

Similar Documents

Publication Publication Date Title
KR102281739B1 (ko) 리소스 스케줄링 방법, 스케줄링 서버, 클라우드 컴퓨팅 시스템, 및 저장 매체
CN109213571B (zh) 一种内存共享方法、容器管理平台及计算机可读存储介质
CN105162879B (zh) 实现多机房数据一致性的方法、装置及***
CN106960054B (zh) 数据文件的存取方法及装置
US11563805B2 (en) Method, apparatus, client terminal, and server for data processing
CN102867035A (zh) 一种分布式文件***集群高可用方法和装置
CN105681426B (zh) 异构***
CN111064626B (zh) 配置更新方法、装置、服务器及可读存储介质
CN113452774A (zh) 消息推送方法、装置、设备及存储介质
CN110099084A (zh) 一种保证存储服务可用性的方法、***及计算机可读介质
CN114900449B (zh) 一种资源信息管理方法、***及装置
CN104158833A (zh) 一种智能桌面***的构建方法
CN111327684A (zh) 一种分布式对象存储***的配额管理方法及装置
CN116721007B (zh) 任务控制方法、***及装置、电子设备和存储介质
CN110457392B (zh) 副本读写方法及装置
CN112052104A (zh) 基于多机房实现的消息队列的管理方法及电子设备
CN112044061A (zh) 游戏画面处理方法、装置、电子设备以及存储介质
CN113961536B (zh) 一种存储装置中动态计算md5值的方法
CN115238006A (zh) 检索数据同步方法、装置、设备及计算机存储介质
CN112559568A (zh) 一种虚拟物品确定方法、装置及计算机可读存储介质
CN113051108A (zh) 一种数据备份方法及***
CN107332679B (zh) 一种无中心信息同步方法及装置
CN104158835A (zh) 一种智能桌面***服务器控制客户端的方法
CN108833519A (zh) 一种存储集群方法及***
CN114328604B (zh) 一种提高集群数据采集能力的方法、装置及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant