CN114237520A - 一种ceph集群数据均衡方法以及*** - Google Patents
一种ceph集群数据均衡方法以及*** Download PDFInfo
- Publication number
- CN114237520A CN114237520A CN202210184861.4A CN202210184861A CN114237520A CN 114237520 A CN114237520 A CN 114237520A CN 202210184861 A CN202210184861 A CN 202210184861A CN 114237520 A CN114237520 A CN 114237520A
- Authority
- CN
- China
- Prior art keywords
- data
- slave
- group
- homing
- data blocks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
- G06F3/0611—Improving I/O performance in relation to response time
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0631—Configuration or reconfiguration of storage systems by allocating resources to storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0638—Organizing or formatting or addressing of data
- G06F3/064—Management of blocks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种ceph集群数据均衡方法以及***,属于网络通信技术领域,数据均衡方法通过主归置组将要均衡的数据块进行平均划分,生成多个均衡清单,然后主归置组保留一个均衡清单,将其他的均衡清单分别发送到从归置组,最后主归置组以及从归置组根据均衡清单上的数据块名称将自身存储的数据块对应发送到新增加的数据存储装置中实现均衡,单位时间内多个归置组同时相互配合执行均衡操作,大大提高了数据均衡的效率。
Description
技术领域
本发明属于网络通信技术领域,尤其涉及一种ceph集群数据均衡方法以及***。
背景技术
在ceph分布式存储***概念里,一块硬盘对应为一个Object-Based StorageDevice(简称OSD),OSD将硬盘存储空间划分为一个个小数据块,这样的小数据块称为object。一个OSD含有成千上万的object,为了便于管理这些object,ceph采用了归置组(placement group,简称PG),通过稳定的算法把object划分到某个PG下。ceph默认采用三副本保证数据可靠性,也就是一个object在同时存在三个OSD中,这三个OSD划分为一个主OSD和两个从OSD,主OSD对应主PG,从OSD对应从PG。当ceph集群添加了新硬盘后,原有OSD的数据需要均衡到新OSD中。由于ceph数据均衡的最小单位是PG,也就是添加新硬盘后,原有OSD的一部分PG需要均衡到新OSD中。目前ceph仅由主PG发起数据均衡,均衡速度慢,均衡效率低,数据均衡是一个耗时过程,均衡过程中无法接收用户端的读写请求,导致用户端的请求等待时间较长,用户体验感受差。
发明内容
(一)发明目的
为了克服以上不足,本发明的目的在于提供一种ceph集群数据均衡方法以及***,以解决现有的ceph集群数据均衡耗时较长,均衡期间若客户端发送写入请求,需要等待较长时间才能够得到请求回复,用户体验效果差的技术问题。
(二)技术方案
为实现上述目的,本申请一方面提供的技术方案如下:
一种ceph集群数据均衡方法,应用于ceph分布式存储***,均衡方法包括以下步骤:
主归置组统计待均衡的所有数据块总数,完成统计后将所有统计的数据块平均划分为预定等份,基于每一预定等份分别生成一个均衡清单,根据对应预定等份中的数据块名称确定各均衡清单的内容;
其中,预定等份为主归置组与多个从归置组的数量总和;
主归置组保留一份均衡清单并且将其余的均衡清单分别分发到不同的从归置组;
主归置组与从归置组根据自身均衡清单上的数据块名称,将存储在自身的对应的数据块均衡到新增加的数据存储装置中。
本申请通过主归置组将要均衡的数据块进行平均划分,生成多个均衡清单,然后主归置组保留一个均衡清单,将其他的均衡清单分别发送到从归置组,最后主归置组以及从归置组根据均衡清单上的数据块名称将自身存储的数据块对应发送到新增加的数据存储装置中实现均衡,单位时间内多个归置组同时相互配合执行均衡操作,大大提高了数据均衡的效率。
进一步地,在统计待均衡的所有数据块总数之后并且在将所有统计的数据块平均划分为预定等份之前,还包括:将正在被客户端请求读写的数据块标记为紧急数据块,将其余没有被客户端请求读写的数据块标记为普通数据块。
基于每一预定等份分别生成一个均衡清单还包括:判断每个均衡清单上是否包含紧急数据块的名称,若包含,将每个均衡清单内紧急数据块名称置于普通数据块名称之前。
由于数据块在均衡过程中是无法被读写的,因此,本申请将被请求的数据块以及没有被请求的数据块进行区分,将被请求的数据块标记为紧急数据块,将没有被请求的数据块标记为普通数据块,在生成的均衡清单时也将紧急数据块的名称放置于普通数据块之前,这样就可以优先对紧急数据块进行均衡,完成均衡后即马上可响应用户端发起的读写请求,缩短用户端请求等待时间,提高用户的使用体验感受,先进行数据块均衡后接收用户端写入请求,还可保证了数据的一致性。
进一步地,主归置组与从归置组根据自身均衡清单上的数据块名称,将存储在自身的对应的数据块均衡到新增加的数据存储装置中之后,还包括:删除预定数量的从归置组,删除预定数量的从归置组可以释放数据存储装置的存储空间。
进一步地,主归置组与从归置组根据自身均衡清单上的数据块名称,将存储在自身的对应的数据块均衡到新增加的数据存储装置中之后,还包括:主归置组检查新增加的数据存储装置中的所有数据块与统计的待均衡的数据块数量是否相同,若检查到缺少某个数据块,主归置组将缺少的数据块补充均衡到新增加的数据存储装置中。
完成均衡后,主归置组还检查新的数据存储装置内数据块与之前统计的数据块是否一致,若检查到缺少的情况下,将缺少的数据块补充均衡到新增加的数据存储装置中,从而保证了均衡的完整性以及准确性。
本发明的另一方面提供了一种ceph集群数据均衡***,用于实施上述的ceph集群数据均衡方法,均衡***包括:主数据存储装置以及多个从数据存储装置,主数据存储装置内部设置有一个主归置组,每个从数据存储装置设置有一个从归置组,主归置组以及多个从归置组相互通信连接并且内部同步存储有相同的数据块;
其中,主归置组包括:
统计模块,用于统计待均衡的所有数据块总数;
划分模块,用于在统计模块完成统计后将主归置组内所有统计的数据块平均划分为预定等份;
均衡清单生成模块,基于每一预定等份分别生成一个均衡清单并且根据对应预定等份中的数据块名称确定各均衡清单的内容,其中,预定等份为主归置组与多个从归置组的数量总和;
分发模块,用于在保留一份均衡清单于主归置组后,将其余的均衡清单分别分发到不同的从归置组;
第一均衡模块,根据主归置组所保留的均衡清单上的数据块名称,将存储在主归置组的对应的数据块均衡到新增加的数据存储装置中;
从归置组包括:
接收模块,用于接收分发模块发送过来的均衡清单;
第二均衡模块,根据从归置组所接收的均衡清单上的数据块名称,将存储在从归置组的对应的数据块均衡到新增加的数据存储装置中。
进一步地,主归置组内还包括:标记模块,用于将正在被客户端请求读写的数据块标记为紧急数据块,将其余没有被客户端请求读写的数据块标记为普通数据块;
均衡清单生成模块包括:判断子模块以及位置调整子模块,判断子模块用于判断每个均衡清单上是否包含紧急数据块的名称,位置调整子模块用于在判断子模块判断到均衡清单上存在紧急数据块的名称时,将均衡清单上的紧急数据块名称置于普通数据块名称之前。
进一步地,还包括:删除模块,用于在第一均衡模块将主归置组内存储的数据块均衡到新增加的数据存储装置中以及第二均衡模块将从归置组内存储的数据块均衡到新增加的数据存储装置中之后,删除预定数量的从归置组。进一步地,主归置组还包括:
检查模块,用于在新增加的数据存储装置完成均衡后,检查新增加的数据存储装置中的所有数据块与统计的待均衡的数据块数量是否相同;
补充均衡模块,用于在检查模块检查到新增加的数据存储装置缺少某个数据块后,将缺少的数据块补充均衡到新增加的数据存储装置中。
附图说明
图1是本发明的ceph集群数据均衡方法的工作原理图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对现有结构和技术的描述,以避免不必要地混淆本发明的概念。
本发明提供的一种ceph集群数据均衡方法,应用于ceph分布式存储***中,具体的,ceph分布式存储***包括:主数据存储装置(主OSD)以及多个从数据存储装置(从OSD),主数据存储装置(主OSD)内部设置有一个主归置组(主PG),每个从数据存储装置(从OSD)内设置一个从归置组(从PG),主归置组(主PG)以及多个从归置组(从PG)相互通信连接,主归置组(主PG)以及从归置组(从PG)内部同步存储有相同的数据块(object),存储时,客户端对主PG的数据块(object)发起写入请求,主归置组(主PG)接收到写入请求后,对数据进行写入并且形成数据块(object),同时,主归置组(主PG)把写入的数据块(object)同步存储到从归置组(从PG)中形成副本备份数据块(object),主归置组(主PG)与从归置组(从PG)内数据块(object)数量以及类型是相同的。当ceph集群添加了新存储装置后,原有存储装置需要将某些需要待均衡的数据块(object)复制到新存储装置中,此为均衡过程,某些数据块(object)无需被复制均衡。
具体的,均衡方法包括以下步骤:
步骤一:主归置组(主PG)统计其内所有待均衡的数据块(object)总数,完成统计后,将统计后的所有数据块(object)平均划分为预定等份,划分的等份需要根据主归置组(主PG)以及从归置组(从PG)的总数量进行划分,最后基于每一预定等份分别生成一个均衡清单,根据对应预定等份中的数据块名称确定各均衡清单的内容;
步骤二:主归置组(主PG)保留一份均衡清单并且将其余的均衡清单分别分发到不同的从归置组(从PG);
步骤三:主归置组(主PG)与从归置组(从PG)根据自身均衡清单上的数据块名称,将存储在自身的对应的数据块(object)均衡到新增加的数据存储装置中。
具体的,由于主归置组(主PG)以及多个从归置组(从PG)内数据块(object)种类以及数量都是相同的,因此,生成的多个均衡清单可以随机保留一份,然后将其余的均衡清单随机分发到不同的从归置组(从PG)。
请参阅图1,以一个具体实施例对上述步骤进行说明,ceph分布式存储***中包括3个存储装置,一个主存储装置(主OSD,缺省未画出)以及从存储装置1(从OSD1,缺省未画出)和从存储装置2(从OSD2,缺省未画出),主存储装置(主OSD,缺省未画出)内设置有主归置组(主PG),从存储装置1内设置一个从归置组(从PG1),从存储装置2内设置一个从归置组(从PG2);
步骤一:主归置组(主PG)统计其内所有待均衡的所有数据块(object)总数,共9个数据块(object1,object2....object9),完成统计后,将所有数据块平均划分成3等份,分别生成3个均衡清单(第一均衡清单、第二均衡清单、第三均衡清单),第一均衡清单内包括数据块object1,object2和object3,第二均衡清单内包括数据块object4,object5和object6,第三均衡清单内包括数据块object7,object8和object9;
步骤二:主归置组(主PG)保留第一均衡清单,将第二均衡清单和第三均衡清单分发到从归置组1(从PG1)和归置组2(从PG2);
步骤三:主归置组(主PG)、从归置组1(从PG1)、从归置组2(从PG2)根据自身均衡清单上的数据块名称,将存储在自身的对应的数据块(object)均衡到新增加的数据存储装置的新PG中。
具体的,由于主归置组(主PG)以及多个从归置组(从PG)内数据块种类以及数量都是相同的,因此,生成的多个均衡清单可以随机保留一份,然后将其余的均衡清单随机分发到不同的从归置组(从PG)。
具体的,在均衡过程中,若用户端对某个数据块(object)发送读写请求,主归置组(主PG)是无法对用户端的请求进行回复的,需要进行数据均衡等待,只有等待该数据块(object)被均衡完毕后,主归置组(主PG)才可以对该数据块向用户端进行回复,因此读写请求同步到从归置组时也要进行数据均衡等待。
优选的,每次在统计完待均衡的所有数据块(object)总数之后并且在将所有数据块(object)平均划分为预定等份之前,主归置组(主PG)都会判断某些数据块(object)是否被用户端发送读写请求,若收到读写请求,判断该读写请求中是指向哪个数据块(object),然后将被请求的数据块(object)标记为紧急数据块,将没有被请求的数据块(object)标记为普通数据块。
在生成一个均衡清单时,若一个均衡清单内存在紧急数据块以及普通数据块,在均衡清单上将紧急数据块名称置于普通数据块名称之前,这样,均衡时,每个归置组都是从头向末端进行信息读取的,可以优先对紧急数据块均衡,完成均衡后,主归置组(主PG)该数据向用户端进行回复,减少用户端的等待时间,提高用户的使用体验。
新增加的数据存储装置可以作为一个新的主数据存储装置(主OSD),也可以作为原主数据存储装置的从数据存储装置(从OSD)。
具体的,在主归置组(主PG)与从归置组(从PG)都将均衡清单上的数据块(object)均衡到新增加的数据存储装置之后,将预定数量的从归置组(从PG)进行删除,以释放从数据存储装置(从OSD)的存储空间。具体的,在上述具体实施例中,删除从归置组1,保留从归置组2。具体的,由于从归置组1(从PG1)是要被删除的,因此,在后期读用户端的读写请求时,无需对从归置组1的数据进行同步操作。
优选的,在完成均衡后,主归置组(主PG)还需要检查新增加的数据存储装置中的所有数据块(object)与统计的待均衡的数据块(object)数量是否相同,若检查到缺少某个数据块(object),主归置组(主PG)将缺少的数据块(object)补充均衡到新增加的数据存储装置中,以保证数据的一致性。
本发明的另一方面提供了一种ceph集群数据均衡***,用于实施上述的ceph集群数据均衡方法,均衡***包括:主数据存储装置(主OSD)以及多个从数据存储装置(从OSD),主数据存储装置(主OSD)内部设置有一个主归置组(主PG),每个从数据存储装置(从OSD)设置有一个从归置组(从PG),主归置组(主PG)以及多个从归置组(从PG)相互通信连接并且内部同步存储有相同的数据块(object);
其中,主归置组(主PG)包括:
统计模块,用于统计待均衡的所有数据块(object)总数;
划分模块,用于在统计模块完成统计后将主归置组(主PG)内所有待均衡的数据块(object)平均划分为预定等份;
均衡清单生成模块,基于每一预定等份分别生成一个均衡清单并且根据对应预定等份中的数据块名称确定各均衡清单的内容,其中,预定等份为主归置组(主PG)与多个从归置组(从PG)的数量总和;
分发模块,用于在保留一份均衡清单于主归置组(主PG)后,将其余的均衡清单分别分发到不同的从归置组(从PG);
第一均衡模块,根据主归置组所保留的均衡清单上的数据块名称,将存储在主归置组的对应的数据块均衡到新增加的数据存储装置中;
从归置组(从PG)包括:
接收模块,用于接收分发模块发送过来的均衡清单;
第二均衡模块,根据从归置组所接收的均衡清单上的数据块名称,将存储在从归置组的对应的数据块(object)均衡到新增加的数据存储装置中。
进一步地,主归置组(主PG)内还包括:标记模块,用于将正在被客户端请求读写的数据块(object)标记为紧急数据块,将其余没有被客户端请求读写的数据块标记为普通数据块;
均衡清单生成模块包括:判断子模块以及位置调整子模块,判断子模块用于判断每个均衡清单上是否包含紧急数据块的名称,位置调整子模块用于在判断子模块判断到均衡清单上存在紧急数据块的名称时,将均衡清单上的紧急数据块名称置于普通数据块名称之前。
进一步地,还包括:删除模块,用于在主归置组(主PG)与从归置组(从PG)将其内存储的数据块(object)均衡到新增加的数据存储装置中之后,删除预定数量的从归置组(从PG)。
进一步地,主归置组(主PG)还包括:
检查模块,用于在新增加的数据存储装置完成均衡后,检查新增加的数据存储装置中的所有数据块(object)与统计的待均衡的数据块(object)数量是否相同;
补充均衡模块,用于在检查模块检查到新增加的数据存储装置缺少某个数据块(object)后,将缺少的数据块(object)补充均衡到新增加的数据存储装置中。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (8)
1.一种ceph集群数据均衡方法,其特征在于,应用于ceph分布式存储***,所述均衡方法包括以下步骤:
主归置组统计待均衡的所有数据块总数,完成统计后将所有统计的数据块平均划分为预定等份,基于每一预定等份分别生成一个均衡清单,根据对应预定等份中的数据块名称确定各均衡清单的内容;
其中,所述预定等份为主归置组与多个从归置组的数量总和;
主归置组保留一份均衡清单并且将其余的均衡清单分别分发到不同的从归置组;
主归置组与从归置组根据自身均衡清单上的数据块名称,将存储在自身的对应的数据块均衡到新增加的数据存储装置中。
2.根据权利要求1所述的ceph集群数据均衡方法,其特征在于,在统计待均衡的所有数据块总数之后并且在将所有统计的数据块平均划分为预定等份之前,还包括:将正在被客户端请求读写的数据块标记为紧急数据块,将其余没有被客户端请求读写的数据块标记为普通数据块;
所述基于每一预定等份分别生成一个均衡清单还包括:判断每个均衡清单上是否包含紧急数据块的名称,若包含,将每个均衡清单内紧急数据块名称置于普通数据块名称之前。
3.根据权利要求1或2所述的ceph集群数据均衡方法,其特征在于,所述主归置组与从归置组根据自身均衡清单上的数据块名称,将存储在自身的对应的数据块均衡到新增加的数据存储装置中之后,还包括:删除预定数量的从归置组。
4.根据权利要求1或2所述的ceph集群数据均衡方法,其特征在于,所述主归置组与从归置组根据自身均衡清单上的数据块名称,将存储在自身的对应的数据块均衡到新增加的数据存储装置中之后,还包括:主归置组检查新增加的数据存储装置中的所有数据块与统计的待均衡的数据块数量是否相同,若检查到缺少某个数据块,主归置组将缺少的数据块补充均衡到新增加的数据存储装置中。
5.一种ceph集群数据均衡***,用于实施上述权利要求1-4任意一项所述的ceph集群数据均衡方法,均衡***包括:主数据存储装置以及多个从数据存储装置,所述主数据存储装置内部设置有一个主归置组,每个从数据存储装置设置有一个从归置组,所述主归置组以及多个从归置组相互通信连接并且内部同步存储有相同的数据块;
其中,所述主归置组包括:
统计模块,用于统计待均衡的所有数据块总数;
划分模块,用于在统计模块完成统计后将主归置组内所有统计的数据块平均划分为预定等份;
均衡清单生成模块,基于每一预定等份分别生成一个均衡清单并且根据对应预定等份中的数据块名称确定各均衡清单的内容,其中,所述预定等份为主归置组与多个从归置组的数量总和;
分发模块,用于在保留一份均衡清单于主归置组后,将其余的均衡清单分别分发到不同的从归置组;
第一均衡模块,根据主归置组所保留的均衡清单上的数据块名称,将存储在主归置组的对应的数据块均衡到新增加的数据存储装置中;
所述从归置组包括:
接收模块,用于接收分发模块发送过来的均衡清单;
第二均衡模块,根据从归置组所接收的均衡清单上的数据块名称,将存储在从归置组的对应的数据块均衡到新增加的数据存储装置中。
6.根据权利要求5所述的ceph集群数据均衡***,其特征在于,主归置组内还包括:标记模块,用于将正在被客户端请求读写的数据块标记为紧急数据块,将其余没有被客户端请求读写的数据块标记为普通数据块;
所述均衡清单生成模块包括:判断子模块以及位置调整子模块,所述判断子模块用于判断每个均衡清单上是否包含紧急数据块的名称,所述位置调整子模块用于在所述判断子模块判断到均衡清单上存在紧急数据块的名称时,将均衡清单上的紧急数据块名称置于普通数据块名称之前。
7.根据权利要求5或6所述的ceph集群数据均衡***,其特征在于,***还包括:删除模块,用于在第一均衡模块将主归置组内存储的数据块均衡到新增加的数据存储装置中以及第二均衡模块将从归置组内存储的数据块均衡到新增加的数据存储装置中之后,删除预定数量的从归置组。
8.根据权利要求5或6所述的ceph集群数据均衡***,其特征在于,所述主归置组还包括:
检查模块,用于在新增加的数据存储装置完成均衡后,检查新增加的数据存储装置中的所有数据块与统计的待均衡的数据块数量是否相同;
补充均衡模块,用于在检查模块检查到新增加的数据存储装置缺少某个数据块后,将缺少的数据块补充均衡到新增加的数据存储装置中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210184861.4A CN114237520B (zh) | 2022-02-28 | 2022-02-28 | 一种ceph集群数据均衡方法以及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210184861.4A CN114237520B (zh) | 2022-02-28 | 2022-02-28 | 一种ceph集群数据均衡方法以及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114237520A true CN114237520A (zh) | 2022-03-25 |
CN114237520B CN114237520B (zh) | 2022-07-08 |
Family
ID=80748267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210184861.4A Active CN114237520B (zh) | 2022-02-28 | 2022-02-28 | 一种ceph集群数据均衡方法以及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114237520B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160378364A1 (en) * | 2015-06-23 | 2016-12-29 | Western Digital Technologies, Inc. | Data management for object based storage |
CN106844399A (zh) * | 2015-12-07 | 2017-06-13 | 中兴通讯股份有限公司 | 分布式数据库***及其自适应方法 |
CN106951559A (zh) * | 2017-03-31 | 2017-07-14 | 联想(北京)有限公司 | 分布式文件***中数据恢复方法及电子设备 |
CN106951445A (zh) * | 2017-02-17 | 2017-07-14 | 深圳市中博睿存信息技术有限公司 | 一种分布式文件***及其存储节点上线方法 |
CN107544848A (zh) * | 2017-08-30 | 2018-01-05 | 深圳云天励飞技术有限公司 | 集群扩展方法、装置、电子设备及存储介质 |
CN108509157A (zh) * | 2018-04-13 | 2018-09-07 | 郑州云海信息技术有限公司 | 一种应用于分布式文件***的数据均衡方法及装置 |
CN109558437A (zh) * | 2018-11-16 | 2019-04-02 | 新华三技术有限公司成都分公司 | 主osd调整方法及装置 |
CN109710456A (zh) * | 2018-12-10 | 2019-05-03 | 新华三技术有限公司 | 一种数据恢复方法及装置 |
CN109992206A (zh) * | 2019-03-27 | 2019-07-09 | 新华三技术有限公司成都分公司 | 数据分布存储方法及相关装置 |
CN112817535A (zh) * | 2021-02-03 | 2021-05-18 | 柏科数据技术(深圳)股份有限公司 | 一种归置组分配方法、装置以及分布式存储*** |
CN113271323A (zh) * | 2020-02-14 | 2021-08-17 | 中移(苏州)软件技术有限公司 | 集群扩容方法、装置和存储介质 |
-
2022
- 2022-02-28 CN CN202210184861.4A patent/CN114237520B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160378364A1 (en) * | 2015-06-23 | 2016-12-29 | Western Digital Technologies, Inc. | Data management for object based storage |
CN106844399A (zh) * | 2015-12-07 | 2017-06-13 | 中兴通讯股份有限公司 | 分布式数据库***及其自适应方法 |
CN106951445A (zh) * | 2017-02-17 | 2017-07-14 | 深圳市中博睿存信息技术有限公司 | 一种分布式文件***及其存储节点上线方法 |
CN106951559A (zh) * | 2017-03-31 | 2017-07-14 | 联想(北京)有限公司 | 分布式文件***中数据恢复方法及电子设备 |
CN107544848A (zh) * | 2017-08-30 | 2018-01-05 | 深圳云天励飞技术有限公司 | 集群扩展方法、装置、电子设备及存储介质 |
CN108509157A (zh) * | 2018-04-13 | 2018-09-07 | 郑州云海信息技术有限公司 | 一种应用于分布式文件***的数据均衡方法及装置 |
CN109558437A (zh) * | 2018-11-16 | 2019-04-02 | 新华三技术有限公司成都分公司 | 主osd调整方法及装置 |
CN109710456A (zh) * | 2018-12-10 | 2019-05-03 | 新华三技术有限公司 | 一种数据恢复方法及装置 |
CN109992206A (zh) * | 2019-03-27 | 2019-07-09 | 新华三技术有限公司成都分公司 | 数据分布存储方法及相关装置 |
CN113271323A (zh) * | 2020-02-14 | 2021-08-17 | 中移(苏州)软件技术有限公司 | 集群扩容方法、装置和存储介质 |
CN112817535A (zh) * | 2021-02-03 | 2021-05-18 | 柏科数据技术(深圳)股份有限公司 | 一种归置组分配方法、装置以及分布式存储*** |
Also Published As
Publication number | Publication date |
---|---|
CN114237520B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6653358B2 (ja) | 複数のシステムからのデータのブロックチェーンロギング | |
US6950915B2 (en) | Data storage subsystem | |
CN101334797B (zh) | 一种分布式文件***及其数据块一致性管理的方法 | |
CN101655813B (zh) | 存储*** | |
US7239605B2 (en) | Item and method for performing a cluster topology self-healing process in a distributed data system cluster | |
CN109376197B (zh) | 一种数据同步方法、服务器及计算机存储介质 | |
CN102843403A (zh) | 基于分布式文件***的文件处理方法、***及客户端 | |
CN104216835B (zh) | 一种实现内存融合的方法及装置 | |
CN105740248B (zh) | 一种数据同步方法、装置及*** | |
CN110471688A (zh) | 业务***处理方法、装置、设备及存储介质 | |
CN104346373A (zh) | 分区日志队列同步管理方法及设备 | |
CN111880751A (zh) | 一种硬盘迁移方法、分布式存储集群***和存储介质 | |
EP2534571A1 (en) | Method and system for dynamically replicating data within a distributed storage system | |
CN101834904A (zh) | 一种数据备份方法和设备 | |
CN112328697A (zh) | 一种基于大数据的数据同步方法 | |
CN110531936A (zh) | 基于多种存储介质的分布式纠删码混合存储的林型存储结构及方法 | |
CN102957546A (zh) | 配置处理方法、装置及*** | |
CN109597903A (zh) | 图像文件处理装置和方法、文件存储***及存储介质 | |
CN113836184A (zh) | 一种业务持久化方法及装置 | |
CN109739684A (zh) | 基于向量时钟的分布式键值数据库的副本修复方法与装置 | |
CN111435286B (zh) | 一种数据存储方法、装置和*** | |
CN109815207A (zh) | 数据存储方法和客户端代理 | |
CN114237520B (zh) | 一种ceph集群数据均衡方法以及*** | |
CN111737226B (zh) | 一种基于Redis集群优化HBase集群性能的方法 | |
CN109691065A (zh) | 分布式存储***及其数据读写方法、存储终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |