CN106302607A - 应用于云计算的块存储***及方法 - Google Patents

应用于云计算的块存储***及方法 Download PDF

Info

Publication number
CN106302607A
CN106302607A CN201510308773.0A CN201510308773A CN106302607A CN 106302607 A CN106302607 A CN 106302607A CN 201510308773 A CN201510308773 A CN 201510308773A CN 106302607 A CN106302607 A CN 106302607A
Authority
CN
China
Prior art keywords
distributed storage
storage node
management server
cluster management
disk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510308773.0A
Other languages
English (en)
Other versions
CN106302607B (zh
Inventor
王银虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Tencent Cloud Computing Beijing Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201510308773.0A priority Critical patent/CN106302607B/zh
Publication of CN106302607A publication Critical patent/CN106302607A/zh
Application granted granted Critical
Publication of CN106302607B publication Critical patent/CN106302607B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开一种应用于云计算块存储的数据处理方法,包括:客户端向机群管理服务器发送获取分布式存储节点分组列表的请求指令;所述机群管理服务器根据所述分布式存储节点分组列表获取请求指令,向客户端返回所述分布式存储节点分组列表;所述客户端根据所述分布式存储节点分组列表,与所述分布存储节点直接进行数据交互。本发明还公开一种应用于云计算的块存储***。本发明提高了云计算块存储中数据的访问效率。

Description

应用于云计算的块存储***及方法
技术领域
本发明涉及网络存储技术领域,尤其涉及一种应用于云计算的块存储***及方法。
背景技术
随着网络技术的飞速发展及云计算的推广,基于云计算的数据存储为人们的大容量数据存储及安全便捷获取数据的需求提供了很好的应用平台。现有的云计算块存储技术主要采用的是iSCSI(Internet Small Computer SystemInterface,小型计算机***接口)访问方式:用户通过客户机上iSCSI initiator(iSCSI启动器)注册的块设备访问不同的存储机器前端代理服务器iSCSITarget(iSCSI目标器);用于将存储空间映射成不同块设备的存储机器前端代理服务器iSCSI Target,再通过访问不同的存储机群接入机,访问到某个存储节点服务器。
上述访问方式中,客户机需要经过存储机器前端代理服务器、存储机群接入机、存储节点服务器三跳才能访问到提供实际存储服务的存储节点服务器,访问路径较长,且每一跳都会带来很大的时延;存储机器的前端代理服务器和存储机群接入机也都是IO访问的瓶颈;从客户机发出请求到存储节点服务器提供服务的过程中涉及的服务器越多,需要投入的资源成本就越高。
发明内容
本发明实施例的主要目的是提供一种应用于云计算的块存储***及其方法,旨在提高云计算块存储中数据访问的效率。
为实现上述目的,本发明实施例提供了一种应用于云计算的块存储***,包括客户端、机群管理服务器、分布式存储节点集群,其中,
所述机群管理服务器存储有分布式存储节点分组列表;
所述分布式存储节点集群包含多个分布式存储节点,用于提供大容量存储空间;
所述客户端用于从所述机群管理服务器中获取所存储的分布式存储节点分组列表,并根据该分组列表信息直接访问任一所述分布式存储节点。
此外,为实现上述目的,本发明实施例还提供了一种应用于云计算块存储的数据处理方法,包括以下步骤:
客户端向机群管理服务器发送获取分布式存储节点分组列表的请求指令;
所述机群管理服务器根据所述分布式存储节点分组列表获取请求指令,向所述客户端返回所述分布式存储节点分组列表;
所述客户端根据所述分布式存储节点分组列表,与所述分布存储节点直接进行数据交互。
本发明实施例在客户端访问存储数据时,只需根据从所述机群管理服务器获取的分布式存储节点分组列表即可直接访问存储有数据的分布式存储节点。由于客户端每次访问存储数据时都无需经过机群管理服务器再跳转到分布式存储节点,因此,减少了由于跳转所带来的时延,也减少了IO访问异常情况的发生,从而提高了数据访问的效率。
附图说明
图1为本发明应用于云计算的块存储***的结构示意图;
图2是本发明应用于云计算的块存储数据处理方法实施例的流程示意图;
图3是本发明应用于云计算的块存储数据处理方法中BSN机群初始化及启动的细化流程示意图;
图4是本发明应用于云计算的块存储数据处理方法中创建SBS盘的细化流程示意图;
图5是本发明应用于云计算的块存储数据处理方法中挂载SBS盘的细化流程示意图;
图6是本发明应用于云计算的块存储数据处理方法中回收SBS盘的细化流程示意图;
图7是本发明应用于云计算的块存储数据处理方法中磁盘数据迁移的细化流程示意图;
图8是本发明应用于云计算的块存储数据处理方法中Box***的细化流程示意图;
图9是本发明应用于云计算的块存储数据处理方法中Box合并的细化流程示意图;
图10是本发明应用于云计算的块存储数据处理方法中机群扩容的细化流程示意图;
图11是本发明应用于云计算的块存储数据处理方法中机群缩容的细化流程示意图;
图12是本发明应用于云计算的块存储数据处理方法中BSN发现故障盘之后处理的细化流程示意图;
图13是本发明应用于云计算的块存储数据处理方法中BSN发现丢盘之后处理的细化流程示意图;
图14是本发明应用于云计算的块存储数据处理方法中在故障盘或丢盘情况下换盘后处理的细化流程示意图;
图15是本发明应用于云计算的块存储数据处理方法中宕机情况处理的细化流程示意图;
图16是本发明应用于云计算的块存储数据处理方法中宕机恢复之后处理的细化流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
以下结合说明书附图及具体实施例进一步说明本发明的技术方案。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提出一种云计算块存储方案,在云计算块存储应用中,客户端通过存储有BSN list(Block Storage Node list,分布式存储节点分组列表)的机群管理服务器(MGR,Group Manager)获得机群中所有分布式存储节点(BSN,Block Storage Node)的分组列表信息,根据获得的所述分组列表信息直接与分布式存储节点进行数据交互,且数据交互过程中无需通过机群管理服务器进行跳转,从而提高了云计算块存储中数据访问的效率。
如图1所示,示出了本发明一种应用于云计算的块存储***所实施的***结构。该云计算块存储***可包括客户端100、机群管理服务器200、以机群形式存在的分布式存储节点300。其中,
客户端100是运行在用户终端上的软件,该软件可以是内核驱动,也可以是应用软件。用户可使用账号和密码登录客户端100,通过访问网络继而与机群管理服务器200或各分布式存储节点300进行通信。用户终端可以是虚拟服务器或者是实体服务器。客户端100上配置有机群管理服务器200的访问IP,客户端100可根据该访问IP在需要时与机群管理服务器200进行通讯。当用户通过终端设备登录客户端100时,客户端100通过网络与机群管理服务器200进行通讯,将携带有账号和密码的登录认证请求发送至机群管理服务器200进行登录认证,并在登录认证成功后向机群管理服务器200发送获取BSN list的请求指令。
机群管理服务器200可以为该应用对应的服务器,也可以是一个独立的服务器,还可以是由多个服务器组成的服务器集群。机群管理服务器200存储有所有的分布式存储节点300的信息,通过网络访问并管理所有的分布式存储节点300。机群管理服务器200接收客户端100发送的登录认证请求,并根据请求中的账号和密码,确认用户是否是合法用户。当确认用户是合法用户时,机群管理服务器200向客户端100返回登录认证成功消息。客户端100接收到登录认证成功消息后,则向机群管理服务器200发送获取BSN list的请求指令。机群管理服务器200接收到获取BSN list的请求指令后,将存储在机群管理服务器200上的BSN list返回给客户端100。
分布式存储节点300可以是该应用对应的服务器,也可以是一个独立的服务器。多个分布式存储节点300组成一个分布式存储节点集群。机群中的分布式存储节点300可以是单机模式,也可以是主备双机模式。本发明实施例中采用主备双机模式,该模式下的两台分布式存储节点300存储的数据完全相同,用于数据同步,保障数据安全。所述客户端100根据所述机群管理服务器200返回的BSN list通过网络直接访问分布式存储节点300,从而进行数据交互。
采用本发明一种应用于云计算的块存储***所实施的***结构,客户端100与分布式存储节点300之间的数据交互只需要经过分布式存储节点300这一跳,与现有技术中采用iSCSI访问方式相比,节省了服务器设备资源,降低了一次数据交互中的IO访问次数,同时也减少了由于多次跳转所带来的时延。
上述***可以实现以下功能:
(1)机群的初始化及启动
所述机群管理服务器200还用于:
预先配置并存储BSN list信息、BoxDiskMap(逻辑存储单元与分布式存储节点分组及磁盘的映射关系)信息、BoxRange(Box的hash范围)信息、TargetMap(创建的对象iSCSI Target与块存储单元的映射关系)信息,并将所配置的所有配置信息推送到所有的分布式存储节点300;
所述分布式存储节点300还用于:
将所有其他分布式存储节点300上的磁盘挂载到本地;若TargetMap信息非空,则创建并启动iSCSI Target。
所述机群管理服务器200上存储的BSN list、BoxDiskMap、BoxRange由云计算块存储***管理员根据实际情况预先配置好。机群管理服务器200上存储的TargetMap是在收到客户端100发送的创建SBS(Simple BlockStorage,简单块存储)盘请求指令后,由机群管理服务器200进行分配。如果分布式存储节点300进行过重启,为了保证数据的一致性,重启后需将TargetMap重新下发到所有的分布式存储节点300。
所述分布式存储节点300上安装有iSCSI Target和iSCSI initiator套件,通过该套件中的iSCSI Target对本地磁盘进行管理。分布式存储节点300中的boxd(分布式存储节点300核心软件,提供iSCSI Target存储空间)将本地每一个磁盘空间按预置大小分片为Box(逻辑存储单元),并给每一个Box进行编号;根据从所述机群管理服务器200获取的TargetMap信息、BoxDiskMap信息、BoxRange信息将接收的iSCSI Target读写/控制请求的lba(逻辑块地址)转换为blk(块存储单元);通过本发明提出的SBS-hash算法(BoxId=SBS-hash(blkId)=BoxRange[Md5(blkId)%Box的总数])将blkId(块存储单元编号)映射到BoxId(Box的编号);BoxId通过BoxDiskMap找到对应的GroupId(分布式存储节点300分组编号),然后通过BSN list信息找到对应的分布式存储节点300上的磁盘。
机群中的每一个分布式存储节点300上均挂载了所有其他分布式存储节点300上的磁盘,当客户端100要访问的数据不在所访问的分布式存储节点300本地磁盘上时,也可以通过该分布式存储节点300访问到所需磁盘上的数据,因而机群中任一分布式存储节点300均具有提供客户端100所需数据的访问能力。
(2)创建SBS盘
所述机群管理服务器200还用于:
根据所述创建SBS盘请求指令,分配新的TargetMap,并将所有已分配的TargetMap推送到所有的分布式存储节点300;在接收到所述分布式存储节点300返回的确认消息后,返回新分配的TargetMap对应的TargetId(iSCSITarget编号);
所述分布式存储节点300还用于:
根据所述机群管理服务器200推送的TargetMap,创建iSCSI Target,并返回确认消息。
所述创建SBS盘请求指令由管理员通过***OSS(Operation SupportSystem,运营支撑***)发送,也可以是由管理员通过***命令行方式发送。所述机群管理服务器200根据该创建SBS盘请求指令为其分配TargetMap。分布式存储节点300在接收到机群管理服务器200发送的更新后的TargetMap信息后,可以通过将该更新后的TargetMap信息与原已存储的TargetMap信息进行匹配来创建新分配的TargetMap对应的iSCSI Target。另一实施例中,分布式存储节点300也可以根据由机群管理服务器200发送的包含新分配的TargetMap信息的创建指令来创建iSCSI Target。创建iSCSI Target结束后,返回确认消息。机群管理服务器200在接收到分布式存储节点300发送的确认消息后,返回新分配的TargetMap对应的TargetId。
所述机群管理服务器200每当TargetMap信息有更新时,都会将更新后的TargetMap信息重新下发到所有的分布式存储节点300,所有的分布式存储节点300都会根据最新的TargetMap信息更新对应的iSCSI Target,从而保证了每个分布式存储节点300上iSCSI Target信息的一致性及数据的准确性。
(3)挂载SBS盘
所述客户端100还用于:
根据SBS盘挂载指令,将所述SBS盘挂载指令对应的SBS盘挂载在所述BSN list中的任一分布式存储节点300。
在SBS盘创建好后,由管理员通过***OSS或***命令行方式向客户端100发送挂载SBS盘指令。客户端100根据所述挂载SBS盘指令从机群管理服务器200中获取的BSN list选择任一分布式存储节点300挂载所述挂载SBS盘指令对应的SBS盘。选择分布式存储节点300的方法可以是以负载均衡的方式选择,也可以是随机选择。如果选择的分布式存储节点300不能访问,则客户端100重新选择分布式存储节点300,直到所选择的分布式存储节点300能够正常访问。客户端100在发现有不能访问的分布式存储节点300后,会向机群管理服务器200发送宕机检测请求指令,触发机群管理服务器200对所述不能访问的分布式存储节点300进行宕机检测。
客户端100在选择用于挂载SBS盘的分布式存储节点300时,无需判断所要挂载的SBS盘上数据存储于哪些分布式存储节点300磁盘的Box上,因为所选择的任一分布式存储节点300均挂载有机群中所有的磁盘,也就是通过任一分布式存储节点300即可访问机群中存储的所有数据。
(4)回收SBS盘
所述机群管理服务器200还用于:
接收回收SBS盘请求指令,根据所述回收SBS盘请求指令删除待回收的SBS盘对应的TargetMap,并将剩余的所有TargetMap信息推送到所有的分布式存储节点300;
所述分布式存储节点300还用于:
根据所接收的TargetMap信息,删除与待回收的SBS盘对应的iSCSITarget,并更新分布式存储节点300上存储的TargetMap信息。
所述回收SBS盘请求指令由管理员通过***OSS或***命令行方式向机群管理服务器200发送。该指令中包含待回收SBS盘对应的iSCSI Target信息。机群管理服务器200通过回收指令中的iSCSI Target信息找到与之匹配的TargetMap并删除,然后将所有还存在的TargetMap信息重新推送到所有的分布式存储节点300进行信息的更新。所有的分布式存储节点300在接收到更新后的TargetMap信息后,将该更新后的TargetMap信息与原已存储的TargetMap信息进行匹配来删除已不存在于分布式存储节点300上的TargetMap对应的iSCSI Target。另一实施例中,所有的分布式存储节点300也可以通过由机群管理服务器200发送的包含待删除TargetMap信息的回收指令来删除待回收TargetMap对应的iSCSI Target。删除iSCSI Target结束后,所有的分布式存储节点300返回回收成功消息。机群管理服务器200在接收到所有的分布式存储节点300返回的回收成功消息后,返回回收成功的确认消息。
在回收SBS盘过程中,机群管理服务器200只负责删除待回收的TargetMap,然后将更新后的TargetMap信息更新到所有的分布式存储节点300,由所有的分布式存储节点300根据该统一的TargetMap信息执行删除待回收TargetMap对应iSCSI Target的操作,从而保证了所有的分布式存储节点300上还存在的iSCSI Target是一致的。
(5)磁盘数据迁移
所述机群管理服务器200还用于:
接收到磁盘数据迁移指令后,根据所述磁盘数据迁移指令存储源分布式存储节点300及源磁盘信息、目的分布式存储节点300及目的磁盘信息,并将源磁盘对应的磁盘BoxStatus置为迁移状态,将该迁移状态推送到所有的分布式存储节点300;向源分布式存储节点300发送磁盘数据迁移指令;在所述源分布式存储节点300数据迁移完成后,将源磁盘对应的BoxStatus置为正常状态,并将该正常状态推送到所有的分布式存储节点300;在所述源分布式存储节点300数据迁移完成后,更新BoxDiskMap并推送到所有的分布式存储节点300;
所述分布式存储节点300还用于:
在接收到所述机群管理服务器200发送的磁盘数据迁移指令时,根据该磁盘数据迁移指令,将所述源分布式存储节点300磁盘上数据复制到所述目的分布式存储节点300对应的磁盘。
磁盘数据迁移是指把BoxId X至BoxId Y上的数据,从分布式存储节点300A的Disk M迁移到分布式存储节点300B的Disk N。数据的迁移是以磁盘为单位进行迁移,且迁移过程中迁移数据对应的Box的状态是可读不可写的迁移状态。
所述机群管理服务器200接收的磁盘数据迁移指令,可以是由管理员通过***OSS发送,也可以是由管理员通过***命令行方式发送。
磁盘数据迁移过程中,所迁移数据对应的Box与blk的逻辑映射关系没有改变,改变的是所迁移数据对应的Box与Disk及分布式存储节点300的物理映射关系。采用这样的数据迁移方法,使后台中数据的改变更为简单、透明。
(6)Box***
所述机群管理服务器200还用于:
启动Box***操作时,对于每一个待***的Box,根据预先新配置的BoxRange将所述待***的Box***为两个新的Box,使所述两个新的Box按编号顺序分别对应原Box的hash范围的前半部分和后半部分,并向所有的分布式存储节点300发送数据复制指令;在接收到所述分布式存储节点300返回的数据复制完成消息后,将预先新配置的BoxRange推送到所有的分布式存储节点300;
所述分布式存储节点300还用于:
接收所述机群管理服务器200发送的所述数据复制指令,复制所述待***的Box的hash范围后半部分中的数据到编号对应原Box的hash范围的后半部分的新的Box,并向所述机群管理服务器200返回数据复制完成消息;其中,编号对应原Box的hash范围前半部分的新的Box在***时已包含原Box的hash范围前半部分中的数据。
所述Box***是针对机群中所有的Box进行的***操作。预先新配置的BoxRange是由管理员通过***OSS或***命令行对原已配置的BoxRange进行的修改。
Box***即是将原来的Box M对应BoxRange[x~y),***为Box M'对应BoxRange[x~(x+y)/2)、Box N'对应BoxRange[(x+y)/2~y),并将原来BoxM上对应BoxRange[(x+y)/2~y)的数据复制到Box N'上。
所述Box***方法是以原Box对应BoxRange进行的对半***,方法简单且易实现,机群的整个Box***操作所使用的时间也比较短。
(7)Box合并
所述机群管理服务器200还用于:
启动Box合并操作时,对于每一对按编号顺序相邻的两个待合并Box,根据预先新配置的BoxRange将所述两个待合并Box合并为一个新的Box,并向所有的分布式存储节点300发送数据复制指令;在接收到所述分布式存储节点300返回的数据复制完成消息后,将预先新配置的BoxRange推送到所有的分布式存储节点300;
所述分布式存储节点300还用于:
接收所述机群管理服务器200发送的所述数据复制指令,复制顺序编号靠后的待合并Box中数据到所述新的Box,并向所述机群管理服务器200返回数据复制完成消息;其中,所述新的Box在合并时已包含顺序编号靠前的待合并Box中数据。
所述Box合并是针对机群中所有的按原来已配置的BoxRange相邻的两个Box进行的合并操作。预先新配置的BoxRange是由管理员通过***OSS或***命令行对所述原来已配置的BoxRange进行的修改。
Box合并即是将原来的Box M对应BoxRange[x~y)、Box N对应BoxRange[y~z),合并为Box M'对应BoxRange[x~z),并将原来Box N上对应BoxRange[y~z)的数据复制到Box M'上。
所述Box合并方法方法简单且易实现,机群的整个Box合并操作所使用的时间也比较短。
(8)机群扩容
所述机群管理服务器200还用于:
接收扩容指令后,当存在新加入的分布式存储节点300时,将预先配置的所述新加入的分布式存储节点300的分组列表信息、Box与所述新加入的分布式存储节点300分组及磁盘的映射关系信息存储在机群管理服务器200;将所有分布式存储节点300的分组列表信息、所有的BoxDiskMap信息、所有的TargetMap信息推送到所有的分布式存储节点300;在接收到所述分布式存储节点300返回的确认消息后,启动Box***操作,并在Box***完成后,将BSN list推送到所述客户端100;
所述分布式存储节点300还用于:
当该分布式存储节点300为原来有的分布式存储节点300时,将新加入的分布式存储节点300上的磁盘挂载到本地;当该分布式存储节点300为新加入的分布式存储节点300时,将所有其他的分布式存储节点300上的磁盘挂载到本地,并根据所述TargetMap信息,创建并启动iSCSI Target。
本发明实施例机群中分布式存储节点300采用双机备份模式,因而每次扩容增加的分布式存储节点300个数必须是偶数,且扩容后的服务器个数是现有机群服务器个数的2倍。
所述扩容指令,可以是由管理员通过***OSS发送,也可以是由管理员通过***命令行方式发送。
新加入机群的分布式存储节点300与机群中原有的分布式存储节点300的配置的软件套件一致,即新加入机群的分布式存储节点300预先配置有iSCSI initiator和iSCSI Target,也能够启动boxd应用。
所述机群扩容是在Box***操作的基础上实现的,方法简单且易实现。
(9)机群缩容
所述机群管理服务器200还用于:
接收缩容指令并启动Box合并操作,其中,所述缩容指令包含需裁撤的分布式存储节点300信息;在合并操作完成后,修改BSN list,并将所述修改的BSN list与合并操作时修改的BoxDiskMap推送到所有的分布式存储节点300,将所述修改的BSN list推送到客户端100;
所述分布式存储节点300还用于:
根据接收到的所述BSN list解挂需裁撤的分布式存储节点300映射到本地的iSCSI Target;
所述客户端100还用于:
根据接收到的所述BSN list进行判断,如果客户端100所挂载到的分布式存储节点300需被裁撤,则进行解挂并重新选择其他分布式存储节点300进行挂载。
在机群进行缩容之前,需要由管理员确认缩减后的分布式存储节点300机群是否能够满足存储数据的容量需求,还需要确认所要缩减的分布式存储节点300及其对应的Box。
所述机群管理服务器200接收的缩容指令,可以是由管理员通过***OSS发送,也可以是由管理员通过***命令行方式发送。
所述机群缩容是在Box合并操作的基础上实现的,方法简单且易实现。
(10)故障盘情况的处理
所述分布式存储节点300还用于:
当要进行访问的Box对应的分布式存储节点300上的磁盘出现异常时,隔离所述异常的磁盘,并通知所述机群管理服务器200磁盘故障;
所述机群管理服务器200还用于:
设置所述异常磁盘上的BoxStatus为降级状态,在确定不是宕机情况时发出换盘通知,并将所述BoxStatus推送到所有的分布式存储节点300。
所述磁盘异常包括所有不能正常访问该磁盘的情况。
分布式存储节点300隔离所述故障盘是指分布式存储节点300通过标记所述故障盘异常,暂停对所述故障盘的访问操作。
所述降级状态是指BoxStatus为可读不可写状态。
所述机群管理服务器200在接收所述磁盘故障通知后,对所涉及的磁盘进行宕机检测。在确定故障磁盘不是宕机情况后,机群管理服务器200通过***OSS平台通知管理员更换磁盘;在确定是宕机情况后,转入宕机情况处理流程。
通过对所有的Box设置BoxStatus的方法,能够在发现磁盘出现异常时较快地保护该故障盘上的数据不被修改,从而避免数据的不一致。
(11)丢盘情况的处理
所述分布式存储节点300还用于:
当需要进行访问的分布式存储节点300上的磁盘无法访问时,通知机群管理服务器200所述磁盘丢失;
所述机群管理服务器200还用于:
设置所述丢失磁盘的BoxStatus为降级状态,在确定不是宕机情况时发出换盘通知,并将所述BoxStatus推送到所有的分布式存储节点300。
所述需要进行访问的分布式存储节点300上的磁盘无法访问,是指挂载SBS盘的分布式存储节点300在与挂载到本地的所要访问数据对应分布式存储节点300上磁盘经过多次连接后仍通信失败的情况。
通过对所有的Box设置BoxStatus的方法,能够在发现磁盘出现异常时较快地保护该故障盘上的数据不被修改,从而避免数据的不一致。
(12)故障盘/丢盘情况下换盘后的处理
所述机群管理服务器200还用于:
接收到换盘完成消息后,向所述分布式存储节点300发送磁盘数据迁移指令;在磁盘数据迁移完成后,设置所述BoxStatus为正常状态,并将所述BoxStatus推送到所有的分布式存储节点300;
所述分布式存储节点300还用于:
接收所述机群管理服务器200发送的所述磁盘数据迁移指令,将更换后新磁盘的对等盘上数据复制到新磁盘,并向所述机群管理服务器200返回完成消息。
所述机群管理服务器200接收到的换盘完成消息,是由管理员在后台更换磁盘后通过***OSS发送给机群管理服务器200的消息。
磁盘数据迁移完成后,只需通过修改BoxStatus的值就能较快地将所述磁盘数据恢复为可读写状态,方法简单且易实现。
(13)宕机情况的处理
所述客户端100还用于:
判断所述分布式存储节点300的网络不可达,或分布式存储节点300上磁盘访问不可达后,向所述机群管理服务器200发送宕机检测请求指令;
所述分布式存储节点300还用于:
在检测到所要访问的Box对应分布式存储节点300或分布式存储节点300上的磁盘不可达时,向机群管理服务器200发送宕机检测请求指令;
所述机群管理服务器200还用于:
接收从所述客户端100或分布式存储节点300发送的宕机检测请求指令,并对所涉及的异常分布式存储节点300进行心跳检测;或定时对所有的分布式存储节点300进行心跳检测;在检测到异常时,设置所述检测到异常的分布式存储节点300对应的所有BoxStatus为降级状态,并将该状态信息推送到所有的分布式存储节点300;更新BSN list,将所述BSN list推送到所有的分布式存储节点300和客户端100,并发出宕机通知。
机群管理服务器200在进行心跳检测时,通过ping/pong所涉及的分布式存储节点300从而判断所述涉及的分布式存储节点300是否宕机。
通过修改宕机分布式存储节点300的BoxStatus值及BSN list即可隔离所述宕机分布式存储节点300,方法简单且易实现。
(14)宕机恢复后的处理
所述分布式存储节点300还用于:
宕机恢复后的分布式存储节点300进行初始化后,挂载还未挂载到本地的所有其他的分布式存储节点300上的磁盘,根据TargetMap创建iSCSITarget;所有其他的分布式存储节点300重新挂载所述宕机恢复后的分布式存储节点300上的磁盘;
所述机群管理服务器200还用于:
接收到宕机恢复消息后,向所述恢复后的分布式存储节点300发送磁盘数据迁移指令,在确认数据迁移完成后,通知所有的分布式存储节点300宕机恢复,并将更新后的BSN list、BoxDiskMap、TargetMap推送到所有的分布式存储节点300;在收到所有的分布式存储节点300挂载磁盘完成消息后,设置所述BoxStatus为正常状态,并将该状态信息推送到所有的分布式存储节点300,将更新后的BSN list推送到所有的客户端100。
所述恢复的分布式存储节点300可以是经过修复后的宕机分布式存储节点300本身,也可以是用于替换宕机分布式存储节点300的新分布式存储节点300。所述用于替换宕机分布式存储节点300的新分布式存储节点300上配置的软件套件与宕机分布式存储节点300完全一致。
所述机群管理服务器200收到的宕机恢复消息是由管理员在修复或更换宕机分布式存储节点300后通过***OSS或***命令行发送的消息。
所述恢复后的分布式存储节点300在接收到机群管理服务器200发送的磁盘数据迁移指令后,将预先配置的所述恢复后的分布式存储节点300的对等机上的数据迁移到所述恢复后的分布式存储节点300。
所有的分布式存储节点300在收到宕机恢复消息后,恢复后的分布式存储节点300挂载机群中所有其他的分布式存储节点300上磁盘,所述所有其他的分布式存储节点300重新挂载恢复后的分布式存储节点300上的磁盘。
宕机恢复后的处理操作步骤简单易实现,且很好地保持了机群中数据的一致性。
进一步地,如图2所示,示出了本发明一种应用于云计算的块存储***数据处理方法的一个实施例。该实施例具体描述了客户端100通过机群管理服务器200与分布式存储节点300进行数据交互的过程。即上述过程可包括以下步骤:
步骤S101、所述客户端100向所述机群管理服务器200发送获取BSN list的请求指令;
客户端100是运行在用户终端上的软件,该软件可以是内核驱动,也可以是应用软件。用户可使用账号和密码登录客户端100,通过访问网络继而与机群管理服务器200或各分布式存储节点300进行通信。用户终端可以是虚拟服务器或者是实体服务器。客户端100上配置有机群管理服务器200的访问IP,客户端100可根据该访问IP在需要时与机群管理服务器200进行通讯。当用户通过终端设备登录客户端100时,客户端100可以通过网络与机群管理服务器200进行通讯,将携带有账号和密码的登录认证请求发送至机群管理服务器200进行登录认证,并在登录认证成功后向机群管理服务器200发送获取BSN list的请求指令。
步骤S102、所述机群管理服务器200接收所述BSN list获取请求指令;
所述BSN list包含了机群中所有分布式存储节点300信息及其分组的信息。机群管理服务器200可以为该应用对应的服务器,也可以是一个独立的服务器,还可以是由多个服务器组成的服务器集群。机群管理服务器200存储有所有的分布式存储节点300的信息,通过网络访问并管理所有的分布式存储节点300。机群管理服务器200接收客户端100发送的登录认证请求,并根据请求中的账号和密码,确认用户是否是合法用户。当确认用户是合法用户时,机群管理服务器200向客户端100返回登录认证成功消息。客户端100接收到登录认证成功消息后,则向机群管理服务器200发送获取BSN list的请求指令。机群管理服务器200接收到获取BSN list的请求指令后,将存储在机群管理服务器200上的BSN list返回给客户端100。
步骤S103、所述机群管理服务器200根据所述请求指令向客户端100返回BSN list;
步骤S104、所述客户端100接收所述BSN list;
步骤S105、所述客户端100根据所述BSN list,与分布式存储节点300直接进行数据交互;
分布式存储节点300可以是该应用对应的服务器,也可以是一个独立的服务器。多个分布式存储节点300组成一个分布式存储节点集群。机群中的分布式存储节点300可以是单机模式,也可以是主备双机模式。本发明实施例中采用主备双机模式,该模式下的两台分布式存储节点300存储的数据完全相同,用于数据同步,保障数据安全。所述客户端100根据所述机群管理服务器200返回的BSN list网络直接访问分布式存储节点300,从而进行数据交互。
所述客户端100从所述BSN list中获得分布式存储节点300的访问信息,从而能够直接与其进行通讯,提高了访问效率。
如图3所示,示出了本发明一种应用于云计算的块存储***数据处理方法中机群初始化及启动的一个实施例。机群初始化及启动的过程具体包括以下步骤:
步骤S201、所述分布式存储节点300根据配置的iSCSI Target将本地磁盘添加到iSCSI Target,启动boxd并等待接收所述机群管理服务器200发送的指令;
所述分布式存储节点300上安装有iSCSI Target和iSCSI initiator套件,通过该套件中的iSCSI Target对本地磁盘进行管理。分布式存储节点300中的boxd将本地每一个磁盘空间按预置大小分片为Box,并给每一个Box进行编号;根据从所述机群管理服务器200获取的TargetMap信息、BoxDiskMap信息、BoxRange信息将接收的iSCSI Target读写/控制请求的lba转换为blk;通过本发明提出的hash算法(BoxId=SBS-hash(blkId)=BoxRange[Md5(blkId)%Box的总数])将blkId映射到BoxId;BoxId通过BoxDiskMap找到对应的GroupId,然后通过BSN list信息找到对应的分布式存储节点300上的磁盘。
步骤S202、分布式存储节点300是非首次启动本机上的应用,即认为是重启的情况;
步骤S203、如果所述分布式存储节点300进行了重启,则机群管理服务器200将预先配置并存储在本地的BSN list信息、BoxDiskMap信息、BoxRange信息、TargetMap信息推送到所有的分布式存储节点300;
所述机群管理服务器200上存储的BSN list、BoxDiskMap、BoxRange由云计算块存储***管理员根据实际情况预先配置好。机群管理服务器200上存储的TargetMap是在收到客户端100发送的创建SBS(Simple BlockStorage,简单块存储)盘请求指令后,由机群管理服务器200进行分配。如果分布式存储节点300进行过重启,为了保证数据的一致性,重启后需将TargetMap重新下发到所有的分布式存储节点300。
步骤S204、如果所述分布式存储节点300没有重启,则机群管理服务器200将预先配置并存储在本地的BSN list信息、BoxDiskMap信息、BoxRange信息推送到所有的分布式存储节点300;
步骤S205、所有的分布式存储节点300接收所述推送的信息,并根据BSN list信息,将机群中所有其他分布式存储节点300上的磁盘挂载到本地;
每一个分布式存储节点300在步骤S205中均根据BSN list信息将还未挂载到本地的所有其他分布式存储节点300上的磁盘挂载到本地。
步骤S206、分布式存储节点300判断所接收的TargetMap信息中每一个TargetMap是否为空;
步骤S207、所有的分布式存储节点300对于所接收到的TargetMap信息,如果TargetMap为空,则不执行创建iSCSI Target操作;
步骤S208、所有的分布式存储节点300对于所接收到的TargetMap信息,如果TargetMap非空,则创建并启动iSCSI Target。
机群中的每一个分布式存储节点300上均挂载了所有其他分布式存储节点300上的磁盘,当客户端100要访问的数据不在所访问的分布式存储节点300本地磁盘上时,也可以通过该分布式存储节点300访问到所需磁盘上的数据,因而机群中任一分布式存储节点300均具有提供客户端100所需数据的访问能力。
如图4所示,示出了本发明一种应用于云计算的块存储***数据处理方法中创建SBS盘的一个实施例。创建SBS盘的过程具体包括以下步骤:
步骤S301、所述机群管理服务器200接收由管理员通过***OSS或***命令行方式发送的创建SBS盘请求指令,并根据所述创建请求指令为所述客户端100分配新的TargetMap;
步骤S302、所述机群管理服务器200将所有已分配的TargetMap信息推送到所有的分布式存储节点300;
所述所有已分配的TargetMap包含新分配的TargetMap及原来已分配的TargetMap。
步骤S303、所述分布式存储节点300接收推送的所述TargetMap信息,如果TargetMap非空,则创建iSCSI Target,并向机群管理服务器200返回确认消息;
分布式存储节点300在接收到机群管理服务器200发送的更新后的TargetMap信息后,可以通过将该更新后的TargetMap信息与原已存储的TargetMap信息进行匹配来创建新分配的TargetMap对应的iSCSI Target。另一实施例中,分布式存储节点300也可以根据由机群管理服务器200发送的包含新分配的TargetMap信息的创建指令来创建iSCSI Target。创建iSCSITarget结束后,返回确认消息。
步骤S304、所述机群管理服务器200接收到所述确认消息后,返回所述新分配的TargetMap对应的TargetId。
所述机群管理服务器200每当TargetMap信息有更新时,都会将更新后的TargetMap信息重新下发到所有的分布式存储节点300,所有的分布式存储节点300都会根据最新的TargetMap信息更新对应的iSCSI Target,从而保证了每个分布式存储节点300上iSCSI Target信息的一致性及数据的准确性。
如图5所示,示出了本发明一种应用于云计算的块存储***数据处理方法中挂载SBS盘的一个实施例。挂载SBS盘的过程具体包括以下步骤:
步骤S401、客户端100接收挂载SBS盘指令后,根据配置在本地的机群管理服务器200访问IP,向机群管理服务器200发送获取BSN list的请求指令;
在SBS盘创建好后,由管理员通过***OSS或***命令行方式向客户端100发送挂载SBS盘指令。
步骤S402、所述机群管理服务器200在收到所述请求指令后,将BSN list返回给所述客户端100;
步骤S403、所述客户端100从所述BSN list中选择一个分布式存储节点300挂载创建的SBS盘;
客户端100根据从机群管理服务器200获取的BSN list选择任一分布式存储节点300挂载SBS盘。选择分布式存储节点300的方法可以是以负载均衡的方式选择,也可以是随机选择。
步骤S404、判断所选择用于挂载SBS盘的分布式存储节点300是否是活跃状态;
如果所选择用于挂载SBS盘的分布式存储节点300是网络可达的,则判定其是活跃状态;如果所选择用于挂载SBS盘的分布式存储节点300是网络不可达,则判定其实非活跃状态;
步骤S405、如果所选分布式存储节点300处于活跃状态,则将SBS盘挂载到该分布式存储节点300;
步骤S406、如果所选分布式存储节点300处于非活跃状态,或者找不到对应的iSCSI Target,则客户端100另选分布式存储节点300。
如果选择的分布式存储节点300不能访问,则客户端100重新选择分布式存储节点300,直到所选择的分布式存储节点300能够正常访问。客户端100在发现有不能访问的分布式存储节点300后,会向机群管理服务器200发送宕机检测请求指令,触发机群管理服务器200对所述不能访问的分布式存储节点300进行宕机检测。
客户端100在选择用于挂载SBS盘的分布式存储节点300时,无需判断所要挂载的SBS盘上数据存储于哪些分布式存储节点300磁盘的Box上,因为所选择的任一分布式存储节点300均挂载有机群中所有的磁盘,也就是通过任一分布式存储节点300即可访问机群中存储的所有数据。
如图6所示,示出了本发明一种应用于云计算的块存储***数据处理方法中回收SBS盘的一个实施例。回收SBS盘的过程具体包括以下步骤:
步骤S501、机群管理服务器200接收回收SBS盘请求的指令,并删除所述SBS盘对应的TargetMap;
所述回收SBS盘请求指令由管理员通过***OSS或***命令行方式向机群管理服务器200发送。该指令中包含待回收SBS盘对应的iSCSI Target信息。
步骤S502、所述机群管理服务器200将所有其他还存在的TargetMap信息推送到所有的分布式存储节点300;
机群管理服务器200通过回收指令中的iSCSI Target信息找到与之匹配的TargetMap并删除,然后将所有还存在的TargetMap信息重新推送到所有的分布式存储节点300进行信息的更新。
步骤S503、所有的分布式存储节点300接收所述TargetMap信息,删除不存在的TargetMap对应的iSCSI Target,并向所述机群管理服务器200返回确认消息;
所有的分布式存储节点300在接收到更新后的TargetMap信息后,将该更新后的TargetMap信息与原已存储的TargetMap信息进行匹配来删除已不存在于分布式存储节点300上的TargetMap对应的iSCSI Target。另一实施例中,所有的分布式存储节点300也可以通过由机群管理服务器200发送的包含待删除TargetMap信息的回收指令来删除待回收TargetMap对应的iSCSITarget。删除iSCSI Target结束后,所有的分布式存储节点300返回回收成功消息。
步骤S504、所述机群管理服务器200接收所述确认消息后,返回回收成功的确认消息。
在回收SBS盘过程中,机群管理服务器200只负责删除待回收的TargetMap,然后将更新后的TargetMap信息更新到所有的分布式存储节点300,由所有的分布式存储节点300根据该统一的TargetMap信息执行删除待回收TargetMap对应iSCSI Target的操作,从而保证了所有的分布式存储节点300上还存在的iSCSI Target是一致的。
如图7所示,示出了本发明一种应用于云计算的块存储***数据处理方法中磁盘数据迁移的一个实施例。磁盘数据迁移的过程具体包括以下步骤:
步骤S601、机群管理服务器200接收磁盘数据迁移指令,根据该指令确定对应的源分布式存储节点300及源磁盘、目的分布式存储节点300及目的磁盘;
所述机群管理服务器200接收的磁盘数据迁移指令,可以是由管理员通过***OSS发送,也可以是由管理员通过***命令行方式发送。
步骤S602、所述机群管理服务器200将需要进行数据迁移的磁盘对应的所有BoxStatus设置为迁移状态,并将所述状态信息推送到所有的分布式存储节点300;
所述迁移状态是可读不可写状态,在该迁移状态下,对应数据只能读取而不能进行修改。
步骤S603、所述机群管理服务器200向源分布式存储节点300下发磁盘数据迁移指令;
步骤S604、所述源分布式存储节点300接收所述磁盘数据迁移指令,根据该指令将需进行迁移的磁盘上的数据以磁盘为单位复制到所述目的分布式存储节点300对应的磁盘上,并向所述机群管理服务器200返回迁移完成消息;
磁盘数据迁移是指把BoxId X至BoxId Y上的数据,从分布式存储节点300A的Disk M迁移到分布式存储节点300B的Disk N。数据的迁移是以磁盘为单位进行迁移,且迁移过程中迁移数据对应的Box的状态是可读不可写的迁移状态。
步骤S605、所述机群管理服务器200在接收到所述迁移完成消息后,修改所述迁移数据对应BoxDiskMap信息为目的分布式存储节点300磁盘的信息,并将该更新后的映射关系信息推送到所有的分布式存储节点300;
步骤S606、所述机群管理服务器200修改所述迁移数据对应所有的BoxStatus为正常状态,并将该状态信息推送到所有的分布式存储节点300。
磁盘数据迁移过程中,所迁移数据对应的Box与blk的逻辑映射关系没有改变,改变的是所迁移数据对应的Box与Disk及分布式存储节点300的物理映射关系。采用这样的数据迁移方法,使后台中数据的改变更为简单、透明。
如图8所示,示出了本发明一种应用于云计算的块存储***数据处理方法中Box***的一个实施例。Box***的过程具体包括以下步骤:
步骤S701、机群管理服务器200启动Box***操作,并向所有的分布式存储节点300发送数据复制指令;
所述Box***是针对机群中所有的Box进行的***操作。预先新配置的BoxRange是由管理员通过***OSS或***命令行对原已配置的BoxRange进行的修改。Box***的原理是将原来的Box M对应BoxRange[x~y),***为Box M'对应BoxRange[x~(x+y)/2)、Box N'对应BoxRange[(x+y)/2~y),并将原来Box M上对应BoxRange[(x+y)/2~y)的数据复制到Box N'上。
在所述Box***操作中,机群管理服务器200对于每一个待***的Box,根据预先新配置的BoxRange将所述待***的Box***为两个新的Box,使所述两个新的Box按编号顺序分别对应原Box的hash范围的前半部分和后半部分,然后向所有的分布式存储节点300发送数据复制指令。
步骤S702、所有的分布式存储节点300接收所述数据复制指令,并在执行完成后返回数据复制完成消息;
所有的分布式存储节点300接收所述机群管理服务器200发送的所述数据复制指令后,复制所述待***的Box的hash范围后半部分中的数据到编号对应原Box的hash范围的后半部分的新的Box,然后向所述机群管理服务器200返回数据复制完成消息;其中,编号对应原Box的hash范围前半部分的新的Box在***时已包含原Box的hash范围前半部分中的数据。
步骤S703、所述机群管理服务器200接收所述数据复制完成消息后,将预先新配置的BoxRange信息推送到所有的分布式存储节点300。
所述预先新配置的BoxRange是在步骤S701之前,由管理员修改配置值后同步到机群管理服务器200。
所述Box***方法是以原Box对应BoxRange进行的对半***,方法简单且易实现,机群的整个Box***操作所使用的时间也比较短。
如图9所示,示出了本发明一种应用于云计算的块存储***数据处理方法中Box合并的一个实施例。Box合并的过程具体包括以下步骤:
步骤S801、机群管理服务器200启动Box合并操作,并向所有的分布式存储节点300发送数据复制指令;
所述Box合并是针对机群中所有的按原来已配置的BoxRange相邻的两个Box进行的合并操作。预先新配置的BoxRange是由管理员通过***OSS或***命令行对所述原来已配置的BoxRange进行的修改。Box合并的原理是将原来的Box M对应BoxRange[x~y)、Box N对应BoxRange[y~z),合并为Box M'对应BoxRange[x~z),并将原来Box N上对应BoxRange[y~z)的数据复制到Box M'上。
在所述Box合并操作中,机群管理服务器200对于每一对按编号顺序相邻的两个待合并Box,根据预先新配置的BoxRange将所述两个待合并Box合并为一个新的Box,然后向所有的分布式存储节点300发送数据复制指令。
步骤S802、所有的分布式存储节点300接收所述数据复制指令,并在执行完成后返回数据复制完成消息;
所述分布式存储节点300接收所述数据复制指令后,复制顺序编号靠后的待合并Box中数据到所述新的Box,并向所述机群管理服务器200返回数据复制完成消息;其中,所述新的Box在合并时已包含顺序编号靠前的待合并Box中数据。
步骤S803、所述机群管理服务器200接收所述数据复制完成消息后,将预先新配置的BoxRange推送到所有的分布式存储节点300。
所述Box合并方法简单且易实现,机群的整个Box合并操作所使用的时间也比较短。
如图10所示,示出了本发明一种应用于云计算的块存储***数据处理方法中机群扩容的一个实施例。机群扩容的过程具体包括以下步骤:
步骤S901、新加入的分布式存储节点300进行初始化,并等待接收从机群管理服务器200发送的指令;
新加入机群的分布式存储节点300与机群中原有的分布式存储节点300的配置的软件套件一致,即新加入机群的分布式存储节点300预先配置有iSCSI initiator和iSCSI Target,也能够启动boxd应用。
步骤S902、所述机群管理服务器200将所述新加入的分布式存储节点300信息更新到BSN list、BoxDiskMap中;
步骤S903、所述机群管理服务器200将更新后的BSN list、BoxDiskMap,及TargetMap推送到所有的分布式存储节点300;
步骤S904、所述分布式存储节点300接收所述推送的所有信息;
步骤S905、所述新加入的分布式存储节点300根据更新后的BSN list信息将机群中所有其他的分布式存储节点300上的磁盘挂载到本地;
步骤S906、所述所有其他的分布式存储节点300根据更新后的BSN list信息将所有新加入的分布式存储节点300上的磁盘挂载到本地,并向所述机群管理服务器200返回确认消息;
步骤S907、所述新加入的分布式存储节点300根据TargetMap信息创建并启动iSCSI Target,并向所述机群管理服务器200返回确认消息;
步骤S908、所述机群管理服务器200接收到所有的分布式存储节点300返回的确认消息后,启动Box***操作;
步骤S909、所述机群管理服务器200在***操作完成后,将BSN list推送到所有的客户端100。
机群中分布式存储节点300采用双机备份模式,因而每次扩容增加的分布式存储节点300个数必须是偶数,且扩容后的服务器个数是现有机群服务器个数的2倍。
所述机群扩容是在Box***操作的基础上实现的,方法简单且易实现。
如图11所示,示出了本发明一种应用于云计算的块存储***数据处理方法中机群缩容的一个实施例。机群缩容的过程具体包括以下步骤:
步骤S1001、机群管理服务器200接收缩容指令,并启动Box合并操作;
在机群进行缩容之前,需要由管理员确认缩减后的分布式存储节点300机群是否能够满足存储数据的容量需求,还需要确认所要缩减的分布式存储节点300及其对应的Box。
所述机群管理服务器200接收的缩容指令,可以是由管理员通过***OSS发送,也可以是由管理员通过***命令行方式发送,包含了需裁撤的分布式存储节点300信息。
启动的Box合并操作如图9中步骤S801至S803所述。
步骤S1002、所述机群管理服务器200在合并操作完成后,修改BSN list,并将所述修改的BSN list与合并操作时修改的BoxDiskMap推送到所有的分布式存储节点300,将所述修改的BSN list推送到客户端100;
步骤S1003、所有的分布式存储节点300根据接收到的所述BSN list解挂需裁撤的分布式存储节点300映射到本地的iSCSI Target;
步骤S1004、所述客户端100根据接收到的所述BSN list进行判断,如果客户端100所挂载到的分布式存储节点300需被裁撤,则进行解挂并重新选择其他分布式存储节点300进行挂载。
所述机群缩容是在Box合并操作的基础上实现的,方法简单且易实现。
如图12所示,示出了本发明一种应用于云计算的块存储***数据处理方法中分布式存储节点300发现故障盘的一个实施例。分布式存储节点300发现故障盘的过程具体包括以下步骤:
步骤S1101、分布式存储节点300发现要访问的Box对应分布式存储节点300的磁盘异常,则隔离出现故障的磁盘;
所述磁盘异常包括所有不能正常访问该磁盘的情况。
分布式存储节点300隔离所述故障盘是指分布式存储节点300通过标记所述故障盘异常,暂停对所述故障盘的访问操作。
步骤S1102、分布式存储节点300向机群管理服务器200发送出现故障盘的消息;
步骤S1103、机群管理服务器200接收出现故障盘消息后,将故障盘上所有的BoxStatus设置为降级状态;
所述降级状态是指BoxStatus为可读不可写状态。
步骤S1104、在确定不是宕机情况后,机群管理服务器200发出换盘消息;
所述机群管理服务器200在接收所述磁盘故障通知后,对所涉及的磁盘进行宕机检测。在确定故障磁盘不是宕机情况后,机群管理服务器200通过***OSS平台通知管理员更换磁盘;在确定是宕机情况后,则转入图15所示的宕机情况处理步骤。
步骤S1105、机群管理服务器200将故障盘上所有的BoxStatus信息推送到所有的分布式存储节点300。
通过对所有的Box设置BoxStatus的方法,能够在发现磁盘出现异常时较快地保护该故障盘上的数据不被修改,从而避免数据的不一致。
如图13所示,示出了本发明一种应用于云计算的块存储***数据处理方法中分布式存储节点300发现丢盘的一个实施例。分布式存储节点300发现丢盘的过程具体包括以下步骤:
步骤S1201、分布式存储节点300发现要访问的Box对应分布式存储节点300的磁盘不可达时,向机群管理服务器200发送磁盘丢失的消息;
所述需要进行访问的分布式存储节点300上的磁盘不可达,是指挂载SBS盘的分布式存储节点300在与挂载到本地的所要访问数据对应分布式存储节点300上磁盘经过多次连接后仍通信失败的情况。
步骤S1202、机群管理服务器200接收磁盘丢失消息后,将故障盘上所有的BoxStatus设置为降级状态;
步骤S1203、在确定不是宕机情况后,机群管理服务器200发出换盘消息;
如果是宕机情况,则转入图15所示的宕机情况处理步骤。
步骤S1204、机群管理服务器200将故障盘上所有的BoxStatus信息推送到所有的分布式存储节点300。
通过对所有的Box设置BoxStatus的方法,能够在发现磁盘出现异常时较快地保护该故障盘上的数据不被修改,从而避免数据的不一致。
如图14所示,示出了本发明一种应用于云计算的块存储***数据处理方法中故障盘/丢盘情况下换盘后处理的一个实施例。故障盘/丢盘情况下换盘后处理的过程具体包括以下步骤:
步骤S1301、机群管理服务器200接收到换盘完成消息后,向换盘后的分布式存储节点300发送磁盘数据迁移指令;
所述机群管理服务器200接收到的换盘完成消息,是由管理员在后台更换磁盘后通过***OSS发送给机群管理服务器200的消息。
步骤S1302、换盘后的分布式存储节点300接收磁盘数据迁移指令并启动磁盘数据迁移操作,将其新磁盘的对等盘上数据复制到该新磁盘;
磁盘数据迁移操作是指如图7所示的所有步骤。
步骤S1303、数据迁移完成后,分布式存储节点300向机群管理服务器200返回数据迁移完成消息;
步骤S1304、机群管理服务器200接收到数据迁移完成消息后,设置新磁盘上所有的BoxStatus为正常状态,并将该状态信息推送到所有的分布式存储节点300。
磁盘数据迁移完成后,只需通过修改BoxStatus的值就能较快地将所述磁盘数据恢复为可读写状态,方法简单且易实现。
如图15所示,示出了本发明一种应用于云计算的块存储***数据处理方法中宕机情况处理的一个实施例。宕机情况处理的过程具体包括以下步骤:
步骤S1401、客户端100在访问时发现分布式存储节点300不可达后,向机群管理服务器200发送宕机检测请求的指令,同时客户端根据BSN list重新选择分布式存储节点300进行访问;
步骤S1402、分布式存储节点300在发现要访问的磁盘异常后,向机群管理服务器200发送磁盘异常通知,请求对所涉及磁盘进行宕机检测;
步骤S1403、机群管理服务器200接收所述宕机检测请求指令;
步骤S1404、机群管理服务器200根据所述宕机检测请求指令,对所涉及的分布式存储节点300进行心跳检测;
机群管理服务器200在进行心跳检测时,通过ping/pong所涉及的分布式存储节点300从而判断所述涉及的分布式存储节点300是否宕机。可以理解的是,该机群管理服务器200还可以启动定时检测功能,在定时检测功能启动后,机群管理服务器200将对所有的分布式存储节点300进行心跳检测。
步骤S1405、心跳检测失败后,机群管理服务器200设置宕机的分布式存储节点300上所有的BoxStatus为降级状态,并将该状态信息推送到所有的分布式存储节点300;
步骤S1406、机群管理服务器200将BSN list中宕机服务器的信息设置为NULL,并将更新后的BSN list推送到所有的分布式存储节点300和客户端100;
步骤S1407、机群管理服务器200发送宕机通知消息。
通过修改宕机分布式存储节点300的BoxStatus值及BSN list即可隔离所述宕机分布式存储节点300,方法简单且易实现。
如图16所示,示出了本发明一种应用于云计算的块存储***数据处理方法中宕机恢复后处理的一个实施例。宕机恢复后处理的过程具体包括以下步骤:
步骤S1501、恢复的分布式存储节点300进行初始化,并等待接收从机群管理服务器200发送的指令;
所述恢复的分布式存储节点300可以是经过修复后的宕机分布式存储节点300本身,也可以是用于替换宕机分布式存储节点300的新分布式存储节点300。所述用于替换宕机分布式存储节点300的新分布式存储节点300上配置的软件套件与宕机分布式存储节点300完全一致。
步骤S1502、机群管理服务器200接收到宕机恢复消息后,向恢复的分布式存储节点300发送磁盘数据迁移指令;
所述机群管理服务器200收到的宕机恢复消息是由管理员在修复或更换宕机分布式存储节点300后通过***OSS或***命令行发送的消息。
步骤S1503、所述恢复的分布式存储节点300接收磁盘数据迁移指令,并启动磁盘数据迁移操作;
磁盘数据迁移操作是指如图7所示的步骤。所述恢复后的分布式存储节点300在接收到机群管理服务器200发送的磁盘数据迁移指令后,将预先配置的所述恢复后的分布式存储节点300的对等机上的数据迁移到所述恢复后的分布式存储节点300。
步骤S1504、所述恢复的分布式存储节点300向所述机群管理服务器200返回数据迁移完成消息;
步骤S1505、机群管理服务器200接收到数据迁移完成消息后,发送宕机恢复消息,并将BSN list、BoxDiskMap、TargetMap推送到所有的分布式存储节点300;
步骤S1506、所有的分布式存储节点300收到宕机恢复消息后,恢复的分布式存储节点300挂载所有其他的分布式存储节点300上的磁盘,所有其他的分布式存储节点300挂载恢复的分布式存储节点300上的磁盘;
步骤S1507、恢复的分布式存储节点300根据接收的TargetMap信息创建iSCSI Target;
步骤S1508、所述恢复的分布式存储节点300在创建完成后,向机群管理服务器200返回完成消息;
步骤S1509、机群管理服务器200接收到所有的分布式存储节点300返回的完成消息后,设置恢复的分布式存储节点300上所有的BoxStatus为正常状态;
步骤S1510、所述机群管理服务器200将所述设置的BoxStatus信息推送到所有的分布式存储节点300;
步骤S1511、机群管理服务器200更新BSN list,并将该更新后的分组列表推送到所有的客户端100。
宕机恢复后的处理操作步骤简单易实现,且很好地保持了机群中数据的一致性。
以上所述仅为本发明的优选实施例,并非因此限制其专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (19)

1.一种云计算块存储***,其特征在于,所述***包括客户端、机群管理服务器和分布式存储节点集群;其中,
所述机群管理服务器存储有分布式存储节点分组列表;
所述分布式存储节点集群包含多个分布式存储节点,用于提供大容量存储空间;
所述客户端用于从所述机群管理服务器中获取所存储的分布式存储节点分组列表,并根据该分组列表信息直接访问任一所述分布式存储节点。
2.如权利要求1所述的***,其特征在于,所述分布式存储节点上挂载有磁盘,该磁盘包括固定大小的多个逻辑存储单元,每个逻辑存储单元包括固定大小的多个块存储单元;
所述机群管理服务器还用于:
预先配置并存储分布式存储节点分组列表信息、逻辑存储单元与分布式存储节点分组及磁盘的映射关系信息、逻辑存储单元的hash范围信息、iSCSITarget与块存储单元的映射关系信息,并将所配置的所有配置信息推送到所有的分布式存储节点;
所述分布式存储节点还用于:
将所有其他分布式存储节点上的磁盘挂载到本地;若iSCSI Target与块存储单元的映射关系信息非空,则创建并启动iSCSI Target。
3.如权利要求2所述的***,其特征在于,所述机群管理服务器还用于:
根据创建块存储盘请求指令,分配新的iSCSI Target与块存储单元的映射关系,并将所有已分配的iSCSI Target与块存储单元的映射关系推送到所有的分布式存储节点;在接收到所述分布式存储节点返回的确认消息后,返回新分配的iSCSI Target与块存储单元的映射关系对应的iSCSI Target编号;
所述分布式存储节点还用于:
根据所述机群管理服务器推送的iSCSI Target与块存储单元的映射关系,创建iSCSI Target,并返回确认消息。
4.如权利要求2所述的***,其特征在于,所述客户端还用于:
根据块存储盘挂载指令,将所述块存储盘挂载指令对应的块存储盘挂载在所述分布式存储节点分组列表中的任一分布式存储节点。
5.如权利要求2所述的***,其特征在于,所述机群管理服务器还用于:
接收到磁盘数据迁移指令后,根据所述磁盘数据迁移指令存储源分布式存储节点及源磁盘信息、目的分布式存储节点及目的磁盘信息,并将源磁盘对应的磁盘逻辑存储单元的状态置为迁移状态,将该迁移状态推送到所有的分布式存储节点;向源分布式存储节点发送磁盘数据迁移指令;在所述源分布式存储节点数据迁移完成后,将源磁盘对应的逻辑存储单元的状态置为正常状态,并将该正常状态推送到所有的分布式存储节点;在所述源分布式存储节点数据迁移完成后,更新逻辑存储单元与分布式存储节点分组及磁盘的映射关系并推送到所有的分布式存储节点;
所述分布式存储节点还用于:
在接收到所述机群管理服务器发送的磁盘数据迁移指令时,根据该磁盘数据迁移指令,将所述源分布式存储节点磁盘上数据复制到所述目的分布式存储节点对应的磁盘。
6.如权利要求2所述的***,其特征在于,所述机群管理服务器还用于:
启动逻辑存储单元***操作时,对于每一个待***的逻辑存储单元,根据预先新配置的逻辑存储单元的hash范围将所述待***的逻辑存储单元***为两个新的逻辑存储单元,使所述两个新的逻辑存储单元按编号顺序分别对应原逻辑存储单元的hash范围的前半部分和后半部分,并向所有的分布式存储节点发送数据复制指令;在接收到所述分布式存储节点返回的数据复制完成消息后,将预先新配置的逻辑存储单元的hash范围推送到所有的分布式存储节点;
所述分布式存储节点还用于:
接收所述机群管理服务器发送的所述数据复制指令,复制所述待***的逻辑存储单元的hash范围后半部分中的数据到编号对应原逻辑存储单元的hash范围的后半部分的新的逻辑存储单元,并向所述机群管理服务器返回数据复制完成消息;其中,编号对应原逻辑存储单元的hash范围前半部分的新的逻辑存储单元在***时已包含原逻辑存储单元的hash范围前半部分中的数据。
7.如权利要求2所述的***,其特征在于,所述机群管理服务器还用于:
启动逻辑存储单元合并操作时,对于每一对按编号顺序相邻的两个待合并逻辑存储单元,根据预先新配置的逻辑存储单元的hash范围将所述两个待合并逻辑存储单元合并为一个新的逻辑存储单元,并向所有的分布式存储节点发送数据复制指令;在接收到所述分布式存储节点返回的数据复制完成消息后,将预先新配置的逻辑存储单元的hash范围推送到所有的分布式存储节点;
所述分布式存储节点还用于:
接收所述机群管理服务器发送的所述数据复制指令,复制顺序编号靠后的待合并逻辑存储单元中数据到所述新的逻辑存储单元,并向所述机群管理服务器返回数据复制完成消息;其中,所述新的逻辑存储单元在合并时已包含顺序编号靠前的待合并逻辑存储单元中数据。
8.如权利要求6所述的***,其特征在于,所述机群管理服务器还用于:
接收扩容指令后,当存在新加入的分布式存储节点时,将预先配置的所述新加入的分布式存储节点的分组列表信息、逻辑存储单元与所述新加入的分布式存储节点分组及磁盘的映射关系信息存储在机群管理服务器;将所有分布式存储节点的分组列表信息、所有的逻辑存储单元与分布式存储节点分组及磁盘的映射关系信息、所有的iSCSI Target与块存储单元的映射关系信息推送到所有的分布式存储节点;在接收到所述分布式存储节点返回的确认消息后,启动逻辑存储单元***操作,并在逻辑存储单元***完成后,将分布式存储节点分组列表推送到所述客户端;
所述分布式存储节点还用于:
当该分布式存储节点为原来有的分布式存储节点时,将新加入的分布式存储节点上的磁盘挂载到本地;当该分布式存储节点为新加入的分布式存储节点时,将所有其他的分布式存储节点上的磁盘挂载到本地,并根据所述iSCSI Target与块存储单元的映射关系信息,创建并启动iSCSI Target。
9.如权利要求7所述的***,其特征在于,所述机群管理服务器还用于:
接收缩容指令并启动逻辑存储单元合并操作,其中,所述缩容指令包含需裁撤的分布式存储节点信息;在合并操作完成后,修改分布式存储节点分组列表,并将所述修改的分布式存储节点分组列表与合并操作时修改的逻辑存储单元与分布式存储节点分组及磁盘的映射关系推送到所有的分布式存储节点,将所述修改的分布式存储节点分组列表推送到客户端;
所述分布式存储节点还用于:
根据接收到的所述分布式存储节点分组列表信息解挂需裁撤的分布式存储节点映射到本地的iSCSI Target;
所述客户端还用于:
根据接收到的所述分布式存储节点分组列表信息进行判断,如果客户端所挂载到的分布式存储节点需被裁撤,则进行解挂并重新选择其他分布式存储节点进行挂载。
10.一种云计算块存储***的数据处理方法,其特征在于,所述数据处理方法包括以下步骤:
客户端向所述机群管理服务器发送获取分布式存储节点分组列表的请求指令;
所述机群管理服务器根据所述分布式存储节点分组列表获取请求指令,向客户端返回所述分布式存储节点分组列表;
所述客户端根据所述分布式存储节点分组列表,与所述分布存储节点直接进行数据交互。
11.如权利要求10所述的方法,其特征在于,所述数据处理方法还包括以下步骤:
所述分布式存储节点根据配置的iSCSI Target将本地磁盘映射到iSCSITarget;
所述机群管理服务器存储预先配置的分布式存储节点分组列表信息、逻辑存储单元与分布式存储节点分组及磁盘的映射关系信息、逻辑存储单元的hash范围信息,在所述分布式存储节点没有重启的情况下,将所述所有的信息推送到所有的分布式存储节点;
如果所述分布式存储节点进行了重启,则所述机群管理服务器将存储的分布式存储节点分组列表信息、逻辑存储单元与分布式存储节点分组及磁盘的映射关系信息、逻辑存储单元的hash范围信息、iSCSI Target与块存储单元的映射关系信息推送到所有的分布式存储节点;
所述分布式存储节点接收所述推送的信息,并根据分布式存储节点分组列表信息,将机群中所有其他分布式存储节点上的磁盘挂载到本地;
所述分布式存储节点对于所接收到的iSCSI Target与块存储单元的映射关系信息,如果iSCSI Target与块存储单元的映射关系非空,则创建并启动iSCSI Target。
12.如权利要求10所述的方法,其特征在于,所述数据处理方法还包括以下步骤:
所述机群管理服务器接收创建块存储盘请求指令;
所述机群管理服务器根据所述创建请求指令为所述客户端分配新的iSCSI Target与块存储单元的映射关系,然后将所有已分配的iSCSI Target与块存储单元的映射关系信息推送到所有的分布式存储节点;
所述分布式存储节点接收推送的所述iSCSI Target与块存储单元的映射关系信息,如果iSCSI Target与块存储单元的映射关系非空,则创建iSCSITarget,并向机群管理服务器返回确认消息;
所述机群管理服务器接收到所述确认消息后,返回所述新分配的iSCSITarget与块存储单元的映射关系对应的iSCSI Target编号。
13.如权利要求10所述的方法,其特征在于,所述数据处理方法还包括以下步骤:
所述客户端根据配置在本地的所述机群管理服务器访问地址,向机群管理服务器发送获取分布式存储节点分组列表的请求指令;
所述机群管理服务器在收到所述请求指令后,将分布式存储节点分组列表返回给所述客户端;
所述客户端从所述分布式存储节点分组列表中选择一个分布式存储节点挂载创建的块存储盘;
如果所选分布式存储节点处于非活跃状态或者找不到对应的iSCSITarget,则客户端另选分布式存储节点。
14.如权利要求10所述的方法,其特征在于,所述数据处理方法还包括以下步骤:
所述机群管理服务器接收回收块存储盘请求的指令;
所述机群管理服务器删除所述块存储盘对应的iSCSI Target与块存储单元的映射关系,并将所有其他存在的iSCSI Target与块存储单元的映射关系信息推送到所有的分布式存储节点;
所述分布式存储节点接收所述iSCSI Target与块存储单元的映射关系信息,删除不存在的iSCSI Target与块存储单元的映射关系对应的iSCSI Target,并向所述机群管理服务器返回确认消息;
所述机群管理服务器接收所述确认消息后,返回回收成功的确认消息。
15.如权利要求10所述的方法,其特征在于,所述数据处理方法还包括以下步骤:
所述机群管理服务器接收磁盘数据迁移指令,根据该指令确定对应的源分布式存储节点及源磁盘、目的分布式存储节点及目的磁盘;
所述机群管理服务器将需要进行数据迁移的磁盘对应的所有逻辑存储单元的状态设置为迁移状态,并将所述状态信息推送到所有的分布式存储节点;
所述机群管理服务器向源分布式存储节点下发磁盘数据迁移指令;
所述源分布式存储节点接收所述磁盘数据迁移指令,根据该指令将需进行迁移的磁盘上的数据以磁盘为单位复制到所述目的分布式存储节点对应的磁盘上,并向所述机群管理服务器返回迁移完成消息;
所述机群管理服务器在接收到所述迁移完成消息后,修改所述迁移数据对应逻辑存储单元与分布式存储节点分组及磁盘的映射关系信息为目的分布式存储节点磁盘的信息,并将该更新后的映射关系信息推送到所有的分布式存储节点;
所述机群管理服务器修改所述迁移数据对应所有的逻辑存储单元的状态为正常状态,并将该状态信息推送到所有的分布式存储节点。
16.如权利要求10所述的方法,其特征在于,所述数据处理方法还包括以下步骤:
所述机群管理服务器对于每一个待***的逻辑存储单元,根据预先新配置的逻辑存储单元的hash范围将所述待***的逻辑存储单元***为两个新的逻辑存储单元,使所述两个新的逻辑存储单元按编号顺序分别对应原逻辑存储单元的hash范围的前半部分和后半部分,并向所有的分布式存储节点发送数据复制指令;
所述分布式存储节点接收所述机群管理服务器发送的所述数据复制指令,复制所述待***的逻辑存储单元的hash范围后半部分中的数据到编号对应原逻辑存储单元的hash范围的后半部分的新的逻辑存储单元,并向所述机群管理服务器返回数据复制完成消息;
所述机群管理服务器在接收到所述分布式存储节点返回的数据复制完成消息后,将预先新配置的逻辑存储单元的hash范围推送到所有的分布式存储节点。
17.如权利要求10所述的方法,其特征在于,所述数据处理方法还包括以下步骤:
所述机群管理服务器对于每一对按编号顺序相邻的两个待合并逻辑存储单元,根据预先新配置的逻辑存储单元的hash范围将所述两个待合并逻辑存储单元合并为一个新的逻辑存储单元,并向所有的分布式存储节点发送数据复制指令;
所述分布式存储节点接收所述机群管理服务器发送的所述数据复制指令,复制顺序编号靠后的待合并逻辑存储单元中数据到所述新的逻辑存储单元,并向所述机群管理服务器返回数据复制完成消息;
所述机群管理服务器在接收到所述分布式存储节点返回的数据复制完成消息后,将预先新配置的逻辑存储单元的hash范围推送到所有的分布式存储节点。
18.如权利要求16所述的方法,其特征在于,所述数据处理方法还包括以下流程:
新加入的分布式存储节点进行初始化,并等待接收从所述机群管理服务器发送的指令;
所述机群管理服务器接收扩容指令后,将所述新加入的分布式存储节点信息更新到分布式存储节点分组列表、逻辑存储单元与分布式存储节点分组及磁盘的映射关系中;
所述机群管理服务器将更新后的分布式存储节点分组列表、逻辑存储单元与分布式存储节点分组及磁盘的映射关系,及iSCSI Target与块存储单元的映射关系推送到所有的分布式存储节点;
所述分布式存储节点接收所述推送的所有信息;
所述新加入的分布式存储节点根据更新后的分布式存储节点分组列表信息将机群中所有其他的分布式存储节点上的磁盘挂载到本地,所有其他的分布式存储节点根据更新后的分布式存储节点分组列表信息将所有新加入的分布式存储节点上的磁盘挂载到本地,所有的分布式存储节点在完成磁盘挂载后向所述机群管理服务器返回确认消息;
所述新加入的分布式存储节点根据iSCSI Target与块存储单元的映射关系信息创建并启动iSCSI Target,并向所述机群管理服务器返回确认消息;
所述机群管理服务器接收到所有的分布式存储节点返回的确认消息后,启动逻辑存储单元***操作;
所述机群管理服务器在***操作完成后,将分布式存储节点分组列表推送到所有的客户端。
19.如权利要求17所述的方法,其特征在于,所述数据处理方法还包括以下步骤:
所述机群管理服务器接收缩容指令,根据所述缩容指令确定需要缩减的分布式存储节点对应的逻辑存储单元;
所述机群管理服务器启动逻辑存储单元合并操作;
所述机群管理服务器在合并操作完成后,修改分布式存储节点分组列表,并将所述修改的分布式存储节点分组列表与合并操作时修改的逻辑存储单元与分布式存储节点分组及磁盘的映射关系推送到所有的分布式存储节点,将所述修改的分布式存储节点分组列表推送到客户端;
所述分布式存储节点根据接收到的所述分布式存储节点分组列表信息解挂需裁撤的分布式存储节点映射到本地的iSCSI Target;
所述客户端根据接收到的所述分布式存储节点分组列表信息进行判断,如果客户端所挂载到的分布式存储节点需被裁撤,则进行解挂并重新选择其他分布式存储节点进行挂载。
CN201510308773.0A 2015-06-05 2015-06-05 应用于云计算的块存储***及方法 Active CN106302607B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510308773.0A CN106302607B (zh) 2015-06-05 2015-06-05 应用于云计算的块存储***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510308773.0A CN106302607B (zh) 2015-06-05 2015-06-05 应用于云计算的块存储***及方法

Publications (2)

Publication Number Publication Date
CN106302607A true CN106302607A (zh) 2017-01-04
CN106302607B CN106302607B (zh) 2019-08-16

Family

ID=57659477

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510308773.0A Active CN106302607B (zh) 2015-06-05 2015-06-05 应用于云计算的块存储***及方法

Country Status (1)

Country Link
CN (1) CN106302607B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107181757A (zh) * 2017-06-27 2017-09-19 新浪网技术(中国)有限公司 支持认证和协议转换的Memcache代理方法、装置及***
CN107391050A (zh) * 2017-09-14 2017-11-24 郑州云海信息技术有限公司 一种数据迁移方法、***、装置和计算机可读存储介质
CN108170381A (zh) * 2017-12-28 2018-06-15 湖南国科微电子股份有限公司 一种SLC Block到XLC Block数据迁移方法
CN108199896A (zh) * 2018-01-16 2018-06-22 中电福富信息科技有限公司 基于RabbitMQ的分布式消息发布***
CN108804711A (zh) * 2018-06-27 2018-11-13 郑州云海信息技术有限公司 一种数据处理的方法、装置和计算机可读存储介质
WO2019033949A1 (zh) * 2017-08-18 2019-02-21 阿里巴巴集团控股有限公司 一种数据的迁移方法、装置及设备
CN110198269A (zh) * 2018-04-03 2019-09-03 腾讯科技(深圳)有限公司 分布式机群的路由同步***、方法及相关装置
CN111026720A (zh) * 2019-12-20 2020-04-17 深信服科技股份有限公司 一种文件处理方法、***及相关设备
CN111125011A (zh) * 2019-12-20 2020-05-08 深信服科技股份有限公司 一种文件处理方法、***及相关设备
CN111666035A (zh) * 2019-03-05 2020-09-15 阿里巴巴集团控股有限公司 一种分布式存储***的管理方法及装置
CN111857603A (zh) * 2020-07-31 2020-10-30 重庆紫光华山智安科技有限公司 数据处理方法及相关装置
CN112448985A (zh) * 2019-09-02 2021-03-05 阿里巴巴集团控股有限公司 分布式***、网络处理方法和装置以及电子设备
CN113986522A (zh) * 2021-08-29 2022-01-28 中盾创新数字科技(北京)有限公司 一种基于负载均衡的分布式存储服务器扩容***
WO2022095638A1 (zh) * 2020-11-09 2022-05-12 苏州浪潮智能科技有限公司 基于分组的分布式存储scsi目标服务管理方法、***
WO2023109554A1 (zh) * 2021-12-14 2023-06-22 中兴通讯股份有限公司 分布式***的数据处理方法、***、节点和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101753617A (zh) * 2009-12-11 2010-06-23 中兴通讯股份有限公司 一种云存储***和方法
CN102546823A (zh) * 2012-02-18 2012-07-04 南京云创存储科技有限公司 一种云存储***的文件存储管理***
CN102594852A (zh) * 2011-01-04 2012-07-18 ***通信集团公司 数据访问方法、节点及***
CN104572344A (zh) * 2013-10-29 2015-04-29 杭州海康威视***技术有限公司 一种多云间数据备份的方法和***
CN104679665A (zh) * 2013-12-02 2015-06-03 中兴通讯股份有限公司 一种实现分布式文件***块存储的方法及***
CN105025053A (zh) * 2014-04-24 2015-11-04 苏宁云商集团股份有限公司 基于云存储技术的分布式文件的上传方法及其***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101753617A (zh) * 2009-12-11 2010-06-23 中兴通讯股份有限公司 一种云存储***和方法
CN102594852A (zh) * 2011-01-04 2012-07-18 ***通信集团公司 数据访问方法、节点及***
CN102546823A (zh) * 2012-02-18 2012-07-04 南京云创存储科技有限公司 一种云存储***的文件存储管理***
CN104572344A (zh) * 2013-10-29 2015-04-29 杭州海康威视***技术有限公司 一种多云间数据备份的方法和***
CN104679665A (zh) * 2013-12-02 2015-06-03 中兴通讯股份有限公司 一种实现分布式文件***块存储的方法及***
CN105025053A (zh) * 2014-04-24 2015-11-04 苏宁云商集团股份有限公司 基于云存储技术的分布式文件的上传方法及其***

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107181757A (zh) * 2017-06-27 2017-09-19 新浪网技术(中国)有限公司 支持认证和协议转换的Memcache代理方法、装置及***
WO2019033949A1 (zh) * 2017-08-18 2019-02-21 阿里巴巴集团控股有限公司 一种数据的迁移方法、装置及设备
CN107391050A (zh) * 2017-09-14 2017-11-24 郑州云海信息技术有限公司 一种数据迁移方法、***、装置和计算机可读存储介质
CN108170381A (zh) * 2017-12-28 2018-06-15 湖南国科微电子股份有限公司 一种SLC Block到XLC Block数据迁移方法
CN108170381B (zh) * 2017-12-28 2021-01-01 湖南国科微电子股份有限公司 一种SLC Block到XLC Block数据迁移方法
CN108199896A (zh) * 2018-01-16 2018-06-22 中电福富信息科技有限公司 基于RabbitMQ的分布式消息发布***
CN110198269A (zh) * 2018-04-03 2019-09-03 腾讯科技(深圳)有限公司 分布式机群的路由同步***、方法及相关装置
CN110198269B (zh) * 2018-04-03 2021-10-08 腾讯科技(深圳)有限公司 分布式机群的路由同步***、方法及相关装置
CN108804711B (zh) * 2018-06-27 2022-12-06 郑州云海信息技术有限公司 一种数据处理的方法、装置和计算机可读存储介质
CN108804711A (zh) * 2018-06-27 2018-11-13 郑州云海信息技术有限公司 一种数据处理的方法、装置和计算机可读存储介质
CN111666035B (zh) * 2019-03-05 2023-06-20 阿里巴巴集团控股有限公司 一种分布式存储***的管理方法及装置
CN111666035A (zh) * 2019-03-05 2020-09-15 阿里巴巴集团控股有限公司 一种分布式存储***的管理方法及装置
CN112448985A (zh) * 2019-09-02 2021-03-05 阿里巴巴集团控股有限公司 分布式***、网络处理方法和装置以及电子设备
CN112448985B (zh) * 2019-09-02 2022-07-15 阿里巴巴集团控股有限公司 分布式***、网络处理方法和装置以及电子设备
CN111125011A (zh) * 2019-12-20 2020-05-08 深信服科技股份有限公司 一种文件处理方法、***及相关设备
CN111125011B (zh) * 2019-12-20 2024-02-23 深信服科技股份有限公司 一种文件处理方法、***及相关设备
CN111026720A (zh) * 2019-12-20 2020-04-17 深信服科技股份有限公司 一种文件处理方法、***及相关设备
CN111026720B (zh) * 2019-12-20 2023-05-12 深信服科技股份有限公司 一种文件处理方法、***及相关设备
CN111857603A (zh) * 2020-07-31 2020-10-30 重庆紫光华山智安科技有限公司 数据处理方法及相关装置
CN111857603B (zh) * 2020-07-31 2022-12-02 重庆紫光华山智安科技有限公司 数据处理方法及相关装置
WO2022095638A1 (zh) * 2020-11-09 2022-05-12 苏州浪潮智能科技有限公司 基于分组的分布式存储scsi目标服务管理方法、***
CN113986522A (zh) * 2021-08-29 2022-01-28 中盾创新数字科技(北京)有限公司 一种基于负载均衡的分布式存储服务器扩容***
WO2023109554A1 (zh) * 2021-12-14 2023-06-22 中兴通讯股份有限公司 分布式***的数据处理方法、***、节点和存储介质

Also Published As

Publication number Publication date
CN106302607B (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
CN106302607A (zh) 应用于云计算的块存储***及方法
CN112099918B (zh) 容器化环境中的集群的实时迁移
US20200358848A1 (en) Methods, systems, and media for providing distributed database access during a network split
US10713134B2 (en) Distributed storage and replication system and method
US11647075B2 (en) Commissioning and decommissioning metadata nodes in a running distributed data storage system
EP3433741B1 (en) Hybrid garbage collection in a distrubuted storage system
CN103354923B (zh) 一种数据重建方法、装置和***
US9639437B2 (en) Techniques to manage non-disruptive SAN availability in a partitioned cluster
US8533231B2 (en) Cloud storage system with distributed metadata
CN105814544B (zh) 用于支持分布式数据网格中的持久化分区恢复的***和方法
CN104216801B (zh) 一种面向虚拟化环境的数据复制方法及***
US20190075084A1 (en) Distributed Lock Management Method, Apparatus, and System
CN111078121A (zh) 一种分布式存储***数据迁移方法、***、及相关组件
CN113010496B (zh) 一种数据迁移方法、装置、设备和存储介质
US10021186B2 (en) Guaranteed delivery of replication message
EP3788489B1 (en) Data replication in a distributed storage system
US11226758B2 (en) Volume migration using cross-appliance asymmetric namespace access group
US10031682B1 (en) Methods for improved data store migrations and devices thereof
CN113220795B (zh) 基于分布式存储的数据处理方法、装置、设备以及介质
US10585627B2 (en) Distributed metadata management in a distributed storage system
CN105740049B (zh) 一种控制方法及装置
CN110535947A (zh) 一种存储设备集群配置节点切换方法、装置及设备
CN104951475A (zh) 分布式文件***和实现方法
KR20130038517A (ko) 분산된 컨테이너들을 사용하여 데이터를 관리하는 시스템 및 방법
KR101673882B1 (ko) 내장 디스크를 이용한 고가용성 가상화 기반 스토리지 시스템 및 이것의 동작방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210924

Address after: 518000 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 Floors

Patentee after: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd.

Patentee after: TENCENT CLOUD COMPUTING (BEIJING) Co.,Ltd.

Address before: 2, 518000, East 403 room, SEG science and Technology Park, Zhenxing Road, Shenzhen, Guangdong, Futian District

Patentee before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd.

TR01 Transfer of patent right