CN106648464A - 基于云存储的多节点混合块缓存数据读写方法及*** - Google Patents

基于云存储的多节点混合块缓存数据读写方法及*** Download PDF

Info

Publication number
CN106648464A
CN106648464A CN201611199823.7A CN201611199823A CN106648464A CN 106648464 A CN106648464 A CN 106648464A CN 201611199823 A CN201611199823 A CN 201611199823A CN 106648464 A CN106648464 A CN 106648464A
Authority
CN
China
Prior art keywords
cache
block
client
disk
read
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611199823.7A
Other languages
English (en)
Other versions
CN106648464B (zh
Inventor
邓篪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bo Domain Information Technology (shanghai) Co Ltd
Original Assignee
Bo Domain Information Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bo Domain Information Technology (shanghai) Co Ltd filed Critical Bo Domain Information Technology (shanghai) Co Ltd
Priority to CN201611199823.7A priority Critical patent/CN106648464B/zh
Publication of CN106648464A publication Critical patent/CN106648464A/zh
Application granted granted Critical
Publication of CN106648464B publication Critical patent/CN106648464B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种基于云存储的多节点混合块缓存数据读写方法及***。该方法包括:任一缓存客户端接收虚拟磁盘设备发出的通用块层读写请求,其中虚拟磁盘设备由该缓存客户端的本地缓存磁盘、与该缓存客户端位于同一局域网内的其它缓存客户端和元数据服务器端的源存储磁盘映射得到,所述通用层读写请求中包含读写磁盘起始扇区位置;该缓存客户端采用预定义的缓存策略将所述通用块层读写请求转发到相应物理磁盘设备进行处理。本发明实施例提供一种适用于多虚拟机实例共享使用多结点网络混合缓存***,实现虚拟机实例对块级别云存储的读写性能的改进,最终实现云存储I/O性能的总体提升,保证整个云存储***的稳定、安全运行。

Description

基于云存储的多节点混合块缓存数据读写方法及***
技术领域
本发明实施例涉及云存储技术领域,尤其涉及基于云存储的多节点混合块缓存数据读写方法及***。
背景技术
云计算是一种利用虚拟化技术,通过互联网向用户提供可动态扩展共享软硬件资源的服务。云计算的动态、弹性等特性使得用户能够按需使用并按使用资源数量付费,用户可以依据当前服务的负载情况,动态调整资源使用量,以减少资源浪费。云存储***是云计算***的一个重要组成部分。从技术的角度说,云存储***实际上就是一个大型的分布式的网络存储***,它是一种特殊的共享存储。实际使用的云存储***主要可以分为对象存储和块存储两类。其中块存储(Cinder)主要用于向虚拟机实例提供扩展的磁盘存储空间,并具有持久化的数据存储特性,其后端可通过drivers支持多种存储,如Ceph、Net App、Ocean Stor、Nexenta、Solid Fire以及Zadara等。
现今的云计算***往往拥有多个大型数据中心,均有各自的块级别云存储子***,并分布于多地。由于两个数据中心之间的网络带宽限制,当虚拟机实例与云存储子***处在不同数据中心时,将严重影响存储***的I/O性能,影响虚拟机实例的稳定运行,最终影响虚拟机实例的稳定高效运行。
发明内容
本发明实施例提供基于云存储的多节点混合块缓存数据读写方法及***,以提高缓存数据读写的效率。
一方面,本发明实施例提供了一种基于云存储的多节点混合块缓存数据读写方法,包括:
任一缓存客户端接收虚拟磁盘设备发出的通用块层读写请求,其中虚拟磁盘设备由该缓存客户端的本地缓存磁盘、与该缓存客户端位于同一局域网内的其它缓存客户端和元数据服务器端的源存储磁盘映射得到,所述通用层读写请求中包含读写磁盘起始扇区位置;
该缓存客户端采用预定义的缓存策略将所述通用块层读写请求转发到相应物理磁盘设备进行处理。
另一方面,本发明实施例还提供了基于云存储的多节点混合块缓存数据读写***,包括元数据服务器端和多个位于同一局域网内的缓存客户端;
缓存客户端用于接收虚拟磁盘设备发出的通用块层读写请求,并采用预定义的缓存策略将所述通用块层读写请求转发到相应物理磁盘设备进行处理,所述通用层读写请求中包含读写磁盘起始扇区位置;
其中虚拟磁盘设备由该缓存客户端的本地缓存磁盘、与该缓存客户端位于同一局域网内的其它缓存客户端和元数据服务器端的源存储磁盘映射得到,所述通用层读写请求中包含读写磁盘起始扇区位置。
本发明实施例提供的技术方案,针对网络带宽对分布式云存储产生的数据读写这一瓶颈问题,提出在局域网模式上,采用多节点混合块缓冲数据读写的方法,实现对块级别云存储的读写性能的改进,最终实现云存储I/O性能的总体提升,保证整个云存储***的稳定、安全运行。
附图说明
图1为本发明实施例一中提供的一种基于云存储的多节点混合块缓存数据读写方法的流程图;
图2为本发明实施例中提供的基于云存储的多节点混合块缓存数据读写***的框架图;
图3为本发明实施例中提供的元数据服务器端的结构图;
图4为本发明实施例中提供的缓存客户端的结构图;
图5为本发明实施例中提供的缓存写入策略示意图;
图6为本发明实施例中提供的测试环境拓扑图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
图1为本发明实施例中提供的一种基于云存储的多节点混合块缓存数据读写方法的流程图。本实施例的方法可以由基于云存储的多节点混合块缓存数据读写***执行。参考图1,该基于云存储的多节点混合块缓存数据读写方法具体可以包括如下:
步骤11、任一缓存客户端接收虚拟磁盘设备发出的通用块层读写请求。
其中,虚拟磁盘设备由该缓存客户端的本地缓存磁盘、与该缓存客户端位于同一局域网内的其它缓存客户端和元数据服务器端的源存储磁盘映射得到,所述通用层读写请求中包含读写磁盘起始扇区位置。
参考图2,该缓存***可以包括一个元数据服务器端以及多个位于同一局域网内的缓存客户端。元数据服务器端内的源存储磁盘由外部网络通过iSCSI(Internet SmallComputer System Interface,小型计算机***接口)协议连接到局域网内所有缓存客户端,供所有缓存客户端共享使用。各缓存客户端的本地缓存磁盘同样通过iSCSI协议连接到其它缓存客户端,供其它缓存客户端对远端缓存数据进行读写。并且,各缓存客户端使用缓存客户端程序将本地缓存磁盘、多个远端缓存磁盘(即局域网中的其它缓存客户端节点,可以是一个服务器或多个磁盘阵列)以及源存储磁盘映射成为一个带有缓存功能的虚拟磁盘设备。此虚拟磁盘设备与源存储磁盘拥有相同容量,用户使用虚拟磁盘设备替代源存储磁盘。缓存客户端程序将该虚拟磁盘设备的块I/O转发,由相应缓存磁盘或源存储磁盘进行处理,实现缓存功能。
参考图3,元数据服务器端主要为各缓存客户端提供所有缓存客户端节点的缓存命中情况查询功能,通过同步请求实现与各缓存客户端的元数据同步。而缓存客户端则负责实现实际的缓存功能通过预定义的缓存策略及与元数据服务器端通信实现缓存功能。
元数据服务器端负责集中处理各缓存客户端的元数据并提供缓存命中查询服务。元数据服务器端的实现主要包括三个步骤:
第一、初始化配置。元数据服务器端在初始化时记录各缓存客户端的缓存块大小、缓存块数量、缓存写入策略等缓存参数,以及各缓存客户端节点编号、IP地址等配置信息。
第二、元数据同步。存储各缓存客户端节点中与缓存命中查询相关的部分元数据(包括各缓存块的状态信息、缓存块对应的源存储磁盘起始扇区信息等),元数据服务器端通过接收各缓存客户端的元数据同步请求,进行服务器端的元数据更新操作。
第三,缓存命中查询。元数据服务器向各缓存客户端提供缓存命中查询服务,接收缓存客户端的查询请求(包括缓存块的起始扇区信息等)并返回查询结果(缓存块所在的客户端编号、状态信息等)。缓存的元数据服务器端与客户端的元数据同步以及缓存命中查询均通过UDP(User Datagram Protocol,用户数据报协议)通信协议实现。
参考图4,缓存客户端负责实际缓存功能,根据预设的缓存策略进行缓存操作。缓存客户端的实现主要包括三部分:
第一,初始化配置。与元数据服务器相同,缓存客户端首先在初始化时记录缓存块大小、缓存块数量、缓存写入策略等缓存参数,以及各缓存客户端节点编号和对应远端缓存磁盘设备信息。
第二,元数据同步。各缓存客户端将各自的本地缓存元数据信息放入内核内存中,并将缓存命中查询相关的部分元数据同步至元数据服务器端。缓存客户端在本地缓存元数据发生变更后,立即向元数据服务器端发送元数据同步信息。各缓存客户端同时接收并处理元数据服务器端对本地缓存元数据的修改请求。
第三,缓存实现。为实现缓存功能,各缓存客户端利用Linux Device Mapper机制,将本地缓存磁盘、多个远端缓存磁盘及源存储磁盘映射为一个带缓存功能的虚拟磁盘设备。对于此虚拟磁盘设备的块I/O,缓存客户端查询本地及远端缓存元数据,并根据预定义的缓存策略,将虚拟磁盘设备发出的通用块层bio(块设备的io请求)转发到相应物理磁盘设备进行处理。
针对缓存功能的实现还包括以下五个要点:
(1)实际缓存数据存放于各缓存客户端节点的缓存磁盘中,缓存数据按照初始化配置的缓存块大小组织成块,且各缓存数据块在所有缓存客户端节点中只保存一份。
(2)对于缓存块与数据块间的映射,采用组相联方式,通过hash方法实现源存储磁盘的数据块与缓存磁盘的缓存块的映射。
(3)在缓存块的替换策略方面,使用LRU策略。
(4)由于缓存磁盘分布于局域网内的多个缓存客户端节点,因此各节点的本地缓存磁盘与远端缓存磁盘存在性能差异。根据缓存映射规则,缓存客户端会优先使用性能较好的本地缓存磁盘。
(5)缓存客户端通过内核模块形式实现,因此用户可根据需求动态的将缓存模块***Linux内核或从内核移除。
客户与服务端通信实现如下:
元数据服务器端与各缓存客户端的数据通信包括两部分:元数据同步及缓存命中查询。元数据同步部分包括元数据服务器端的元数据更新以及缓存客户端的元数据更新。其中,元数据服务器端的元数据更新请求由缓存客户端发起。当缓存客户端的缓存元数据变更时触发,将元数据变更缓存块的对应源存储磁盘起始扇区、缓存块编号、缓存块状态信息以及发送更新请求的缓存客户端节点编号信息发送至元数据服务器端进行元数据更新。而缓存客户端的元数据更新请求由元数据服务器端发起,且仅在进行写入操作时产生。当缓存命中查询导致缓存元数据变更时,触发此更新请求,将元数据变更缓存块编号及缓存块状态信息发送至对应缓存客户端进行元数据更新。缓存客户端同样回应更新请求编号确认。缓存命中查询部分则包括缓存块查询请求及其回应。缓存块查询请求由缓存客户端发起。当缓存本地未命中时触发此请求,发送缓存块对应的源存储磁盘起始扇区及I/O读写方向至元数据服务器端,并等待查询请求回应。
具体的,任一缓存客户端接收虚拟磁盘设备发出的通用块层读写请求(bio请求),该bio结构中包含读写磁盘起始扇区位置。
步骤12、该缓存客户端采用预定义的缓存策略将所述通用块层读写请求转发到相应物理磁盘设备进行处理。
其中,预定义的缓存策略主要可以包括缓存块映射策略、缓存写入策略以及缓存块替换策略。其中,缓存写入策略以及缓存块映射策略的相联度(assoc)均可在缓存***初始化时由用户自定义,此外用户还可以对缓存***的缓存块大小、缓存块数量以及缓存客户端IP等参数进行设定。
具体的,该缓存客户端采用缓存块映射策略,依据读写磁盘起始扇区位置确定通用块层读写请求的相应物理磁盘设备,且相应物理磁盘设备采用缓存写入策略进行读写处理。
针对写入操作,主要提供写直达以及写回两种写入策略,写直达策略偏向于数据安全,而写回策略则更偏向于写入性能,用户可以根据需求来设置缓存的写入策略。
参考图5,当使用写直达策略时,所有块I/O数据均直接写入远端的源存储磁盘,并不缓存到缓存磁盘。若写入的数据已在本地或远端缓存磁盘缓存,则需将对应缓存块状态设置为无效。此写入策略能够保证缓存磁盘与源存储磁盘之间的数据一致性,在缓存客户端节点出现问题而导致缓存数据丢失的情况下,仍能够保证数据的安全性。
参考图5,使用写回策略时,所有块I/O数据均直接写入本地缓存磁盘或远端缓存磁盘,所有缓存数据将被延迟写回源存储磁盘。那些延迟写回操作将在缓存块发生替换时发生,或在缓存磁盘使用完毕进行卸载时,由缓存客户端程序进行冲洗操作,统一将所有脏缓存块中的数据写回远端的源存储磁盘。当然,缓存冲洗操作会对相应缓存客户端节点的性能产生一定影响。使用写回策略在理论上能够提升数据写入速度,并降低远端网络存储***的负载压力。但使用写回策略同时也存在风险,当缓存客户端节点出现故障时,将出现缓存数据丢失的情况。
对于缓存块与数据块间的映射,***采用组相联的方式。根据预定义的缓存相联度,将每缓存相联度个缓存块组合成为一个缓存组,通过hash(哈希)方法实现源存储磁盘的数据块与缓存磁盘的缓存块的映射。
示例性的,步骤12可以包括:
A、该缓存客户端依据读写磁盘起始扇区位置、预设的缓存块掩码以及缓存相联度,确定目标缓存块。
进一步的,步骤A具体可以包括:
A1、该缓存客户端依据读写磁盘起始扇区位置和预设的缓存块掩码,得到读写请求数据对应数据块在源存储磁盘中的起始扇区位置。
具体的,该缓存客户端针对来自上层文件***或VFS(virtual File System,虚拟文件***)层的通用块层bio请求,根据bio结构中的读写磁盘起始扇区位置bi_sector,首先与预设的缓存块掩码block_mask进行按位与操作得出读写磁盘起始扇区位置bi_sector在对应数据块内的偏移量offset,然后将bi_sector减去偏移量offset得出数据块在源存储磁盘设备中起始扇区request_block。
A2、该缓存客户端依据所述数据块在源存储磁盘中的起始扇区位置,计算所述数据块对应缓存组号。
具体的,该缓存客户端依据起始扇区位置request_block,利用hash_block函数首先计算数据库编号,然后与缓存相联度assoc相除得出缓存组号set_number。
A3、该缓存客户端依据所述数据块对应缓存组号以及缓存相联度,确定所述缓存组的起始缓存块编号。
具体的,该缓存客户端将数据块对应缓存组号set_number与缓存相联度assoc相乘得出该缓存组的起始缓存块编号index。
A4、该缓存客户端依据所述起始缓存块编号和所述缓存相联度确定目标缓存块。
具体的,该缓存客户端将起始缓存块编号index至index+assoc的缓存块确定为目标缓存块。
B、该缓存客户端通过本地缓存磁盘的元数据或元数据服务器端对目标缓存块进行缓存命中查询,确定所述通用块层读写请求的相应物理磁盘。
具体的,缓存客户端通过本地缓存磁盘的元数据对目标缓存块进行命中查询,以确定通用块层读写请求的相应物理磁盘是否为本地缓存磁盘;缓存客户端通过元数据服务器端对目标缓存块进行缓存命中查询,以确定通用块层读写请求的相应物理磁盘是否为其他缓存客户端或源存储磁盘。
使用缓存块元数据struct cacheblock进行查找,搜索缓存块编号index至index+assoc的元数据cacheblock项。查找所有cacheblock中,缓存块状态为VALID、DIRTY、RESERVED或WRITEBACK(状态为保留或写回则说明此缓存块正在进行缓存写入或缓存写回操作,当前的bio请求将被放入cacheblock的bios列表中延迟处理)且缓存块对应数据块的扇区起始位置block与request_block相等。若找到cacheblock项,则缓存命中;若未找到,则缓存未命中。
C、将所述通用块层读写请求转发到相应物理磁盘设备进行处理。
示例性的,该缓存客户端通过元数据服务器端对目标缓存块进行缓存命中查询,确定所述通用块层读写请求的相应物理磁盘,包括:该缓存客户端向元数据服务器端发送包含目标缓存块的缓存命中查询请求;元数据服务器端确定并向该缓存客户端返回目标缓存块所在缓存客户端编号和目标缓存块的状态信息;该缓存块客户端依据元数据服务器端返回的目标缓存块所在的缓存客户端编号和目标缓存块的状态信息,确定所述通用块层读写请求的相应物理磁盘。
示例性的,元数据服务器端确定并向该缓存客户端返回目标缓存块所在的缓存客户端编号和目标缓存块的状态信息,包括:元数据服务器端依据预先同步的元数据确定目标缓存块的状态信息;元数据服务器端依据初始化配置信息确定目标缓存块所在的缓存客户端编号;元数据服务器端将目标缓存块的状态信息和目标缓存块所在的缓存客户端编号返回给该缓存客户端。
示例性的,上述方法还可以包括:在任一缓存客户端的本地缓存元数据更新时,向元数据服务端发送元数据同步请求,以将更新内容同步到元数据服务端中。
具体的,各缓存客户端将各自的本地缓存元数据信息放入内核内存中,并将缓存命中查询相关的部分元数据同步至元数据服务器端。缓存客户端在本地缓存元数据发生变更后,立即向元数据服务器端发送元数据同步信息。
示例性的,上述方法还可以包括:在任一缓存客户端检测到缓存块替换指令,且没有处于无效状态的缓存块时,则采用LRU(Least Recently Used,近期最少使用)算法策略选择待替换的缓存块。
具体的,在缓存块的替换策略方面,使用LRU策略。保存每个缓存块的访问时间戳,以及整个本地缓存最新时间戳。其中各缓存块的访问时间戳存放于对应元数据structcacheblock结构中的counter项,而整个本地缓存最新时间戳存放于缓存信息structcache_c结构中的counter项。当缓存块被访问时,将整个本地缓存最新时间戳值加1并赋值于缓存块的访问时间戳,当整个本地缓存最新时间戳超过counter变量最大限制时将所有counter置0。缓存块发生替换时,优先选择状态为无效的缓存块,若缓存已满则通过比较各缓存块的访问时间戳选择最久未使用的缓存块进行替换。
本发明实施例针对网络带宽对分布式云存储产生的数据读写这一瓶颈问题,提出在局域网模式上,采用多节点混合块缓冲数据读写的方法,实现对块级别云存储的读写性能的改进,最终实现云存储I/O性能的总体提升,保证整个云存储***的稳定、安全运行。具体的,针对企事业园区中的云计算***中多虚拟机实例共享使用同一块级别网络存储卷,且虚拟机实例与块级别云存储子***处于不同数据中心而导致网络存储卷I/O性能较差的情况,设计一种基于Linux Device Mapper机进行物理磁盘设备映射的多节点的块级别网络缓存***,利用本地局域网相对于外部网络的带宽优势,通过局域网内的缓存数据共享实现外部网络存储的性能提升。
本发明实施例还提供了一种基于云存储的多节点混合块缓存数据读写***。该***包括元数据服务器端和多个位于同一局域网内的缓存客户端;
缓存客户端用于接收虚拟磁盘设备发出的通用块层读写请求,并采用预定义的缓存策略将所述通用块层读写请求转发到相应物理磁盘设备进行处理,所述通用层读写请求中包含读写磁盘起始扇区位置;
其中虚拟磁盘设备由该缓存客户端的本地缓存磁盘、与该缓存客户端位于同一局域网内的其它缓存客户端和元数据服务器端的源存储磁盘映射得到,所述通用层读写请求中包含读写磁盘起始扇区位置。
示例性的,缓存客户端具体用于:
依据读写磁盘起始扇区位置bi_sector、预设的缓存块掩码block_mask以及缓存相联度accoc,确定目标缓存块;
通过本地缓存磁盘的元数据或元数据服务器端对目标缓存块进行缓存命中查询,确定所述通用块层读写请求的相应物理磁盘;
将所述通用块层读写请求转发到相应物理磁盘设备进行处理。
示例性的,缓存客户端具体用于:
依据读写磁盘起始扇区位置bi_sector和预设的缓存块掩码block_mask,得到读写请求数据对应数据块在源存储磁盘中的起始扇区位置request_block;
依据所述数据块在源存储磁盘中的起始扇区位置request_block,计算所述数据块对应缓存组号set_number;
依据所述数据块对应缓存组号set_number以及缓存相联度accoc,确定所述缓存组的起始缓存块编号index;
依据所述起始缓存块编号index和所述缓存相联度accoc确定目标缓存块。
示例性的,缓存客户端用于向元数据服务器端发送包含目标缓存块的缓存命中查询请求;
元数据服务器端用于确定并向该缓存客户端返回目标缓存块所在缓存客户端编号和目标缓存块的状态信息;
该缓存块客户端用于依据元数据服务器端返回的目标缓存块所在的缓存客户端编号和目标缓存块的状态信息,确定所述通用块层读写请求的相应物理磁盘。
示例性的,元数据服务器端具体用于:
依据预先同步的元数据确定目标缓存块的状态信息;
依据初始化配置信息确定目标缓存块所在的缓存客户端编号;
将目标缓存块的状态信息和目标缓存块所在的缓存客户端编号返回给该缓存客户端。
示例性的,所述缓存客户端还用于:
在本地缓存元数据更新时,向元数据服务端发送元数据同步请求,以将更新内容同步到元数据服务端中。
示例性的,所述缓存客户端还用于:
在检测到缓存块替换指令,且没有处于无效状态的缓存块时,则采用LRU策略选择待替换的缓存块。
为了验证本专利所提出的特征模型,我们做了大量的实验,这些实验主要是在局域网模式下云存储服务器上进行了较长时间的网络数据操作与传输。通过对实验结果分析,证明了该模型的有效性及稳定性。
实验相关信息如下:
1)硬件环境
本发明云存储测试平台如下:
普通存储服务器测试平台如下:
2)软件环境
名称 操作*** 软件 功能
存储服务器 CentOS6.2X86_64 存储服务器模块 数据存储
数据服务器 CentOS6.2X86_64 元数据模块 数据管理
应用服务器 Windows 7 应用服务器模块
测试方法:
图6为本发明实施例中提供的测试环境拓扑图。参考图6,在所有应用服务器上运行预置的iozone脚本,iozone测试命令行参数举例(脚本为:iozone1.bat):
iozone.exe-s 30g-t 12-F f:\f1f:\f2f:\f3f:\f4f:\f5f:\f6f:\f7f:\f8f:\f9f:\f10-c-C-w-e-r 1m-+n-+k-i 0-i 1>>iozone_1_64k.log
测试分为2个过程:
1)采用普通存储服务器进行数据读写,通过IOZONE进行持续数据写入,写入节点为10个客户端,每个客户端同时写入10个文件,每个文件10G(每个客户端写入100G文件),查看写入数据花费的时间。
2)采用本发明数据云存储架构进行数据读写,通过IOZONE进行持续数据写入,写入节点为10个客户端,每个客户端同时写入10个文件,每个文件10G(每个客户端写入100G文件),查看写入数据花费的时间。
经测试发现,采用普通存储服务器进行数据读写时,10个客户端的网络带宽分别是17379KB/s、19190KB/s、17270KB/s、21826KB/s、17028KB/s、25977KB/s、22274KB/s、16661KB/s、16818KB/s和16818KB/s。普通缓存***中每一个客户端存储数据的平均网络传输速度为1974KB/S。采用本发明缓存***进行数据读写时,10个客户端的网络带宽分别是74729KB/s、75146KB/s、74663KB/s、74286KB/s、74364KB/s、74637KB/s、74947KB/s、74558KB/s、75325KB/s和75325KB/s。因此,本发明缓存***内每一个客户端到云存储的平均网络传输速度为7671KB/S,4个节点云存储最大可提供767MB/s的网络聚合带宽。因此,该方法在局域网内对云存储的数据读写确实有较大的改进,达到了预期的目的。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (8)

1.基于云存储的多节点混合块缓存数据读写方法,其特征在于,包括:
任一缓存客户端接收虚拟磁盘设备发出的通用块层读写请求,其中虚拟磁盘设备由该缓存客户端的本地缓存磁盘、与该缓存客户端位于同一局域网内的其它缓存客户端和元数据服务器端的源存储磁盘映射得到,所述通用层读写请求中包含读写磁盘起始扇区位置;
该缓存客户端采用预定义的缓存策略将所述通用块层读写请求转发到相应物理磁盘设备进行处理。
2.根据权利要求1所述的方法,其特征在于,该缓存客户端采用预定义的缓存策略将所述通用块层读写请求转发到相应物理磁盘设备进行处理,包括:
该缓存客户端依据读写磁盘起始扇区位置、预设的缓存块掩码以及缓存相联度,确定目标缓存块;
该缓存客户端通过本地缓存磁盘的元数据或元数据服务器端对目标缓存块进行缓存命中查询,确定所述通用块层读写请求的相应物理磁盘;
该缓存客户端将所述通用块层读写请求转发到相应物理磁盘设备进行处理。
3.根据权利要求2所述的方法,其特征在于,该缓存客户端依据读写磁盘起始扇区位置、预设的缓存块掩码以及缓存相联度,确定目标缓存块,包括:
该缓存客户端依据读写磁盘起始扇区位置和预设的缓存块掩码,得到读写请求数据对应数据块在源存储磁盘中的起始扇区位置;
该缓存客户端依据所述数据块在源存储磁盘中的起始扇区位置,计算所述数据块对应缓存组号;
该缓存客户端依据所述数据块对应缓存组号以及缓存相联度,确定所述缓存组的起始缓存块编号;
该缓存客户端依据所述起始缓存块编号和所述缓存相联度确定目标缓存块。
4.根据权利要求2所述的方法,其特征在于,该缓存客户端通过元数据服务器端对目标缓存块进行缓存命中查询,确定所述通用块层读写请求的相应物理磁盘,包括:
该缓存客户端向元数据服务器端发送包含目标缓存块的缓存命中查询请求;
元数据服务器端确定并向该缓存客户端返回目标缓存块所在缓存客户端编号和目标缓存块的状态信息;
该缓存块客户端依据元数据服务器端返回的目标缓存块所在的缓存客户端编号和目标缓存块的状态信息,确定所述通用块层读写请求的相应物理磁盘。
5.根据权利要求4所述的方法,其特征在于,元数据服务器端确定并向该缓存客户端返回目标缓存块所在的缓存客户端编号和目标缓存块的状态信息,包括:
元数据服务器端依据预先同步的元数据确定目标缓存块的状态信息;
元数据服务器端依据初始化配置信息确定目标缓存块所在的缓存客户端编号;
元数据服务器端将目标缓存块的状态信息和目标缓存块所在的缓存客户端编号返回给该缓存客户端。
6.根据权利要求1所述的方法,其特征在于,还包括:
在任一缓存客户端的本地缓存元数据更新时,向元数据服务端发送元数据同步请求,以将更新内容同步到元数据服务端中。
7.根据权利要求1所述的方法,其特征在于,还包括:
在任一缓存客户端检测到缓存块替换指令,且没有处于无效状态的缓存块时,则采用LRU策略选择待替换的缓存块。
8.基于云存储的多节点混合块缓存数据读写***,其特征在于,包括元数据服务器端和多个位于同一局域网内的缓存客户端;
缓存客户端用于接收虚拟磁盘设备发出的通用块层读写请求,并采用预定义的缓存策略将所述通用块层读写请求转发到相应物理磁盘设备进行处理,所述通用层读写请求中包含读写磁盘起始扇区位置;
其中虚拟磁盘设备由该缓存客户端的本地缓存磁盘、与该缓存客户端位于同一局域网内的其它缓存客户端和元数据服务器端的源存储磁盘映射得到,所述通用层读写请求中包含读写磁盘起始扇区位置。
CN201611199823.7A 2016-12-22 2016-12-22 基于云存储的多节点混合块缓存数据读写方法及*** Active CN106648464B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611199823.7A CN106648464B (zh) 2016-12-22 2016-12-22 基于云存储的多节点混合块缓存数据读写方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611199823.7A CN106648464B (zh) 2016-12-22 2016-12-22 基于云存储的多节点混合块缓存数据读写方法及***

Publications (2)

Publication Number Publication Date
CN106648464A true CN106648464A (zh) 2017-05-10
CN106648464B CN106648464B (zh) 2020-01-21

Family

ID=58833633

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611199823.7A Active CN106648464B (zh) 2016-12-22 2016-12-22 基于云存储的多节点混合块缓存数据读写方法及***

Country Status (1)

Country Link
CN (1) CN106648464B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107357633A (zh) * 2017-07-17 2017-11-17 郑州云海信息技术有限公司 一种虚拟机的创建方法及创建装置
CN107395732A (zh) * 2017-07-29 2017-11-24 安徽云帮邦网络技术有限公司 一种企业数据存储查询云平台
CN107797769A (zh) * 2017-11-06 2018-03-13 长沙曙通信息科技有限公司 一种存储虚拟化***缓存管理策略实现方法
CN109634874A (zh) * 2018-12-07 2019-04-16 联想(北京)有限公司 一种数据处理方法、装置、电子设备及存储***
CN109992373A (zh) * 2017-12-29 2019-07-09 华为技术有限公司 资源调度方法、信息管理方法和装置及任务部署***
CN110471613A (zh) * 2018-05-09 2019-11-19 杭州海康威视***技术有限公司 存储数据的方法、读取数据的方法、装置及***
CN111984191A (zh) * 2020-08-05 2020-11-24 华东计算技术研究所(中国电子科技集团公司第三十二研究所) 一种支持分布式存储的多客户端缓存方法及***
CN112650694A (zh) * 2019-10-12 2021-04-13 北京达佳互联信息技术有限公司 一种数据读取方法、装置、缓存代理服务器及存储介质
CN114840140A (zh) * 2022-03-28 2022-08-02 阿里巴巴(中国)有限公司 云上数据缓存方法、装置、设备及存储介质
CN116578741A (zh) * 2023-07-12 2023-08-11 南京奥看信息科技有限公司 视图混合存储方法、装置及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1564517A (zh) * 2004-03-26 2005-01-12 清华大学 内存-网络内存-磁盘高速可靠存储***及其读写方法
CN1852318A (zh) * 2006-04-19 2006-10-25 华中科技大学 适用于对象网络存储的分布式多级缓存***
CN103268252A (zh) * 2013-05-12 2013-08-28 南京载玄信息科技有限公司 基于分布式存储的虚拟化平台***及其实现方法
CN103617003A (zh) * 2013-11-20 2014-03-05 浪潮电子信息产业股份有限公司 一种云存储环境存储资源组织实现方法和架构
CN105335441A (zh) * 2014-08-12 2016-02-17 阳平 基于局域网的分布式文件***
CN105808449A (zh) * 2014-12-31 2016-07-27 中国电信股份有限公司 一种用于虚拟机的虚拟存储映像版本管理方法和***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1564517A (zh) * 2004-03-26 2005-01-12 清华大学 内存-网络内存-磁盘高速可靠存储***及其读写方法
CN1852318A (zh) * 2006-04-19 2006-10-25 华中科技大学 适用于对象网络存储的分布式多级缓存***
CN103268252A (zh) * 2013-05-12 2013-08-28 南京载玄信息科技有限公司 基于分布式存储的虚拟化平台***及其实现方法
CN103617003A (zh) * 2013-11-20 2014-03-05 浪潮电子信息产业股份有限公司 一种云存储环境存储资源组织实现方法和架构
CN105335441A (zh) * 2014-08-12 2016-02-17 阳平 基于局域网的分布式文件***
CN105808449A (zh) * 2014-12-31 2016-07-27 中国电信股份有限公司 一种用于虚拟机的虚拟存储映像版本管理方法和***

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107357633A (zh) * 2017-07-17 2017-11-17 郑州云海信息技术有限公司 一种虚拟机的创建方法及创建装置
CN107395732A (zh) * 2017-07-29 2017-11-24 安徽云帮邦网络技术有限公司 一种企业数据存储查询云平台
CN107797769A (zh) * 2017-11-06 2018-03-13 长沙曙通信息科技有限公司 一种存储虚拟化***缓存管理策略实现方法
CN109992373B (zh) * 2017-12-29 2021-04-09 华为技术有限公司 资源调度方法、信息管理方法和装置及任务部署***
CN109992373A (zh) * 2017-12-29 2019-07-09 华为技术有限公司 资源调度方法、信息管理方法和装置及任务部署***
CN110471613A (zh) * 2018-05-09 2019-11-19 杭州海康威视***技术有限公司 存储数据的方法、读取数据的方法、装置及***
CN110471613B (zh) * 2018-05-09 2021-01-12 杭州海康威视***技术有限公司 存储数据的方法、读取数据的方法、装置及***
CN109634874A (zh) * 2018-12-07 2019-04-16 联想(北京)有限公司 一种数据处理方法、装置、电子设备及存储***
CN112650694A (zh) * 2019-10-12 2021-04-13 北京达佳互联信息技术有限公司 一种数据读取方法、装置、缓存代理服务器及存储介质
CN112650694B (zh) * 2019-10-12 2024-01-12 北京达佳互联信息技术有限公司 一种数据读取方法、装置、缓存代理服务器及存储介质
CN111984191A (zh) * 2020-08-05 2020-11-24 华东计算技术研究所(中国电子科技集团公司第三十二研究所) 一种支持分布式存储的多客户端缓存方法及***
CN114840140A (zh) * 2022-03-28 2022-08-02 阿里巴巴(中国)有限公司 云上数据缓存方法、装置、设备及存储介质
CN116578741A (zh) * 2023-07-12 2023-08-11 南京奥看信息科技有限公司 视图混合存储方法、装置及***
CN116578741B (zh) * 2023-07-12 2023-10-20 南京奥看信息科技有限公司 视图混合存储方法、装置及***

Also Published As

Publication number Publication date
CN106648464B (zh) 2020-01-21

Similar Documents

Publication Publication Date Title
CN106648464A (zh) 基于云存储的多节点混合块缓存数据读写方法及***
Mokhtarian et al. Caching in video CDNs: Building strong lines of defense
Hong et al. Understanding and mitigating the impact of load imbalance in the memory caching tier
Saemundsson et al. Dynamic performance profiling of cloud caches
JP5006348B2 (ja) 応答出力キャッシュに対するマルチキャッシュ協調
US11561930B2 (en) Independent evictions from datastore accelerator fleet nodes
CN109327539A (zh) 一种分布式块存储***及其数据路由方法
US20160212203A1 (en) Multi-site heat map management
CN103338242B (zh) 一种基于多级缓存的混合云存储***和方法
CN111782612A (zh) 跨域虚拟数据空间中文件数据边缘缓存方法
CN110147345A (zh) 一种基于rdma的键值存储***及其工作方法
CN104899161A (zh) 一种基于云存储环境的连续数据保护的缓存方法
CN114844846A (zh) 一种基于可编程交换机的多级缓存分布式键值存储***
US10802748B2 (en) Cost-effective deployments of a PMEM-based DMO system
CN108319634A (zh) 分布式文件***的目录访问方法和装置
CN107992270A (zh) 一种多控存储***全局共享缓存的方法及装置
JP5661355B2 (ja) 分散キャッシュシステム
US7529891B2 (en) Balanced prefetching exploiting structured data
Otoo et al. Accurate modeling of cache replacement policies in a data grid
Raindel et al. Replicate and bundle (rnb)--a mechanism for relieving bottlenecks in data centers
Hou et al. Pacaca: mining object correlations and parallelism for enhancing user experience with cloud storage
Xu et al. Practical optimizations for lightweight distributed file system on consumer devices
CN105095105B (zh) 一种Cache分区的方法及装置
Wang et al. A new hierarchical data cache architecture for iSCSI storage server
Zhuang et al. Design of a more scalable database system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant