CN101501623A - 感知文件***的块存储***、装置和方法 - Google Patents

感知文件***的块存储***、装置和方法 Download PDF

Info

Publication number
CN101501623A
CN101501623A CNA2007800252087A CN200780025208A CN101501623A CN 101501623 A CN101501623 A CN 101501623A CN A2007800252087 A CNA2007800252087 A CN A2007800252087A CN 200780025208 A CN200780025208 A CN 200780025208A CN 101501623 A CN101501623 A CN 101501623A
Authority
CN
China
Prior art keywords
data
storage
file system
host file
bitmap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2007800252087A
Other languages
English (en)
Other versions
CN101501623B (zh
Inventor
朱丽安·M·特里
尼尔·A·克拉克森
杰弗里·S·巴拉尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deluobo Corp
Original Assignee
Data Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Data Robotics Inc filed Critical Data Robotics Inc
Publication of CN101501623A publication Critical patent/CN101501623A/zh
Application granted granted Critical
Publication of CN101501623B publication Critical patent/CN101501623B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0643Management of files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0608Saving storage space on storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种感知文件***的存储***,其定位和分析主机文件***数据结构,以便确定所述主机文件***的存储使用。为此,所述存储***可能对操作***分区进行定位,对所述操作***分区进行解析以定位其数据结构,并且对操作***数据结构进行解析以定位主机文件***数据结构。所述存储***基于所述主机文件***的存储使用对数据存储进行管理。所述存储***能够使用存储使用信息来识别不再被主机文件***所使用的存储区域并且回收那些区域用作其它数据存储容量。而且,所述存储***能够识别主机文件***所存储的数据的类型,并且基于数据类型对数据存储进行管理,诸如基于数据类型选择用于数据的存储布局和/或编码方案。

Description

感知文件***的块存储***、装置和方法
优先权
该PCT申请要求于2006年5月3日以Julian M.Terry、Neil A.Clarkson和Geoffrey S.Barrall的名义提交的题为Filesystem-Aware BlockStorage System,Apparatus,and Method美国临时专利申请No.60/797127的优先权。
该申请还涉及于2005年11月4日以Geoffrey S.Barrall的名义提交的题为Dynamically Expandable and Contractible Fault-Tolerant StorageSystem Permitting Variously Sized Storage Devices and Method的美国专利申请No.11/267938,其要求于2004年11月5日提交的美国临时专利申请No.60/625495和于2005年9月20日提交的美国临时专利申请No.60/718768的优先权。
以上所有专利申请均在此全文引用以供参考。
技术领域
本发明涉及数字数据存储***和方法,更具体地涉及提供容错存储的***和方法。
背景技术
已知现有技术依照根据各种RAID(独立盘片冗余阵列)协议的任何一种的模式来提供冗余盘片存储器。典型地,使用RAID模式的盘片阵列是需要由经验丰富的信息技术人员来管理的复杂结构。而且在许多使用RAID模式的阵列设计中,如果所述阵列中的各盘片驱动器是非统一容量的,那么该设计可能不能够使用超过该阵列中最小驱动器容量的驱动器上的任何容量。
标准RAID***的一个问题是盘面损坏可能发生在盘片阵列中不经常使用的区域。在另一个驱动器出现故障的情况下,并不总是能确定发生了损坏。在这种情况下,当所述RAID阵列重构所述故障驱动器时,损坏的数据可能被传播和保存。
在许多存储***中,将以就绪状态(ready state)维持备用存储设备,使得其在另一个存储设备出现故障时可以被使用。这种备用存储设备通常被称作“热后备”。所述热后备在存储设备的正常操作期间不用于存储数据。当运行的存储设备出现故障时,该故障存储设备被该热后备逻辑上替换,而且要移动数据或者通过其他方式在所述热后备上再产生数据。当修复或者更换所述故障存储设备时,典型地要移动数据或者通过其他方式在(重新)运行的存储设备上重新产生这些数据,而且使所述热后备脱机,以准备好在另一个故障事件中使用。热后备盘片的维护通常是复杂的,并因此通常由经验丰富的管理者进行处理。热后备盘片同样代表着附加费用。
一般而言,当主机文件***向存储***写数据块时,所述存储***为数据分配存储块并且更新其数据结构来指示处于使用中的存储块。从这一点来看,即使主机文件***随后停止使用它的块,存储***也认为存储块处于使用中。
主机文件***通常使用位图来跟踪其使用的盘片块(disk block)。在卷创建之后,位图通常将立刻典型地通过使得所有位清空来指示大多数块空闲。当文件***被使用时,主机文件***将通过使用其空闲块的位图来独立分配块。
当主机文件***将一些块释放回其空闲池中时,其简单地清空在其空闲块的位图中的对应位。在存储***上,这表示为对恰好包含主机的空闲块位图的某部分的聚簇的写入,并且可能是对日志文件的写入;几乎肯定没有到实际聚簇的输入/输出(I/O)是本身空闲的。如果主机文件***在增强的安全模式下运行,则由于主机对当前盘片上的数据进行覆盖从而减少了陈旧聚簇内容可被攻击者读取的机会,所以可能有对游离块的I/O,但是无法将这样的写入识别为删除过程的一部分。因此,存储设备无法将主机文件***正在使用的块与先前所使用且随后被标记为空闲的块区分开来。
存储***无法识别游离块会导致多种消极后果。例如,存储***会明显过度报告正在使用的存储量并且会过早用尽存储空间。
发明内容
根据本发明的一个方面,提供了一种通过在主机文件***的控制下存储数据的块级存储***来存储数据的方法。该方法涉及定位在块级存储***中所存储的用于主机文件***的主机文件***数据结构;通过对主机文件***数据结构进行分析以识别与所要存储的数据相关联的数据类型;以及使用基于所述数据类型所选择的存储方案存储所述数据,由此使用基于所述数据类型所选择的不同存储方案能够存储具有不同数据类型的数据。
根据本发明的另一方面,提供了一种在主机文件***的控制下存储数据的块级存储***。该***包括:块级存储,其中存储用于主机文件***的主机文件***数据结构;以及可操作地耦合到块级存储的存储控制器,其用于定位块级存储中所存储的主机文件***数据结构,对主机文件***数据结构进行分析以识别与所要存储的数据相关联的数据类型,并使用基于所述数据类型所选择的存储方案存储所述数据,由此使用基于所述数据类型所选择的不同存储方案能够存储具有不同数据类型的数据。
在各个可选实施例中,可以使用基于数据类型所选择的存储布局和/或编码方案来存储数据。例如,可以存储频繁访问的数据以便提供增强的访问性能(例如,以未压缩的形式和以连续存储的形式),而存储不频繁访问的数据以便提供增强的存储效率(例如,使用数据压缩和/或非连续存储)。额外地或替选地,根据数据类型数据可以是压缩的和/或加密的。
在各个可选实施例中,可通过以下步骤来定位所述主机文件***数据结构:对分区表进行维护;对分区表进行解析以定位操作***分区;对操作***分区进行解析以识别所述操作***并定位操作***数据结构;并且对所述操作***数据结构进行解析来识别主机文件***并定位主机文件***数据结构。所述操作***数据结构可包括超级块,在这种情况下,对操作***数据结构进行解析可包括解析所述超级块。可通过制作主机文件***数据结构的工作副本并对所述工作副本进行解析来解析所述主机文件***数据结构。
附图说明
通过参考下列附图参照下列详细说明,本发明上述特征将变得更加容易理解,其中:
图1示出本发明的实施例,其中将对象解析为一系列存储块。
图2是说明在相同实施例中大块(chunk)的容错存储模式如何根据附加更多存储器而动态改变。
图3说明本发明另一实施例,在使用不同大小存储设备构造的存储***上按不同容错模式的大块的存储。
图4说明本发明的另一个实施例,其中指示器状态用于警告无效存储使用和低等级容错。
图5是根据本发明实施例的所述数据存储、检索和再布局中使用的功能模块的框图。
图6表示在包含两个以上驱动器的阵列中使用镜像的示例。
图7表示使用不同布局方案以存储其数据的一些示例性存储区。
图8表示用于实施后备卷(sparse volume)的查找表。
图9表示根据本发明示例性实施例的状态指示器,其用于具有可用存储空间并按容错方式操作的示例性阵列。
图10表示根据本发明示例性实施例的状态指示器,其用于不具有足够空间以维护冗余数据存储并必须增加更大空间的示例性阵列。
图11表示根据本发明示例性实施例的状态指示器,其用于在故障情况下不能够维护冗余数据的示例性阵列。
图12表示根据本发明示例性实施例的示例性阵列的状态指示器,其中存储设备已经出现故障。用存储设备填充插槽B、C、和D。
图13示出的模块层次表示示例性实施例的不同软件层以及它们彼此如何相关。
图14表示根据本发明的示例性实施例的聚簇存取表如何用于访问存储区中的数据聚簇。
图15表示根据本发明的示例性实施例的日志表更新。
图16表示根据本发明的示例性实施例的驱动器布局。
图17示出了根据本发明的示例性实施例的存储区0的布局和其他存储区如何被参照。
图18说明了根据本发明的示例性实施例的读差错处理。
图19说明了根据本发明的示例性实施例的写差错处理。
图20是根据本发明的示例性实施例的逻辑流程图,其说明了通过差错管理器备份坏区域。
图21是根据本发明的示例性实施例的示意框图,其表示存储阵列的相关组件。
图22是根据本发明的示例性实施例的逻辑流程图,其表示管理虚拟热后备的示例性逻辑。
图23是根据本发明的示例性实施例的逻辑流程图,其说明确定每个可能盘片故障的再布局情况的示例性逻辑,如图22的框2102。
图24是根据本发明的示例性实施例的逻辑流程图,其表示调用虚拟热后备功能的示例性逻辑。
图25是根据本发明的示例性实施例的逻辑流程图,其表示自动再配置一个或多个剩余驱动器以恢复数据容错的示例性逻辑,如图24的框2306。
图26是根据本发明的示例性实施例的逻辑流程图,其表示用于升级存储设备的示例性逻辑。
图27是根据本发明的示例性实施例的计算机***的概念框图。
图28是根据本发明的示例性实施例的用于感知文件***的存储控制器的高级别逻辑流程图。
图29是根据本发明的示例性实施例的用于定位主机文件***数据结构的逻辑流程图。
图30是根据本发明的示例性实施例的用于回收未使用的存储空间的逻辑流程图。
图31是根据本发明的示例性实施例的用于基于数据类型对用户数据的存储进行管理的逻辑流程图。
图32是表示根据本发明的示例性实施例的回收器(scavenger)的相关部件的示意性框图。
图33是根据本发明的示例性实施例的用于定位主机文件***的位图的伪代码。
图34是根据本发明的示例性实施例的用于BBUM的高级别伪代码。
图35是根据本发明的示例性实施例的用于创建新分区的LBA0更新的同步处理的高级别伪代码。
图36是根据本发明的示例性实施例的用于(重新)格式化分区的LBA0更新的同步处理的高级别伪代码。
图37是根据本发明的示例性实施例的用于删除分区的LBA0更新的同步处理的高级别伪代码。
图38是根据本发明的示例性实施例的用于异步任务的高级别伪代码。
具体实施方式
定义。如在本说明书和权利要求书中使用的,除非上下文另有要求,否则下面术语具有如下所解释的意思。
对象的“大块(chunk)”是对象的提取片,由所使用的任何物理存储独立地形成,且典型地是对象的固定数量的连续字节。
数据存储的容错“模式(pattern)”是在一个或者多个存储设备上冗余地分布数据的特定方式,并且除了其他的,可以是:镜像(mirroring,例如按类似RAID1的方式)、条带化(striping,例如按类似RAID5的方式)、RAID6、双奇偶校验、对角线奇偶校验、低密度奇偶校验码、涡轮码、或者其他冗余方案或者这些冗余方案的组合。
当给定大块产生通常与其他任何大块的散列号都不同的散列号时,除非当其他大块具有与该给定大块相同的数据内容时,该给定大块的散列号是“唯一的(unique)”。即,当两个大块的内容不相同时,该两个大块通常将具有不同散列号。如下面所要进一步详细描述的,在本上下文中,术语“唯一的”用于覆盖由那些偶尔对不同的大块产生相同散列号的散列函数所产生的散列号,因为散列函数通常不能完美地在对不同的大块产生不同的号。
“区域(region)”是存储介质(例如硬盘驱动器)上的一组连续物理块。
“存储区(zone)”是由两个或以上的区域组成的。组成存储区的各区域通常不需要是连续的。如在下面描述的示例性实施例中,存储区存储相当于1GB的数据或者控制信息。
“聚簇(cluster)”是存储区中的单元尺寸,并表示压缩单位(下面论述)。在如下面所述的示例性实施例中,聚簇是4KB(即八个512字节的扇区)并且实质上等同于大块。
“冗余集(redundant set)”是为一组数据提供冗余的一组扇区/聚簇。
“备份区域(backing up a region)”涉及将一个区域的内容复制到另一个区域。
存储设备的“第一对”和“第二对”可以包括公共存储设备。
存储设备的“第一组多个”和“第二组多个”可以包括一个或者多个公共存储设备。
存储设备的“第一布置”和“第二布置”或者“不同布置”可以包括一个或多个公共存储设备。
在本发明的实施例中,感知文件***的存储***对主机文件***的数据结构进行分析以便确定主机文件***的存储使用。例如,块存储设备可对主机文件***的数据结构进行解析以确定诸如已用块、未用块和数据类型等内容。所述块存储设备基于所述主机文件***的存储使用对物理存储进行管理。
这样的感知文件***的块存储***能够进行与数据的物理存储相关的智能决策。例如,所述感知文件***的块存储设备能够识别已经被主机文件***释放的块并且再使用被释放的块,以便有效扩展***的数据存储容量。被释放的块的这种再使用,其在此后被称作“回收(scavenging)”或“垃圾收集”,在实现虚拟存储时可以是特别有用的,其中主机文件***被配置以比实际的物理存储容量更大的存储。所述感知文件***的块存储设备还能够识别文件***所存储的对象的数据类型,并且基于数据类型使用不同的存储方案来存储所述对象(例如,频繁访问的数据可以未压缩的方式并在连续块中存储,而不频繁访问的数据可被压缩和/或在非连续块中存储;基于数据类型可对不同对象应用诸如数据压缩和加密之类的不同编码方案)。
所述感知文件***的块存储设备通常将支持预先确定的文件***集合,其充分“理解”所述预先确定的文件***集合的内部工作以定位和利用潜在的数据结构(例如,空闲块的位图)。为了确定文件***类型(例如,NTFS、FAT、ReiserFS、ext3),所述感知文件***的块存储设备典型地对分区表进行解析以定位操作***(OS)分区,并接着对所述OS分区进行解析以定位主机文件***的超级块,并由此识别文件***类型。一旦知道了文件***类型,所述感知文件***的块存储能够对所述超级块进行解析以找到用于所述主机文件***的空闲块的位图,并且由此能够对所述空闲块的位图进行解析来识别已用和未用的块。
为了检测数据结构(例如,空闲块的位图)随时间的变化,所述感知文件***的块存储设备可周期性地制作数据结构的副本(例如,在私有的、非冗余存储区中),并随后将数据结构的当前活动版本与较早制作的副本进行比较来检测变化。例如,能够识别从已分配变换到空闲的任意位图项,允许将垃圾收集操作准确引导至作为良好回收候选的聚簇。随着每个位图聚簇得到处理,可利用当前副本替代历史副本,以保持位图操作的滚动历史。空闲块的位图的副本可随时间变为暂时不连续的聚簇的拼凑(patchwork),但是由于当前副本被用来分配空闲项,所以这不会导致任何问题。
此后参考存储阵列***描述示例性实施例。
图1是本发明实施例的说明,其中,将对象(object)解析成一系列用于存储的大块,在本例中对象是文件(file)。开始,文件11被传递到存储软件,在其中被指定为对象12并被分配一个唯一对象标识号,在此是#007。在对象表13中形成新项131,用来表示这个新对象的分配。现在该对象被解析成数据“大块”121、122、和123,它们是固定长度的对象段。每个大块都经过散列算法,该算法返回大块的唯一散列号。以后这个算法可以应用于检索块,并且结果与原始散列相比较以确保重试块与存储的相同。每个大块的所述散列号按对象132的项行存储在对象表13中,以便于以后所述完成对象可以通过所述各大块的集合进行检索。
同样在图1中,所述大块散列现在与大块表14中现有项进行比较。匹配现有项141的任何散列都已经被存储并且因此不采取任何行动(即数据不会被再次存储,导致对象的自动压缩)。新散列(在大块表14中没有对应项的散列)被输入大块表141。然后大块中的数据以最有效的容错存储方式存储在可用的存储设备151、152和153上。这种方法可导致所述大块数据例如按镜像方式存储在包括一个或者两个设备的存储***上,或者按奇偶校验条带化存储在具有两个以上存储设备的***。该数据将存储在存储设备上的物理位置1511、1521和1531,而且这些位置和位置编号将存储在大块表列143和142中,使得以后可以定位和检索大块的所有物理部分。
图2说明在相同实施例中大块的容错存储模式可以如何根据增加更多添加更多存储而动态改变。特别地,图2示出了一旦附加存储被添加到整个***,大块的物理存储如何在所述存储设备上按新模式来布局。在图2(a)中,所述存储***包括两个存储设备221和222,而大块数据在位置2211和2221被物理镜像到所述两个存储设备上以提供容错。在图2(b)中,添加第三存储设备223,以奇偶校验条带化方式存储所述大块成为可能,这种模式较之所述镜像模式是更有效的存储。所述大块按该新模式布局在三个物理位置2311、2321、和2331,占用更少比例的可用存储。更新所述大块表21以表现在三个位置212的新布局,并且还在213记录新的大块物理位置2311、2321、和2331。
图3示出根据本发明实施例的成熟存储***,其已经运行一段时间。该图说明了各大块可以如何随时间物理地存储在存储容量变化的存储设备上。该图示出包括40GB的存储设备31、80GB的存储设备32和120GB的存储设备33的存储***。最初,各大块按容错条带化模式34来存储,直到40GB存储设备31变满。然后,由于缺乏存储空间,新数据就按镜像模式36存储到80GB的存储设备32和120GB的存储设备33的可用空间上。一旦80GB的存储设备32满了,则新数据按单个盘片容错模式37来布局。尽管存储设备包括用于存储数据的单一池,如按块存储的数据本身已经按多种不同模式来存储。
图4说明本发明的另一实施例,其中使用指示器状态来警告低效的存储使用和低级的容错。在图4A中,全部三个存储设备41、42和43具有空闲空间,而指示灯44是绿色以表示数据以有效和容错方式存储。在图4B中,40GB的存储设备41已经变满了,因此新数据可按镜像模式46只能存储在具有剩余空闲空间的两个存储设备42和43上。为了表示数据仍然十分冗余但不能有效存储,指示灯44变成黄色。在图4C中,仅120GB的存储设备43具有空闲空间剩余,因此全部新数据可以按镜像模式仅存储在这一台设备43上。因为容错性不强并且***严重地缺乏空间,因此指示灯44变红以指示需要增加更多存储。
在一个替换实施例中,为阵列中每个驱动器/插槽提供指示器,例如,以三色灯形式(例如绿、黄、红)。在一个特定实施例中,所述灯用于照亮具有发光效果的盘片机柜的整个前面。控制这些灯,以不仅用于指示该***的整体状态,还用于指示哪个驱动器/插槽需要加以注意(若有的话)。每个三色灯都可以处于至少四种状态:分别是关闭、绿色、黄色、红色。如果特定插槽为空且***按充足存储和冗余在运行因此不需要在插槽中安装驱动器,则相应插槽的灯可以处于关闭状态。如果相应驱动器充足并且不需要替换,则特定插槽的灯可以置于绿色状态。如果***运行在降级,则可以将特定插槽的灯置于黄色状态,以建议用较大驱动器替换相应驱动器。如果相应驱动器必须被安装或者替换,则特定插槽的灯可以置于红色状态。如果需要或者期望的话,可以指示附加状态,例如,通过使得灯在开启状态和关闭状态之间闪烁或者在两种不同颜色闪烁(例如在替换驱动器之后并且在进行数据重新布局时在红色和绿色之间闪烁)。下面说明示例性实施例的附加细节。
当然,可以使用其他指示技术来指示***状态和驱动器/插槽状态。例如,可以使用单个LCD显示器来指示***状态,并且如果需要的话,可以指示需要注意的插槽号。同样,可以使用其他类型指示器(例如,***的单个状态指示器(例如绿色/黄色/红色),还有每个插槽的插槽指示器或者灯)。
图5是根据本发明实施例的数据存储、检索和重新布局中使用的功能模块框图,如上与图1至3相关的讨论。通信的入口和出口点是:对象接口511,用于将对象传递给用于存储或者检索对象的***;块接口512,它使存储***看来是一个大的存储设备以及CIFS接口513,它使存储***看来是Windows文件***。当这些接口需要数据存储时,数据被传递到大块解析器52,所述解析器52将数据分解为大块,并在对象表512中创建初始项(如上与图1相关的讨论)。这些大块然后被传递到散列码生成器53,散列码生成器53产生每个大块的相关联散列码,并将其输入到对象表中,这样与每个对象相关联的各大块被列出512(如上与图1相关的讨论)。大块散列号与大块表531中的项进行比较。在发现匹配时,该新的大块被废弃,因为它与已经存储在该存储***中的某个大块相同。如果大块是新的,则在大块表531中为其建立新项,而且将散列的大块传递到物理存储管理器54。该物理存储管理器以可能的最有效模式在可用存储设备571、572、和573上存储该大块,并在大块表531中制作相应项以表示哪里已经发生该大块的物理存储,使得以后可以在512检索该大块的内容(如上与图1的相关讨论)。
图5中由对象接口511、块接口512或者CIFS接口513的数据检索通过向检索管理器56请求来执行,检索管理器查询对象表521以确定哪些大块包括该对象,然后从物理存储管理器54请求这些大块。所述物理存储管理器54查询大块表格531以确定所请求的大块存储在哪里,然后检索它们并将完成数据(对象)传递回检索管理器56,检索管理器56向请求接口返回该数据。图5还包括容错管理器(FTL)55,其不断扫描块表以确定大块是否以可能的最有效方式存储。(这可能由于添加和去除存储设备571、572和573而改变。)如果大块不是以可能的最有效方式存储,则FTL将请求物理存储管理器54创建该大块的新布局模式并更新大块表531。这样全部数据对包括该阵列的若干存储设备按可能的最有效方式来存储(如上与图2和3相关的讨论)。
下面提供本发明的示例性实施例的其他细节。
数据布局方案——存储区(zone)
除了其他,存储区影响隐式冗余和存储在盘片上的实际数据的盘片再布局。存储区允许增加和改变附加布局方法而不影响存储区的用户。
存储阵列在盘片上按称作存储区的虚拟分段来布局数据。存储区存储给定的和固定数量的数据(例如1G字节)。存储区可以驻留在单个盘片或者跨越一个或者多个驱动器。存储区的物理布局以特定于该存储区的形式提供冗余。
图6示出在包含两个以上驱动器的阵列中使用镜像的示例。图7示出使用不同布局方案来存储它们的数据的一些示例存储区。该图假定存储区存储1GB数据。注意以下几点:
i)跨多个驱动器的存储区不需要在整个集合中使用到驱动器的相同偏移。
ii)单个驱动器镜像需要2G的存储量来存储1G的数据。
iii)双驱动器镜像需要2G的存储量来存储1G的数据。
iv)3驱动器条带化需要1.5GB的存储量来存储1G的数据。
v)4驱动器条带化需要1.33GB的存储量来存储1G的数据。
vi)存储区A、存储区B等是任意的存储区名。在实际实施中每个存储区都用唯一编号来标识。
vii)虽然通过该图隐含,但是存储区不是必须在盘片上连续的(见后面所述的区域)。
viii)镜像被限于两个驱动器没有技术原因。例如,在三个驱动器的***中,数据的1个副本可存储在1个驱动器上,且一半镜像数据可以存储在另外两个驱动器的每个上。同样,数据可跨三个驱动器来镜像,一半数据在两个驱动器的每个上以及一半镜像在其他两个驱动器上。
数据布局方案——区域(region)
每个盘片都分割为一组相等尺寸的区域。区域的尺寸比存储区小得多,存储区由来自一个或者多个盘片的一个或者多个区域构成。为了有效使用盘片空间,区域的尺寸典型地是不同存储区尺寸和阵列所支持的不同盘片数量的公因数。在示例性实施例中,区域是存储区数据尺寸的1/12。下面的表列出了根据本发明示例性实施例的各种布局的区域/存储区的数量和区域/盘片的数量。
 
布局方法 区域/存储区的数量 区域/盘片的数量
1驱动器镜像 24 24
2驱动器镜像 24 12
3驱动器条带化 18 6
4驱动器条带化 16 4
各区域可以标记为:使用、空闲或者损坏。当创建存储区时,选择来自适当盘的一组空闲区域并登记到表中。这些区域可以是任何任意顺序而且不需要在盘片上是连续的。当从存储区读取或者向其写入数据时,存取被重定向到适当区域。除了其他,这允许以灵活和有效的方式发生数据再布局。随着时间的过去,不同尺寸的存储区将可能导致发生碎片(fragmentation),使得许多盘片区太小而不能保持完整存储区。通过使用适当区域尺寸,碎片留下的所有间隙都将是至少一个区域的尺寸,这些小间隙易于重用,而不必重新分段整个盘片。
数据布局方案——再布局
为了便于实施,可以强制扩展和收缩的固定顺序。例如,如果突然增加两个驱动器,则存储区的扩展可以经过中间扩展,就像增加一个驱动器一样,然后执行第二扩展以结合第二个驱动器。或者,包含多个驱动器的扩展和收缩可以被原子化地处理,不需要中间步骤。
在发生任何再布局之前,所需空间都必须是可用的。这应当在开始再布局之前计算,以确保不会发生不必要的再布局。
数据布局方案——驱动器扩展
下面描述根据本发明示例性实施例的从单驱动器镜像扩展为双驱动器镜像的一般过程:
i)假定单驱动器镜像具有数据‘A’和镜像‘B’
ii)在驱动器上分配12个区域以扩展存储区到‘C’
iii)复制镜像‘B’到区域集‘C’
iv)任何对已经复制的数据的写都必须镜像到‘C’中的适当位置
v)当完成复制时,使用新布局类型更新存储区表并利用指向‘C’的指针来替换指向‘B’的指针
vi)将构成‘B’的区域标记为空闲的。
下面描述根据本发明示例性实施例的从双驱动器镜像扩展为具有奇偶校验的三驱动器条带化的一般过程:
i)假定一个驱动器具有数据‘A’而第二驱动器具有镜像‘B’
ii)为奇偶校验信息‘C’在第三驱动器上分配6个区域
iii)使用‘A’的第一组6区域和‘B’的第二组6区域计算奇偶校验信息
iv)在‘C’中放置奇偶校验信息
v)任何对已经处理的数据的写都必须奇偶校验到‘C’中适当位置
vi)当复制完成时,用新布局类型点表将存储区表更新为‘A’的前一半、‘B’和‘C’的后一半
vii)标记‘A’的前一半和‘B’的前一半为空闲
下面描述根据本发明示例性实施例的从三驱动器条带化扩展为具有奇偶校验的四驱动器条带化的一般过程:
i)假定一个驱动器具有数据‘A’,第二驱动器具有数据‘B’而第三个具有奇偶校验‘P’
ii)对条带数据‘C’在第四驱动器上分配四个区域
iii)将‘A’的最后两个区域复制到‘C’的最初两个区域
iv)将‘B’的最初两个区域复制到‘C’的最后两个区域
v)在奇偶校验驱动器‘D’上分配四个区域
vi)使用A、C的最初四个区域和B的最后四个区域计算奇偶校验信息
vii)在‘D’中放置奇偶校验信息
viii)任何对已经处理的数据的写都必须奇偶校验到‘D’中适当位置
ix)用新布局类型和点表更新存储区表为‘A’、‘C’的最初四区域、‘B’和‘D’的其次四区域
x)标记‘A’的最后两区域和‘B’的最初两区域为空闲。
数据布局方案——驱动器收缩
驱动器收缩在盘片去除或者故障时发生。在这种情况下,如果可能的话,阵列收缩数据使全部存储区返回到冗余状态。驱动器收缩比扩展稍微复杂,因为要做更多选择。但是,在布局方法之间的转换按照与扩展相类似的方式发生,但要反过来。保持要再生的数据量为最小以使得尽快实现冗余。在空间可用时,驱动器收缩通常一次处理一个存储区,直到全部存储区被再布局。一般而言,将仅重构位于已去除或发生故障的盘片上的数据。
选择如何收缩
下表描述根据本发明示例性实施例的用于需要再布局的每个存储区的决策树:
Figure A200780025208D00221
下面描述根据本发明示例性实施例的从双驱动器镜像收缩为单驱动器镜像的一般过程:
i)假定单驱动器镜像具有数据‘A’和缺失的镜像‘B’或者反过来
ii)在包含‘A’的驱动器上分配12个区域作为‘C’
iii)将数据‘A’复制到区域集‘C’
iv)任何对已经复制的数据的写都必须镜像到‘C’中适当位置
v)当复制完成时,用新布局类型更新存储区表并用指向‘C’的指针替换指向‘B’的指针
下面说明根据本发明示例性实施例的从三驱动器条带化收缩为双驱动器镜像(缺失奇偶校验)的一般过程:
i)假定所述条带由不同驱动器上的数据块‘A’、‘B’、‘C’组成。缺失奇偶校验‘C’。
ii)定义‘A’为包括该存储区的前一半,而‘B’为该存储区的后一半。
iii)在‘A’驱动器上分配6个区域的‘D’并在‘B’驱动器上分配6个区域的‘E’。
iv)将‘A’复制到‘E’。
v)将‘B’复制到‘D’。
vi)任何对已经复制的数据的写都必须镜像到‘D’和‘E’中的适当位置
vii)当复制完成时,用新布局类型更新存储区表并将指针设置到指向‘A’/‘D’和‘E’/‘B’
下面说明根据本发明示例性实施例的从三驱动器条带化收缩为双驱动器镜像(缺失数据)的一般过程:
i)假定所述条带由不同驱动器上的数据块‘A’、‘B’和‘C’组成。缺失数据‘C’。
ii)定义‘A’为包括该存储区的前一半,而‘C’为该存储区的后一半。
iii)在‘A’驱动器上分配6个区域的‘D’并在‘B’驱动器上分配12个区域的‘E’。
iv)将‘A’复制到‘E’的前一半。
v)重构从‘A’和‘B’缺失的数据。将数据写入‘D’。
vi)将‘D’复制到‘E’的后一半。
vii)任何对已经复制的数据的写都必须镜像到‘D’和‘E’中的适当位置
viii)当复制完成时,用新布局类型更新存储区表并将指针设置为指向‘A’/‘D’和‘E’
ix)将‘B’区域标记为空闲。
下面说明根据本发明示例性实施例的从四驱动器条带化收缩为三驱动器条带化(缺失奇偶校验)的一般过程:
i)假定所述条带由不同驱动器上的数据块‘A’、‘B’、‘C’和‘D’组成。缺失奇偶校验‘D’。
ii)定义‘A’为包括存储区的前三分之一,‘B’为第二个三分之一,而‘C’为第三个三分之一。
iii)在‘A’驱动器上分配2个区域的‘G’,在‘C’驱动器上分配2个区域的‘E’并在‘B’驱动器上分配6个区域的‘F’。
iv)将‘B’的前一半复制到‘G’。
v)将‘B’的后一半复制到‘E’。
vi)从‘A’/‘G’和‘E’/‘C’构造奇偶校验并将其写入‘F’。
vii)任何对已经复制的数据的写都必须镜像到‘G’、‘E’和‘F’中的适当位置
viii)当复制完成时,用新布局类型更新存储区表并将指针设置为指向‘A’/‘G’、‘E’/‘C’和‘F’
ix)将‘B’区域标记为空闲。
下面说明根据本发明示例性实施例的从四驱动器条带化收缩为三驱动器条带化(缺失前1/3)的一般过程:
i)假定所述条带由不同驱动器上的数据块‘A’、‘B’、‘C’和‘D’组成。缺失数据‘A’。
ii)定义‘A’为包括存储区的前三分之一,‘B’为第二个三分之一而‘C’为第三个三分之一以及‘D’为奇偶校验。
iii)在‘B’驱动器上分配4个区域的‘E’,在‘C’驱动器上分配2个区域的‘F’并在‘D’驱动器上分配6个区域的‘G’。
iv)将‘B’的后一半复制到‘F’。
v)根据‘B’、‘C’和‘D’构造缺失数据并写入‘E’
vi)根据‘E’/‘B’的前一半和‘F’/‘C’构造新奇偶校验并写入‘G’
vii)任何对已经复制的数据的写都必须镜像到‘B’、‘E’、‘F’和‘G’中的适当位置
viii)当复制完成时,用新布局类型更新存储区表并将指针设置为指向‘E’/‘B’的前一半和‘F’/‘C’以及‘G’
ix)将‘B’的后一半和‘D’区域标记为空闲。
下面说明根据本发明示例性实施例的从四驱动器条带化收缩为三驱动器条带化(缺失第二个1/3)的一般过程:
i)假定所述条带由不同驱动器上的数据块‘A’、‘B’、‘C’和‘D’组成。缺失数据‘B’。
ii)定义‘A’为包括存储区的前三分之一,‘B’为第二个三分之一而‘C’为第三个三分之一以及‘D’为奇偶校验。
iii)在‘A’驱动器上分配2个区域的‘E’,在‘C’驱动器上分配2个区域的‘F’并在‘D’驱动器上分配6个区域的‘G’。
iv)根据‘A’的前一半、‘C’的前一半和‘D’的前一半构造缺失数据并写入‘E’
v)从‘A’的后一半、‘C’的后一半和‘D’的后一半构造缺失数据并写入‘F’
vi)从‘A’/‘E’和‘F’/‘C’构造新奇偶校验并写入‘G’
vii)任何对已经复制的数据的写都必须镜像到‘E’、‘F’和‘G’中的适当位置
viii)当复制完成时,用新布局类型更新存储区表并将指针设置为指向‘E’、‘F’以及‘G’
ix)将‘D’区域标记为空闲。
下面说明根据本发明示例性实施例的从四驱动器条带化收缩为三驱动器条带化(缺失第三个1/3)的一般过程:
i)假定所述条带由不同驱动器上的数据块‘A’、‘B’、‘C’和‘D’组成。缺失数据‘C’。
ii)定义‘A’为包括该存储区的前三分之一,‘B’为第二个三分之一而‘C’为第三个三分之一以及‘D’为奇偶校验。
iii)在‘A’驱动器上分配2个区域的‘E’,在‘B’驱动器上分配4个区域的‘F’并在‘D’驱动器上分配6个区域的‘G’。
iv)将‘B’的前一半复制到‘E’
v)根据‘A’、‘B’和‘D’构造缺失数据并写入‘F’
vi)从‘A’/‘E’和‘B’/‘F’的后一半构造新奇偶校验并写入‘G’
vii)任何对已经复制的数据的写都必须镜像到‘E’、‘F’和‘G’中的适当位置
viii)当复制完成时,用新布局类型更新存储区表并将指针设置为指向‘A’/‘E’和‘B’/‘F’的后一半以及‘G’
ix)将‘B’的前一半和‘D’区域标记为空闲。
例如,再次参考图3,如果驱动器0或者驱动器1丢失,只要在驱动器2上有足够的可用空间,就可以在驱动器2上重构双驱动器镜像(存储区B)。类似地,如果损失任何驱动器0至2,只要驱动器3上有足够可用空间,三驱动器镜像(存储区C)就可以利用驱动器3重构。
数据布局方案——存储区重构
当已经去除驱动器并且剩余驱动器上有足够空间用于理想的存储区再布局或者驱动器已经用新的更大尺寸驱动器替换,会发生存储区重构。
下面说明根据本发明示例性实施例的双驱动器镜像重构的一般过程:
i)假定单驱动器镜像具有数据‘A’和缺失镜像‘B’
ii)在不同于包含‘A’的驱动器的驱动器上分配12个区域的‘C’
iii)将数据‘A’复制到‘C’
iv)任何对已经复制的数据的写都必须镜像到‘C’中适当位置
v)当复制完成时,用指向‘C’指针更新存储区表指向‘B’的指针
下面说明根据本发明示例性实施例的三驱动器条带化重构的一般过程:
i)假定一个驱动器具有数据‘A’,第二驱动器具有数据‘B’而第三个具有奇偶校验‘P’。缺失‘B’。注意缺失哪片无关紧要,在所有情况下需要的操作都是相同的。
ii)在不同于包含‘A’和‘P’的驱动器的驱动器上分配6个区域的‘D’
iii)从‘A’和‘P’构造缺失数据。向‘D’写数据
iv)任何对已经复制的数据的写都必须奇偶校验到‘D’中的适当位置
v)通过用指向‘D’的指针替换指向‘B’的指针来更新存储区表
在这个示例性实施例中,四驱动器重构仅当如果去除的驱动器被其他驱动器替换时发生。所述重构包括在新驱动器上分配六个区域并根据其他三个区域集合重构缺失的数据。
数据布局方案——暂时缺失驱动器问题
当去除驱动器而没有用于再布局的空间时,阵列将继续按降级模式来运行,直到旧驱动器插回或者用新的替换该驱动器。如果***新的驱动器,那么将再建驱动器组。在这种情况下,数据将再布局。如果旧的盘片放回该阵列,那么其将不再是当前盘片组的一部分并且将被视其为新盘片。但是,如果该阵列中没有放入新盘片而是放回旧的那个,那么旧的那个将仍然被视为该盘片组的一员,尽管是被废弃的成员。在这种情况下,任何已经再布局的存储区都将保持其新配置而该旧盘片上的区域将空闲。任何没有被再布局的区域仍然指向该旧盘片存储区的适当区域。但是,由于已经对降级存储区执行了某些写,因此这些存储区需要刷新。可以标记已经改变的降级区域,而不是记录每个已经发生的写。这样,当替换盘片时,仅已经改变的区域需要刷新。
而且,任何已经被写入的存储区可被置于更高的优先表用于再布局。这应当减少了应该替换盘片需要刷新的区域数量。还可以使用超时,在这一点之后,即使该盘片被替换也将被擦去。但是,这种超时可能相当大,可能是数小时而非数分钟。
数据布局方案——数据完整性
如上所述,标准RAID***的一个问题是盘面损坏可能发生在盘片阵列的不常使用的区域。在另一个驱动器出现故障的情况下,经常不能确定损坏已经发生。在这种情况下,当RAID阵列重建该故障驱动器时,会传播并保存该损坏的数据。
上述散列机制提供对于在RAID下可用的数据破坏检测的附加机制。如在其他地方提及的,当存储大块时,为该大块计算并存储散列值。每次读取该大块的时候,都可以计算被检索的大块的散列值并与存储的散列值进行比较。如果该散列值不匹配(指示大块损坏),那么大块数据可以从冗余数据恢复。
为了最小化在其中可能发生盘片上数据损坏的时间窗口,将执行盘片数据常规扫描以尽快发现并校正损坏的数据。可选地,也允许执行对阵列读取的检查。
数据布局方案——卷(volume)
在后备卷中,不管阵列中盘片上可用存储空间量如何,总是要求阵列是固定尺寸——例如M千兆字节。假定该阵列包含实际存储空间的S字节,其中S<=M,并且可以将请求的数据存储在M千兆字节空间的位置L1、L2、L3等。如果所请求的位置Ln>S,那么用于Ln的数据必须存储在位置Pn<S。这通过基于Ln的包括查找表的索引Pn来进行管理,如图8所示。这种特征使得阵列与不支持卷扩展的操作***共同工作,所述操作***例如Windows、Linux、和苹果操作***。另外,该阵列可以提供多个都共享相同物理存储器的后备卷。每个后备卷都将具有专用查找表,但是将共享数据存储器的相同物理空间。
驱动器插槽指示器
如上所述,存储阵列包括一个或者多个驱动器插槽。每个驱动器插槽都可以是空的或者容纳硬盘驱动器。每个驱动器插槽具有能够指示四种状态的专用指示器,所述四种状态是:关闭、正常、降级和故障。该状态通常解释如下:
 
指示器状态 对阵列用户的含义
关闭 驱动器插槽为空并且对待***的附加驱动器是可用的
正常 插槽中的驱动器正确运行
降级 建议用户的操作:如果插槽为空,则向这个插槽增加驱动器;如果插槽已包含驱动器,则应该用另一个更高容量的驱动器替换该驱动器。                        
故障 请求用户的ASAP操作:如果插槽为空,则向这个插槽增加驱动器;如果插槽已包含驱动器,则用另一个更高容量的驱动器替换该驱动器。                    
在这个示例性实施例中,红/黄/绿发光二极管(LED)用作指示器。所述LED通常解释如下:
 
LED状态 指示器状态 可发生状态的示例情况 附图
关闭 关闭 插槽为空。阵列有可用空间。 9,10,12
绿色 正常 驱动器正确运行,阵列数据冗余并且阵列有可用盘空间。                   9,10,11,12
黄色 降级 阵列接近故障条件;盘片故障情况下,没有足够空间维护冗余数据。         11
红色 故障 该插槽中的盘片已经故障并且必须替换;阵列没有足够空间维护冗余数据存储而且必须增加更多空间。           10,12
图9示出了根据本发明示例性实施例的具有可用存储空间并按容错方式运行的示例性阵列。用存储设备填充插槽B、C和D,并且有充足存储空间可用于冗余地存储附加数据。插槽B、C和D的指示器是绿色(指示这些存储设备操作正确,阵列数据冗余,且该阵列具有可用盘片空间),而插槽A的指示器关闭(指示插槽A中不需要填充存储设备)。
图10示出了根据本发明示例性实施例的示例性阵列,其不具有足够空间用于维持冗余数据存储,并且必须要增加更大空间。用存储设备填充插槽B、C和D。插槽C和D中的存储设备是满的。插槽B、C和D的指示器是绿色(指示这些存储设备正确运行),而插槽A的指示器是红色(指示该阵列没有足够空间用来维持冗余数据存储以及插槽A中应当填充存储设备)。
图11示出了根据本发明示例性实施例的在故障情况下不能维持冗余数据的示例性阵列。插槽A、B、C和D用存储设备填充。插槽C和D中的存储设备是满的。插槽A、B、和C的指示器是绿色(指示它们正确运行),而插槽D的指示器是黄色(指示插槽D中的存储设备应当用具有更大存储容量的存储设备来填充)。
图12示出了根据本发明示例性实施例的示例性阵列,其中的存储设备已经故障。用存储设备填充插槽B、C和D。插槽C中的存储设备故障。插槽B和D的指示器是绿色(指示它们正确运行),而插槽C的指示器是红色(指示应当替换插槽C中的存储设备),而插槽A的指示器关闭(指示插槽A中不需要填充存储设备)。
下面说明本发明示例性实施例的软件设计。该软件设计基于六个软件层,其跨越从物理访问该盘片到与主机计算***通信的逻辑体系结构。
在这个示例性实施例中,文件***驻留在主机服务器上,例如Windows、Linux、或者苹果服务器,并访问如USB或者iSCSI设备的存储阵列。由主机请求管理器(HRM)处理经过主接口到达的物理盘片请求。主I/O接口将主USB或者iSCSI接口的表示协调至该主机(host),以及与HRM有接口。HRM协调来自主I/O接口的数据读/写请求,调度读和写请求,并在它们完成时协调这些请求的结果返回该主机。
本存储阵列的主要目的是保证一旦***接受数据,其按可靠方法来存储,使用***当前存储的最大量冗余。随着该阵列改变物理配置,而重新组织数据以维持(以及可能最大化)冗余。另外,基于压缩的简单散列用于减少使用的存储量。
最基本的层包括盘片驱动器,用来在不同盘片上存储数据。可以经由各种接口连接盘,例如经USB接口的ATA隧道。
所述盘片上的扇区被组织成区域、存储区和聚簇,其中每个都具有不同逻辑角色。
区域表示盘片上的一组连续物理块。在四驱动器***中,每个区域是1/12GB大小,并表示冗余的最小单位。如果发现区域中的扇区是物理损坏的,那么将放弃整个区域。
存储区表示冗余单位。存储区包括许多区域,可能在不同盘片上用来提供适当的冗余量。存储区将提供1GB的数据容量,但是可能需要更多的区域以便于提供冗余。不具有冗余的1GB需要12个区域的集合(1GB);1GB镜像存储区需要两组1GB的区域(24个区域);1GB三盘片条带化存储区将需要三组0.5GB的区域(18个区域)。不同存储区将具有不同冗余特征。
聚簇表示压缩的基本单位,并且是存储区之内的单元尺寸。它们当前是4KB:8 x 512字节扇区大小。盘片上的许多聚簇会包含相同数据。聚簇存取表(CAT)用于经由散列函数跟踪聚簇的使用。CAT在逻辑主地址和存储区中适当聚簇位置之间转换。
当向盘片写入时,使用散列函数来发现数据是否已经存在于该盘片上。如果是,CAT表中的适当项会被设置为指向现有聚簇。
CAT表驻留在其自己的存储区。如果超过该存储区大小,会使用附加存储区,并且使用表把逻辑地址映射到该存储区用于CAT的部分。替代地,预分配存储区用于包含该CAT表。
为了减少主写入等待时间并保证数据可靠性,日志管理器将记录全部写请求(或者写入盘片或者写入NVRAM)。如果***重启,在重启时要提交日志项。
盘片可以添加或者去除,或者如果发现区域已经损坏则可以让该区域退出。在任何这些情况下,布局管理器都可以在存储区中重组区域,以改变其冗余类型,或者改变存储区的区域构成(如果某个区域被损坏)。
由于存储阵列提供虚拟盘阵列因此通过改变物理盘空间的级别来返回,并且由于提供块级别的接口,当聚簇不再被文件***使用时就不是显然的。结果,所使用的聚簇空间将继续扩展。垃圾收集器(位于主机或者按固件形式)将分析该文件***以确定哪个聚簇已经空闲,并且从散列表中删除它们。
下表示出了根据本发明该示例性实施例的六个软件层:
 
层5:垃圾收集器,主接口(USB/iSCSI)
层4:主请求管理器
层3:CAT,HASH,日志管理器
层2:存储区管理器。分配/释放称作存储区的扇区块。知道SDM、DDM、SD3等,以处理差错和差错恢复。布局管理器             
层1:读/写物理聚簇/扇区。分配每张盘的区域。
层0:盘存取驱动器
图13示出了模块层次,其表示不同软件层和它们如何彼此相关。软件层优选地固定以便于提供清晰的API和描述。
垃圾收集器释放不再由主机文件***使用的聚簇。例如,当删除文件时,优选地释放用于包含该文件的聚簇。
日志管理器提供某种形式的写日志,从而在电源故障或者其他差错条件的情况下不丢失挂起的写操作。
布局管理器提供存储区相对于其区域的运行时再布局。这可能根据盘***/删除或者故障而发生。
聚簇管理器在一组数据存储区中分配聚簇。盘利用守护程序(diskutilization daemon)周期性检查空闲的盘片空间。
加锁表(Lock Table)处理写操作冲突问题后的读操作。
主请求管理器处理来自主机和垃圾收集器的读/写请求。写操作被传递到日志管理器,而读操作经由聚簇存取表(CAT)管理层来处理。
如上所述,在典型文件***中,一定量的数据通常实质上重复。为了减少盘空间利用,这种数据的多个复制不会写入该盘片。而是写入一个实例,相同数据的其他全部实例引用(reference)这一个实例。
在本示例性实施例中,任何时间***在数据聚簇上操作(例如8个物理扇区),而这是散列的单位。使用SHA1算法来产生160位的散列。这样具有很多好处,包括好的唯一性,并且在许多处理器中被片上支持。全部160位将存储在散列记录中,但是仅最低有效16位被用作散列表中的索引。其他匹配该最低16位的实例将经由链接表链接。
在这个示例性实施例中,仅一个读/写操作可以同时发生。为了性能的目的,当向盘片写聚簇时不允许发生散列分析。而散列分析将由散列管理器作为后台活动而发生。
从日志的写队列读取写请求,并处理以完成写操作。为了保证数据一致性,如果已经有写操作在该聚簇上活动,必须延迟该写操作。在其他聚簇上的操作可以不受阻碍的进行。
除非写整个聚簇,否则写入的数据将需要与现有存储在该聚簇中的数据归并。根据逻辑扇区地址(LSA),定位聚簇的CAT项。从这个记录获得散列关键字、存储区和聚簇偏移信息,然后它们可用于搜索散列表以发现匹配。这就是聚簇。
双重散列该散列表可能是必需的;一旦经由SHA1摘要(digest),然后就通过存储区/聚簇偏移用于改进正确散列项的查找速度。如果已经使用了散列记录,引用计数被递减。如果引用计数现在为零,并且没有由散列项快照引用,该散列项和聚簇可被释放回它们各自的空闲表。
现在归并原来的聚簇数据和聚簇的更新扇区,而且数据要被再散列。新的聚簇从空闲表中被剔除,把归并数据写入该聚簇,向散列表中增加新项,CAT表中的项更新为指向该新聚簇。
作为更新散列表的结果,该项同样添加到用于由后台任务处理的内部队列。这个任务将把新添加的聚簇和散列项与匹配该散列表行地址的其他散列项进行比较,如果它们重复,将结合记录,在适当时释放散列项和CAT表项。这保证了写等待时间不由这个活动负担。如果在这个处理期间发生故障(例如掉电),则可能删除各种表,导致丢失数据。各个表应当以这种方式管理,最终的提交是原子的(atomic),或者日志项可以再运行,如果它没有全部完成的话。
下面是写逻辑的伪代码:
While(stuff to do)
WriteRecord=journalMgr.read();
1sa=writeRecord.RetLsa();
catEntry=catMgr.GetCATEntry(1sa);
if(catMgr.writeInProgress(catEntry))delay();
originalCluster=catMgr.readCluster(catEntry);
originalHash=hashMgr.calcHash(originalCluster);
hashRecord=hashMgr.Lookup(originalHash,zone,offset);
if((hashRecord.RefCount==1)&&(hashRecord.snapshot=0))
       hashRecord.free();
       originalCluster.free();
//注意这里有某种优化,可重用该聚簇而无须释放或重新分配它。
//otherwise,still users of this cluster,so update & leave it alone
hashRecord.RefCount--;
hashRecord.Update(hashRecord);
//现在添加新记录
mergedCluster=mergeCluster(originalCluster,newCluster);
newHash=hashMgr.calcHash(mergedCluster);
newCluster=clusterMgr.AllocateCluster(zone,offset);
clusterMgr.write(cluster,mergedCluster);
zoneMgr.write(cluster,mergedCluster);
...
hashMgr.addHash(newHash,newCluster,zone,offset)
     (internal:queue new hash for background processing)
catMgr.Update(1ba,zone,offset,newHash);
//我们已成功完成该日志项。移至下一个。
JournalMgr.next();
读请求同样按每次一个聚簇(相对于“扇区”)来处理。读请求不通过上述的与散列相关的处理。而是,使用主逻辑扇区地址来引用(reference)CAT并获得存储区编号和聚簇到该存储区的偏移。读请求应当在CAT缓存中查找CAT表项,并且必须在设置了写进行位(write-in-progress bit)时延迟。其他读/写可以不受阻止的进行。为了改进数据完整性检查,当读聚簇时,其将被散列,并且该散列值与存储在散列记录中的SHA1散列值进行比较。这将需要使用该散列、存储区和聚簇偏移作为进入散列表的搜索关键字。
分配聚簇以使用尽可能少的存储区。这是因为存储区直接对应于盘驱动器利用率。对每个存储区而言,硬驱动器阵列上有两个或者更多区域。通过最小化存储区数量,物理区域的数量最小化,并由此减少硬盘驱动器阵列上的空间消耗。
聚簇管理器分配来自一组数据存储区的聚簇。使用链接列表跟踪存储区中的空闲聚簇。但是,空闲聚簇信息在盘片上存储为位图(32KB每存储区)。该链接列表从位图(bit map)动态地构造。最初,在存储器中创建特定量空闲聚簇的链接列表。当分配聚簇时,该列表收缩。在预定最低点,从盘片上的位图提取表示空闲聚簇的新链接列表节点。这样,为了发现用于分配的空闲聚簇,不需要解析位图。
在这个示例性实施例中,散列表是64K记录表(由散列的低16位索引)并且具有下列格式:
 
偏移 位尺寸 名称 值/有效范围 说明
0 160 Sha 1散列 完整SHA1散列摘要
16 RefCount 该散列的实例数;如果超出16位我们该怎么办                            
18 聚簇偏移 存储区中的聚簇偏移
14 存储区# 包含该聚簇的存储区#
8 快照 每快照实例一位用于指示该聚簇项由该快照使用。该模型支持8个快照(可能仅7个)                          
全零的聚簇可以相当常见,因此全零的情况可以视作特殊情况,例如,使得它永远不被删除(因此覆盖计数将不是问题)。
当多个散列具有相同最低有效散列时,或者当两个散列项指向不同数据聚簇时,使用空闲散列记录的链接列表。在两种情况下,空闲散列记录都将从该列表中取出,并经由pNextHash指针链接。
散列管理器将整理添加到散列表中的项并将合并该盘片上的相同聚簇。随着新的散列记录增加到该散列表中,消息将被传递到散列管理器。这可由散列管理器自动执行。作为后台活动,散列管理器即将处理其队列上的项。将比较全部散列值以发现其是否匹配任何现有散列记录。如果是,将同样比较完整聚簇数据。如果聚簇匹配,则新散列记录可以被废除回空闲队列,散列记录计数递增,并且重复的聚簇将被返回聚簇空闲队列。当合并记录时,散列管理器必须注意向前传播快照位。
聚簇存取表(CAT)包含间接指针。该指针指向存储区中的数据聚簇(0是第一数据聚簇)。一个CAT项引用单个数据聚簇(暂定4KB大小)。使用CAT(连同散列)使得当存在大量重复的数据时减少盘片使用需求。单个CAT通常表示连续存储块。CAT包含在非数据存储区中。每个CAT项是48位。下表示出每个项如何布局(假定每个数据存储区包含1GB数据):
 
位0-17 位18-31 位32-47 位48-63[...]
存储区中数据聚簇的偏移   包含数据的存储区#    散列关键字 保留。候选包括垃圾收集器写位;快照位;快照表格散列关键字    
希望CAT适合64位,但这不是必需的。2TB阵列的CAT表当前是约4GB大小。每个CAT项指向包含该数据的存储区和存储区编号。
图14显示CAT如何用于存取存储区中的数据聚簇。冗余数据通过CAT中的一个以上的项来引用。两个逻辑聚簇包含相同数据,因此它们的CAT项指向相同物理聚簇。
散列关键字项包含完整聚簇的160位SHA1散列值的16位摘取。这个项用于在写操作期间更新该散列表。
CAT中的每个项有足够的位用于引用16TB的数据。但是,如果每个数据聚簇都彼此不同(根据内容),那么只需要3个存储区的CAT项来引用2TB的数据(每个存储区都是1GB大小,并由此可以存储1GB/大小的CAT项。假定6字节CAT项,则178956970CAT项/存储区,即表引用大约682GB/存储区,如果每个聚簇是4K的话)。
主逻辑扇区转换表用于将主逻辑扇区地址转换成存储区编号。相应于主逻辑扇区地址的CAT的一部分将驻留在这个存储区中。注意每个CAT项表示4096字节的聚簇大小。这是八个512字节扇区。下面显示主逻辑扇区转换表的表示:
 
启动主逻辑扇区地址 结束主逻辑扇区地址 CAT的存储区#
0(聚簇#0) 1431655759(聚簇#178956969)
1431655760(聚簇#178956970) ...
可以预分配存储区以保持整个CAT。替代地,存储区可以分配给CAT,如需要更多CAT项。由于CAT把2TB虚拟盘片映射至主扇区地址空间,因此由主机做硬盘分区或者格式化期间将引用CAT的很大部分。为此,要预分配存储区。
CAT是大的1GB/存储区表。使用的工作聚簇集将是来自这个大表的后备集。为了性能的原因,活动的项(可能暂时)可以在处理器存储器中缓存而不总是从盘片读取。至少有两个选项用于填充该缓存——来自CAT的个别项,或者来自CAT的整个聚簇。
因为写进行(write-in-progress)与CAT缓存表相组合,所以需要确保该缓存中保持全部未完成的写。因此,需要该缓存至少与未完成写请求的最大数量一样大。
缓存中的项将是聚簇大小(即4K)。需要知道聚簇上的操作中是否还有写进行。这个指示可以作为标志存储在该聚簇的缓存项中。下表显示CAT缓存项的格式:
 
位0-17 位18-31 位32-47 位48-63
存储区中数据聚簇的偏移 包含数据的存储区# 散列关键字 位48:写进行位49:脏    
缓存项中的写进行标志有两种含义。首先,它指出写操作正在进行,并且在这个聚簇上的任何读(或者附加写)必须延迟,直到完成该写操作。其次,当设置该位时,绝不能刷新缓存中的这个项。这部分地保护了该位的状态,同时反映了这个聚簇当前被使用的事实。另外,这意味着缓存的尺寸必须至少与未完成的写操作数量一样大。
在聚簇的缓存项中存储写进行指示符的一个优点是它反映了操作正在进行的事实,省去了使用其他表格,并且省去了另外的基于散列的查找,或用于检查该位的表查找。该缓存可以是写延迟缓存。只需要当写操作完成时,将缓存项写回盘片,虽然将其更早写回可能更好。散列函数或者其他机制可用于增加可散列的未完成的写项。
一种替换方法是缓存整个CAT的聚簇(即各项的4K项)。这通常有助于性能,如果有好的访问空间定位的话。需要注意,因为CAT项是48位宽,因此缓存中没有全部的项。下表显示聚簇CAT缓存项的示例:
Figure A200780025208D00411
该表尺寸可以是4096+96(4192字节)。假定需要具有250项的缓存大小,该缓冲可以占据大约1MB。
通过逻辑CAT项地址的适当屏蔽可以计算首项和末项是否未完成。缓存查找例程应当在加载项之前执行这个过程并且应当加载需要的CAT聚簇。
当主机发送扇区(或者聚簇)读请求时,其通过逻辑扇区地址发送。该逻辑扇区地址用作到CAT的偏移以获得包含主机所请求的实际数据的存储区中的聚簇的偏移。结果是存储区编号和到该存储区的偏移。该信息传递给层2软件,然后其从(多个)驱动器提取原始(多个)聚簇。
为了处理主机从未写过的聚簇,所有CAT项被初始化为指向包含全零的“默认”聚簇。
日志管理器是两级写(bi-level write)日志***。该***的一个目标是保证可以从主机接收写请求并快速向该主机返回指示,数据已经在保证其完整性的同时被接收。另外,该***需要保证在任何盘写入期间的***复位的情况下,不会有块级数据或者***元数据(例如CAT和散列表项)的损坏或丢失。
J1日志管理器尽快缓存所有从主机向盘片的写请求。一旦写入成功完成(即数据已经被阵列接收),主机就可以发信号指示操作已经完成。日志项允许当从故障恢复时,恢复写请求。日志记录包括要写入盘片的数据,以及与写事务相关的元数据。
为了减少盘片读/写,与写入相关的数据将被写入空闲聚簇。这样将自动镜像该数据。将从空闲聚簇列表去除空闲聚簇。一旦写数据,空闲聚簇就必须写回盘片。
日志记录将被写回非镜像存储区上的日志队列。每个记录都将是扇区大小,并且对齐到扇区边界,以使得减少日志写期间的故障会破坏以前日志项的风险。日志项在记录的末尾包含唯一的、递增的顺序计数,因此可以轻易识别队列的结尾。
日志写操作在主机队列处理线程中同步发生。日志写必须按照它们写入盘片的次序来排序,因此在任何时候只有一个线程可以写入该日志。J1表中日志项的地址可以用作唯一标识符,因此J1日志项可以与J2日志中的项相关联。一旦写入日志项,将向主完成队列传递事务完成通知。现在可以执行写操作。要保证在完成日志写之前延迟任何后续的对该聚簇的读,这一点很重要。
下表示出了J2日志记录的格式:
 
大小(位) 名称 细节
32 LBA 逻辑块地址
14 存储区 相关聚簇的存储区#
18 偏移 相关聚簇的聚簇偏移
16 大小 数据大小
16 顺序号 增量顺序号以易于发现队列结束
每个日志记录都对齐到扇区边界。日志记录可以包含存储区/偏移/大小的元组的阵列。
图15示出了根据本发明示例性实施例的日志表更新。尤其是当接收到主机写请求时,更新该日志表,分配一个或多个聚簇,并向(多个)聚簇写入数据。
处理主日志请求。这引起聚簇被写入,并同样引起更新元数据结构,所述结构必须投影回盘片(例如CAT表)。重要的是保证这些元数据结构正确地写回盘片,即使当***发生复位。为此将使用低级盘片I/O写(J2)日志。
为了处理主接口日志项,应当确定元数据结构的适当的操作。改变应当发生在存储器并且要产生对各盘片块改变的记录。这种记录包含在盘片上应该进行的实际改变。更新的每种数据结构都用J2日志管理器来登记。这种记录应当记录到基于盘片的日志,并用标识符来加印戳。当记录与J1日志项相连接,标识符就应当被链接。一旦存储该记录,就可以进行盘片的改变(或者可以经由后台任务执行)。
逻辑上J2日志存在于层3。它用于把那些涉及经存储区管理器的写的元数据更新登记到日志。当发生日志项的再现时,将使用存储区管理器方法。日志本身可以存储在专门区域。由于日志项的短生命期,不对其做镜像。
不是所有的元数据更新都需要经过J2日志,尤其是,如果对结构的更新是原子的。区域管理器结构可不使用J2日志。可检测区域管理器位图中的不一致,例如,使用完整性检测后台线程。
用于J2日志的一种简单方法是包含单个记录。一旦该记录提交给盘片,就被重放,更新盘片上的结构。可具有多个J2记录,并使后台任务提交盘片上的更新记录。这种情况下,需要密切注意日志和与各种数据结构相关的任何缓存算法之间的交互作用。
一旦提交给盘片,初始方法就将运行日志项。原则上,会有J2的多个并发的用户,但是J2日志会在一个时候锁定到一个用户。即使在这种情况下,一旦提交,也会提交日志项。
重要的是保证在任何更高级的日志活动发生前修复元数据结构。在***重新引导时,分析J2日志,并将重现任何记录。如果日志项与J1日志项相关,则将J1日志项标记为已完成,并可以被删除。一旦完成全部J2日志项,元数据就处于可靠状态,并且可以处理任何剩余J1日志项。
J2日志记录包括下列信息:
·操作号
·每个操作包含:
。J1记录指示符
。待写入存储区/数据偏移
。待写入数据
。数据大小
。到数据聚簇的偏移
·日志记录标识符
·结束标记
这种方案可以按类似于J1日志的方案来操作,例如,使用顺序号用于识别J2日志项的结尾并将J2日志项置于扇区边界处。
如果设置J1数据指针指示符,那么这个特殊操作会指向J1日志记录。主机提供的写数据不必复制到日志项。操作阵列将可以定义为固定大小,因日志记录中操作的最大数量是已知的。
为了允许从低级写操作期间的扇区损坏(例如由于掉电)恢复,J2日志可以存储被写入的整个扇区,使得如果需要该扇区可以根据这个信息来重写。作为替换或附加,为每个改变的扇区计算的CRC可以存储在J2记录中,并与从盘片扇区(例如由存储区管理器)计算的CRC进行比较,以确定是否需要写操作的重放。
不同日志可以存储在不同位置,因此提供接口层用于写日志记录到备份存储。该位置应当是非易失的。两种候选是硬盘和NVRAM。如果J1日志存储到硬盘,它将存储在J1日志非镜像存储区中。J1日志是存储在NVRAM的候选。J2日志应当存储在盘片上,尽管它可以存储在专门区域中(即,不冗余,因为它具有短生命期)。将J2日志存储在盘片的优点是,如果在内部数据结构更新期间存在***复位,那么该数据结构可以返回到一致状态(即使该单元长时期掉电)。
存储区管理器(ZM)分配更高级软件需要的存储区。向ZM的请求包括:
a.分配存储区
b.解除分配/释放存储区
c.控制数据读/写传递到L1(?)
d.读/写存储区中的聚簇(给出聚簇偏移和存储区号)
ZM管理冗余机制(随驱动器的数量和它们的相关大小而改变)并处理镜像、条带化、以及用于数据读/写的其他冗余方案。
当ZM需要分配存储区时,它将请求两个或者更多区域集合的分配。例如,可以为1GB的数据分配存储区,组成这个存储区的区域将可以包含1GB数据,包括冗余数据。对镜像机制,存储区将由各为1GB的两个区域集合构成。另一个示例,3盘片条带化机制使用各为1/2GB的3组区域。
ZM使用ZR转换表(6)以发现组成该存储区的每组区域的位置(驱动器号和起始区域号)。假定是1/12GB区域大小,将需要最多24个区域。24个区域组成2 x 1GB的存储区。因此ZR转换表包含24列,用于提供驱动器/区域数据。
ZM通常工作如下:
a.在SDM的情况下(单个驱动器镜像),使用24列。驱动器号在所有列中都相同。每个项对应于组成该存储区的物理驱动器上的一个物理区域。前12个项指向包含该数据的一个副本的区域。后12个项指向包含该数据的第二个副本的区域。
b.DDM(双驱动器镜像)的情况与SDM的情况相同,只是前12个项的驱动器号与后12个项中的驱动器号不同。
c.在条带化的情况下,可以使用三个或者更多列。例如,如果跨三个驱动器使用条带化,则需要来自三个不同驱动器的六个区域(即使用18个项),前6项包含相同驱动器号,接下来的6项包含另一个驱动器号,以及随后的6项包含第三驱动器号,未使用的项置为0。
下表显示存储区区域转换表的表示法:
 
存储区# 存储区大小   每个区域大小 使用 驱动器/区域(1) 驱动器/区域(2) ... 驱动器/区域(23)    驱动器/区域(24)   
0 1GB 1/12 SDM 0,2000 0,1000 ... 0,10 0,2000
1 1GB 1/12 DDM 0,8000 0,3000 ... 1,2000 1,10
2 1GB 1/12 SD3 3,4000 3,3000 4,2000 4,1000
...
N 空闲
当读/写请求到达时,对ZM提供存储区号和到该存储区的偏移。ZM查看ZR转换表中用于解决该存储区的冗余机制,并使用该偏移用于计算哪个驱动器/区域包含必须读/写的扇区。然后该驱动器/区域信息提供给L1层以进行实际的读/写。在“使用(usage)”列中的另外可能项是“空闲”。“空闲”指存储区被定义但当前没有使用。
聚簇管理器分配并解分配数据存储区集合中的聚簇。
布局管理器提供存储区关于其区域的的运行时再布局。这可根据盘片***/除去或者故障而发生。
层1(L1)软件知道物理驱动器和物理扇区。除了其他,L1软件分配物理驱动器的区域用于存储区管理器来使用。在这个示例性实施例中,每个区域具有用于四驱动器阵列***的1/12GB大小(即174762扇区)。具有更大最大数量驱动器(8,12或16)的***将具有不同的区域大小。
为了创建包含具有SD3(在三驱动器上条带化;两个数据加奇偶校验)的1GB数据存储区,我们应当使用各在三驱动器中的六个区域(每个驱动器为6 x 1/12=1/2GB)。
当存储区被移动或者重配置时,例如根据镜像到条带化,使用这种区域方案允许我们提供更好的盘片空间利用。L1软件利用区域位图(bitmap)跟踪物理驱动器上的可用空间。每个驱动器都有一个位图。每个区域都用位图中的两位表示,用于跟踪该区域是否空闲、使用、或者损坏。当L2软件(ZM)需要创建存储区时,它从L1层获得一组区域。构成存储区的区域不必在盘片中连续。
向L1的请求包括:
a.数据读/写(到一组区域中的聚簇)
b.控制数据读/写(表格、数据结构、DIC等)
c.分配区域的物理空间(1驱动器内的实际物理扇区)
d.解除分配区域
e.向物理驱动器的物理聚簇的原始读/写(raw read/write)
f.从一个区域向另一个复制数据
g.将区域标记为损坏。
空闲区域位图可以是大型的,因此查找空闲项(最糟的情况是没有空闲的项)的搜索可能缓慢。为了改进性能,部分位图可以预加载到内存中,而且空闲区域的链接列表可以存储在内存中。每个活动存储区都有列表。如果到达列表上的低水位线,可以从盘片读取更多的空闲项作为后台活动。
盘片管理器运行在层0。如下表所示,有两个子层,分别是抽象层和与物理存储阵列通信的设备驱动器。
 
层0a:抽象
层0b:到设备驱动器的OS接口和设备驱动器
物理存储阵列硬件
设备驱动器层同样可以包含多个层。例如,对使用USB驱动器的存储阵列,在USB传输层的上面有ATA或者SCSI堆栈。抽象层提供独立于存储阵列中使用的驱动器种类的基本读/写功能。
可使用一个或者多个盘片存取队列来对盘存取请求进行排队。在我们的***中,盘存取速度将是一个关键的性能瓶颈。我们想要保证盘片接口尽可能在所有时间保持忙碌,从而减少一般的***延迟并改进性能。请求盘的接口应当具有异步接口,使用回调(callback)处理器用于当已经结束盘操作时来完成操作。一个盘请求的完成将自动启动队列中的下一个请求。每个驱动器有一个队列,或者全部驱动器用一个队列。
层1将按逻辑驱动器号来引用驱动器。层0将逻辑驱动器编号转换为物理驱动器参考(例如/dev/sda或作为open()调用的结果的文件设备号)。为灵活起见(经USB扩展),每个逻辑驱动器应当一个队列。下面是对象定义和数据流的一些示例。
MSG对象:从主机引入
   Lba
   Length
   LUN
   Data
REPLY对象:引出到主机
   Status
   Host
   Length
   Data
数据读
数据读流程:
rc=lockm.islocked(MSG)
rc=catm.read(MSG,REPLY)
status=zonem.read(zone,offset,length,buffer)
regionm.read(logical_disk,region_number,region_offset,
length,buffer)
diskm.read((logical_disk,offset,length,buffer)
数据写
数据写流程:
diskutildaemon.spaceavailable()
journalm.write(MSG)
     lockm.lock(msg)
     zonem.write(journal_zone,offset,length,buffer)
         regionm.write-日志项
              diskm.write
         regionm.write-结束标记
              diskm.write
catm.write(MSG)
     catm.readcluster(1ba,offset,length,buffer)
-如果需要向聚簇归并扇区
-归并
“if(1ba已经分配)”
      catm.readhashkey(1ba)
      hashm.lookup(hashkey,zone,offset)
      “if(refcount=1)”
             hashentry.getrefcount()
             hashm.remove(hashentry)
           hashm.add(shal,zone,offset)
           zonem.write(zone,offset,length,buffer)-写数据
     “else”
           hashentry.removeref()
           clusterm.allocate(zone.offset)-分配新聚簇
                zonem.createzone(zone)
                    regionm.unusedregions(logical_disk)
regionm.allocate(logical_disk,number_regions,region_list)
zonem.write(...)             -写数据
         hashm.add(...)            -向散列表增加新项
“endif”
hashdaemon.add(1ba,sha1)         -增加到散列新进程Q
      catm.writehashkey(1ba,hashkey)-向CAT复制新散列关键字
“else”
      catm.update(1ba,zone,offset,hashkey)-用新项更新CAT
      “endif”
  journalm.complete(MSG)
       lockm.unlock(MSG)
           -更新r/w指针
下面是物理盘布局的说明。如上所述,每个盘片都划分为固定尺寸的区域。在这个示例性实施例中,每个区域具有用于四驱动器阵列***的1/12GB大小(即174763扇区)。具有更大最大数量驱动器(8,12或16)的***将具有不同的区域大小。开始,保留区域号0和1用于区域管理器并且不用于分配。区域号1是区域号0的镜像。对给定的硬盘,区域管理器所使用的所有内部数据都存储在这个硬盘的区域号0和1中。这个信息并不重复(或镜像)到其他驱动器。如果区域0或1中有错误,可以分配其他区域来保留该数据。盘片信息结构指向这些区域。
每个盘片将包含识别该盘片的DIS、它所属于的盘片组和该盘片的布局信息。该硬盘上的第一扇区被保留。DIS存储在第一扇区后的第一非损坏聚簇中。DIS包含相当1KB的数据。有DIS的两个副本。DIS的副本将存储在其所属于的盘片上。另外,该***中的每个盘片都将包含该***中盘片的全部DIS副本。下表显示DIS格式:
 
偏移 尺寸 名称 值/有效范围 描述
0 32字节 DisStartSigniture “_DISCINFORMATIONCLUSTER START_” 识别聚簇为可能盘片信息聚簇。聚簇必须经CRC以检查其有效。                
字16 DisVersion 二进制非零号 识别结构版本。仅当结构布局或内容意思发生实质改变使得其与固件的先前版本不相容时,才改变这个值。      
字16 disClusterSize 二进制非零号 使聚簇在该盘的512字节扇区数                   
字32 DisCRC CRC-32 DIS结构的CRC
字32 disSize!!! DIS聚簇的尺寸(字节)
字32 DisDiskSet 该盘所属的盘组
字32 disDriveNumber 0至15 盘组中的驱动器号
字32 disSystemUUID 该盘属于的机箱的UUIN
字64 DisDiskSize 按扇区数的盘尺寸
字32 DisRegionSize 按扇区数的区域尺寸
字64 disRegionsStart 扇区到盘片上的第一区域的起始的偏移            
字64 disCopyOffset 到存储该DIS副本处的扇区偏移。每个DIS的disCopyOffset互相参考   
字64 disDISBackup 到包含全部盘片的DIS副本的表的扇区偏移         
 
字32 disDISBackupSize             DIS备份部分的DIS编号
字32 disRIS0Region 存储RIS的第一副本的区域编号                 
字32 disRIS0Offset 在区域中到该区域信息结构位于的扇区的扇区偏移数  
字32 disRIS1Region 用于RIS的副本
字32 disRIS1Offset 用于RIS的副本
字32 disZIS0Region 存储区信息结构所位于区域的区域号。仅当ZTR位于该盘时使用。否则,其为零。
字32 disZIS0Offset 到区域中ZIS的偏移
字32 disZIS1Region ZIS的副本所位于区域的区域号。仅在单驱动器***中使用。其它情况下,这个项为0。
字32 disZIS1Offset 到该区域中ZIS的偏移
区域管理器在区域信息结构中存储其内部数据。下表显示该区域信息结构格式:
 
偏移 尺寸 名称 值/有效范围    描述
0 字64 risSignature 指示这个是RIS
字32 risSize 该结构(字节)的尺寸
字32 risChecksum 校验和
字32 risVersion 该表的版本(和位图)
字32 risDrive 逻辑驱动器号
字64 risStartSector 区域利用位图的绝对起始扇区(盘片中)
字32 risSectorOffset 当前区域中区域利用位图的扇区偏移
字32 risSizeBitmap 位图尺寸(位?)
字64 RisNumberRegions 该盘片上区域号(同样隐含位图尺寸)
存储区信息结构提供可以发现存储区表的存储区管理器上的信息。下面显示该存储区信息结构格式:
 
偏移 尺寸 名称 值/有效范围    描述
0 字64 zisSignature 指示这是ZIS
8 字32 ZisSize 该结构的尺寸(字节)
12 字32 zisChecksum 校验和
16 字32 zisVersion 该表的版本(和位图)
20 字16 zisFlags 如果该盘片用于包含存储区信息位14-15则位0=1:冗余类型(SDM或者DDM)     
22 字16 zisOtherDrive 包含存储区表的其他副本的驱动器的逻辑驱动器号                        
24 字32 zisNumberRegions 用于包含存储区表的每个副本的区域号。等于存储区表节点的编号。            
28 字32 zisStartOffset 指向用于包含存储区表的区域链接表开始的字节偏移。该链接列表中的每个项称作‘存储区表节点’                  
字32 zisNumberofZones ***中的存储区编号(存储区表中的项)
字32 zisZoneSize 按字节的存储区尺寸
高级信息存储区包含存储区表和其他由高级管理者使用的表。这将使用镜像进行保护。
下表显示该存储区表节点格式:
 
尺寸 名称 描述
字32 ZtNextEntry 到链接列表中的下一个项的指针
字32 ZtCount 这个项的计数
字64 ZtRegion 区域数
下面描述存储区信息布局。存储区表节点的链接列表以如下方式放置在ZIS后:
 
存储区信息结构
首存储区表节点(16字节)
...末存储区表节点(16字节)
这种信息存储在存储区表区域中。
图16示出了根据本发明示例性实施例的驱动器布局。前两个区域是互为副本。第三(可选)存储区表区域包含该存储区表。在具有一个以上驱动器的***中,只有两个驱动器包含ZTR。在仅具有一个驱动器的***中,两个区域用于保留该ZTR的两个(镜像)副本。DIS包含有关RIS和ZIS位置的信息。注意RIS的第一副本不必在区域0中(例如,如果区域0包含坏扇区,则可以位于不同区域)。
存储区管理器需要在***启动时加载该存储区表。为此,其从DIS提取区域号和偏移。这将指向ZIS的开头。
特定模块(例如CAT管理器)在存储区中存储它们的控制结构和数据表。层3和更高层中的模块的所有控制结构由存储在存储区0中的结构来引用。这意味着,例如,实际CAT(聚簇分配表)位置由存储区0中存储的数据结构来引用。
下表显示存储区0信息表格式:
 
偏移 尺寸 名称 值/有效范围    描述
0 字64 zitSignature 指示这是ZIT
字32 zitSize 该结构的尺寸(字节)
字32 zitChecksum 该结构的校验和
字32 zitVersion 该结构的版本
字32 zitCATLStartOffset CAT链接列表的起始字节偏移(在该存储区中)                             
字32 zitCATSize CAT链接列表中的节点数。等于包含该CAT的存储区数                    
字节64   zitCATAddressable CAT所支持的最大LBA。有效CAT尺寸
字32 ZitHTStartOffset 散列表链接列表的起始字节(这个存储区中)                                
字32 zitHTNumberNodes 散列表链接列表中的节点数
字64 ZitHTSize 按字节的散列表数据尺寸
CAT链接列表是描述包含CAT的存储区的节点链接列表。下表显示CAT连接列表节点格式:
 
尺寸 名称 描述
字32 cat11NextEntry 到链接列表中的下一个项的指针
字16 cat11Count 这个项的计数
字16 cat11Zone 包含CAT的该部分的存储区数
散列表链接列表是描述保持散列表的存储区的节点的链接列表。下表显示该散列表链接列表节点格式:
 
尺寸 名称 描述
字32 ht11NextEntry 到链接列表中的下一个项的指针
字16 ht11Count 这个项的计数
字16 ht11Zone 包含这个散列表部分的存储区数
图17示例根据本发明示例性实施例的存储区0的布局以及其他存储区如何被引用。
如上所述,冗余集是为数据集提供冗余的一组扇区/聚簇。备份某个区域包括将一个区域的内容复制到另一个区域。
在数据读取出错的情况下,较低级软件(盘管理器或者设备驱动器)在最初失败尝试之后再做两次读请求的尝试。故障状态传递回存储区管理器。存储区管理器接着尝试根据盘片阵列中冗余聚簇来重构所请求(通过读)数据。该冗余数据可以是镜像的聚簇(用于SDM、DDM)或者一组包括奇偶校验的聚簇(条带化实施)。接着重构数据传递回主机。如果ZM不能重构该数据,则将读报错传递回主机。存储区管理器发送差错通知分组给差错管理器。图18示例根据本发明示例性实施例的读报错处理。
在数据写出错的情况下,较低级软件(盘管理器或者设备驱动器)在最初失败尝试之后再两次尝试写请求。故障状态传递回存储区管理器。存储区管理器发送报错通知分组给差错管理器。
当数据写在这个级别执行时,冗余信息同样写入盘片。这样,只要仅一个聚簇具有写差错,后续的读可以重构该数据。如果有多个盘差错并且不能读或者写冗余信息,则有至少两种可能途径:
a.向主机返回写差错状态。把与该冗余集相关联的所有区域备份至新分配的不包含坏扇区的区域。
b.延迟写。把与该冗余集相关联的所有区域备份至新分配的不包含坏扇区的区域。随后,在新分配区域中的适当聚簇上写(连同全部冗余部分,例如奇偶校验等)。单独的写队列将用于包含已经被延迟的写。
因为写状态可能已经发送到主机作为日志成功写入的结果,所以方法(a)是有问题的,因此主机可能不知道已经有差错。一种替换是报告读的故障,但是允许写。CAT中的某个位用于跟踪应当返回坏的读的特别LBA。
图19示例根据本发明示例性实施例的写差错处理。
差错管理器(EM)检查聚簇以发现其是否真的损坏。如果是,则认为整个区域损坏。该区域中的内容复制到相同盘的新分配区域上。然后标记当前区域损坏。当在区域上复制时,当遇到坏扇区时,差错管理器将在必要时重构数据。如20是示例根据本发明示例性实施例的由差错管理器备份坏区域的逻辑流程图。
如果有数据读差错且差错管理器不能重构给定聚簇的数据(例如,由于在整个冗余集的读差错),那么接着使用零代替不能重构的数据。在这种情况下,将同样必须备份其他包含坏扇区的区域(来自相同冗余集)。再次将使用零代替不能重构的数据。
一旦执行了冗余集复制,EM禁用对应于存储区这部分的聚簇的存取。然后更新存储区表以指向新分配区域。随后再启用对聚簇的存取。
这个示例性实施例被设计为支持八个快照(其允许使用一个字节指示特定快照实例是否使用散列/聚簇项)。有两个表涉及快照:
1.需要存在每个快照的CAT表,以捕获逻辑扇区地址与包含用于LSA的数据的盘片上的聚簇之间的关系。最终,每快照CAT必须是在快照发生时CAT的副本。
2.***散列表,其在散列值和数据聚簇之间映射。散列函数返回相同结果,无论使用哪个快照实例,并且对全部快照结果都是一样的。这样,这个表必须理解唯一聚簇是否由任何快照使用。散列聚簇项不能被释放,或者被新数据替换,除非没有使用该散列项的快照。
总是有当前和被添加的快照。当散列项创建或者更新时,我们将需要把当前快照号应用到散列项。当制作快照时,将递增当前快照号。
通过查找散列表并且发现任何具有退出快照位设置的散列项并清空该位,由此来释放不再被任何快照需要的聚簇/散列项。如果该快照字节现在是零,则散列项可以从该表中删除,并且可以释放该聚簇。
为了预防与添加到散列树的任何新项的冲突(因为新快照号与退出快照号相同),仅允许批准7个快照,最后的(第八个)快照是正退出的快照。可以以后台活动来查找散列表。
为了创建快照,无论主CAT何时更新,都可以写入第二CAT存储区。这些更新可以被排队,并且影子CAT可以按其他任务来更新。为了快照,影子CAT成为快照CAT。
一旦进行快照,可以离开后台处理以将这个快照表复制到新存储区成为新快照CAT。可以使用队列,使得不处理影子CAT队列,直到CAT复制完成。如果在更新影子CAT之前发生故障(队列中的项可能丢失的情况),则在阵列联机之前可以根据最初CAT表执行再投影。
替代地,当需要快照时,“增量”的集合加上最初CAT副本可以组成快照。然后后台任务可根据这些信息重建完整快照CAT。这会需要一点或者不需要停机时间来做此快照。其间,可能要为后续的快照收集另一组“增量”。
感知文件***的存储***
如上所述,本发明的实施例对主机文件***的数据结构(即,元数据)进行分析,以便确定所述主机文件***的存储使用并基于所述主机文件***的存储使用对物理存储进行管理。为了方便,该功能此后可被称作“回收器”。可包括此后被称作“监视器”的类似功能来监视存储使用,但是并非必需对物理存储进行管理。下面讨论回收器和监视器这两者。
图27是根据本发明示例性实施例的计算机***2700的概念框图。除其它部件之外,计算机***2700包括主机计算机2710和存储***2720。除其它部件之外,主机计算机2710包括主机操作***(OS)2712和主机文件***2711。除其它部件之外,存储***2720包括感知文件***的存储控制器2721和存储2722(例如,包括一个或多个组装盘片驱动器的阵列)。除其它内容之外,存储2722被用来存储存储控制器数据结构2726、主机OS数据结构2725、主机文件***数据结构2723和用户数据2724。感知文件***的存储控制器2721在存储控制器数据结构2726中存储各种类型的信息(由感知文件***的存储控制器2721和存储控制器数据结构2726之间的虚线表示),诸如包括到OS分区的引用的分区表(由存储控制器数据结构2726和主机OS数据结构2725之间的虚线表示)。主机OS2712在主机OS数据结构2725中存储各种类型的信息(由主机OS2712和主机OS数据结构2725之间的虚线表示),典型地包括到主机文件***数据结构2723的指针/引用(由主机OS数据结构2725和主机文件***数据结构2723之间的虚线表示)。主机文件***2711在主机文件***数据结构2723中存储与用户数据2724相关的信息(被称作元数据,并且由主机文件***2711和主机文件***数据结构2723之间的虚线表示)。感知文件***的存储控制器2721对来自主机文件***2711的存储请求(由主机文件***2711和感知文件***的存储控制器2721之间的实线表示)进行处理,利用主机OS数据结构2725和主机文件***数据结构2723来确定主机文件***2711的存储使用(由感知文件***的存储控制器2721和主机OS数据结构2725之间的虚线以及感知文件***的存储控制器2721和主机文件***数据结构2723之间的虚线表示),并且基于主机文件***2711的存储使用对用户数据2724的存储进行管理(由感知文件***的存储控制器2721和用户数据2724之间的虚线表示)。特别地,感知文件***的存储控制器2721可实现回收器和/或监视器,如下所述。
感知文件***的存储控制器2721通常需要具有对于(多个)主机文件***的内部工作的充分理解,以便对主机文件***数据结构进行定位和分析。当然,不同的文件***具有不同的数据结构并且以不同的方式进行操作,并且这些差异会影响设计/实施选择。一般来说,感知文件***的存储控制器2721定位存储2722中的主机文件***数据结构2723,并且对主机文件***数据结构2723进行分析来确定主机文件***2711的存储使用。感知文件***的存储控制器2721接着能够基于这样的存储使用对用户数据存储2724进行管理。
图28是根据本发明示例性实施例的用于感知文件***的存储控制器2721的高级别逻辑流程图。在框2802,感知文件***的存储控制器2721定位存储2722中的主机文件***数据结构2723。在框2804,感知文件***的存储控制器2721对主机文件***数据结构进行分析来确定主机文件***的存储使用。在框2806,感知文件***的存储控制器2721基于所述主机文件***存储使用对用户数据存储进行管理。
图29是根据本发明示例性实施例的用于定位主机文件***数据结构2723的逻辑流程图。在框2902,感知文件***的存储控制器2721在存储控制器数据结构2726中定位其分区表。在框2904,感知文件***的存储控制器2721对所述分区表进行解析来定位包含主机OS数据结构2725的OS分区。在框2906,感知文件***的存储控制器2721对所述OS分区进行解析来识别主机OS2712并定位主机OS数据结构2725。在框2908,感知文件***的存储控制器2721对所述主机OS数据结构2725进行解析来识别主机文件***2711并定位主机文件***数据结构2723。
一旦感知文件***的存储控制器2721定位了主机文件***数据结构2723,其就对所述数据结构进行分析来确定主机文件***2711的存储使用。例如,感知文件***的存储控制器2721可使用主机文件***数据结构2723以便进行诸如识别不再由主机文件***2711所使用的存储块和识别主机文件***2711所存储的数据类型之类的事情。感知文件***的存储控制器2721接着能够基于数据类型动态地回收主机文件***2711不再使用的存储空间和/或管理用户数据2724的存储(举例来说,例如将频繁访问的数据以未压缩的形式存储在连续块中以促进访问,将非频繁访问的数据进行压缩存储和/或存储在非连续块中,并且基于数据类型应用不同的编码模式)。
图30是根据本发明示例性实施例的用于回收未使用的存储空间的逻辑流程图。在框3002,感知文件***的存储控制器2721识别被标记为未被主机文件***2711使用的块。在框3004,感知文件***的存储控制器2721识别被标记为未被主机文件***2711使用但是被标记为被感知文件***的存储控制器2721使用的块。在框3006,感知文件***的存储控制器2721回收被标记为被感知文件***的存储控制器2721使用但是不再被主机文件***2711使用的块,并且使得所回收的存储空间可用于其它存储。
图31是根据本发明示例性实施例的用于基于数据类型对用户数据2724的存储进行管理的逻辑流程图。在框3102,感知文件***的存储控制器2721识别与特定用户数据2724相关联的数据类型。在框3104,感知文件***的存储控制器2721可选地使用基于所述数据类型所选择的存储布局来存储特定用户数据2724。在框3106,感知文件***的存储控制器2721可选地使用基于所述数据类型所选择的编码模式(例如,数据压缩和/或加密)对特定用户数据2724进行编码。这样,感知文件***的存储控制器2721能够使用针对数据类型定制的不同布局和/或编码模式来存储不同类型的数据。
回收器的一个示例是所谓的“垃圾收集器”。如上所述,垃圾收集器可用于释放不再被主机文件***使用的聚簇(例如当删除文件时)。一般而言,通过发现空闲块、计算它们的主LSA、并根据该LSA分配它们的CAT项进行垃圾收集。如果没有CAT项用于特定LSA,则该聚簇已经空闲。但是如果CAT项被定位,则递减引用计数,而且如果该计数命中零,该聚簇空闲。
对于垃圾收集器而言,一个问题是难于将正在由主机文件***使用的块与先前已经使用并且在某个点标记为空闲的块区分开来。当主机文件***写入块时,存储设备分配聚簇用于数据,以及CAT项来描述它。从这点上,聚簇一般将显示为在用(in use),即使主机文件***随后停止使用它的块(即,聚簇将仍然通过有效CAT的项处于在用状态)。
例如,特定主机文件***使用位图(bitmap)来跟踪它使用的盘片块。一开始,位图将指示全部的块为空闲,例如,通过将全部位清空。由于使用文件***,因此主机文件***将通过使用它的空闲块位图来分配块。存储***将通过上述分配聚簇和CAT项来把这些文件***分配与物理存储相关联。当主机文件***把一些块释放回到它的空闲池时,其只需要在其空闲块位图中清空相应的位。在存储***上,这可以设想成写入恰好包含该主机的空闲块位图的一部分的聚簇,就像没有I/O到空闲的实际聚簇本身(虽然可能有到空闲聚簇的I/O,例如,如果主机文件***以某种增强安全模式运行,其中可能把零或者随机数据的强保密散列写入聚簇以使得减少旧聚簇内容可能被攻击者读取的机会)。另外,当满意新分配请求时,不保证主机文件***会重用以前被释放的块。因此,如果主机文件***继续分配那些从存储***的视点来看是新的、即以前未使用的块,则该存储***将快速耗尽空闲聚簇,限于无论什么空间都可以经由压缩回收。例如,假定文件***块是4K,如果主机分配文件***块100至500,随后释放块300至500,然后接着分配块1000至1100,整个文件***使用的将是300块,而阵列将有500个聚簇处于在用状态。
在本发明示例性实施例中,存储***可以通过访问主机文件***布局来检测主机文件***盘片资源的释放,解析它的空闲块位图,并使用该信息来识别不再被该文件***使用的聚簇。为了存储***能够以这种方式识别未使用的聚簇,存储***必须能够定位并理解该文件***的空闲块位图。因而,该存储***将通常支持文件***的预定设置,可充分“理解”内部工作以定位并利用这些空闲块位图。对不支持的文件***,该存储***可能不能够执行垃圾收集并将由此仅告之该阵列的实际物理尺寸以便于避免被过量使用。
为了确定该文件***类型(例如NTFS、FAT、ReiserFS、ext3),需要定位该文件***的超块(superblock,或者等同结构)。为了发现该超块,要解析分区表(partition table)以定位OS分区。假定OS分区被定位,则解析OS分区,以试图定位该超块并由此识别该文件***类型。一旦该文件***类型已知,则可以解析布局以查找空闲块位图。
为了便于搜索空闲块,可以保持主机文件***位图的历史数据,例如,通过制作可以存储在私有、非冗余存储区的空闲块位图的副本,并使用该副本执行搜索。给定位图的尺寸,可以每次为较少数量的聚簇保持信息而不是为整个位图保持信息。当执行垃圾收集时,可以把当前空闲块位图与历史副本逐个聚簇地进行比较。可以识别任何从分配转换成空闲的位图项,使得回收操作可准确地定向到作为用于回收的良好候选的聚簇。随着处理每个位图聚簇,可以用当前副本替换历史副本以维持位图操作的滚动式历史。空闲块位图的副本将随着时间变成时间上不连贯的聚簇的拼凑,但是由于当前副本总是用于定位空闲项,因此这并不产生任何问题。
在特定条件下,会有关于空闲块位图的竞争条件,例如,如果主机文件***使用其空闲块位图来分配盘片块,接着写入它的数据块,然后将修变的位图刷新回到盘片。在这种情况下,垃圾收集器会释放该聚簇,即使该文件***在使用该聚簇。这会导致文件***被破坏。可实现存储***以避免或者处理这样的条件。
由于垃圾收集可能是相当昂贵的操作,因即使低强度的回收也将占用后端的I/O带宽,因此不应滥用垃圾收集。垃圾收集器应能够按多种方式运行,从低强度的后台惰性回收到非常高强度或者甚高优先级的回收。例如,当使用了百分之三十的空间时,可以按低强度方式运行垃圾收集器,或者至少每星期一次,当使用了50%的空间时,按稍微高强度的方式来运行,而当使用了百分之九十或者更多的盘片空间时,运行全高优先级的回收。在每次进行收集时,可以限制要回收的目标聚簇数量和最大的可容许I/O计数,从而控制垃圾收集器的回收强度。例如,可配置垃圾收集器,通过使用不超过10000次的I/O来回收1GB。获得回收请求的失败可用作对收集器的反馈,从而在下一次运行时按更高强度的方式。还可以是“回收一切”模式,允许垃圾收集器解析整个主机文件***空闲块位图并回收可能的全部块。在阵列(几乎)完全装满时,这可以作为最后的办法来回收聚簇。可以周期性地运行垃圾收集器,对其施加规则,并可决定执行、或者可决定不执行回收操作。还能够明确地从其他模块来请求回收操作,例如区域管理器,当正在寻找用于构建区域的聚簇时,可请求回收操作。
垃圾收集功能可以与状态指示符机制相结合。例如,在某些点,存储***可以处于“红色”条件,尽管正在运行的垃圾收集操作可以释放足够空间以消除“红色”条件。可采用附加指示器状态以显示相关状态信息(例如可以使红色指示器灯闪烁来指示垃圾收集操作正在进行)。
图21是根据本发明示例性实施例的存储阵列的相关部件的示意性框图。除了其他,存储阵列包括底盘2502,在其上存储管理器2504与多个存储设备25081-2508N通信,这些存储设备分别通过多个插槽25061-2506N耦合到底盘。每个插槽25061-2506N都可以与一个或者多个指示器25071-2507N相关联。除了其他,存储管理器2504典型包括用于实施上述功能的各种硬件和软件组件。硬件组件典型包括存储器用于存储诸如程序代码、数据结构、以及数据的内存,和用于执行该程序代码的微处理器***。
实现感知文件***的存储控制器2721的一个问题在于许多主机文件***不对数据结构(即,元数据)进行实时更新。例如,日志文件***通常不保证保存用于已经发生的事务的所有用户数据,或者不保证恢复用户这些事务的所有元数据,而是通常仅保证恢复到一致状态的能力。对于性能和效率而言,日志文件***通常在用户数据写入和元数据写入之间采取一定程度的异步。特别地,通常惰性地执行元数据到盘片的写入,以使得在用户数据更新和相应的元数据更新之间存在延迟。在一些文件***中(诸如依据第四版Microsoft Windows内核的NTFS)还惰性地执行日志写入。此外,惰性的元数据写入可通过以逐个事务的方式结束日志来执行,并且这具有相当的潜在可能将元数据临时推入与已经在盘片上的用户数据不一致的状态。这样的示例可以是在主机已经重新分配了聚簇并且发送了与重新分配的聚簇相对应的用户数据之后显示出解除分配的位图更新。因此,存储***通常需要对不可靠地指示用户数据的当前状态的元数据更新进行处理。在之前的示例中,这通常意味着存储***无法解释解除分配来表示所述聚簇是可回收的且用户数据是可丢弃的。
如果元数据和日志更新与和它们相对应的用户数据更新完全异步,以使得它们能够在任意时间发生,则存储***可能需要具有对于文件***的内部工作的相对详细的理解,并且由此可能需要存储大量状态信息以便进行适当的决策。然而,以下所描述的本发明的特定实施例被设计成在元数据更新将在写入与它们相关的用户数据之后的相对确定的时间窗内发生(例如,一分钟内)的假设下进行操作。要理解的是,这样的实施例本质上在复杂度和功能性之间进行折衷,因为虽然需要进行特殊的考虑以便对操作期间不附着到这样的窗口的主机文件***(一个示例可以是VxFS)或者导致用户数据更新和相应元数据更新之间的长期延迟(例如,丢失了来自主机的功能,这通常超出了存储***的控制并总之可能会导致数据丢失,或连接丢失,存储***能够检测到它并由此抑制假设时间性主机活动的行为)的边界条件进行处理,但是它们通常不需要具有对于文件***内部工作的详细理解和存储大量状态信息。
在一个示例性实施例中,所述回收器能够以完全异步的方式进行操作。在该实施例中,所述回收器可以是完全的异步任务,其周期性地对位图进行全部或部分扫描,并且将所述位图与CAT中所包含的信息进行比较以确定是否能够回收任意的存储阵列。在检查位图之前,所述***还可以检查包含所述位图的位置的那些块以便确定所述位图是否已经移动。
完全异步的回收器的一个优点在于,虽然可能包括实质上异步的盘片I/O(例如,对于逻辑上被划分为4k聚簇并具有64MB位图的2TB卷而言,读取整个位图将包括在回收器每次运行时要读取64+MB的盘片数据)并且由此可能会根据回收器多么频繁的运行而影响到整体的***性能,但是其本质上对于主要数据路径内的处理器开销没有直接影响。因此,回收器频率可根据可用存储空间和/.或***负载的量进行变化。例如,当可用存储空间充足或***负载高时,可较不频繁地运行回收器功能。降低回收器频率通常会降低回收存储空间的速度,在存储空间充足时这通常是可接受的。另一方面,当可用空间不足且***负载低时,可更为频繁地运行回收器功能以便提高回收存储空间的速度(以增加的处理开销为代价)。
在另一个示例性实施例中,回收器可以以部分同步、部分异步的方式运行。在该实施例中,例如,所述回收器能够通过向主要写处理路径添加一些附加的检查来在位图变化发生时对其进行监视。所述回收器可在引导时建立包括(多个)感兴趣的LBA范围的表(此后被称作位图***表或BLT)。对于未初始化的盘片或已初始化但未分区的盘片而言,BLT通常仅包括LBA 0。对于完全初始化和格式化的盘片而言,BLT通常将包括LBA 0、每个分区的引导扇区的(多个)LBA、包含位图元数据的(多个)LBA以及包含位图数据自身的(多个)LBA范围。
主要写处理路径(例如,HRT)通常利用被处理的写入的细节调用所述回收器,在这种情况下,考虑到识别与感兴趣的(多个)LBA范围重叠的那些写入,所述调用一般利用BLT在内部交叉引用写请求的(多个)LBA。所述回收器接着将需要对那些写入进行解析,这主要利用异步任务来进行(在这种情况下,通常需要存储异步任务的关键细节,如下所述),但是具有重要的写入解析内嵌(例如,如果更新潜在指示重新定位的位图,则该写入可以是经解析的内嵌从而可在任意的其它写入被交叉引用之前对BLT进行更新)。如以上参考完全异步的回收器所讨论的,异步任务的频率可根据可用存储空间量和/或***负载进行变化。
用于异步任务的存储可以为队列的形式。然而,简单队列将允许对针对相同块的多个请求进行排队,由于写入缓存的语义使得多个请求可能指向缓存中的相同数据块(即,最近数据)所以会发生这种现象,并且因为通常没有理由保存表示相同LBA的多个请求所以是低效的。可通过对队列进行检查并且移除针对相同块的较早请求来缓解这一问题。此外,假设异步任务的频率根据可用存储空间量和/或***负载进行变化,则应当利用其会在密集活动期间(可能会持续数日)达到其最大尺寸的抑制异步任务的预期来规定所述队列。假设***不允许针对相同LBA的多个项,所述队列的最大理论大小是LBA的大小和位图内LBA数目的乘积,这会产生非常大的队列尺寸(例如,具有64MB位图的2TB卷,即128K个块),并由此可能需要128K*4=512K级别的队列大小;16TB的卷可能需要4MB级别的队列大小。
用于异步任务的可选存储可以是位图的位图的形式(此后被称作“位图块更新位图”或“BBUB”),其中每一位表示实际位图的一个块。BBUB固有地避免了针对相同块的多个请求,原因在于针对这些请求中的每一个设置相同的位,从而多个请求在BBUB中仅显示一次。此外,BBUB的大小基本上是固定的,与异步任务的频率无关,并且通常比队列占据更小的空间(例如,BBUB对于2TB卷将占据16KB存储器,或对于16TB卷占据128KB)。在实际位图移动的情况下,所述存储***能够容易地对BBUB中位的映射进行调节,但是通常需要注意不要在主机已经交叉复制数据之前将未决的请求映射到新的位置(实际上,在假设主机文件***无论如何都将重写每个LBA的情况下,可能在位图之外达到零)。BBUB可被置于非易失性存储器(NVRAM)以防止丢失当前的BBUB,或者被置于易失性存储器中,其中理解为当前的BBUB可被丢弃并且需要在重新引导之后的某个时刻运行位图的完全扫描以恢复丢失的信息。由于位图并非固有地提供具有多个请求的就绪测量的异步任务,所以所述存储***能够保存与位图中所设置的位数相关的统计以使得所述异步任务不必仅为了确定没有内容需要更新而扫描整个位图。例如,所述存储***可能保存在位图中设置有多少位的计数并且可以基于所述计数对异步任务的频率进行调节(例如,不允许所述异步任务除非且直至所述计数达到预先确定的阈值,所述阈值可以是用户可配置的)。这样的策略可以进一步改进,例如通过为多个映射部分(例如,1K个块)中的每一个保存所设置的位的单独计数并且还对具有最高计数的映射部分进行跟踪,从而所述异步任务能够仅对可能返回最高回报的(多个)映射部分进行解析。
对更新进行解析通常包括用于不同LBA的不同逻辑。例如,LBA0的改变通常意味着已经添加了分区表,或者已经向表中添加了分区,或者已经删除了分区。对于分区引导扇区的更新可能意味着已经重新定位的位图元数据。对于位图元数据的更新可能意味着已经移动了所述位图,或者其已经被扩展。对于位图自身的更新可能指示聚簇的分配或解除分配。如果异步对更新进行解析,则所述***通常无法轻易地将旧数据与新数据进行比较,原因在于到异步任务的运行时间时,新的数据可能已经覆盖了旧数据。为了避免这一问题,所述***可能保留旧数据的单独副本以便进行比较或可能通过映射进行反复并将未设置的位与CAT进行比较(这可能需要略微更多的处理器开销但是较少的盘片I/O)。将位图与CAT进行简单比较一般要求附加的逻辑和状态信息,原因在于位图状态可能与用户数据不同步,如上所述。此外,保留位图数据的副本将允许存储***将新的数据与旧数据进行比较并且由此准确确定什么发生了变化,但是如上所述,与其可能依赖于状态本身相比,所述存储***通常无法再依赖状态变换作为当前用户数据的精确考量。
在又另一个示例性实施例中,所述回收器能够以完全同步的方式进行操作。在该实施例中,回收器将在写入发生时对它们进行处理。完全同步的实施例的一个优点在于其避免了与异步任务及其相关联的存储相关联的复杂度,虽然其在对来自主机的写入进行处理的临界时间期间在处理器上突然***了开销,并且可能需要附加的逻辑和状态信息来对异步元数据更新进行补偿。
在异步位图更新的上下文中回收聚簇的一个问题在于基于没有精确反映用户数据的状态的位图值,回收器可能不适当地释放聚簇。为了克服这样的问题,存储***可保留其执行的聚簇访问的一些历史(例如,最近是否访问过聚簇中的用户数据)并且仅在聚簇在先前某个时间间隔中是静止的情况下回收所述聚簇以确保没有元数据更新对于该聚簇是未决的。例如,所述存储***可能在执行任意聚簇的回收之前要求聚簇静止至少一分钟(一般而言,增加静止时间降低不适当回收的风险但是增加了对数据删除进行反应的等待时间,从而在此要进行折衷)。虽然以附加的盘片I/O为代价,所述存储***能够在评估聚簇活动中为了完整而附加地对聚簇读取进行跟踪,但是所述存储***可以仅对聚簇写入进行跟踪。静止时间可以是固定值或者对于不同的文件***可有所不同。
例如,可通过向CAT写入回收器周期号作为访问时间相对于回收器运行的指示器而对聚簇访问进行跟踪。
作为选择,可以通过在写数据之前向文件***的位图写入位而对聚簇访问进行跟踪。虽然,为了避免与文件***操作的任何不利交互,但是文件***的元数据的任意这种修改都必须仔细进行调整。
作为选择,可使用每个聚簇、块或大块(或任何大小)的位对聚簇访问进行跟踪。所述位通常在该实体被访问时进行设置并且可能在回收器完成其下一次运行或回收器下一次试图回收聚簇时进行重置。所述回收器通常仅在该位已经在试图执行回收时被重置的情况下回收所述聚簇,所述回收本身要由被清除的实际主机文件***位图中的对应位进行驱动。这些位可保存在一起作为简单的位图或者可以被添加到CAT作为分布式位图(每个CAT记录需要一个附加位)。所述简单位图的方法可要求在大多数数据写入操作上进行附加的读-改-写(read-modify-write),潜在地导致主要数据路径的性能下降,除非所述位图在存储器中进行缓存(所述位图可缓存在易失性存储器中,如果所述位图由于不可预期的损耗量而丢失这可能是有问题的,或者缓存在非易失性存储器中,由于存储器约束以及由此产生的较小粒度,较小的位图可能成为必要)。所述CAT方法通常会从J2及其空闲的NVRAM缓存获益。
作为选择,可通过保存在接收位图更新和执行聚簇修改时的时间戳对聚簇访问进行跟踪。接着,如果聚簇修改具有比位图更新更晚的时间戳,则所述***通常不会释放所述聚簇。该方法优于位方法的一个优势在于回收器能够确定最后的访问发生了多久,并且如果足够长,则立即回收聚簇。还可以向CAT记录添加时间标签。作为选择,由于该字段真正地仅需要指示相对于回收器操作的时限,所以可对每次回收器运行指定全局标识符。所述***接着可使用CAT内的类似字段来显示全局标识符的值。所述全局标识符可识别最近完成了哪个回收器运行,或者接下来应进行哪个回收器运行,或者聚簇何时被最后访问。该信息接着可被回收器用作时限的测量。为了节约CAT记录中的空间消耗,所述标识符可以仅为一个字节的计数器。由于计数器覆盖(wrapping)所产生的任意不正确的时限确定会使得旧的聚簇看起来比它们实际年轻很多。这些聚簇将在下一次运行被回收。所述字段可存储在NVRAM中以防止所述字段在每次重新引导时被重置为零,这将导致一些聚簇过早地访问时限。
由此,例如,每个回收器运行可以与一个字节的标识符值相关联,其可被实现为NVRAM中的全局计数器,在回收器每次醒来时增加以使得回收器运行的标识符是所述计数器的后增量(post-increment)值。CAT管理器可在其对聚簇的更新进行服务的任何时刻使用所述全局计数器的当前值并且能够在对应的CAT记录中存储该数值的副本。这样的实施方式需要对CAT管理器的逻辑进行修改。
作为选择,可通过在覆盖列表中保存聚簇更新的短暂历史来跟踪聚簇访问。所述回收器然后能够搜索所述列表来验证即将空闲的任意聚簇最近没有被主机所访问。所述列表的大小通常是特定于实施方式的。无论其多长,存储***一般必须确保其在所述列表变满之前能够运行异步任务,并且会危及对任务进行延迟直至安静周期的能力。
在支持回收的存储***中,可能希望对过早的回收进行识别和跟踪,特别是由于过早的回收导致失败的读取(即,从已经被回收器释放的聚簇进行读取的尝试),而且还有对未分配聚簇的写入(这一般仅会导致分配且由此应当是无害的)。在一些情况下,可能要基于文件***的位图来识别错误(例如,从用户数据写入对于位图进行交叉引用并且检查适当的位被设置),但是仅在保证位图更新在用户数据之前完成的情况下才会如此,并非一直是这样。作为选择,当对位图进行解析时,所述回收器可能检查所分配的位是否实际对应于所分配的聚簇;如果它们不是,则分配聚簇或至少分配CAT记录;在每个这样的CAT记录中设置指示分配是从回收器强制进行的位;位由对聚簇的数据写入进行重置;并且在下一次回收器运行时再次检查所述位,并且如果其仍然设置则发出叫声(scream)。可包括其它的自我诊断来为我们给出文件***这样做和做多少的测量,诸如聚簇回收由于该防止性测量而中止的次数的计数。
应当注意的是,以上所述的三种类型的回收器仅是示例性的,并非将本发明限制到特定的设计或实施方式。每个回收器类型具有某些相对优点和缺点,这可能使得特别适于或不适于特定的实施方式。此外,应当注意的是,特定的实施方式能够支持多于一个的回收器类型并且按照需要在它们之间进行动态切换,例如基于诸如主机文件***、可用存储空间量和***负载之类的内容。部分同步、部分异步回收器、使用BBUB存储异步任务的信息以及在CAT内使用字节大小的回收器运行计数器(作为类型的时间戳)来跟踪聚簇访问被预期用于特定的实施方式。
除了或代替回收器,可使用单独的监视器来跟踪多少聚簇被主机文件***所使用(例如,如果已知主机文件***可靠地重新使用解除分配的块优先于使用新的块,则可以省略回收器,从而不需要回收且监视就足够了;在实现回收器的***中,监视器由于重复可省略)。一般而言,所述监视器仅需要确定在位图中设置了多少位,并且无需准确知道哪些位被设置和哪些位被清除。此外,所述监视器可能不需要精确的位计数,而是可以仅需要确定所设置位的数目是多于还是少于特定阈值或者所述数目多于还是少于相同区的先前值。因此,所述监视器无需对整个位图进行解析。对于上述回收器实施例而言,可以使用异步任务全部或部分实现监视器功能,这能够周期性地将新的数据与CAT进行比较,或者保存位图的副本并在以新数据覆盖所述副本之前将当前位图(新数据)与所述副本(旧数据)进行比较。
为了便利,以下主要在NTFS的背景下参考回收器对各种设计的操作考虑进行讨论。然而,应当意识到的是,许多设计和操作考虑同样地适用于监视器。
图32是示出根据本发明示例性实施例的回收器3210的相关部件的示意性框图。除其它部分之外,回收器3210包括位图块更新监视器(BBUM)3211、包括用于每个LUN的BLT的位图***表(BLT)集合3212、包括用于每个分区的一个BBUB的BBUB集合3213、异步任务3214和解除分配的空间表(DST)3215。以下对这些部件中的每个进行更为详细的讨论。而且如以下更为详细的讨论,通过从HRM3220接收的调用对BBUM 3211通知写操作。
回收器3210包括用于每个LUN的BLT 3212。每个BLT 3212包含一系列记录,其包括分区标识符、LBA范围、LBA范围的角色指示以及指示该LBA范围是应当被同步还是异步解析的标志。每个BLT具有用于LBA 0的项,其是独立于分区的。所述BLT通常被要求在该LUN上提供对于到来写入的基于LBA的快速查找(不首先检查它们属于哪个分区)并且提供针对LBA 0写入的基于分区的相对快速的查找(例如,这可以使用用于存储和用于查找的分类矢量,开始LBA的较低边界二进制搜索加上先前元素是否具有比被查找的LBA更高的最后LBA的检查来实现)。例如,所述BLT通常需要在LoadDiskPack调用期间在任意主机写入通过之前被编程。BLT利用LBA 0被编程并且分区创建由此包括向该LBA进行写入,所述LBA 0在此是分区表的位置。LBA0将在该表内被标记为其更新需要立即解析的位置。
回收器3210包括所述存储***所支持的每个分区的BBUB 3213。每个BBUB 3213的大小适合于其属于的文件***的大小。每个BBUB3213与反映位图中设置了多少位的计数器相关联。所述BBUB 3213也有一些映射信息,所述映射信息示出每个位图如何属于与其相对应的文件***位图。
回收器3210包括用于每个LUN的DST 3215。每个DST 3215包括每个记录的一个LBA范围。表中存在的每个LBA范围是需要从CAT回收的所删除或截短的分区的一部分。例如,BBUM 3211可在其识别用于在同步处理期间回收的未使用存储区域时更新DST 3215(在这种情况下,BBUM 3211向DST 3215添加LBA范围)。类似地,异步任务3214例如可在其识别用于在异步处理期间回收的未使用的存储区域时更新DST 3215(在这种情况下,其向DST 3215添加LBA范围)。所述异步任务3214使用DST 3215异步地回收未使用的存储空间。DST3215可以以对于未清除停止操作具有弹性的方式持久存储,或者可提供附加逻辑来从DST 3215的任意丢失进行恢复,例如,通过在引导之后执行完全扫描以找到不属于任意卷的分配聚簇。
BBUB 3213和DST 3215的存储是特定于实施方式的决策。在示例性实施例中,BBUB 3213对于存储在NVRAM中过大,由此可在易失性存储器中或盘片上进行存储,而DST 3215可存储在非易失性存储器、易失性存储器中或盘片上。如果DST 3215和BBUB 3213完全是易失性的,则回收器3210通常必须能够从DST 3215和BBUB 3213的丢失(例如,由于不可预期的停止操作)进行恢复。例如,可通过对整个CAT进行扫描并且将其与当前分区和聚簇位图信息进行比较来看是否每个聚簇都映射到已知分区以及其是否分配在对应文件***的聚簇位图中来实现恢复。另一种可能性是将DST 3215存储在NVRAM中而将BBUB 3213留在易失性存储器中以使得卷外的盘片空间的状态信息跨重新引导而保留(潜在地防止需要向CATM查询关于分区之外的聚簇),虽然聚簇位图的当前状态会丢失,但是有必要对每个聚簇位图进行完全扫描。例如,通过将所有需要的状态信息存储在盘片上并且将仅在引导上重新加载它,可减少或消除这样的位图扫描。因为回收器3210无法预期停止操作的通知,所以需要与实时状态密切同步地保存记录,或者通过同步地更新它们或仅在数毫秒或数秒内将它们写回来保存它们。似乎有理由假设有意图的停止操作之前主机会数秒钟不活动,即使主机实际上没有停止操作,从而在几秒内进行更新对于大多数情况是足够的;虽然在I/O中间发生的停止操作似乎仍需要完全扫描。如果记录被同步更新(即,在向盘片写入位图更新之前),则所述***可能能够完全消除状态丢失以及在引导时进行完全扫描的需要(虽然以在稳定状态操作期间需要更多盘片I/O以获得更好的引导效率为代价)。另一个选择是在***停止操作过程期间向盘片写入BBUB3213和DST 3215,以使得在重新引导时可获取所述信息(除非在不可预期的失败/停止操作的情况下,在这种情况下,可能需要在重新引导时对聚簇进行完全扫描)。
虽然在示例性实施例中,预期到在对诸如CAT管理器或缓存管理器(用于从盘片组进行读取)以及NVRAM管理器(用于增加计数器)之类的回收器所依赖的模块进行初始化之后***管理员要对回收器3210进行初始化,但是一般而言,回收器3210在加载盘片组之前没有很多事情可做。作为选择,所述回收器可以惰性初始化,例如在加载盘片组之后。由于所述回收器可几乎立即开始从盘片组进行读取,所以所述回收器不应被指导来加载所述盘片组(即,LoadDiskPack)直至其它部件就绪并且已经加载了相同的盘片组自身。
在回收器3210的初始化期间(或者在一些其它适当的时刻),BBUM 3211在LBA0查找NTFS分区表。所述NTFS分区表是位于与主引导记录相同的LBA(即LBA0)中的64字节的数据结构,并且包含与NTFS主分区相关的信息。每个分区表项为16字节长,使得最多有4项可用。每项在从扇区和预定结构的开始的预定偏移量处开始。所述分区记录包括***标识符,其使得所述存储***能够确定分区类型是否是NTFS。已经发现分区表位置和布局通常有些独立于写入其的操作***,其中相同的分区表服务于某个范围的文件***格式,不仅仅是NTFS,并且不仅仅是Microsoft格式(HFS+和可使用不同结构定位其分区的其它文件***)。
假设在LBA 0找到NTFS分区表,则BBUM 3211从LBA0读取所述分区表,并且接着对于分区表中所识别的每个NTFS分区,读取所述分区的引导扇区(该分区的第一扇区),具体地是扩展的BIOS分区块,其是属于NTFS的将提供主文件表(MFT)的位置的结构。BBUM3211接着读取MFT的常驻$位图记录来得到文件属性,具体地是实际位图数据的(多个)位置和(多个)长度,BBUM 3211还利用每个分区的引导扇区LBA、(多个)位图记录的(多个)LBA以及实际位图的LBA对BLT 3212进行编程。引导扇区LBA和位图记录LBA还将被标记为其更新永远需要立即解析的位置。实际位图通常不需要立即解析并且将因此被标记。如果在LBA 0没有找到分区表,则没有附加位置被添加到BLT 3212。
图33是根据本发明示例性实施例的用于定位主机文件***位图的伪代码。感知文件***的存储控制器2721首先在LBA 0查找分区表。假设找到所述分区表,则感知文件***的存储控制器2721读取所述分区表以识别分区。接着,对于每个分区,感知文件***的存储控制器2721读取所述分区的引导扇区以找到MFT,并且读取MFT的常驻$位图记录以得到文件属性,诸如实际位图的(多个)位置和(多个)长度。感知文件***的存储控制器2721利用每个分区的引导扇区LBA、(多个)位图记录的(多个)LBA以及(多个)实际位图的(多个)LBA对BLT进行编程,并且将(多个)引导扇区LBA和(多个)位图记录LBA标记为需要立即解析而将(多个)实际位图标记为不需要立即解析。如果感知文件***的存储控制器2721无法在LBA 0找到分区表,则感知文件***的存储控制器2721结束而不向BLT添加附加位置。
在稳定状态操作期间,将通过从HRM 3220到BBUM 3211的调用针对BLT 3212交叉引用所有写入。按照指示该动作的标记,被发现寻址到LBA 0的任意写入将被立即解析(同步地)。后续动作取决于更新的性质。
如果添加分区,并且所述分区是认可的类型,则新分区的第一LBA将被添加到BLT 3212并且被标记为其更新永远需要立即解析的位置。预见到马上存在具有一系列更新、要驱动聚簇回收的位图,将清除DST3215中落入新分区内的任何LBA范围。一个问题在于,如果所述分区要在分区表更新之前写完,则该信息潜在地被写到DST 3215中的块中,并且可被回收器线程不正确地回收。例如,这可以通过检查每个所接收的写入以便与DST 3215中的范围相一致并且从DST 3215中移除任意的写入的块(written-to-block)而被缓解。
如果所述分区被更新为将分区标识符从Windows缺省改变为NTFS,则BBUM 3211将立即重新检查处于所述分区引导扇区位置的LUN,因为标识符变化趋于在分区引导扇区已被写入之后发生。这实际上仅是分区添加的一部分。
如果现有分区被删除,则BLT将被冲洗属于删除分区的记录,用于该分区的BBUB 3213将被删除,并且LBA范围将被添加到DST 3215以便聚簇的异步回收。
如果现有分区被重新分配,则利用新的引导扇区LBA将BLT 3212中的现有引导扇区记录更新到监视器。在其已经被写入的情况下,可能要在新的位置对LUN立即进行重新检查,但是通常不这样做。
如果现有分区被截短,则将切除的LBA范围添加到DST 3215。在新的引导扇区已经被写入的情况下,可能在分区引导扇区的位置对LUN立即进行重新检查,但是通常不这样做。
如果现有分区被放大,则将清除DST 3215中落入新分区内的任何LBA范围。在新的引导扇区已经被写入的情况下,可能在分区引导扇区的位置对LUN立即进行重新检查,但是通常不这样做。
按照指导该动作的标记,所发现的要被寻址到分区的第一LBA的任何写入都要被立即(同步)解析。位图记录的开始LBA将被确定并添加到BLT 3212,并且被标记为其更新永远需要立即解析的位置。
图34是根据本发明示例性实施例的用于BBUM 3211的高级别伪代码。当BBUM 3211接收到客户端请求时,其从ClientRequest得到LUN并且基于所述LUN找到正确的BLT。BBUM 3211从ClientRequest得到LBA,在BLT中查找该LBA,并且检查“立即动作”字段来看是否需要对该LBA进行立即动作。如果需要进行立即动作,则BBUM3211同步处理所述客户端请求。然而,如果不需要进行立即动作,则BBUM 3211设置与所述LBA相对应的BBUB位以便进行异步处理。
图35是根据本发明示例性实施例的用于对创建新分区的LBA0更新进行同步处理的高级别伪代码。特别地,如果需要进行立即动作并且块是分区表,则BBUM 3211将新数据中的分区与BLT中的分区进行比较。如果新分区被添加,则BBUM 3211从新数据得到分区的开始和结束,检查DST 3215中任何重叠的LBA范围并移除它们,将所述分区的开始添加的BLT,并且将该项进行标记以便进行立即动作。
图36是根据本发明示例性实施例的用于对(重新)格式化分区的LBA0更新进行同步处理的高级别伪代码。特别地,如果需要进行立即动作并且块是分区引导扇区,则BBUM 3211从新数据得到MFT的开始并且计算位图记录的位置。如果在用于该分区的BLT中已经有相同的位图记录项,则不需要进行任何动作。然而,如果位图记录位于与BLT版本不同的位置,则BBUM 3211更新所述BLT并且从盘片读取新的位置。如果该位置看上去不像位图记录(即,其不具有$位图串),则不需要进行任何动作。然而,如果所述位置看上去像位图记录,则BBUM 3211得到(多个)新的位图位置并且将它们与BLT进行比较。如果(多个)新的位图位置相同,则不需要进行任何动作。如果新的位图处于不同位置,则BBUM 3211设置所有BBUB位,更新BBUB映射并且在BLT中移动LBA范围。如果新的位图小于现有位图,则BBUM 3211收缩BBUB,将未映射的LBA范围添加到DST中并且收缩BLT中的LBA范围。如果新的位图大于现有位图,则BBUM 3211设置所有的附加BBUB位,放大BBUB并放大BLT中的LBA范围。
图37是根据本发明示例性实施例的用于对删除分区的LBA 0更新进行同步处理的高级别伪代码。特别地,如果需要进行立即动作并且块是分区表,则BBUM 3211将新数据中的分区与BLT中的分区进行比较。如果分区被删除,则BBUM 3211删除BBUB,从BLT删除引导扇区,从BLT删除位图记录,从BLT删除位图范围并且将分区范围添加到DST。
图38是根据本发明示例性实施例的用于异步任务3214的高级别伪代码。异步任务3214对BBUB进行解析,并接着对于BBUB中设置的每一位,异步任务3214检查对应的聚簇是否被标记为未被主机文件***所使用。如果所述聚簇被标记为未被主机文件***使用,则异步任务3214检查所述聚簇是否被标记为被存储控制器使用。如果所述聚簇被标记为被存储控制器所使用,则异步任务3214将LBA范围添加到DST。异步任务3214还回收用于DST中的每个LBA范围的存储空间。
在接收到引导扇区更新之后,等待位图记录的写入通常是不够的(通常不知道NTFS格式化出现的顺序,并且其无论怎样都可在较小补丁中变化),原因在于位图记录可能已经被写入盘片。如果位图记录在扩展的BPB之前写入,则BBUM 3211将不获取它,原因在于该位置没有出现在BLT 3212中;对此的例外是当位图记录的位置还没有变化时。尽管存在该例外,但是BBUM 3211通常必须在这一点立即从盘片读取位图记录位置,以察看是否存在位图记录,并且其通常需要能够将随机噪声与初始化的位图记录区分开来(可能对$位图统一编码串进行检查)。如果还没有写入,其可以等待写入。如果已经在盘片上,则其通常必须立即被解析。解析通常需要为了(多个)位图位置对记录进行解码,并且那些位置被添加到BLT 3212并且被标记为不需要立即解析。如果位图大小已经变化,则解析通常还需要基于位图新的大小和(多个)位置例示新的BBUB 3213;否则利用新的位置对现有BBUB3213进行更新一般就足够了。由于其通常不知道是在写入位图记录之前还是之后写完了新的位图,所以似乎还适于设置所有位(可能在之后,但是如果发生,则所述位将仅在位图写入到来时的数秒内被无害地设置第二次)。危险情况是如果写入在之前发生,在这种情况下由于处于不同的位置,所以写入会被错过;设置所有的位以确保所述位图得到解析。
在引导扇区更新的情况下(例如,由于分区的重新格式化),位图可能为同样的大小并占据相同的空间,从而BLT 3212或BBUB 3213无需发生变化。可假定新的位图被重写,其中大多数块为全零,从而异步任务3214应当能够继续处理它们以便从CAT回收未分配的聚簇。可对引导扇区的卷序列号进行检查来确定所述更新是否是重新格式化的结果。
出于独立于引导扇区的原因,位图记录还可以在任意时刻被更新。回收器3210可能必须能够不断地对位图移动或大小变化进行处理;不清楚没有创建不同大小的分区的情况下位图大小是否能够不断变化,但是出于任何原因NTFS未来的版本都可对此进行支持。在这种情况下,位图的(多个)新位置通常必须被编程到BLT 3212中,其中移除旧项并添加新项。BBUB 3213必须相应放大或收缩。通过收缩所释放的任何LBA范围可被添加到DST 3215,虽然严格来说它们仍然映射到该分区。
另一个问题在于,如果位图记录的最后更新字段的时间被频繁修改以反映正在进行的位图修改,则结果会是大量的内嵌解析。
对于位图本身的所有后续写入都被经由BBUB 3212推到异步任务3214。
这里的基本策略是所有的被分配聚簇将表示在BBUB 3213或DST3215中,并且采用任何一种方式都将回收未分配的那些。替代方案将具有用于每个卷的卷标识符,所述卷标识符对于BBUM 3211和CAT都是已知的,以使得每个写入都必须被BBUM 3211映射到卷并且在到达CAT管理器之前以该标识符进行标记,其中所述卷标识符将存储在CAT记录中。新的卷通常从其所覆盖的旧卷那里得到不同的标识符,从而异步任务3214能够回收具有旧的卷标识符的记录,而没有回收已经被来自新卷的数据所覆盖的聚簇的危险。显然,这会消耗CAT记录中的空间。其还依赖于重新格式化中的写入顺序。由于***在引导分区中看到新的卷序列号之前通常不了解新卷,所以在此之前对于卷的任何其它写入将被旧的卷标识符所标记。
主要的工作将由专门的回收器任务3214来完成,正常情况下其一分钟醒来一次,从BBUB 3213收集某个工作,并且通过将位图块通过缓存进行页进入(paging-in)并将所述位与CAT进行比较来执行它。在示例性实施例中,BBUB 3213将被逻辑地分段(1k的段大小),具有显示对于该段的更新数目的用于每个段的计数器,以及反映任意计数器所保存的最高值的全局计数器;这些计数器将由工作产生器(BBUM 3211)进行增加并且由工作消耗器(回收器任务3214)减少。醒来的回收器任务3214将检查所述全局计数器并且决定其中的值是否足够高以证明位图中的页进入。如果是这样,则任务3214将确定值对应于哪个段(例如,通过在计数器阵列中进行反复)并接着开始通过适当BBUB段的位进行反复。当其找到所设置的位时,其将对所述位图的该块进行页进入并且将其与CAT进行比较。
如上所述,回收器任务3214的操作可进行动态调节,例如,通过改变其运行的频率或其决定进行一些工作的阈值。然而,在本发明的示例性实施例中,通常不进行这样的动态调节,原因在于体系结构在某种程度上耦合到回收器所运行的频率。特别地,由于所提出的体系结构已经以主机文件***2711将在最大时间窗口(例如,一分钟)内对其元数据进行更新的假设所设计,所以所提出的体系结构实际上无法比该最大时间窗口更为频繁地运行回收器任务3214。所提出的体系结构可以进行较不频繁的运行,这实际上没有破坏规则,但是其通过看上去比实际更早地进行一些聚簇更新而可能使得聚簇回收效率低(例如,如果以每分钟发生运行的假设来设计时限计算,但是它们实际上每三分钟发生,则时限计算可因为因数3而空闲)。此外,任务优先级在编译时通常是固定的,并且由此通常在***操作期间不发生变化。
应当注意的是,在本发明的示例性实施例中,所述存储***实现了大小为4K的聚簇。因此,如果文件***以不同于4K的聚簇大小进行格式化,则所述文件***位图中的位将不会与存储***中的聚簇完美地关联。例如,如果文件***聚簇的大小小于4K,则位图中的多个位通常必须被清除而干扰了与CAT的交叉引用。然而,如果文件***的聚簇大小大于4K,则位图的一个清除位通常将需要在CAT中进行多次查找,每4K一次。
另一个问题是如何对回收器遇到聚簇过于年轻而无法回收的情况进行处理。在这样的情况下,所述回收器会可能留下设置在BBUB中的位,由此需要一个或多个后续扫描以再次解析整个512位(例如,通过512位的下一次扫描仅找到仍然过于年轻而无法回收的聚簇)。作为选择,所述回收器能够清除该位并且将所述聚簇添加到年轻块/需要再次检查的位偏移的列表。从实施的观点来看,如果可保持列表相当小,则只有后者的方法是切合实际的。
从实施的观点来看,所述回收器和BBUB都将通过CAT管理器从盘片被读取。将通过CAT管理器所提供的特殊API来执行聚簇的回收。
虚拟热后备(virtual hot spare)
如上所述,在许多存储***中,热后备存储设备维持就绪状态,使得在其他存储设备出现故障的情况下,热后备可以快速被联机。在本发明特定实施例中,不是维持物理上分离的热后备,而是跨多个存储设备由未使用的存储容量来创建虚拟热后备。不同于物理热后备,如果以及当对于根据(多个)其余存储设备恢复的数据的存储发生存储设备故障时,这种未使用存储容量是可用的。
该虚拟热后备特征需要阵列上的足够可用空间,以保证在盘片故障情况下,数据可以按冗余方式再布局。因而,根据运行,存储***典型地确定实现虚拟热后备可能需要的未使用存储容量的量(例如,根据存储设备的数量、各存储设备的容量、数据存储的数量、以及存储数据的方式),并且,如果需要附加存储容量用于虚拟热后备的话则产生信号(例如,使用绿色/黄色/红色光指示状态和插槽,如上所述)。随着存储区的分配,按每个盘片保持记录,多少个区域需要再布局该存储区。下表示例使用四个驱动器的虚拟热后备:
Figure A200780025208D00841
下表示例具有使用三个驱动器的虚拟热后备:
Figure A200780025208D00851
在这个示例性实施例中,虚拟热后备并非在仅有1个或者2个驱动器的阵列上可用。根据每个存储区的信息和阵列中盘片的数量,该阵列确定每个可能盘片故障的再布局情况并保证对每种情况每个驱动器上都有足够的可用空间。产生的信息可以反馈回再布局引擎和存储区管理器,使得数据可以在数据存储和热后备特征之间正确平衡。注意,根据这些由存储区布局数据的计算,热后备特征需要足够备用工作空间区域,使得可发生再布局。
图22是示出根据本发明示例性实施例的管理虚拟热后备的示例性逻辑的逻辑流程图。框2102中,该逻辑确定每个可能盘片故障的再布局情形。在框2104中,该逻辑确定最坏情况下冗余再布局数据的每个驱动器需要的空间量。框2106中,该逻辑确定在最坏情况下数据冗余再布局需要的后备工作空间区域的数量。框2108中,该逻辑确定每个驱动器上需要的空间总量,以允许在最坏情况下冗余再布局数据(实际上是再布局所需要的空间量和备用工作空间区域量的和)。框2110中,该逻辑确定存储***是否包含足够的可用的存储量。如果有足够数量的可用存储(框2112中的是),则该逻辑迭代在框2199终止。但是,如果没有足够量的可用存储(框2112中的否),则该逻辑在框2114中确定哪个驱动器/插槽需要更新。接着在框2116,该逻辑发出信号,指出需要附加存储空间并指示哪个驱动器/插槽需要更新。该逻辑迭代在框2199终止。
图23是示出根据本发明示例性实施例的用于确定每个可能盘片故障的布局情形的示例性逻辑的逻辑流程图,如图22的框2102中。框2202中,该逻辑分配存储区。然后,在框2204中,该逻辑确定按每个盘需要多少个存储区用于再布局存储区。该逻辑迭代在框2299终止。
图24是示出根据本发明示例性实施例的包括虚拟热后备功能的示例性逻辑的逻辑流程图。框2302中,该逻辑维持在最坏情况下的充足数量的可用存储以使得可冗余地再布局数据。当在框2304确定了驱动器丧失(例如移除或者故障),该逻辑在框2306自动重构一个或者多个其余驱动器,以恢复数据的容错。该逻辑迭代在框2399终止。
图25是示出根据本发明示例性实施例的自动重构一个或者多个其余驱动器用于恢复数据容错的示例逻辑的逻辑流程图,如图24的框2306。框2402中,该逻辑将跨四个或者更多存储设备的第一条带化模式转换为跨三个或者更多剩余存储设备的第二条带化模式。框2404中,该逻辑可以将跨三个存储设备的条带化模式转换为跨两个剩余存储设备的镜像模式。当然,该逻辑可以按其他方式转换模式以使得随着驱动器的丧失而冗余地再布局数据。该逻辑迭代在框2499终止。
再参考图21,存储管理器2504典型地包括适当部件和逻辑用于实施如上所述的虚拟热后备功能。
动态升级
上述用于处理存储的动态扩展和收缩的逻辑可以被扩充用于提供可动态升级的存储设备,其中,存储设备可根据需要用更大的存储设备来替换,并且现有数据跨各存储设备自动重新配置,使得冗余得到维持或者增强,并且该更大的存储设备所提供的附加存储空间将包括在跨多个存储设备的可用存储空间的池(pool)中。因而,当用较大存储设备替换较小存储设备时,附加存储空间可用于改进已存储数据和存储附加数据的冗余。无论何时需要更多存储空间,向用户提供适当信号(例如使用如上所述的绿色/黄色/红色灯光),而用户可以简单移除存储设备并用更大存储设备替换它。
图26是示出根据本发明示例性实施例的用于升级存储设备的逻辑流程图。框2602中,该逻辑在第一存储设备上按照存储在其中的数据在其他存储设备上冗余出现的方式来存储数据。框2604中,该逻辑检测用比第一存储设备具有更大存储容量的替换设备来替换第一存储设备的替换。框2606中,该逻辑使用冗余存储在其他设备上的数据将存储在第一设备的数据自动再生到该替换设备上。框2608中,该逻辑使替换设备上的附加存储空间可用于冗余地存储新数据。框2610中,该逻辑可以在替换设备上的附加存储空间中冗余地存储新数据,如果没有其他设备具有充足的可用存储容量用于提供新数据的冗余的话。框2612中,如果至少一个其他设备具有充足的可用存储空间用于提供新数据冗余,则该逻辑可以跨多个存储设备冗余地存储新数据。
再参考图21,存储管理器2504典型包括适当部件和逻辑用于实施如上所述的动态升级功能。
其他
本发明的实施例可以用于向主机计算机提供存储容量,例如按美国临时申请第60/625,495所述的方式使用***连接协议,所述申请以Geoffrey S.Barrall的名义于2004年11月5日提交,通过引用全文结合于此以供参考。
应当注意,散列算法可能不产生严格唯一的散列值。因而,可以想到散列算法对具有不相同内容的两个数据块产生相同散列值。散列函数(其通常结合散列算法)典型包括确认唯一性的机制。例如,在上述本发明的示例性实施例中,如果一个块的散列值与另外块的散列值不同,则认为这些块的内容不相同。但是如果一个块的散列值与另一个块的散列值相同,那么散列函数可以比较这两个块的内容或者利用一些其他机制(例如不同散列函数)以确定内容是否相同。
应当注意,这里使用的该逻辑流程图用于示例本发明的各个方面,而不应解释为将本发明限制在任何特殊逻辑流程或者逻辑工具。在不改变总体结果的前提下,或者不以另外的方式背离本发明范围的情况下,所述逻辑可划分为不同的逻辑块(例如程序、模块、函数、或者子程序)。通常,可以增加、改变、省略逻辑部件,可以按不同顺序执行,或者使用不同逻辑结构来实施(例如逻辑门、循环元语、条件逻辑、和其他逻辑机构),而不改变整体结果或者以其他方式脱离本发明的真实范围。
本发明可以按多种不同形式来实施,包括但不限于:使用处理器(例如微处理器、微控制器、数字信号处理器、或者通用计算机)的计算机程序逻辑、使用可编程逻辑设备(例如现场可编程门阵列(FPGA)或者其他PLD)的可编程逻辑、离散组件、集成电路(例如特定用途集成电路(ASIC))、或者包括其任意组合的其他装置。
实施全部或者部分这里前述功能的计算机编程逻辑可以按多种形式实施,包括但不限于:源代码形式、计算机可执行形式、各种中间形式(例如由汇编程序、编译程序、连接程序、或者定位程序等产生的形式)。源代码可以包括按任何各种编程语言实现的计算机程序指令序列(例如对象代码、汇编语言、或者例如Fortran、C、C++、JAVA、或HTML等高级语言),在各种操作***或者操作环境下使用。源代码可以定义并使用各种数据结构和通信消息。源代码可以是计算机可执行形式(例如经由解释程序)、或者源代码可以转换(例如经由转换器、汇编器、或者编译器)为计算机可执行形式。
所述计算机程序可以持久地或者暂时地按任何形式(例如源代码形式、计算机可执行形式、或者中间形式)固定在有形存储介质中,例如半导体存储装置(例如RAM、ROM、PROM、EEPROM、或者可编程闪存RAM)、磁存储设备(例如软盘或者硬盘)、光存储设备(例如CD-ROM)、PC卡(例如PCMCIA卡)、或者其他存储器设备。该计算机程序可以按任何形式固定在信号中,该信号传输给使用各种通信技术的计算机,包括但不限于:模拟技术、数字技术、光技术、无线技术(例如蓝牙)、网络技术、以及互联网技术。该计算机程序可以按任何形式来发布,如使用附带有打印的文档或者电子文档的可移动存储介质(例如压缩包软件)、预装入计算机***(例如在***ROM或者硬盘上)、或者通过通信***(例如因特网或者万维网)从服务器或者电子公告板来发布。
实施全部或者部分这里的上述功能的硬件逻辑(包括用于可编程逻辑设备的可编程逻辑)可以使用传统人工方法设计,或者可以使用各种工具来设计、捕获、模拟、或者建立电子文档,例如计算机辅助设计(CAD)、硬件描述语言(例如VHEL或者AHDL)、或者PLD编程语言(例如PALASM、ABEL、或者CUPL)。
所述可编程逻辑可以永久或者暂时固定在有形存储介质中,例如半导体存储设备(例如RAM、ROM、PROM、EEPROM、或者可编程闪存RAM)、磁存储设备(例如软盘或者硬盘)、光存储设备(例如CD-ROM)、或者其他存储器设备。该可编程逻辑可以按任何形式固定在信号中,该信号传输给使用各种通信技术的计算机,包括但不限于:模拟技术、数字技术、光技术、无线技术(例如蓝牙)、网络技术、以及互联网技术)。该可编程逻辑可以按任何形式来发布,如使用带有打印文档或者电子文档的可移动存储介质(例如压缩包软件)、预装入计算机***(例如在***ROM或者硬盘上)、或者通过通信***(例如因特网或者万维网)从服务器或者电子公告板发布。
本发明涉及下列美国专利申请,通过引用全文并入此处:
代理卷号2950104、名称为Dynamically Upgradeable Fault-TolerantStorage System Permitting Variously Sized Storage Devices and Method;
代理卷号2950105、名称为Dynamically Expandable andContractible Fault-Tolerant Storage System With Virtual Hot Spare;和
代理卷号2950107、名称为Storage System Condition Indicator andMethod;
在不脱离本发明真实范围下,本发明可以实施为其他特殊形式。所述实施例在所有方面都应当认为作为说明而不是限制。

Claims (21)

1.一种通过在主机文件***的控制下存储数据的块级存储***来存储数据的方法,所述方法包括:
定位在所述块级存储***中所存储的用于所述主机文件***的主机文件***数据结构;
对所述主机文件***数据结构进行分析以识别与所要存储的数据相关联的数据类型;和
使用基于所述数据类型所选择的存储方案存储所述数据,由此使用基于所述数据类型所选择的不同存储方案能够存储具有不同数据类型的数据。
2.如权利要求1所述的方法,其中使用基于所述数据类型所选择的存储方案存储所述数据包括:
使用基于所述数据类型所选择的存储布局存储所述数据。
3.如权利要求2所述的方法,其中使用基于所述数据类型所选择的存储布局存储所述数据包括:
存储频繁访问的数据以便提供增强的访问性能。
4.如权利要求3所述的方法,其中存储频繁访问的数据以便提供增强的访问性能包括:
将所述频繁访问的数据以未压缩的形式存储在连续存储中。
5.如权利要求2所述的方法,其中使用基于所述数据类型所选择的存储布局存储所述数据包括:
存储不频繁访问的数据以便提供增强的存储效率。
6.如权利要求5所述的方法,其中存储不频繁访问的数据以便提供增强的存储效率包括:
使用数据压缩和非连续存储中的至少一个存储所述不频繁访问的数据。
7.如权利要求1所述的方法,其中使用基于所述数据类型所选择的存储方案存储所述数据包括:
使用基于所述数据类型所选择的编码方案存储所述数据。
8.如权利要求7所述的方法,其中所述编码方案包括以下的至少一个:
数据压缩;和
加密。
9.如权利要求1所述的方法,其中在存储中定位主机文件***数据结构包括:
维护分区表;
对所述分区表进行解析以定位操作***分区;
对所述操作***分区进行解析以识别所述操作***并定位操作***数据结构;和
对所述操作***数据结构进行解析以识别所述主机文件***并定位所述主机文件***数据结构。
10.如权利要求9所述的方法,其中所述操作***数据结构包括超级块,并且其中对所述操作***数据结构进行解析包括对所述超级块进行解析。
11.如权利要求9所述的方法,其中对所述主机文件***数据结构进行解析包括:
制作主机文件***数据结构的工作副本;和
对所述工作副本进行解析。
12.一种在主机文件***的控制下存储数据的块级存储***,所述***包括:
块级存储,其中存储用于所述主机文件***的主机文件***数据结构;
可操作地耦合到所述块级存储的存储控制器,其用于定位所述块级存储中所存储的所述主机文件***数据结构,对所述主机文件***数据结构进行分析以识别与所要存储的数据相关联的数据类型,并使用基于所述数据类型所选择的存储方案存储所述数据,由此使用基于所述数据类型所选择的不同存储方案能够存储具有不同数据类型的数据。
13.如权利要求12所述的***,其中所述存储控制器可操作地耦合以使用基于所述数据类型所选择的存储布局存储所述数据。
14.如权利要求13所述的***,其中所述存储控制器可操作地耦合以存储频繁访问的数据以便提供增强的访问性能。
15.如权利要求14所述的***,其中所述存储控制器可操作地耦合以将频繁访问的数据以未压缩的形式存储在连续存储中。
16.如权利要求13所述的***,其中所述存储控制器可操作地耦合以存储不频繁访问的数据以便提供增强的存储效率。
17.如权利要求16所述的***,其中所述存储控制器可操作地耦合以使用数据压缩和非连续存储中的至少一个存储不频繁访问的数据。
18.如权利要求12所述的***,其中所述存储控制器可操作地耦合以使用基于所述数据类型所选择的编码方案存储所述数据。
19.如权利要求18所述的***,其中所述编码方案包括以下的至少一种:
数据压缩;和
加密。
20.如权利要求12所述的***,其中所述存储控制器可操作地耦合,以:维护分区表,对所述分区表进行解析以定位操作***分区,对所述操作***分区进行解析以识别所述操作***并定位操作***数据结构,对所述操作***数据结构进行解析以识别所述主机文件***并定位所述主机文件***数据结构,并且对所述主机文件***数据结构进行解析以识别所述数据类型。
21.如权利要求20所述的***,其中所述操作***数据结构包括超级块,并且其中所述存储控制器可操作地耦合以对所述超级块进行解析。
22.如权利要求20所述的***,其中所述存储控制器可操作地耦合以制作主机文件***数据结构的工作副本并对所述工作副本进行解析。
CN2007800252087A 2006-05-03 2007-05-03 感知文件***的块存储***、装置和方法 Expired - Fee Related CN101501623B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US79712706P 2006-05-03 2006-05-03
US60/797,127 2006-05-03
PCT/US2007/068139 WO2007128005A2 (en) 2006-05-03 2007-05-03 Filesystem-aware block storage system, apparatus, and method

Publications (2)

Publication Number Publication Date
CN101501623A true CN101501623A (zh) 2009-08-05
CN101501623B CN101501623B (zh) 2013-03-06

Family

ID=38610547

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007800252087A Expired - Fee Related CN101501623B (zh) 2006-05-03 2007-05-03 感知文件***的块存储***、装置和方法

Country Status (7)

Country Link
EP (2) EP2372520B1 (zh)
JP (1) JP4954277B2 (zh)
KR (1) KR101362561B1 (zh)
CN (1) CN101501623B (zh)
AU (1) AU2007244671B9 (zh)
CA (1) CA2651757A1 (zh)
WO (1) WO2007128005A2 (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102096639A (zh) * 2009-12-15 2011-06-15 英特尔公司 用于修剪在非易失性闪速介质上的数据的方法
CN102270161A (zh) * 2011-06-09 2011-12-07 华中科技大学 一种基于纠删码的多等级容错数据存储、读取和恢复方法
CN102622184A (zh) * 2011-01-27 2012-08-01 北京东方广视科技股份有限公司 数据存储***和方法
CN106471478A (zh) * 2014-06-24 2017-03-01 Arm 有限公司 用于在非易失性数据存储设备内以原子的方式执行多个写事务的设备控制器和方法
CN107885492A (zh) * 2017-11-14 2018-04-06 中国银行股份有限公司 主机中数据结构动态生成的方法及装置
CN108062200A (zh) * 2016-11-08 2018-05-22 杭州海康威视数字技术股份有限公司 一种磁盘数据读写方法及装置
CN108829345A (zh) * 2018-05-25 2018-11-16 华为技术有限公司 日志文件的数据处理方法和终端设备
CN109074308A (zh) * 2016-04-22 2018-12-21 微软技术许可有限责任公司 适应性的块转换表(btt)
CN109783398A (zh) * 2019-01-18 2019-05-21 上海海事大学 一种基于相关感知页面级ftl固态硬盘性能优化方法
CN110019097A (zh) * 2017-12-29 2019-07-16 ***通信集团四川有限公司 虚拟逻辑副本管理方法、装置、设备及介质
CN110532262A (zh) * 2019-07-30 2019-12-03 北京三快在线科技有限公司 一种数据存储规则自动推荐方法、装置、设备及可读存储介质
CN110750495A (zh) * 2019-10-14 2020-02-04 Oppo(重庆)智能科技有限公司 文件管理方法、装置、存储介质以及终端
CN112804071A (zh) * 2019-11-13 2021-05-14 中兴通讯股份有限公司 在线升级方法、升级文件提供方法、设备及存储介质
CN113535942A (zh) * 2021-07-21 2021-10-22 北京海泰方圆科技股份有限公司 一种文本摘要生成方法、装置、设备及介质
CN114691698A (zh) * 2022-04-24 2022-07-01 北京梦蓝杉科技有限公司 一种计算机***的数据处理***及方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101656102B1 (ko) * 2010-01-21 2016-09-23 삼성전자주식회사 컨텐츠 파일 생성/제공 장치 및 방법
KR102147359B1 (ko) 2012-06-29 2020-08-24 삼성전자 주식회사 비휘발성 메모리 장치의 관리 방법 및 비휘발성 메모리 장치
US20140129526A1 (en) 2012-11-06 2014-05-08 International Business Machines Corporation Verifying data structure consistency across computing environments
KR101744685B1 (ko) * 2015-12-31 2017-06-09 한양대학교 산학협력단 파일의 메타데이터에 대한 보호 방법 및 보호 장치
US11301433B2 (en) * 2017-11-13 2022-04-12 Weka.IO Ltd. Metadata journal in a distributed storage system
KR102090374B1 (ko) * 2018-01-29 2020-03-17 엄희정 Gpu를 이용한 파일 시스템 레벨 암호화 장치 및 방법
KR20200035592A (ko) * 2018-09-27 2020-04-06 삼성전자주식회사 스토리지 장치의 구동 방법, 이를 수행하는 스토리지 장치 및 이를 포함하는 스토리지 시스템
TWI682296B (zh) * 2018-12-06 2020-01-11 啓碁科技股份有限公司 映像檔打包方法及映像檔打包系統
US10809927B1 (en) 2019-04-30 2020-10-20 Microsoft Technology Licensing, Llc Online conversion of storage layout
US11347698B2 (en) * 2019-10-04 2022-05-31 Target Brands, Inc. Garbage collection for hash-based data structures
KR20210108749A (ko) 2020-02-26 2021-09-03 삼성전자주식회사 가속기, 가속기의 동작 방법 및 이를 포함한 가속기 시스템
CN113934691B (zh) * 2021-12-08 2022-05-17 荣耀终端有限公司 访问文件的方法、电子设备及可读存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695955A (ja) * 1992-09-09 1994-04-08 Ricoh Co Ltd フラッシュ・ファイル・システム
WO2001024010A1 (fr) * 1999-09-29 2001-04-05 Hitachi, Ltd. Procede de partage de fichiers et systeme de stockage
US6606651B1 (en) * 2000-05-03 2003-08-12 Datacore Software Corporation Apparatus and method for providing direct local access to file level data in client disk images within storage area networks
US20020161982A1 (en) * 2001-04-30 2002-10-31 Erik Riedel System and method for implementing a storage area network system protocol
US20040078641A1 (en) * 2002-09-23 2004-04-22 Hewlett-Packard Company Operating system-independent file restore from disk image
JP4322031B2 (ja) * 2003-03-27 2009-08-26 株式会社日立製作所 記憶装置
JP2005122439A (ja) * 2003-10-16 2005-05-12 Sharp Corp デバイス機器、及びデバイス機器の記録装置のフォーマット変換方法
US7523140B2 (en) 2004-03-01 2009-04-21 Sandisk Il Ltd. File system that manages files according to content
US7603532B2 (en) * 2004-10-15 2009-10-13 Netapp, Inc. System and method for reclaiming unused space from a thinly provisioned data container

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102096639B (zh) * 2009-12-15 2014-06-11 英特尔公司 用于修剪在非易失性闪速介质上的数据的方法
CN102096639A (zh) * 2009-12-15 2011-06-15 英特尔公司 用于修剪在非易失性闪速介质上的数据的方法
CN102622184A (zh) * 2011-01-27 2012-08-01 北京东方广视科技股份有限公司 数据存储***和方法
CN102270161A (zh) * 2011-06-09 2011-12-07 华中科技大学 一种基于纠删码的多等级容错数据存储、读取和恢复方法
CN106471478A (zh) * 2014-06-24 2017-03-01 Arm 有限公司 用于在非易失性数据存储设备内以原子的方式执行多个写事务的设备控制器和方法
CN106471478B (zh) * 2014-06-24 2020-10-30 Arm 有限公司 用于在非易失性数据存储设备内以原子的方式执行多个写事务的设备控制器和方法
CN109074308A (zh) * 2016-04-22 2018-12-21 微软技术许可有限责任公司 适应性的块转换表(btt)
CN108062200B (zh) * 2016-11-08 2019-12-20 杭州海康威视数字技术股份有限公司 一种磁盘数据读写方法及装置
CN108062200A (zh) * 2016-11-08 2018-05-22 杭州海康威视数字技术股份有限公司 一种磁盘数据读写方法及装置
US11048601B2 (en) 2016-11-08 2021-06-29 Hangzhou Hikvision Digital Technology Co., Ltd. Disk data reading/writing method and device
CN107885492A (zh) * 2017-11-14 2018-04-06 中国银行股份有限公司 主机中数据结构动态生成的方法及装置
CN110019097A (zh) * 2017-12-29 2019-07-16 ***通信集团四川有限公司 虚拟逻辑副本管理方法、装置、设备及介质
CN110019097B (zh) * 2017-12-29 2021-09-28 ***通信集团四川有限公司 虚拟逻辑副本管理方法、装置、设备及介质
CN108829345A (zh) * 2018-05-25 2018-11-16 华为技术有限公司 日志文件的数据处理方法和终端设备
CN109783398A (zh) * 2019-01-18 2019-05-21 上海海事大学 一种基于相关感知页面级ftl固态硬盘性能优化方法
CN110532262A (zh) * 2019-07-30 2019-12-03 北京三快在线科技有限公司 一种数据存储规则自动推荐方法、装置、设备及可读存储介质
CN110750495A (zh) * 2019-10-14 2020-02-04 Oppo(重庆)智能科技有限公司 文件管理方法、装置、存储介质以及终端
CN112804071A (zh) * 2019-11-13 2021-05-14 中兴通讯股份有限公司 在线升级方法、升级文件提供方法、设备及存储介质
CN113535942A (zh) * 2021-07-21 2021-10-22 北京海泰方圆科技股份有限公司 一种文本摘要生成方法、装置、设备及介质
CN113535942B (zh) * 2021-07-21 2022-08-19 北京海泰方圆科技股份有限公司 一种文本摘要生成方法、装置、设备及介质
CN114691698A (zh) * 2022-04-24 2022-07-01 北京梦蓝杉科技有限公司 一种计算机***的数据处理***及方法

Also Published As

Publication number Publication date
EP2372520B1 (en) 2014-03-19
EP2024809A2 (en) 2009-02-18
EP2372520A1 (en) 2011-10-05
CN101501623B (zh) 2013-03-06
AU2007244671A1 (en) 2007-11-08
WO2007128005A2 (en) 2007-11-08
WO2007128005A3 (en) 2008-01-24
AU2007244671A2 (en) 2009-01-08
JP2009536414A (ja) 2009-10-08
KR101362561B1 (ko) 2014-02-13
JP4954277B2 (ja) 2012-06-13
KR20090009300A (ko) 2009-01-22
AU2007244671B2 (en) 2012-12-13
CA2651757A1 (en) 2007-11-08
AU2007244671B9 (en) 2013-01-31

Similar Documents

Publication Publication Date Title
CN101501623B (zh) 感知文件***的块存储***、装置和方法
CN101872319A (zh) 存储***条件指示器及其使用方法
CN101095116A (zh) 允许各种规模存储装置的动态可扩展和可收缩的容错存储***和方法
US7873782B2 (en) Filesystem-aware block storage system, apparatus, and method
US7774565B2 (en) Methods and apparatus for point in time data access and recovery
CN102084331A (zh) 在多处理器/多线程环境下协调存储请求的装置、***和方法
CN104395904A (zh) 高效的数据对象存储和检索
CN101566928B (zh) 虚拟磁盘驱动***和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C56 Change in the name or address of the patentee

Owner name: DELUOBO CORP.

Free format text: FORMER NAME: DATA ROBOTICS INC.

CP01 Change in the name or title of a patent holder

Address after: American California

Patentee after: Deluobo Corp.

Address before: American California

Patentee before: Data Robotics Inc.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130306

Termination date: 20160503