CN103827804A - 在物理区块间拷贝数据的磁盘阵列装置、磁盘阵列控制器以及方法 - Google Patents

在物理区块间拷贝数据的磁盘阵列装置、磁盘阵列控制器以及方法 Download PDF

Info

Publication number
CN103827804A
CN103827804A CN201280002717.9A CN201280002717A CN103827804A CN 103827804 A CN103827804 A CN 103827804A CN 201280002717 A CN201280002717 A CN 201280002717A CN 103827804 A CN103827804 A CN 103827804A
Authority
CN
China
Prior art keywords
physical blocks
blocks
physical
magnetic disc
disk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280002717.9A
Other languages
English (en)
Other versions
CN103827804B (zh
Inventor
小林正树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Publication of CN103827804A publication Critical patent/CN103827804A/zh
Application granted granted Critical
Publication of CN103827804B publication Critical patent/CN103827804B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • G06F11/1662Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit the resynchronized component or unit being a persistent storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0685Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

根据实施方式,磁盘阵列控制器具备数据拷贝部和物理区块更换部。数据拷贝部为了使主逻辑磁盘和备份逻辑磁盘为同步状态而将数据从所述主逻辑磁盘拷贝到所述备份逻辑磁盘。物理区块更换部在取代与第一物理区块相对应的第二物理区块而对第三物理区块更换分配的情况下,在数据从所述第一物理区块拷贝到所述备份逻辑磁盘之前,将所述第三物理区块分配给所述备份逻辑磁盘,所述第一物理区块被分配给所述主逻辑磁盘,所述第二物理区块被分配给所述备份逻辑磁盘。

Description

在物理区块间拷贝数据的磁盘阵列装置、磁盘阵列控制器以及方法
技术领域
本发明的实施方式涉及在物理区块间拷贝数据的磁盘阵列装置、磁盘阵列控制器以及方法。
背景技术
一般来说磁盘阵列装置具备硬磁盘驱动器(HDD)或固态驱动器(SSD)这样的多个物理磁盘。磁盘阵列装置包含所述多个物理磁盘的存储区域被定义为连续的一个区域的一个以上的磁盘阵列。磁盘阵列装置的控制器(也就是说磁盘阵列控制器)使用所述一个以上的磁盘阵列的存储区域对一个以上的逻辑磁盘(例如多个逻辑磁盘)进行定义(构建)。
此外近年来,为了可靠性的提高,还已知有将任意的逻辑磁盘对用作主逻辑磁盘以及备份逻辑磁盘的磁盘阵列装置。在这样的磁盘阵列装置中,进行复制和数据移动(以下称为迁移(migration))。
复制(replication)是指数据从主逻辑磁盘拷贝到备份逻辑磁盘的动作。拷贝结束后,主逻辑磁盘以及备份逻辑磁盘转移到同步状态。在同步状态中,写入到主逻辑磁盘的数据还被写入到备份逻辑磁盘。
当主逻辑磁盘和备份逻辑磁盘被在逻辑切分时,两磁盘转移到分离(split)状态。在分离状态中用主逻辑磁盘或者备份逻辑磁盘进行了数据更新(也就是说单一的数据写入)的情况下,磁盘阵列控制器将该数据更新范围(写入范围)作为差分进行管理。具体地说磁盘阵列控制器利用差分信息将数据更新范围作为差分区域进行管理。在再次将主逻辑磁盘以及备份逻辑磁盘转移为同步状态时,磁盘阵列控制器基于差分信息,仅将在该两磁盘间数据不一致的区域(也就是说差分区域)作为对象,将数据从主逻辑磁盘拷贝到备份逻辑磁盘。该拷贝被称为复制拷贝或者差分拷贝。
迁移是指将分配给逻辑磁盘内的逻辑区块的第一物理区块更换为与该第一物理区块不同的第二物理区块的动作。在迁移中,数据从第一物理区块(也就是说更换源的物理区块)拷贝到第二物理区块(也就是说更换目的地的物理区块)。该拷贝被称为迁移拷贝。
磁盘阵列控制器将在迁移拷贝中应写入到所述逻辑区块的数据写入到所述第一以及第二物理区块双方。在迁移拷贝的完成后,磁盘阵列控制器将分配给所述逻辑区块的第一物理区块更换为第二物理区块。也就是说磁盘阵列控制器对表示逻辑区块与物理区块的对应的映射信息进行更换。
在成为迁移的对象的物理区块的决定中,以往提出有各种方法。最单纯的方法是在低速的物理区块的负荷高的情况下,将该低速的物理区块更换为高速的物理区块。与此相反地,还能应用在高速的物理区块的负荷低的情况下,将该高速的物理区块更换为低速的物理区块的方法。
现有技术文献
专利文献
专利文献1:日本特开2010-122761号公报
专利文献2:日本特开2008-046763号公报
发明的概要
发明要解决的课题
在现有技术中,所述两种的拷贝动作分别独立执行。但是,由磁盘阵列控制器进行的拷贝动作会对针对从主机装置对该磁盘阵列控制器发放的访问请求(数据访问请求)的响应的性能给予影响。
发明内容
本发明要解决的课题在于提供一种能减少拷贝动作的在物理区块间拷贝数据的磁盘阵列装置、磁盘阵列控制器以及方法。
用于解决课题的手段
根据实施方式,磁盘阵列装置具备多个磁盘阵列和对所述多个磁盘阵列进行控制的磁盘阵列控制器。所述磁盘阵列控制器具备逻辑区块管理部、数据拷贝部和物理区块更换部。所述逻辑区块管理部对从所述多个磁盘阵列中选择出的多个物理区块进行分配并对多个逻辑磁盘进行定义。所述数据拷贝部为了使主逻辑磁盘和备份逻辑磁盘为同步状态而将数据从所述主逻辑磁盘拷贝到所述备份逻辑磁盘。所述物理区块更换部在取代与第一物理区块相对应的第二物理区块而对第三物理区块更换分配的情况下,在数据从所述第一物理区块拷贝到所述备份逻辑磁盘之前,取代所述第二物理区块而将所述第三物理区块分配给所述备份逻辑磁盘,所述第一物理区块被分配给所述主逻辑磁盘,所述第二物理区块被分配给所述备份逻辑磁盘。
附图说明
图1是表示实施方式的存储***的典型的硬件构成的框图。
图2是主要表示图1所示的磁盘阵列控制器的功能构成的框图。
图3是用于说明RAID组中的物理区块的图。
图4是用于说明存储池中的RAID组的图。
图5是用于说明逻辑磁盘的定义的图。
图6是表示物理区块管理数据的数据构造例的图。
图7是表示逻辑区块管理数据的数据构造例的图。
图8是表示存储池管理数据的数据构造例的图。
图9是表示逻辑-物理映射表的数据构造例的图。
图10是用于说明从主逻辑磁盘向备份逻辑磁盘的数据的拷贝的图。
图11是用于说明复制的状态转变的图。
图12是表示RAID组的物理区域的分层化的例子的图。
图13是表示向逻辑磁盘内的逻辑区块的不同分层的物理区块的分配的例子的图。
图14是用于说明更换分配给逻辑磁盘内的逻辑区块的物理区块的处理的概要的图。
图15是表示相同实施方式中应用的读取处理的典型的顺序的流程图。
图16是表示相同实施方式中应用的复制拷贝处理的典型的顺序的流程图。
具体实施方式
以下,参照附图对实施方式进行说明。
图1是表示实施方式的存储***的典型的硬件构成的框图。存储***包括磁盘阵列装置10、主机计算机(以下称为主机)20、以及网络30。磁盘阵列装置10经由网络30与主机20连接。主机20将磁盘阵列装置10用作外部存储装置。网络30例如是存储区域网络(SAN)、互联网或内联网。互联网或内联网例如由以太网(注册商标)构成。
磁盘阵列装置10具备例如包含物理磁盘11-0至11-3的物理磁盘组、磁盘阵列控制器12和磁盘接口总线13。物理磁盘组是固态驱动器(SSD)组、或硬磁盘驱动器(HDD)组、或SSD组以及HDD组。在本实施方式中,设物理磁盘组为SSD组以及HDD组。SSD组分别由能重写的非易失性存储器(例如闪存)的集合构成。
磁盘阵列控制器12经由磁盘接口总线13与包含物理磁盘11-0至11-3的物理磁盘组连接。磁盘接口总线13的接口种类例如是小型计算机***接口(SCSI)、光纤信道(FC)、串行附加SCSI(SAS)、或串行AT配件(SATA)。
磁盘阵列控制器12对物理磁盘组进行控制。磁盘阵列控制器12使用多个物理磁盘构成磁盘阵列而且对其进行管理。在图1的例子中,示出了3个磁盘阵列110-0至110-2。磁盘阵列110-0至110-2例如是使用RAID(Redundant Arrays of Independent Disks(独立磁磁盘冗余阵列)或者Redundant Arrays of Inexpensive Disks(廉价磁磁盘冗余陈列))技术而构建的RAID构成的阵列(也就是说RAID磁盘阵列)。磁盘阵列110-0至110-2分别由磁盘阵列控制器12(磁盘阵列控制程序)作为单一的物理磁盘进行管理。在以下的说明中,在无需特别对磁盘阵列110-0至110-2进行区别的情况下,将磁盘阵列110-0至110-2分别表述为磁盘阵列110-*。同样地,在无需特别对物理磁盘11-0至11-3进行区别的情况下,将物理磁盘11-0至11-3分别表述为物理磁盘11-*。
磁盘阵列控制器12具备主机接口(主机I/F)121、磁盘接口(磁盘I/F)122、高速缓冲存储器123、高速缓冲存储器控制器124、闪速ROM(FROM)125、本地存储器126、CPU127、芯片组128和内部总线129。磁盘阵列控制器12利用主机I/F121经由网络30与主机20连接。主机I/F121的接口种类例如是FC或互联网SCSI(iSCSI)。
主机I/F121对与主机20之间的数据转送(数据转送协议)进行控制。主机I/F121接收由主机20发放的对逻辑磁盘(逻辑卷)的数据访问(access)请求(读取请求或者写入请求),返回对该数据访问请求的响应。逻辑磁盘将一个以上的磁盘阵列110-*内的至少一部分的存储区域在逻辑上作为实体来实现。主机I/F121当设从主机20接收到数据访问请求时,将该请求经由内部总线129、芯片组128传递到CPU127。接受了数据访问请求的CPU127按磁盘阵列控制程序,来处理该数据访问请求。
如果数据访问请求为写入请求,则CPU127对分配给由该写入请求指定的访问区域(逻辑磁盘内的逻辑区域)的磁盘阵列110-*内的物理区域进行确定,对数据写入进行控制。具体地说,CPU127对第一数据写入或者第二数据写入进行控制。第一数据写入是在将写入数据暂时储存到高速缓冲存储器123之后,将该数据写入到磁盘阵列110-*内的所述确定的物理区域的动作。第二数据写入是将写入数据立即直接写入到所述确定的物理区域的动作。在本实施方式中,设实施第一数据写入。
另一方面,若数据访问请求为读取请求,则CPU127对分配给由该读取请求指定的访问区域(逻辑磁盘内的逻辑区域)的磁盘阵列110-*内的物理区域进行确定,对数据读取进行控制。具体地说,CPU127对第一数据读取或者第二数据读取进行控制。所述第一数据读取在所述确定的物理区域的数据储存于高速缓冲存储器123内的情况下实施。也就是说所述第一数据读取是通过从高速缓冲存储器123读取所述确定的物理区域的数据,并将该读取的数据返回到主机I/F121,从而将该读取的数据返回主机20的动作。所述第二数据读取在所述确定的物理区域的数据未储存于高速缓冲存储器123内的情况下实施。也就是说所述第二数据读取是通过从磁盘阵列110-*内的所述确定的物理区域读取数据,并将该读取的数据返回主机I/F121,从而将该读取的数据返回主机20的动作。从所述确定的物理区域读取的数据被储存于高速缓冲存储器123。
磁盘I/F122按照CPU127(磁盘阵列控制程序)所接收的来自主机20的数据访问请求(对逻辑磁盘的写入请求或者读取请求),对磁盘阵列110-*的物理磁盘11-*发送写入请求或者读取请求,并接收其响应。高速缓冲存储器123在由主机I/F121接收到来自主机20的数据访问请求的情况下,用作对该数据访问请求(写入请求或者读取请求)的完成响应的高速化用的缓冲器。
在数据访问请求为写入请求的情况下,CPU127避免对写入处理花费时间的磁盘阵列110-*的访问(access)。因而,CPU127使用高速缓冲存储器控制器124,暂时将写入数据储存于高速缓冲存储器123,由此使写入处理完成,并对主机20返回响应。其后,CPU127在任意的时机将所述写入数据写入到磁盘阵列110-*的物理磁盘11-*。而且CPU127使用高速缓冲存储器控制器124来释放储存有所述写入数据的高速缓冲存储器123的存储区域。
另一方面,在数据访问请求为读取请求的情况下,若请求的数据(也就是说应读取的数据)储存于高速缓冲存储器123中,则CPU127会避免对读取处理花费时间的磁盘阵列110-*的访问。因而,CPU127使用高速缓冲存储器控制器124从高速缓冲存储器123取得所请求的数据,并对主机20返回响应(第一数据读取)。
高速缓冲存储器控制器124按照来自CPU127(磁盘阵列控制程序)的命令,实施来自高速缓冲存储器123的数据的读取。高速缓冲存储器控制器124还按照来自CPU127的命令,也实施对高速缓冲存储器123的数据的写入。在此,高速缓冲存储器控制器124为了变成能对所述读取请求极力以储存于高速缓冲存储器123的数据进行响应,也可以事先从物理磁盘11-*读取数据。也就是说也可以是高速缓冲存储器控制器124预先预测今后有产生的可能性的读取请求,事先从物理磁盘11-*读取对应的数据,并将该读取的数据储存于高速缓冲存储器123。
FROM125是能重写的非易失性存储器。FROM125用于储存由CPU127执行的磁盘阵列控制程序。CPU127利用启动磁盘阵列控制器12时的最初的处理,将储存于FROM125的磁盘阵列控制程序拷贝到本地存储器126。此外,也可以取代FROM125而使用只读的非易失性存储器例如ROM。
本地存储器126是DRAM那样的能重写的易失性存储器。本地存储器126的一部分存储区域用于储存从FROM125拷贝的磁盘阵列控制程序。本地存储器126的另一部分存储区域用作CPU127用的工作区域。CPU127按照储存于本地存储器126的磁盘阵列控制程序的程序代码,对磁盘阵列装置10整体(特别是磁盘阵列控制器12内的各部)进行控制。也就是说CPU127通过将储存于本地存储器126的磁盘阵列控制程序经由芯片组128读取并进行执行,从而对磁盘阵列装置10整体进行控制。
芯片组128是将CPU127及其***电路耦合到内部总线129的桥接电路。内部总线129是通用总线,例如是PCI(Peripheral ComponentInterconnect,外设部件互连标准)express总线。主机I/F121、磁盘I/F122以及芯片组129利用内部总线210相互连接。此外,高速缓冲存储器控制器124、FROM125、本地存储器126以及CPU127经由芯片组128连接于内部总线129。
图2是主要示出图1所示的磁盘阵列控制器12的功能构成的框图。磁盘阵列控制器12具备磁盘阵列管理部201、逻辑磁盘管理部202、复制管理部203、差分管理部204、物理区块更换判定部205、物理区块更换部206、物理区块选择部207和访问控制器208。对这些功能要素201至208的功能将在后面叙述。磁盘阵列管理部201、逻辑磁盘管理部202以及复制管理部203分别包含物理区块管理部201a、逻辑区块管理部202a以及数据拷贝部203a。磁盘阵列控制器12还具备用于储存各种的管理数据(管理数据列表)的管理数据存储部209。对管理数据将在后面叙述。管理数据存储部209例如使用图1所示的本地存储器126的一部分存储区域来实现。
在本实施方式中,上述的功能要素201至208是通过图1所示的磁盘阵列控制器12的CPU127执行所述磁盘阵列控制程序而实现的软件模块。但是,也可以是功能要素201至208的一部分或者全部由硬件模块实现。
接下来,对本实施方式中应用的磁盘阵列与逻辑磁盘的关系进行说明。
在初始的磁盘阵列装置中,一般是单一的磁盘阵列的存储区域分配给逻辑磁盘。也就是说,使用单一的磁盘阵列来定义逻辑磁盘。
与此相对,在近年来的磁盘阵列装置中,多个或者单一的磁盘阵列暂时以存储池SP为单位进行分组化。也就是说,以存储池SP为单位,对多个或者单一的磁盘阵列进行管理。存储池SP内的磁盘阵列(RAID磁盘阵列)被称为RAID组。逻辑磁盘使用从存储池SP内的一个以上的磁盘阵列(RAID组)中选择的满足必要容量的物理资源(物理区块)的集合来进行定义(构建),并提供给主机20。在本实施方式中也是,利用该方法来定义逻辑磁盘。另外在本实施方式中,设多个磁盘阵列被分组化为存储池SP。
磁盘阵列控制器12的磁盘阵列管理部201使用多个物理磁盘来定义磁盘阵列(RAID组)。磁盘阵列管理部201还将各磁盘阵列(RAID组)的存储区域以一定容量(尺寸)的物理区块为单位来进行区分。由此磁盘阵列管理部201将磁盘阵列作为物理区块的集合体来进行管理。磁盘阵列管理部201的物理区块管理部201a利用后述的物理区块管理数据PBMD来管理磁盘阵列的各物理区块。另外,物理区块也有时被称为物理区段(segment)或者物理范围(extent)。
磁盘阵列控制器12的逻辑磁盘管理部202计算出为了满足目的的逻辑磁盘的容量所需的数目的物理区块。逻辑磁盘管理部202从存储池SP内的磁盘阵列(RAID组)中选择例如均等所需的数目的物理区块,将该选择的物理区块与逻辑磁盘(更详细地说是逻辑磁盘的逻辑区块)相关联。由此逻辑磁盘管理部202对逻辑磁盘进行定义而且进行管理。也就是说逻辑磁盘管理部202将逻辑磁盘定义为多个物理区块的逻辑的集合体而且进行管理。
逻辑磁盘管理部202的逻辑区块管理部202a利用逻辑区块管理数据LBMD来管理逻辑磁盘的各逻辑区块。逻辑区块管理数据LBMD如后所述,包含表示与由该管理数据LBMD表示的逻辑区块相关联的(分配给其的)物理区块的物理区块指针(也就是说是映射信息)。
在请求了向由逻辑磁盘管理部202定义的逻辑磁盘的访问的情况下,访问控制器208判别所请求的访问范围的逻辑区域与哪个磁盘阵列的哪里的物理区块相符。访问控制器208对所确定的物理区块进行访问。
根据本实施方式中应用的逻辑磁盘定义方法,能不依赖于各磁盘阵列的容量地定义任意容量的逻辑磁盘。此外,根据所述逻辑磁盘定义方法,能使向一个逻辑磁盘的访问分散到多个磁盘阵列的物理区块。由此,能防止访问集中于一部分磁盘阵列,能使对来自主机20的数据访问请求的响应高速化。
此外,根据所述逻辑磁盘定义方法,通过分别由访问性能不同的物理磁盘(驱动器)构建多个磁盘阵列,从而能使用不同访问速度的物理区块来定义逻辑磁盘。在这种情况下,通过根据逻辑区块的负荷的高低,对该逻辑区块分配最佳性能的物理区块,从而能使性能最佳化。物理区块向逻辑区块的分配能动态地进行变更。例如,为了将分配给逻辑区块的第一物理区块变更(更换)为第二物理区块,需要将储存于所述第一物理区块的数据移动(拷贝)到所述第二物理区块。因此,对分配给逻辑区块的物理区块进行变更的动作被称为迁移。此外,在所述逻辑磁盘定义方法中,通过在来自主机装置的写入请求接收时分配物理区块,从而能构成尺寸比实际的物理容量大的逻辑磁盘。这被称作自动精简配置(thin provisioning)。
图3是用于说明RAID组(磁盘阵列)RG中的物理区块的图。RAID组RG利用磁盘阵列管理部201使用多个物理磁盘来进行定义(构建)。在定义RAID组RG时,该RAID组RG的存储区域(物理区域)利用磁盘阵列管理部201的物理区块管理部201a,例如从该存储区域的开头起以一定容量(尺寸)的物理区块为单位进行区分。
由此,RAID组RG实质上具备由多个物理区块0、1、2、3…构成的存储区域。物理区块i(i=0、1、2、3…)是物理区块编号为i的物理区块。也就是说,对RAID组RG的全部的物理区块从开头的物理区块起依次分配连续的物理区块编号。物理区块的容量可以是固定的,或者也可以由用户使用参数来进行指定。
图4是用于说明存储池SP中的RAID组的图。在图4的例子中,3个磁盘阵列(RAID磁盘阵列)由磁盘阵列管理部201分组化(定义)为作为存储池SP的要素的RAID组0(RG0)至2(RG2)。换言之,存储池SP被定义为RAID组0(RG0)至2(RG2)的集合。
图4示出了RAID组0(RG0)是由4个SSD(固态驱动器)构成的磁盘阵列。SSD例如是应用SAS接口的SAS-SSD。图4进而还示出了RAID组1(RG1)是由3个HDD(硬磁盘驱动器)构成的磁盘阵列,RAID组2(RG2)是由6个HDD构成的磁盘阵列。HDD例如是应用SAS接口的SAS-HDD。
图5是用于说明逻辑磁盘的定义的图。如图5所示,逻辑磁盘LD的存储区域(逻辑区域)由逻辑磁盘管理部202的逻辑区块管理部202a例如从该存储区域的开头起以一定容量(尺寸)的逻辑区块为单位来进行区分。该逻辑区块的容量与所述物理区块的容量相等。逻辑磁盘LD实质上具备由多个逻辑区块0、1、2、3…构成的存储区域。逻辑区块i(i=0、1、2、3…)是逻辑区块编号为i的逻辑区块。也就是说,对逻辑磁盘LD的全部的逻辑区块从开头的逻辑区块起依次分配连续的逻辑区块编号。
对逻辑磁盘LD的逻辑区块0、1、2、3…,分配由逻辑磁盘管理部202从例如图4所示的存储池SP内的RAID组RG0(0)至RG2(2)中选择的物理区块。也就是说逻辑磁盘LD由逻辑磁盘管理部202定义为从RAID组0至2中选择的物理区块的集合。在图5的例子中,对逻辑磁盘LD的逻辑区块0以及1分别分配RAID组0的物理区块0以及RAID组1的物理区块2。此外,对逻辑磁盘LD的逻辑区块2以及3分别分配RAID组2的物理区块0以及RAID组0的物理区块1。
接下来,对本实施方式中应用的各种管理数据进行说明。
物理区块管理部201a在由磁盘阵列管理部201定义了RAID组(磁盘阵列)RG的情况下,按该RAID组RG的每个物理区块来生成物理区块管理数据PBMD。物理区块管理数据PBMD用于对物理区块进行管理,并储存于管理数据存储部209中。
图6示出物理区块管理数据PBMD的数据构造例。如图6所示,物理区块管理数据PBMD由RAID组编号、物理区块编号、写入计数、读取计数、性能属性以及差分位图构成。
RAID组编号是分配给具有由物理区块管理数据PBMD管理的物理区块(以下称为对应物理区块)的RAID组RG的编号。物理区块编号是唯一决定所述对应物理区块的编号。写入计数是表示向所述对应物理区块的数据写入的次数(写入访问频度)的统计值,读取计数是表示来自所述对应物理区块的数据读取的次数(读取访问频度)的统计值。
性能属性表示由具有所述对应物理区块的物理磁盘的例如种类决定的访问性能。在本实施方式中,性能属性表示属性值越小、性能越高。本实施方式中的性能属性的属性值如将对细节在后面叙述的那样,设为是0、1或者2。差分位图用于在所述对应物理区块分配给主逻辑磁盘或者备份逻辑磁盘的逻辑区块的情况下,记录所述对应物理区块的数据与拷贝目的地或者拷贝源的物理区块的数据之间的差分。一般来说各物理区块由作为最小访问单位的扇区的集合构成。因此所述差分位图由按所述对应物理区块内的每个扇区来表示差分的有无的位的集合构成。在本实施方式中,在差分位图中的各位为“1”的情况下,表示在对应的扇区间有差分。
逻辑区块管理部202a在由逻辑磁盘管理部202定义了逻辑磁盘LD的情况下,按该逻辑磁盘LD的每个逻辑区块来生成逻辑区块管理数据LBMD。逻辑区块管理数据LBMD用于对逻辑区块进行管理,并储存于管理数据存储部209中。
图7表示逻辑区块管理数据LBMD的数据构造例。如图7所示,逻辑区块管理数据LBMD由逻辑磁盘编号、逻辑区块编号、交换(swap)标志以及物理区块指针构成。
逻辑磁盘编号是分配给具有由逻辑区块管理数据LBMD管理的逻辑区块(以下称为对应逻辑区块)的逻辑磁盘LD的编号。逻辑区块编号是唯一决定所述对应逻辑区块的编号。交换标志表示在具有所述对应逻辑区块的逻辑磁盘为主逻辑磁盘或者备份逻辑磁盘的一方的情况下,是否应将分配给所述对应逻辑区块的物理区块更换为分配给主逻辑磁盘或者备份逻辑磁盘的另一方的逻辑区块的物理区块。物理区块指针是指示用于对分配给所述对应逻辑区块的物理区块进行管理的物理区块管理数据PBMD的映射信息。
磁盘阵列管理部201在作为多个磁盘阵列(RAID组)的集合定义了存储池的情况下,生成用于管理该存储池的存储池管理数据SPMD。存储池管理数据SPMD储存于管理数据存储部209中。
图8表示存储池管理数据SPMD的数据构造例。如图8所示,存储池管理数据SPMD由池编号、自由物理区块列表*以及自由数*(其中,*=0、1、2)构成。
池编号是分配给由存储池管理数据SPMD管理的存储池(以下称为对应存储池)的编号。自由物理区块列表*以及自由数*按每个前述的性能属性来准备。在本实施方式中存储池管理数据SPMD包含自由物理区块列表0、1以及2和自由数0、1以及2。自由物理区块列表0、1以及2是分别包含于所述对应存储池内的RAID组而且与性能属性的属性值0、1以及2对应的自由物理区块的物理区块管理数据PBMD的列表。在以下的说明中,将属性值为0、1以及2的性能属性分别称为性能属性(属性)0、1以及2。自由物理区块是指未分配给逻辑磁盘LD的物理区块。自由数0、1以及2分别表示由自由物理区块列表0、1以及2所示的自由物理区块的数目。
逻辑磁盘管理部202利用注册有逻辑区块管理数据LBMD以及物理区块管理数据PBMD的逻辑-物理映射表LPMT,来管理逻辑磁盘LD的逻辑区块与RAID组RG的物理区块的对应。逻辑区块管理数据LBMD例如以散列表(hash table)形式进行管理即可。但是,逻辑区块管理数据LBMD未必一定需要以散列表形式进行管理。
图9表示逻辑-物理映射表LPMT的数据构造例。在图9的例子中,注册于逻辑-物理映射表LPMT的逻辑区块管理数据包含逻辑区块管理数据LBMD0-0、LBMD0-1以及LBMD0-2。逻辑区块管理数据LBMDx-y(x=0,y=0、1、2…)表示是用于对逻辑磁盘编号为x的逻辑磁盘内的逻辑区块编号为y的逻辑区块(也就是说逻辑区块y)进行管理的逻辑区块管理数据。
此外,在图9的例子中,注册于逻辑-物理映射表LPMT的物理区块管理数据包含物理区块管理数据PBMD0-0、PBMD1-2以及PBMD2-0。物理区块管理数据PBMDp-q(p=0、1、2,q=0、1、2…)表示是用于对RAID组编号为p的RAID组(也就是说RAID组p)内的物理区块编号为q的物理区块(物理区块q)进行管理的物理区块管理数据。在图9的例子中,利用逻辑区块管理数据LBMD0-0、LBMD0-1以及LBMD0-2的物理区块指针,指示物理区块管理数据PBMD0-0、PBMD1-2以及PBMD2-0。
磁盘阵列控制器12的复制管理部203利用复制管理表(未图示)来管理复制的状态。复制是生成逻辑磁盘的拷贝的功能。本实施方式应用同步分离类型的复制。
以下,参照图10以及图11对同步分离类型的复制的概要进行说明。图10是用于说明从主逻辑磁盘MLD向备份逻辑磁盘BLD的数据的拷贝的图,图11是用于说明复制的状态转变的图。
首先复制管理部203使用复制管理表来定义成为拷贝源的主逻辑磁盘MLD和成为拷贝目的地的备份逻辑磁盘BLD。复制管理表的项目储存主逻辑磁盘MLD以及备份逻辑磁盘BLD各自的逻辑磁盘编号和表示复制的状态的状态信息。在主逻辑磁盘MLD以及备份逻辑磁盘BLD的定义后,复制管理部203的数据拷贝部203a进行如下那样的数据的拷贝。即数据拷贝部203a为了将主逻辑磁盘MLD以及备份逻辑磁盘BLD的复制的状态转移为同步状态ST2,如在图10中以箭头100所示那样,进行从主逻辑磁盘MLD向备份逻辑磁盘BLD的数据的拷贝。在此,将主逻辑磁盘MLD以及备份逻辑磁盘BLD的关系一般称为构成了复制。同样地,与主逻辑磁盘MLD以及备份逻辑磁盘BLD内的相互对应的物理区块的关系也称为构成了复制。
在主逻辑磁盘MLD以及备份逻辑磁盘BLD处于拷贝状态ST1或者同步状态ST2的情况下,复制管理部203以备份逻辑磁盘BLD不能从主机20访问的方式,对访问控制器208进行控制。此外,在拷贝状态ST1或者同步状态ST2中请求了数据向主逻辑磁盘MLD的写入的情况下,复制管理部203控制访问控制器208,对主逻辑磁盘MLD以及备份逻辑磁盘BLD双方写入数据。
在拷贝完成后,复制管理部203使所述复制的状态从拷贝状态ST1转移到同步状态ST2。同步状态ST2中的主逻辑磁盘MLD与备份逻辑磁盘BLD的内容一致。
为了能对备份逻辑磁盘BLD从主机20进行访问,需要复制管理部203使所述复制的状态从拷贝状态ST1或者同步状态ST2转变到分离状态ST3。在分离状态ST3中,主逻辑磁盘MLD和备份逻辑磁盘BLD在逻辑分离,分别作为独立的逻辑磁盘进行动作。
磁盘阵列控制器12的差分管理部204利用对应的物理区块管理数据PBMD中的差分位图将数据对分离状态ST3中的逻辑磁盘MLD的写入的范围作为差分(更详细地说是有差分)进行管理。由此数据拷贝部203a在接下来需要从主逻辑磁盘MLD向备份逻辑磁盘BLD拷贝数据的情况下,只要在两磁盘的对应的物理区块间仅拷贝有差分的区域即可。利用这样的差分拷贝,能减少不需要的拷贝动作。
接下来,对于在本实施方式中是否更换物理区块的判定中使用的读取计数以及写入计数的更新(加1)进行说明。
磁盘阵列控制器12的访问控制器208在接收到来自主机20的读取请求或者写入请求的情况下,按如下所述那样来确定用于对应读取或者写入的逻辑区块进行管理的逻辑区块管理数据LBMD。在此,来自主机20的读取请求或者写入请求包含指定应访问的逻辑磁盘的逻辑磁盘编号、指定该逻辑磁盘内的访问范围的信息、和该访问范围的开头的逻辑地址LBA。在此为了说明的简化,设访问范围包含在单一的逻辑区块中。
首先访问控制器208基于上述的读取请求或者写入请求所示的逻辑磁盘编号以及逻辑地址LBA,确定包含所请求的访问范围(逻辑区域)的逻辑磁盘内的逻辑区块。接下来访问控制器208参照用于管理所确定的逻辑区块的逻辑区块管理数据LBMD。接下来访问控制器208参照所参照的逻辑区块管理数据LBMD内的物理区块指针所指示的物理区块管理数据PBMD。
访问控制器208基于所参照的物理区块管理数据PBMD,判别由主机20请求的访问范围的逻辑区域与哪个磁盘阵列的哪里的物理区块相符。访问控制器208基于该判别结果执行所请求的数据的读取或者写入。此时访问控制器208对所参照的物理区块管理数据PBMD内的读取计数或者写入计数进行加1。读取计数以及写入计数是表示向分别对应的物理区块的读取访问以及写入访问的次数(频度)的统计值。
物理区块更换判定部205如对细节在后面叙述的那样,基于目的的物理区块(例如,高负荷或者低负荷的物理区块)的读取计数或者写入计数判定是否应更换该物理区块。物理区块更换部206基于该判定的结果,将目的的物理区块更换为其他物理区块(例如,更高速或者低速的物理区块)。由此能实现磁盘阵列装置10中的最佳的负荷分散也就是说磁盘阵列装置10的性能的最佳化。
接下来,对存储池SP内的RAID组的分层化进行说明。
在本实施方式中磁盘阵列管理部201为了性能和成本的最佳化而对存储池SP内的各RAID组(更详细地说是RAID组的物理区域)进行分层化。因此,在磁盘阵列装置10的磁盘接口总线13,连接有至少1分层的高速、高成本的物理磁盘组、和至少1分层的低速、低成本的物理磁盘组。磁盘阵列管理部201使用相同分层的多个物理磁盘对RAID组(磁盘阵列)进行定义。物理区块更换部206通过与物理区块更换判定部205配合,从而根据性能要件或者访问频度来决定应分配给逻辑区块的物理区块的分层。
图12对于RAID组的物理区域的分层化以2分层的情况为例进行表示。在图12中,图4所示的存储池SP内的RAID组RG0以及RG1分别表示属于分层0以及分层1。也就是说,RAID组RG0内的各物理区块(在图12中被涂黑的矩形所示的物理区块)属于分层0,RAID组RG1内的各物理区块(在图12中空心的矩形所示的物理区块)属于分层1。在本实施方式中,分层0的物理区块是性能属性0的物理区块,分层1的物理区块是性能属性1的物理区块。
RAID组RG0是使用SAS-SSD定义的SAS-SSD RAID组,RAID组RG1是使用SAS-HDD定义的SAS-HDD RAID组。在图12中,虽然图4所示的RAID组RG2被省略了,但设该RAID组RG2属于分层2。其中,在以后的说明中,为了说明的简化,存储池SP内的RAID组是RAID组RG0以及RG1这2个,设RAID组的物理区域被分层化2个分层。当然,RAID组的物理区域也可以被分层为3个以上的分层。此外磁盘阵列管理部201也可以对该分层化考虑由RAID组(磁盘阵列)所应用的RAID等级、构成RAID组的物理磁盘个数的不同导致的性能的不同。
图13表示对逻辑磁盘LD内的逻辑区块的不同分层的物理区块的分配的例子。在图13中,逻辑磁盘LD内的被涂黑的矩形表示被分配了分层0的物理区块的逻辑区块。该被涂黑的矩形所示的逻辑区块会产生许多访问,例如为高负荷。因此,对该高负荷的逻辑区块如上所述分配分层0的物理区块(也就是说高速、高成本的物理区块)。此外在图13中,逻辑磁盘LD内的空心的矩形表示被分配了分层1的物理区块的逻辑区块。该空心的矩形所示的逻辑区块例如为低负荷。因此,对该低负荷的逻辑区块如上所述分配分层1的物理区块(也就是说低速、低成本的物理区块)。
接下来,对于利用分层来更换分配给逻辑磁盘内的逻辑区块的物理区块的处理的概要,参照图14进行说明。图14是用于说明物理区块更换处理(迁移处理)的图。相同图(a)表示物理区块更换处理的顺序的例子,相同图(b)表示物理区块更换前后的逻辑区块管理数据与物理区块管理数据的关联的例子。
在图14(a)中,逻辑磁盘LD内的被涂黑的矩形表示被分配了分层0的物理区块的逻辑区块。在图14(a)中,逻辑磁盘LD内的空心的矩形表示被分配了分层1的物理区块的逻辑区块。
当前设对逻辑磁盘LD内的逻辑区块LB3分配了RAID组RG1内的物理区块PB2。该状态的逻辑区块LB3在图14(a)中由LB3(PB2)表示。在此,逻辑磁盘LD的逻辑磁盘编号为0,逻辑区块LB3的逻辑区块编号为3。此外RAID组RG1的RAID组编号为1,物理区块PB2的物理区块编号为2。
此时,用于管理逻辑区块LB3的逻辑区块管理数据LBMD0-3内的物理区块指针如在图14(b)中由箭头145所示,指用于管理物理区块PB2的物理区块管理数据PBMD1-2。由此,示出了逻辑区块LB3与物理区块PB2的关联(也就是说映射)。如从物理区块管理数据PBMD1-2可明确的那样,物理区块PB2的性能属性为1,因此物理区块PB2的分层如上所述为1。
设不久逻辑区块LB3变为高负荷。在这种情况下,由于分配给逻辑区块LB3的物理区块PB2的性能属性(分层)为1,所以物理区块更换判定部205判定为需要将该物理区块PB2更换为性能属性(分层)0的物理区块。此外,该判定如将对细节在后面叙述的那样在复制拷贝处理中进行。
在需要物理区块的更换的情况下,物理区块选择部207参照与用于管理存储池SP的存储池管理数据SPMD内的性能属性(分层)0对应的自由物理区块列表0。设该参照的自由物理区块列表0内的开头的物理区块管理数据PBMD为用于管理RAID组编号为0的RAID组RG0(0)内的物理区块编号为5的物理区块PB5(5)的物理区块管理数据PBMD0-5。
在这种情况下,物理区块选择部207选择物理区块PB5。于是逻辑磁盘LD如在图14(a)中箭头141所示,转变为物理区块更换用的拷贝模式(迁移拷贝模式)。在该拷贝模式中数据拷贝部203a将当前分配给逻辑区块LB3的物理区块PB2的数据如在图14(a)中箭头142所示拷贝到物理区块PB5。
于是逻辑磁盘LD如在图14(a)中箭头143所示,转变为物理区块更换模式。在该物理区块更换模式中,物理区块更换部206将分配给逻辑区块LB3的物理区块,如在图14(a)中箭头144所示,从物理区块PB2(也就是说RAID组RG1内的物理区块PB2)更换为物理区块PB5(也就是说RAID组RG0内的物理区块PB5)。该更换通过物理区块更换部206将逻辑区块管理数据LBMD0-3的物理区块指针(映射信息)如在图14(b)中箭头146所示更新为指示物理区块管理数据PBMD0-5从而实现。物理区块更换部206此外还将物理区块PB2作为自由区块,注册于存储池管理数据SPMD内的自由物理区块列表1(也就是说,与该物理区块PB2的性能属性1对应的自由物理区块列表1)的最后。此外,将物理区块PB2更换为物理区块PB5的动作也可以比将物理区块PB2的数据拷贝到物理区块PB5的动作先执行。
接下来,参照图15对在本实施方式中应用的读取处理进行说明。图15是表示读取处理的典型的顺序的流程图。
当前设访问控制器208经由主机I/F121接收到来自主机20的读取请求。于是访问控制器208按照图15所示的流程图按如下那样来执行读取处理。首先访问控制器208基于所述读取请求所示的逻辑磁盘编号和逻辑地址LBA,如前所述,确定包含所请求的访问范围(读取范围)的逻辑区域的逻辑磁盘内的逻辑区块(步骤S1)。
接下来访问控制器208参照用于管理所确定的逻辑区块的逻辑区块管理数据LBMD。用于管理分配给所确定的逻辑区块的物理区块的物理区块管理数据PBMD由所参照的逻辑区块管理数据LBMD内的物理区块指针来指示。因此访问控制器208基于所参照的逻辑区块管理数据LBMD内的物理区块指针所指示的物理区块管理数据PBMD,确定分配给所确定的逻辑区块的物理区块(步骤S2)。将所确定的物理区块表述为物理区块A,将在物理区块A的确定中使用的物理区块管理数据PBMD(也就是说用于管理物理区块A的物理区块管理数据PBMD)表述为物理区块管理数据PBMD_A。
接下来访问控制器208将物理区块管理数据PBMD_A内的读取计数(也就是说物理区块A的读取计数)例如加1(步骤S3)。物理区块选择部207通过参照物理区块管理数据PBMD_A内的性能属性的属性值,判定物理区块A的性能属性(分层)是否为1(步骤S4)。
如果物理区块A的性能属性(分层)为1(步骤S4的“是”),则物理区块选择部207判定为该物理区块A为低速(更详细地说是低速、低成本)的物理区块。在这种情况下,物理区块选择部207判定物理区块A(更详细地说是包含被分配了物理区块A的逻辑区块的逻辑磁盘)是否在与其他物理区块之间构成了复制(步骤S5)。具体地说,物理区块选择部207通过参照复制管理表,从而判定包含被分配了物理区块A的逻辑区块的逻辑磁盘(也就是说,读取请求所示的逻辑磁盘编号的逻辑磁盘)是否被定义为主逻辑磁盘或者备份逻辑磁盘。
如果物理区块A构成了复制(步骤S5的“是”),则物理区块选择部207确定成为物理区块A的复制目的地或者复制源的物理区块(步骤S6)。当将成为物理区块A的复制目的地或者复制源的物理区块表述为物理区块B时,该物理区块B在步骤S6中按如下那样来确定。
首先,物理区块选择部207通过参照复制管理表,从而确定成为读取请求所示的逻辑磁盘编号的逻辑磁盘的复制目的地或者复制源的逻辑磁盘的逻辑磁盘编号。接下来物理区块选择部207参照包含所确定的逻辑磁盘编号和读取请求所示的逻辑区块编号的逻辑区块管理数据LBMD。将该逻辑区块管理数据LBMDB内的物理区块指针所指示的物理区块管理数据PBMD表述为物理区块管理数据PBMD_B。该物理区块管理数据PBMD_B表示成为物理区块A的复制目的地或者复制源的物理区块B。
物理区块选择部207通过参照物理区块管理数据PBMD_A以及PBMD_B内的差分位图,从而判定在物理区块A以及B之间是否有差分(步骤S7)。如果在物理区块A以及B之间没有差分(步骤S7的“否”),则物理区块选择部207通过参照物理区块管理数据PBMD_B内的性能属性的属性值,从而判定物理区块B的性能属性(分层)是否为0(步骤S8)。
如果物理区块B的性能属性(分层)为0(步骤S8的“是”),则物理区块选择部207判定为该物理区块B是比物理区块A高速(更详细地说是高速、高成本)的物理区块。在这种情况下,物理区块选择部207由于在物理区块A以及B之间没有差分(步骤S7的“否”),所以作为读取访问的对象,不选择物理区块A,而选择比该物理区块A高速的物理区块B(步骤S9)。也就是说物理区块选择部207基于读取请求,不选择步骤S2中所确定的物理区块A,而选择比该物理区块A高速而且储存与该物理区块A相同的数据的物理区块B。在这种情况下,与选择物理区块A的情况相比较,可期待读取动作的高速化。
另一方面,若物理区块A的性能属性(分层)不为1(步骤S4的“否”),也就是说若该物理区块A的性能属性(分层)为0,则物理区块选择部207判定为该物理区块A为高速(更详细地说是高速、高成本)的物理区块。在这种情况下,物理区块选择部207将物理区块A(也就是说,基于读取请求在步骤S2中确定的物理区块A)选择为读取访问的对象(步骤S10)。
同样地,即使在物理区块A未构成复制的情况下(步骤S5的“否”),也是物理区块选择部207将物理区块A选择为读取访问的对象(步骤S10)。同样地,即使在物理区块A以及B之间有差分的情况下(步骤S7的“是”),也是物理区块选择部207将物理区块A选择为读取访问的对象(步骤S10)。同样地,即使在物理区块B的性能属性(分层)不为0情况下(步骤S8的“是”),也就是说即使在物理区块B的性能与物理区块A为同等或低的情况下,物理区块选择部207也将物理区块A选择为读取访问的对象(步骤S10)。
当设物理区块选择部207选择物理区块A或者B时(步骤S9或者S10),访问控制器208执行用于从指定被选择的物理区块的读取请求所指定的访问范围中读取数据的读取动作(步骤S11)。由该读取动作读取的数据,作为针对来自主机20的读取请求的响应,由主机I/F121返回到主机20。此外,以上的读取处理相当于前述的第二数据读取,在由读取请求指定的访问范围的数据未储存于高速缓冲存储器123的情况下执行。
根据本实施方式,在请求来自物理区块A的数据的读取,而且在该与物理区块A之间存在构成复制的物理区块B的情况下,物理区块选择部207基于两区块之间的差分的有无以及两区块的性能属性,实际选择应读取数据的物理区块。更具体地进行描述的话,若在物理区块A以及B之间没有差分,也就是说若物理区块A以及B的内容一致,则物理区块选择部207将物理区块A或者B中的能高速访问的物理区块选择为应读取的物理区块。这样根据本实施方式,能对磁盘阵列装置10的性能进行最佳化,能实现读取处理高速的磁盘阵列装置10。
那么本实施方式中,通过对步骤S8的判定条件应用物理区块B的性能属性为0,从而对磁盘阵列装置10的性能进行最佳化。但是,磁盘阵列装置10中的性能最佳化的手法不限于本实施方式。也就是说,也能对步骤S8应用其他判定条件。例如,设磁盘阵列管理部201按每个物理区块的性能属性来定义权重。在这种情况下,以将物理区块A以及B的读取计数(或者读取计数以及写入计数的和),也就是说将以物理区块A以及B为对象的输入输出次数,用根据该物理区块A以及B的权重(性能的不同度)决定的比率进行分担(负荷分散)为判定条件,物理区块选择部207选择物理区块A或者B即可。即使用这样的负荷分散,也能对磁盘阵列装置10的性能进行最佳化,能实现读取处理为高速的磁盘阵列装置10。
接下来,对本实施方式中应用的写入处理简单地进行说明。
写入处理主要在以下的3点上与读取处理不同。第一点是,在确定了分配给由写入请求指定的物理区块的物理区块A的情况下,在与图15的步骤S3相当的处理中,物理区块管理数据PBMD_A内的写入计数加1。此外,第二点是,在物理区块A构成了复制的情况下,若该复制为分离状态,则由写入请求指定的访问范围(写入范围)记录于物理区块管理数据PBMD_A内的差分位图。第三点是,在与图15的步骤S11相当的处理中进行写入动作。除了这3点之外,写入处理均与读取处理同样地实施。由此,省略表示写入处理的顺序的流程图。
接下来参照图16对在本实施方式中应用的复制拷贝处理进行说明。图16是表示复制拷贝处理的典型的步骤的流程图。在此设在图10所示的主逻辑磁盘MLD以及备份逻辑磁盘BLD之间执行拷贝动作。此外,设主逻辑磁盘MLD内的逻辑区块以及备份逻辑磁盘BLD内的逻辑区块均使用属于存储池SP的RAID组RG0以及RG1内的物理区块来进行定义。
复制管理部203将表示主逻辑磁盘MLD以及备份逻辑磁盘BLD各自的逻辑区块的逻辑区块编号设定为0(步骤S21)。在此,将当前设定的逻辑区块编号(在此为0)所示的主逻辑磁盘MLD内的逻辑区块称为靶主逻辑区块。同样地,将当前设定的逻辑区块编号所示的备份逻辑磁盘BLD内的逻辑区块称为靶备份逻辑区块。此外,将分配给靶主逻辑区块的物理区块称为主物理区块A,将分配给靶备份逻辑区块的物理区块称为备份物理区块B。此外,将用于管理靶主逻辑区块的逻辑区块管理数据LBMD表述为逻辑区块管理数据LBMD_M,将用于管理靶备份逻辑区块的逻辑区块管理数据LBMD表述为逻辑区块管理数据LBMD_B。
接下来复制管理部203按与所述读取处理中的步骤S2同样的方法来确定分配给靶主逻辑区块的主物理区块A(步骤S22)。也就是说复制管理部203参照逻辑区块管理数据LBMD_M。而且复制管理部203基于逻辑区块管理数据LBMD_M内的物理区块指针所指示的物理区块管理数据PBMD,确定主物理区块A。将在主物理区块A的确定中使用的物理区块管理数据PBMD表述为物理区块管理数据PBMD_A。
此外,复制管理部203按如下那样来确定分配给靶备份逻辑区块的备份物理区块B(步骤S23)。也就是说复制管理部203参照逻辑区块管理数据LBMD_B。而且复制管理部203基于逻辑区块管理数据LBMD_B内的物理区块指针所指示的物理区块管理数据PBMD,确定备份物理区块B。将在备份物理区块B的确定中使用的物理区块管理数据PBMD表述为物理区块管理数据PBMD_B。
接下来复制管理部203通过参照物理区块管理数据PBMD_A内的差分位图以及PBMD_B内的差分位图,从而判定在主物理区块A以及备份物理区块B之间是否有差分(步骤S24)。如果两差分位图的全部位的至少1位为“1”,则复制管理部203判定在主物理区块A以及备份物理区块B之间有差分。与此相对,若所述两差分位图的全部位为“0”,则复制管理部203判定为在主物理区块A以及备份物理区块B之间没有差分。
在主物理区块A以及备份物理区块B之间没有差分的情况下(步骤S24的“否”)。复制管理部203进入到步骤25。在步骤S25中复制管理部203判定按图16的流程图的复制拷贝处理中的拷贝的累积量是否为规定值以下。
如果拷贝累积量超过了规定值(步骤S25的“否”),则复制管理部203判定为复制拷贝处理的负荷高。在这种情况下,复制管理部203为了下一逻辑区块(靶主逻辑区块以及靶备份逻辑区块)的处理而进入到步骤S34。表示拷贝累积量的参数储存于管理数据存储部209的规定区域,在复制拷贝处理的开始时初始设定为0。
与此相对,若拷贝累积量为规定值以下(步骤S25的“是”),则复制管理部203判定为复制拷贝处理的负荷低。在这种情况下,复制管理部203向物理区块更换判定部205移交控制。在主物理区块A以及备份物理区块B之间有差分的情况下(步骤S24的“是”),也是复制管理部203向物理区块更换判定部205移交控制。
于是物理区块更换判定部205基于主物理区块A的性能属性以及读取/写入计数,判定主物理区块A是否满足规定的更换条件(步骤S26)。也就是说物理区块更换判定部205判定是否需要主物理区块A的迁移。读取/写入计数表示读取计数、或者写入计数、或者读取计数以及写入计数的和的任一个。
另外,也可以是步骤S25未必一定需要,在主物理区块A以及备份物理区块B之间没有差分的情况下(步骤S24的“否”),复制管理部203进入到步骤S34。此外,也可以是不仅在主物理区块A以及备份物理区块B之间有差分,而且还仅限于在其差分的量超过规定值的情况下,才执行步骤S26的判定。在此,也可以是在差分的量为规定值以下的情况下,立即执行后述的步骤S31(拷贝动作)。
在本实施方式中更换条件在主物理区块A以及备份物理区块B中共用,由第一以及第二更换条件构成。在此为了说明的方便,设所述更换条件为主物理区块A的更换条件。所述第一更换条件是主物理区块A的读取/写入计数超过预定的阈值,而且该主物理区块A的性能属性为1。也就是说所述第一更换条件是主物理区块A的负荷高,而且该主物理区块A为低速。所述第二更换条件是主物理区块A的读取/写入计数为所述阈值以下,而且该主物理区块A的性能属性为0。也就是说所述第二更换条件是主物理区块A的负荷低,而且该主物理区块A为高速。
物理区块更换判定部205在主物理区块A满足所述第一更换条件的情况下(步骤S26的“是”),判定为需要将该主物理区块A更换为性能属性为0的高速的物理区块C。物理区块更换判定部205此外在主物理区块A满足所述第二更换条件的情况下(步骤S26的“是”),判定为需要将该主物理区块A更换为性能属性为1的低速的物理区块C。在任一情况下均是,物理区块C是与主物理区块A不同性能属性的物理区块。将用于管理该物理区块C的物理区块管理数据PBMD表述为物理区块管理数据PBMD_C。
在主物理区块A满足所述更换条件(也就是说所述第一或者第二更换条件)的情况下(步骤S26的“是”),物理区块更换判定部205向物理区块更换部206移交控制。于是物理区块更换部206对物理区块管理数据PBMD_A内的交换标志进行置位(步骤S27),进入到步骤S29。
另一方面,在主物理区块A未满足所述更换条件的情况下(步骤S26的“否”),物理区块更换判定部205判定备份物理区块B是否满足所述更换条件(也就是说所述第一或者第二更换条件)(步骤S28)。也就是说物理区块更换判定部205与步骤S26同样地判定是否需要备份物理区块B的迁移。若需要,则想在步骤S26中的主物理区块A是否满足所述更换条件的说明中,将该主物理区块A改看作备份物理区块B。
物理区块更换判定部205在备份物理区块B的读取/写入计数超过所述阈值而且该备份物理区块B的性能属性为1的情况下(步骤S28的“是”),判定为需要将该备份物理区块B更换为性能属性为0的高速的物理区块C。物理区块更换判定部205此外在备份物理区块B的读取/写入计数小于所述阈值而且该备份物理区块B的性能属性为0的情况下(步骤S28的“是”),判定为需要将该备份物理区块B更换为性能属性为1的低速的物理区块C。
在备份物理区块B满足所述更换条件(也就是说所述第一或者第二更换条件)的情况下(步骤S28的“是”),物理区块更换判定部205向物理区块更换部206移交控制。于是物理区块更换部206进入到步骤S29。与此相对,在备份物理区块B不满足更换条件的情况下(步骤S28的“否”),也就是说在主物理区块A以及备份物理区块B的双方不满足更换条件的情况下,物理区块更换判定部205向数据拷贝部203a移交控制。于是数据拷贝部203a进入到步骤S31。
那么,在步骤S29中物理区块更换部206与步骤S26或者S28的某一个的判定是否为“是”无关地将备份物理区块B更换为物理区块C。物理区块C是在步骤S26中由物理区块更换判定部205判定的性能属性为*(*为0或者1)的物理区块。物理区块选择部207从存储池管理数据SPMD内的性能属性为*的自由物理区块列表*的开头起选择物理区块C。
步骤S29中的物理区块的更换如参照图14(b)所说明的那样,通过更新物理区块指针来进行。也就是说,指向物理区块B(物理区块管理数据PBMD_B)的逻辑区块管理数据LBMD_B内的物理区块指针被更新为指向物理区块C(物理区块管理数据PBMD_C)。由此,与主物理区块A对应的备份物理区块(也就是说,在与主物理区块A之间构成复制的备份物理区块)从物理区块B切换为物理区块C。此时,物理区块B(也就是说,到物理区块切换时间点为止用作备份物理区块的物理区块B)与前述的物理区块PB2同样地,作为自由区块,注册于存储池管理数据SPMD内的自由物理区块列表中。
如上所述在本实施方式中,在步骤S26的判定为“是”的情况下,也进行备份物理区块B的更换。其理由如下所述。首先在本实施方式中,在步骤S26的判定为“是”的情况下,对物理区块管理数据PBMD_A内的交换标志(swap flag)进行置位(步骤S27)。在这种情况下,在后述的步骤S33中,更换指示主物理区块(=A)的逻辑区块管理数据LBMD_M内的物理区块指针和指示备份物理区块的逻辑区块管理数据LBMD_B内的物理区块指针。也就是说,物理区块信息(映射信息)被更换。此时,逻辑区块管理数据LBMD_B内的物理区块指针通过步骤S29的执行,更新为指向物理区块C(物理区块管理数据PBMD_C)。因此,变为通过步骤S33中的物理区块指针(物理区块信息)的更换,主物理区块实质上从物理区块A更换为物理区块C。也就是说物理区块C更换为主物理区块,物理区块A更换为备份物理区块。另外,在步骤S28的判定为“是”的情况下,只是单纯地将备份物理区块从物理区块B更换为物理区块C。
物理区块更换部206当执行步骤S29时,为了对产生了更换的备份物理区块(也就是说,当前的备份物理区块C)利用复制拷贝动作拷贝当前的主逻辑区块A的区域整体(全部扇区)的数据,进行差分刷新(步骤S30)。差分刷新是使物理区块A的区域整体(全部扇区)为有差分的状态。也就是说差分刷新是,将物理区块A的差分位图(更详细地说是物理区块管理数据PBMD_A内的差分位图)的全部位设定为“1”。物理区块更换部206当设执行步骤S30时,向数据拷贝部203a移交控制。于是数据拷贝部203a进入到步骤S31。
在步骤S31中数据拷贝部203a基于物理区块管理数据PBMD_A以及PBMD_B内的两差分位图,按如下那样从主物理区块A向备份物理区块拷贝差分区域的数据(步骤S31)。首先数据拷贝部203a在拷贝开始时对所述两差分位图进行合并。具体地说,数据拷贝部203a通过使所述两差分位图的分别对应的位为OR(“或”),从而对所述两差分位图进行合并。与该合并后的差分位图内的“1”的位对应的主物理区块A(拷贝源物理区块)以及备份物理区块(拷贝目的地物理区块)内的区域表示在两区块之间数据不一致的差分区域。数据拷贝部203a基于合并后的差分位图内的“1”的位所示的差分,从主物理区块A向备份物理区块拷贝差分区域的数据。此时数据拷贝部203a对当前时间点的拷贝累积量加上在步骤S31中执行的数据拷贝的量。
在步骤S31续接于步骤S30来执行的情况下,备份物理区块是物理区块C。此外,主物理区块A的差分位图(也就是说物理区块管理数据PBMDA内的差分位图)的全部位在步骤S30中全部设定为“1”。在这种情况下,主物理区块A以及备份物理区块C的区域整体被视为差分区域。由此,在步骤S31续接于步骤S30执行的情况下,主物理区块A的区域整体的数据被拷贝到备份物理区块C。
与此相对,在步骤S31续接于步骤S28执行的情况下,备份物理区块是物理区块B。在这种情况下,在主物理区块A以及物理区块B之间有差分的区域的数据从主物理区块A向物理区块B拷贝。
物理区块更换部206在由数据拷贝部203a进行的数据拷贝(步骤S31)后,判定是否对物理区块管理数据PBMD_A内的交换标志进行了置位(步骤S32)。如果交换标志被进行了置位(步骤S32的“是”),则物理区块更换部206进入到步骤S33。
在步骤S33中物理区块更换部206如前所述,对指示主物理区块A的逻辑区块管理数据LBMD_M内的物理区块指针和指示备份物理区块(在此为物理区块C)的逻辑区块管理数据LBMD_B内的物理区块指针进行更换。通过该物理区块指针(也就是说,映射信息)的更换,对当前的主物理区块A和备份物理区块C进行更换。也就是说物理区块C被更换为主物理区块,物理区块A被更换为备份物理区块。
当设物理区块更换部206执行步骤S33时,向复制管理部203移交控制。于是复制管理部203进入到步骤S34。另一方面,若交换标志未被置位(步骤S32的“否”),则物理区块更换部206跳过步骤S33,向复制管理部203移交控制。于是复制管理部203进入到步骤S34。
在步骤S34中复制管理部203对逻辑区块编号加1。而且复制管理部203基于该加1后的逻辑区块编号,判定是否直到主逻辑磁盘MLD以及备份逻辑磁盘BLD的最终逻辑区块为止执行了复制拷贝(步骤35)。如果直到最终逻辑区块为止未执行复制拷贝(步骤S35的“否”),则复制管理部203返回到步骤S22。
这样,从主逻辑磁盘MLD以及备份逻辑磁盘BLD的开头逻辑区块到最终逻辑区块为止,重复从步骤S22开始的处理。不久,若直到最终逻辑区块为止执行了复制拷贝(步骤S35的“是”),则复制管理部203结束复制拷贝处理。
在现有技术中,伴随复制的物理区块间的拷贝(复制拷贝)和伴随物理区块的迁移的物理区块间的拷贝(迁移拷贝)相独立地执行。但是,磁盘阵列装置10中的物理区块间的拷贝一般来说会对针对来自主机装置20的访问请求的响应性能给予影响。
与此相对,在本实施方式中,在复制拷贝处理中,利用物理区块更换判定部205判定是否需要以逻辑区块为单位进行迁移。
物理区块更换部20基于该判定结果,将备份物理区块更换为物理区块C。物理区块更换部20在从伴随该更换的主物理区块向备份物理区块(也就是说物理区块C)的拷贝(也就是说迁移拷贝)中,以能利用数据拷贝部203a所进行的从主物理区块向备份物理区块的复制拷贝的方式,在该拷贝之前执行所述更换(将备份物理区块更换为物理区块C的动作)。也就是说根据本实施方式,基于所述判定结果,复制拷贝和迁移拷贝同时执行。由此能减少磁盘阵列装置10中的拷贝处理。由此根据本实施方式,能减轻由拷贝处理导致的性能降低,能实现高速的磁盘阵列装置10。
根据以上说明的至少一个实施方式,能提供一种能减少拷贝动作的在物理区块间拷贝数据的磁盘阵列装置、磁盘阵列控制器以及方法。
虽然说明了本发明的几个实施方式,但这些实施方式是作为例子而进行提示的,并不意在对发明的范围进行限定。这些新的实施方式能以其它的各种方式进行实施,能在不脱离发明的要旨的范围内进行各种的省略、置换、变更。这些实施方式及其变形包含在发明的范围、要旨中,包并且含在权利要求书记载的发明和其均等的范围中。

Claims (7)

1.一种磁盘阵列装置,
具备:
多个磁盘阵列;以及
磁盘阵列控制器,对所述多个磁盘阵列进行控制,
所述磁盘阵列控制器具备:
逻辑区块管理部,对从所述多个磁盘阵列中选择出的多个物理区块进行分配并对多个逻辑磁盘进行定义;
数据拷贝部,为了使主逻辑磁盘和备份逻辑磁盘为同步状态而将数据从所述主逻辑磁盘拷贝到所述备份逻辑磁盘;以及
物理区块更换部,在取代与第一物理区块相对应的第二物理区块而对第三物理区块更换分配的情况下,在数据从所述第一物理区块拷贝到所述备份逻辑磁盘之前,取代所述第二物理区块而将所述第三物理区块分配给所述备份逻辑磁盘,所述第一物理区块被分配给所述主逻辑磁盘,所述第二物理区块被分配给所述备份逻辑磁盘。
2.根据权利要求1所述的磁盘阵列装置,
所述磁盘阵列控制器还具备:物理区块更换判定部,判定是否在数据从所述第一物理区块拷贝到所述备份逻辑磁盘之前,取代所述第一物理区块或者所述第二物理区块而对第三物理区块更换分配,
所述物理区块更换部在判定了所述第二物理区块的更换的情况下,在数据从所述第一物理区块拷贝到所述备份逻辑磁盘之前,将所述第二物理区块对所述备份逻辑磁盘的分配更换为所述第三物理区块,在判定了所述第一物理区块的更换的情况下,在数据从所述第一物理区块拷贝到所述备份逻辑磁盘之前,将所述第二物理区块对所述备份逻辑磁盘的分配更换为所述第三物理区块,而且在数据从所述第一物理区块拷贝到所述第三物理区块之后将所述第一物理区块对所述主逻辑磁盘的分配更换为所述第三物理区块。
3.根据权利要求2所述的磁盘阵列装置,
所述磁盘阵列控制器还具备:差分管理部,按每个所述物理区块,根据向该物理区块的数据的写入,利用表示写入范围的差分信息,保持差分区域,
所述数据拷贝部基于所述差分信息从所述主逻辑磁盘向所述备份逻辑磁盘拷贝数据,
所述物理区块更换部在判定了所述第一物理区块对所述主逻辑磁盘的分配的更换的情况下,在数据从所述第一物理区块拷贝到所述备份逻辑磁盘之前,以使与所述第一物理区块对应的所述差分信息将所述第一物理区块的区域整体示作差分区域的方式对所述差分信息进行更新。
4.根据权利要求3所述的磁盘阵列装置,
所述磁盘阵列控制器具备:
访问控制器,对所述逻辑磁盘进行访问;以及
物理区块选择部,在存在与第四物理区块相对应的第五物理区块,而且由与所述第四物理区块对应的所述差分信息以及与所述第五物理区块对应的所述差分信息示出在所述第四物理区块以及所述第五物理区块之间没有差分的情况下,将所述第五物理区块选择为读取对象物理区块,所述第四物理区块拥有应读取的数据,所述第四物理区块被分配给所述主逻辑磁盘,所述第五物理区块的访问性能比所述第四物理区块高,
所述访问控制器在选择了所述第五物理区块的情况下,取代从所述第四物理区块读取数据而从所述第五物理区块读取数据。
5.根据权利要求3所述的磁盘阵列装置,
所述磁盘阵列控制器具备:
访问控制器,对所述逻辑磁盘进行访问;以及
区块选择部,在存在与第四物理区块相对应的第五物理区块,而且由与所述第四物理区块对应的所述差分信息以及与所述第五物理区块对应的所述差分信息示出在所述第四物理区块以及所述第五物理区块之间没有差分的情况下,以对所述第四物理区块以及所述第五物理区块的负荷按照根据按每个所述物理区块的性能定义的权重而决定的比率来进行分担的方式,将所述第四物理区块或者所述第五物理区块选择为读取对象物理区块,所述第四物理区块拥有应读取的数据,所述第四物理区块被分配给所述主逻辑磁盘,所述第五物理区块的访问性能比所述第四物理区块高,
所述访问控制器从所述选择出的读取对象物理区块读取数据。
6.一种磁盘阵列控制器,对多个磁盘阵列进行控制,具备:
逻辑区块管理部,对从所述多个磁盘阵列中选择出的多个物理区块进行分配并对多个逻辑磁盘进行定义;
数据拷贝部,为了使主逻辑磁盘和备份逻辑磁盘为同步状态而将数据从所述主逻辑磁盘拷贝到所述备份逻辑磁盘;以及
物理区块更换部,在取代与第一物理区块相对应的第二物理区块而对第三物理区块更换分配的情况下,在数据从所述第一物理区块拷贝到所述备份逻辑磁盘之前,取代所述第二物理区块而将所述第三物理区块分配给所述备份逻辑磁盘,所述第一物理区块被分配给所述主逻辑磁盘,所述第二物理区块被分配给所述备份逻辑磁盘。
7.一种方法,该方法在具备对从多个磁盘阵列中选择出的多个物理区块进行分配并对多个逻辑磁盘进行定义的逻辑区块管理部、并对所述多个磁盘阵列进行控制的磁盘阵列控制器中,在所述物理区块间拷贝数据,
为了使主逻辑磁盘和备份逻辑磁盘为同步状态而将数据从所述主逻辑磁盘拷贝到所述备份逻辑磁盘,
在取代与第一物理区块相对应的第二物理区块而对第三物理区块更换分配的情况下,在数据从所述第一物理区块拷贝到所述备份逻辑磁盘之前,取代所述第二物理区块而将所述第三物理区块分配给所述备份逻辑磁盘,所述第一物理区块被分配给所述主逻辑磁盘,所述第二物理区块被分配给所述备份逻辑磁盘。
CN201280002717.9A 2012-09-21 2012-09-21 在物理区块间拷贝数据的磁盘阵列装置、磁盘阵列控制器以及方法 Active CN103827804B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/074190 WO2014045391A1 (ja) 2012-09-21 2012-09-21 物理ブロック間でデータをコピーするディスクアレイ装置、ディスクアレイコントローラ及び方法

Publications (2)

Publication Number Publication Date
CN103827804A true CN103827804A (zh) 2014-05-28
CN103827804B CN103827804B (zh) 2016-08-03

Family

ID=50340082

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280002717.9A Active CN103827804B (zh) 2012-09-21 2012-09-21 在物理区块间拷贝数据的磁盘阵列装置、磁盘阵列控制器以及方法

Country Status (4)

Country Link
US (1) US20140089582A1 (zh)
JP (1) JP5583227B1 (zh)
CN (1) CN103827804B (zh)
WO (1) WO2014045391A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020261022A1 (en) * 2019-06-26 2020-12-30 International Business Machines Corporation Dynamic writes-per-day adjustment for storage drives
TWI785876B (zh) * 2021-10-28 2022-12-01 大陸商合肥兆芯電子有限公司 映射資訊記錄方法、記憶體控制電路單元與記憶體儲存裝置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9395924B2 (en) * 2013-01-22 2016-07-19 Seagate Technology Llc Management of and region selection for writes to non-volatile memory
US9823974B1 (en) 2013-03-14 2017-11-21 EMC IP Holding Company LLC Excluding files in a block based backup
WO2015065436A1 (en) * 2013-10-31 2015-05-07 Hewlett-Packard Development Company, L.P. Target port processing of a data transfer
WO2015126429A1 (en) 2014-02-24 2015-08-27 Hewlett-Packard Development Company, L.P. Repurposable buffers for target port processing of a data transfer
KR102238650B1 (ko) * 2014-04-30 2021-04-09 삼성전자주식회사 저장 장치, 상기 저장 장치를 포함하는 컴퓨팅 시스템 및 상기 저장 장치의 동작 방법
JP7015776B2 (ja) * 2018-11-30 2022-02-03 株式会社日立製作所 ストレージシステム
KR20200088713A (ko) * 2019-01-15 2020-07-23 에스케이하이닉스 주식회사 메모리 컨트롤러 및 그 동작 방법
US11163482B2 (en) 2019-06-26 2021-11-02 International Business Machines Corporation Dynamic performance-class adjustment for storage drives
US11137915B2 (en) 2019-06-27 2021-10-05 International Business Machines Corporation Dynamic logical storage capacity adjustment for storage drives
US11847324B2 (en) * 2020-12-31 2023-12-19 Pure Storage, Inc. Optimizing resiliency groups for data regions of a storage system
US11989449B2 (en) * 2021-05-06 2024-05-21 EMC IP Holding Company LLC Method for full data reconstruction in a raid system having a protection pool of storage units

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050050271A1 (en) * 2003-09-02 2005-03-03 Kiyoshi Honda Virtualization controller, access path control method and computer system
CN1825269A (zh) * 2005-02-24 2006-08-30 日本电气株式会社 盘阵列设备和数据备份方法
JP2006260376A (ja) * 2005-03-18 2006-09-28 Toshiba Corp ストレージ装置およびメディアエラー回復方法
US20080126730A1 (en) * 2006-11-24 2008-05-29 Fujitsu Limited Volume migration program, method and system
CN102214073A (zh) * 2010-04-08 2011-10-12 杭州华三通信技术有限公司 磁盘冗余阵列的热备盘切换控制方法及控制器

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7028154B2 (en) * 2002-06-18 2006-04-11 Hewlett-Packard Development Company, L.P. Procedure to reduce copy time for data backup from short-term to long-term memory
JP2004302713A (ja) * 2003-03-31 2004-10-28 Hitachi Ltd 記憶システム及びその制御方法
CN102511030B (zh) * 2009-04-23 2015-05-20 株式会社日立制作所 计算机***及其控制方法
JP5381336B2 (ja) * 2009-05-28 2014-01-08 富士通株式会社 管理プログラム、管理装置および管理方法
US8954669B2 (en) * 2010-07-07 2015-02-10 Nexenta System, Inc Method and system for heterogeneous data volume
JP5362751B2 (ja) * 2011-01-17 2013-12-11 株式会社日立製作所 計算機システム、管理計算機およびストレージ管理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050050271A1 (en) * 2003-09-02 2005-03-03 Kiyoshi Honda Virtualization controller, access path control method and computer system
CN1825269A (zh) * 2005-02-24 2006-08-30 日本电气株式会社 盘阵列设备和数据备份方法
JP2006260376A (ja) * 2005-03-18 2006-09-28 Toshiba Corp ストレージ装置およびメディアエラー回復方法
US20080126730A1 (en) * 2006-11-24 2008-05-29 Fujitsu Limited Volume migration program, method and system
CN102214073A (zh) * 2010-04-08 2011-10-12 杭州华三通信技术有限公司 磁盘冗余阵列的热备盘切换控制方法及控制器

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020261022A1 (en) * 2019-06-26 2020-12-30 International Business Machines Corporation Dynamic writes-per-day adjustment for storage drives
CN113811846A (zh) * 2019-06-26 2021-12-17 国际商业机器公司 存储驱动器的动态每天写入调整
GB2599843A (en) * 2019-06-26 2022-04-13 Ibm Dynamic writes-per-day adjustment for storage drives
GB2599843B (en) * 2019-06-26 2023-02-01 Ibm Dynamic writes-per-day adjustment for storage drives
TWI785876B (zh) * 2021-10-28 2022-12-01 大陸商合肥兆芯電子有限公司 映射資訊記錄方法、記憶體控制電路單元與記憶體儲存裝置

Also Published As

Publication number Publication date
JPWO2014045391A1 (ja) 2016-08-18
CN103827804B (zh) 2016-08-03
WO2014045391A1 (ja) 2014-03-27
US20140089582A1 (en) 2014-03-27
JP5583227B1 (ja) 2014-09-03

Similar Documents

Publication Publication Date Title
CN103827804A (zh) 在物理区块间拷贝数据的磁盘阵列装置、磁盘阵列控制器以及方法
CN102334093B (zh) 存储控制装置以及虚拟卷的控制方法
JP4863605B2 (ja) 記憶制御システム及び方法
CN103052938B (zh) 数据迁移***和数据迁移方法
US9465560B2 (en) Method and system for data migration in a distributed RAID implementation
US9317436B2 (en) Cache node processing
CN103777897B (zh) 用于在主要和辅助存储位置之间复制数据的方法和***
CN102023813B (zh) 在动态页重新分配存储***中的应用和层配置管理
EP1876519A2 (en) Storage system and write distribution method
US9804966B1 (en) Methods and apparatus for content-based storage addressing with data prioritization
JP2003131816A5 (ja) 記憶装置及びその制御方法
US10664182B2 (en) Storage system
CN105074675B (zh) 具有层级化块存储装置的计算机***、存储控制器及介质
CN101976181A (zh) 一种存储资源的管理方法及管理装置
CN103858114A (zh) 对阵列中的纠错编码区块配置位置进行管理的存储装置、存储控制器以及方法
JP2006318017A (ja) Raid構成変換方法、装置及びプログラム並びにこれを用いたディスクアレイ装置
CN101997919A (zh) 一种存储资源的管理方法及管理装置
CN103077117B (zh) 用于改变虚拟卷中的存储区域的层的***和方法
US20130198250A1 (en) File system and method for controlling file system
US10747432B2 (en) Storage device, storage system, and storage control method
US10402095B1 (en) Online data expansion in redundant data storage systems
CN102841758B (zh) 高效能虚拟磁盘管理***
JP2013122691A (ja) 割り当て装置およびストレージ装置
JP5839727B2 (ja) 記憶制御システム及び方法
US20210026566A1 (en) Storage control system and method

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Tokyo, Japan, Japan

Co-patentee after: Toshiba Digital Solutions Ltd

Patentee after: Toshiba Corp

Address before: Tokyo, Japan, Japan

Co-patentee before: Toshiba Solutions Corporation

Patentee before: Toshiba Corp

CP01 Change in the name or title of a patent holder