CN105611979B - 具备试验区域的层级化存储***、存储控制器及介质 - Google Patents

具备试验区域的层级化存储***、存储控制器及介质 Download PDF

Info

Publication number
CN105611979B
CN105611979B CN201480000790.1A CN201480000790A CN105611979B CN 105611979 B CN105611979 B CN 105611979B CN 201480000790 A CN201480000790 A CN 201480000790A CN 105611979 B CN105611979 B CN 105611979B
Authority
CN
China
Prior art keywords
mentioned
chunking
physics
logic block
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480000790.1A
Other languages
English (en)
Other versions
CN105611979A (zh
Inventor
浅山敦史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Publication of CN105611979A publication Critical patent/CN105611979A/zh
Application granted granted Critical
Publication of CN105611979B publication Critical patent/CN105611979B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/068Hybrid storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3034Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a storage system, e.g. DASD based or network based
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

根据实施方式,层级化存储***具备第1存储装置、与上述第1存储装置相比访问速度较低速而存储容量较大的第2存储装置、和存储控制器。上述存储控制器具备第1再配置部和第2再配置部。上述第1再配置部将上述第2存储装置的第3存储区域被分配了的第1逻辑组块的数据的配置目标、与上述第1存储的第1存储区域被分配且与上述第1逻辑组块相比访问频度统计值小的第2逻辑组块的数据的配置目标掉换。第2再配置部对于上述第3存储区域被分配了的逻辑组块的组,再分配上述第1存储装置的第2存储区域。

Description

具备试验区域的层级化存储***、存储控制器及介质
技术领域
本发明的实施方式涉及具备试验区域的层级化存储***、存储控制器及程序。
背景技术
近年,开发了具备访问速度不同的第1及第2存储装置的存储***。这里,假设第1存储装置的访问速度及存储容量是高速小容量,第2存储装置与第1存储装置相比是低速大容量。存储***通过将第1存储装置(以下,称作高速存储装置)及第2存储装置(以下,称作低速存储装置)层级性地组合来实现。所以,这样的存储***也被称作层级化存储***。在层级化存储***中,一般高速存储装置被分配给上位层级,低速存储装置被分配给下位层级。
此外,近年来,在存储***全部中,存储区域的虚拟化变得普遍。这在层级化存储***中也同样。在这样的层级化存储***中,高速存储装置及低速存储装置的存储区域(以下,称作物理卷)的至少一部分被分配(即被映射)到逻辑卷中。所谓逻辑卷,是指由利用存储***(层级化存储***)的主计算机(以下,称作主机)识别为逻辑性的存储驱动器(即,逻辑盘或逻辑单元)的逻辑性的存储区域。
在主机上动作的应用那样的上位的程序使用逻辑地址对逻辑卷访问。逻辑地址例如被主机的操作***(OS)或存储***的存储控制器具有的地址变换功能变换为高速存储装置或低速存储装置的物理地址。基于该物理地址,访问映射在逻辑卷内的存储区域中的物理卷内的存储区域。由此,上位的程序能够不意识存储装置内的存储区域而对该存储装置内的存储区域访问。
在层级化存储***中,将逻辑卷及物理卷为了管理而分割为具有一定尺寸的多个小区域。将这样的小区域称作组块(chunk)。在需要将逻辑卷内的组块及物理卷内的组块区别的情况下,将前者称作逻辑组块,将后者称作物理组块。
存储控制器按照组块(例如,逻辑组块),监视向对应的组块的访问的状况。作为表示该访问的状况的指标,一般使用一定期间(监视期间)中的按照组块的访问次数(即,读/写的输入输出次数)或访问数据量的总和那样的访问频度统计值。
存储控制器基于按照逻辑组块的访问频度统计值,分别对于被分配了上位层级的物理组块的逻辑组块再分配下位层级的物理组块、对于被分配了下位层级的物理组块的逻辑组块再分配上位层级的物理组块。即,存储控制器分别将上位层级的物理组块的数据向下位层级的物理组块再配置,将下位层级的物理组块的数据向上位层级的物理组块再配置。
对应于上述再分配(再配置),将逻辑组块的地址变换信息更新。即,将与逻辑组块的逻辑地址建立了对应的物理地址更新,以使其表示再分配给该逻辑组块的物理组块。上位程序在这样的向逻辑组块的物理组块的再分配后,也能够不意识该再分配(更详细地讲,伴随着该再分配的地址变换信息的更新),而使用该逻辑组块的逻辑地址向对应的物理组块(即,再分配后的物理组块)访问。这样,层级化存储***与存储区域的虚拟化的相容性良好。
现有技术文献
专利文献
专利文献1:特开平10-154101号公报
发明内容
发明所要解决的课题
如上述那样,在以往的层级化存储***中,按照组块取得访问频度统计值,将访问频度统计值较大(即,访问次数或总访问数据量较多)的组块(逻辑组块)与上位层级(即,高速存储装置)的物理组块建立对应。即,在以往技术中,按照监视期间,对被判定为访问频度统计值(访问频度)较大(较高)的逻辑组块分配(映射)高速存储的存储区域(即,高速区域)。通过这样的分配(层级化),能够期待层级化存储***全体的性能的提高。
在以往技术中,对访问频度统计值较小的逻辑组块分配低速存储装置的存储区域(即,低速区域)。但是,在访问频度统计值较小的逻辑组块的集合中,有可能包含通过被分配高速区域能够使层级化存储***整体的性能(即,***性能)进一步提高的组块。
本发明的目的是提供一种给访问频度统计值较小的逻辑组块也给与被分配高速区域的机会、能够评价该分配给***性能带来的效果的具备试验区域的层级化存储***、存储控制器及程序。
用于解决课题的方法
根据技术方案,层级化存储装置具备第1存储装置、与上述第1存储装置相比访问速度较低速而存储容量较大的第2存储装置、和存储控制器。上述第1存储装置具备包含具有第1尺寸的多个物理组块的存储区域。上述第2存储装置具备包含具有上述第1尺寸的多个物理组块的存储区域。上述存储控制器控制上述第1存储装置及上述第2存储装置。上述存储控制器具备逻辑卷管理部、访问统计收集部、第1再配置部、第2再配置部和评价部。上述逻辑卷管理部以上述物理组块为单位被分配上述第1存储装置的第1存储区域、上述第1存储装置的第2存储区域及上述第2存储装置的第3存储区域的逻辑卷。上述逻辑卷包含具有上述第1尺寸的多个逻辑组块,且被向主机计算机提供。上述访问统计收集部收集访问频度统计值,该访问频度统计值表示向上述逻辑卷的上述多个逻辑组块分别访问的状况。上述第1再配置部选择访问频度统计值较大的第1逻辑组块,在对上述第1逻辑组块分配了上述第3存储区域内的第1物理组块的情况下,将被分配给与上述第1逻辑组块相比访问频度统计值小的第2逻辑组块的上述第1存储区域内的第2物理组块向上述第1逻辑组块再分配,并且将上述第1物理组块向上述第2逻辑组块再分配。上述第2再配置部以对上述第3逻辑组块的组分配了上述第3存储区域为条件,选择上述第2存储区域应被再分配的第3逻辑组块的组对上述第3逻辑组块的组再分配上述第2存储区域。上述评价部评价上述第2存储区域的上述再分配的效果。
附图说明
图1是表示有关实施方式的计算机***的典型的硬件结构的框图。
图2是用来说明图1所示的层级化存储***中的存储区域的典型的层级构造的图。
图3是用来说明图2所示的逻辑卷的典型的结构的图。
图4是主要表示图1所示的存储控制器的典型的功能结构的框图。
图5是表示图4所示的逻辑-物理组块变换表的数据构造的例子的图。
图6是表示图4所示的物理组块管理表的数据构造的例子的图。
图7是表示图4所示的逻辑组块管理表的数据构造的例子的图。
图8是表示图4所示的组块履历管理表的数据构造的例子的图。
图9是表示图4所示的评价结果管理表的数据构造的例子的图。
图10是用来说明在该实施方式中采用的第1再配置处理的典型的次序的流程图。
图11是用来说明在该实施方式中采用的第2再配置处理的典型的次序的流程图。
图12是用来说明在图11所示的第2再配置处理中执行的评价处理的典型的次序的流程图。
图13是用来说明第2再配置处理中的初次的再配置的概要的图。
图14是用来说明第2再配置处理中的初次以外的再配置的概要的图。
图15是用来说明在该实施方式的变形例中采用的第2再配置处理的典型的次序的流程图。
图16是用来说明该变形例中的第2再配置处理的概要的图。
具体实施方式
以下,参照附图对各种实施方式进行说明。
图1是表示有关一实施方式的计算机***的典型的硬件结构的框图。计算机***由层级化存储***10及n台主机计算机(以下,称作主机)20_1至20_n构成。在本实施方式中,n是比1大的整数。即,计算机***具备多个主机。但是,n也可以是1。即,计算机***也可以具备单一的主机。
主机20_1至20_n将层级化存储***10作为自身的外部存储装置使用。主机20_1至20_n例如经由交换式集线器(网络交换机)那样的交换机30与层级化存储***10(更详细地讲,层级化存储***10的存储控制器13)连接。在以下的说明中,在不需要将主机20_1至20_n特别区别的情况下,将主机20_1至20_n分别表述为主机20_*。
层级化存储***10具备高速存储装置(第1存储装置)11、低速存储装置(第2存储装置)12和存储控制器13。高速存储装置11及低速存储装置12经由与交换机30同样的交换机14与存储控制器13连接。
高速存储装置11例如由闪存阵列那样的访问应答性能良好的(即,访问速度为高速的)闪存存储装置构成。闪存存储装置使用多个闪存存储器板实现。闪存存储器板分别包括闪存存储器的集合。在本实施方式中,假设多个闪存存储器板分别不具有与硬盘驱动器(HDD)的互换性。但是,也可以代替多个闪存存储器板而使用具有与HDD的互换性的多个固态驱动器(SSD)。
另一方面,低速存储装置12例如由相比高速存储装置11(闪存存储装置)访问应答性能较低(即,访问速度为低速)但存储容量较大的硬盘驱动器(HDD)阵列构成。HDD阵列例如是具备多个HDD的RAID(Redundant Arrays of Inexpensive Disks或Redundant Arraysof Independent Disks)结构的存储装置。另外,高速存储装置11及低速存储装置12并不一定需要具有阵列结构。
如上述那样,在图1所示的层级化存储***10中,存在访问速度(即访问应答性能)不同的两个(两种)存储装置(即,高速存储装置111及低速存储装置112)。在此情况下,高速存储装置111被分配给上位层级(高速层级、第1层级),低速存储装置112被分配给下位层级(低速层级、第2层级)。另外,层级化存储***10也可以具备例如磁带装置那样的比低速存储装置112更低速(低层级、第3层级)的存储装置(第3层级的存储装置)。
存储控制器13接受从主机20_*给出的、使用逻辑地址的数据访问(读访问或写访问)的请求(输入输出请求),执行被请求的输入输出(I/O)。在该I/O的执行时,存储控制器13使用周知的地址变换功能,将逻辑地址变换为物理卷识别码(ID)及物理地址。逻辑地址是指由主机20_*识别的逻辑卷(逻辑盘)内的地址。物理地址表示与逻辑地址建立了对应的存储装置内的物理位置,物理卷ID表示该存储装置的物理卷(即,物理的存储区域)的ID。存储控制器13基于该物理卷ID及物理地址对高速存储装置11或低速存储装置12访问。在本实施方式中,高速存储装置11或低速存储装置12能够以第2尺寸的区域为最小单位进行访问。将该第2尺寸的区域称作块(或扇区)。在本实施方式中,第2尺寸是512字节(B)。
存储控制器13具备主接口控制器(以下称作HIFC)130、存储接口控制器(以下称作SIFC)131、存储器132、HDD133和CPU134。
HIFC130控制该HIFC130与主机20_*之间的数据转送(数据转送协议)。HIFC130接收从主机20_*对逻辑卷的I/O请求(读访问请求或写访问请求),返送对于该I/O请求的应答。HIFC130如果从主机20_*接收到I/O请求,则将该I/O请求向CPU134传递。接受到I/O请求的CPU134处理该I/O请求。
SIFC131从CPU134接收基于CPU134接收到的来自主机20_*的I/O请求(对于逻辑卷的写访问请求或读访问请求)的访问请求(对于物理卷的写访问请求或读访问请求)。SIFC131根据接收到的访问请求,执行向高速存储装置111或低速存储装置113的访问。
存储器132是DRAM那样的可改写的易失性存储器。存储器132的一部分区域被用于保存从HDD133装载的存储控制程序420(图4)。存储器132的另一部分区域被作为用于CPU134的工作区域使用。存储器132的再另一部分区域被用于保存各种表。它们的存储器映射图的详细情况后述。
在HDD133中保存有存储控制程序420。CPU134通过在存储控制器13被起动时执行初始化程序装载器(IPL),将保存在HDD133中的存储控制程序420向存储器132装载。IPL保存在读出专用存储器(ROM)或闪存ROM(FROM)那样的非易失性存储器中。此外,保存在存储器132中的各种表被适当保存在HDD133中。将保存在HDD133中的各种表根据需要(例如在该存储控制器13的起动时)而从HDD133向存储器132装载。
CPU134按照装载在存储器132中的存储控制程序420,作为后述的逻辑卷管理部400、第1再配置部401、第2再配置部402、访问统计收集部403及评价部404发挥功能。即,CPU134通过将保存在存储器132中的存储控制程序420执行,控制层级化存储***10整体(特别是存储控制器13内的各部)。
在本实施方式中存储控制器13如图1所示,从主机20_1至20_n独立地装备。但是,存储控制器13也可以内置在主机20_1至20_n的某个(主机20_*)中。在此情况下,存储控制器13(更详细地讲,存储控制器13的功能)也可以使用主机20_*具有的操作***(OS)的功能的一部分实现。
此外,存储控制器13也可以装备到安装在主机20_*的卡插槽中而使用的卡中。此外也可以是,存储控制器13的一部分内置在主机20_*中,该存储控制器13的其余装备在卡中。此外,主机20_*、存储控制器13和高速存储装置11及低速存储装置12的一部分或全部也可以收存在1个箱体中。
图2是用来说明图1所示的层级化存储***10的存储区域的典型的层级构造的图。高速存储装置11及低速存储装置12分别包括物理卷110及120。在以下的说明中,将高速存储装置11的物理卷110称作高速物理卷110,将低速存储装置12的物理卷120称作低速物理卷120。
高速物理卷110及低速物理卷120为了管理而被存储控制器13分割为第1尺寸的组块(即物理组块)。即,高速物理卷110及低速物理卷120分别具备多个组块。在本实施方式中,第1尺寸(即,物理组块的尺寸)是4千字节(KB),是第2尺寸(512B)的8倍。即,1个组块由8个扇区构成。当然,第1尺寸除了4KB以外,也可以是例如4兆字节(MB)。
高速物理卷110内的组块的群及低速物理卷120内的组块的群如图2所示那样被使用卷池15管理。卷池15用于将高速物理卷110内的组块的群及低速物理卷120内的组块的群逻辑地收容(集中)。在本实施方式中,卷池15由高速卷组151及低速卷组152构成。高速物理卷110内的组块的群被集中到卷池15的高速卷组151中,低速存储装置12内的组块的群被集中到卷池15的低速卷组152中。
被集中到卷池15中的组块的群的例如一部分被分配给逻辑卷16。逻辑卷16为了管理而被存储控制器13分割为与上述物理组块相同尺寸(第1尺寸)的组块(即逻辑组块)。即,逻辑卷16具备多个组块。
逻辑卷16由映射区域161及自由空间162构成。逻辑卷16的映射区域161如在图2中用箭头171及172表示那样,用于将从卷池15的高速卷组151及低速卷组152选择的(集中的)组块的集合映射(分配)。自由空间163是指没有被分配物理组块的区域。
逻辑卷16的状态能够从主机20_*经由存储控制器13识别。即,主机20_*能够将被分配了高速存储装置11及低速存储装置12各自的物理组块的逻辑卷16识别为1个逻辑盘。并且,主机20_*在使用逻辑地址对逻辑卷16访问的情况下,能够不意识映射到由该逻辑地址指定的逻辑的存储区域中的物理的存储区域而对该物理的存储区域访问。
为此,存储控制器13(更详细地讲,存储控制器13的逻辑卷管理部400)使用逻辑-物理组块变换表421(图4)管理逻辑卷16内的各个逻辑组块与映射在该各个逻辑组块中的物理组块的对应。保持在逻辑-物理组块变换表421的各条目中的信息是一种地址变换信息。存储控制器13在被从主机20_*送来用于读访问或写访问的I/O请求的情况下,将由该I/O请求指定的逻辑地址基于逻辑-物理组块变换表421(进而,后述的物理组块管理表422)向物理卷ID及物理地址变换。存储控制器13基于该物理卷ID及物理地址,对高速存储装置11(高速物理卷110)或低速存储装置12(低速物理卷120)即物理层的存储(物理的存储区域)访问。
在本实施方式中,在分配给逻辑卷16的映射区域161的第1集合及第2集合之间,以组块为单位移动数据。即,在高速存储装置11(高速物理卷110)与低速存储装置12(低速物理卷120)之间,以组块为单位移动数据。该数据移动在存储控制器13的控制下进行。即使进行这样的数据移动,只要逻辑-物理组块变换表421被正确地更新,存储控制器13就能够不使主机20_*注意该数据移动而执行该数据移动。
图3是用来说明图2所示的逻辑卷16的典型的结构的图。另外,在图3中,将逻辑卷16的自由空间162省略。如图3所示,对逻辑卷16的映射区域161分配的组块的集合的一部分(以下称作第1集合)存在于高速物理卷110中,该组块的集合的其余(以下称作第2集合)存在于低速物理卷120中。
在以往技术中,对逻辑卷16分配的高速物理卷110内的存储区域(即,第1集合的区域)被用于保存例如访问频度统计值(访问频度)较大(较高)的逻辑组块的数据。将这样的高速物理卷110内的存储区域称作高访问频度区域。
相对于此,在本实施方式中,对逻辑卷16分配的高速物理卷110内的存储区域如图3所示,包括试验区域(以下称作T区域)111及高访问频度区域(以下称作HAF区域)112的两个存储区域。HAF区域(第1存储区域)112与以往技术同样,用于向访问频度统计值较大的逻辑组块的集合的分配。即,被分配HAF区域112的逻辑组块的条件(以下称作第1条件)是访问频度统计值更大。
另一方面,T区域(第2存储区域)111被用于向基于与访问频度统计值不同的尺度选择的逻辑组块的集合的再分配和该再分配的效果的评价。在本实施方式中,从被分配了低速物理卷120内的存储区域(即,第2集合的区域)121的逻辑卷16内的逻辑组块的群中选择被再分配T区域111的逻辑组块的集合。
即,T区域111被再分配的逻辑组块的条件(以下称作第2条件)是至少被分配低速物理卷120内的存储区域(第3存储区域)121。更详细地讲,T区域111被再分配的逻辑组块的条件(以下称作第2条件)被分配低速物理卷120内的存储区域121,并且T区域111是未分配。该低速物理卷120内的存储区域121用于将逻辑卷16的映射区域161内的逻辑组块群中的访问频度统计值(访问频度)较小(较低)的逻辑组块的数据保存。所以,将该存储区域121称作低访问频度区域(以下称作LAF区域)121。
存储控制器13(更详细地讲,存储控制器13的逻辑卷管理部400)基于来自主机20_*的逻辑卷制作请求或经由存储控制器13的用户接口从用户给出的逻辑卷制作请求制作逻辑卷16。在该逻辑卷16的制作时,存储控制器13制作包括高速存储装置11的高速物理卷110及低速存储装置12的低速物理卷120的卷池15。如上述那样,卷池15由高速卷组151及低速卷组152构成。
存储控制器13基于逻辑卷制作请求,从高速卷组151及低速卷组152分别切出第1组块的集合及第2组块的集合,向逻辑卷16的映射区域161分配。
逻辑卷16中的映射区域161及自由空间162的比例能够从主机20_*(或用户)指定。此外,对映射区域161分配的第1集合及第2集合的比例也能够从主机20_*(或用户)指定。此外,高速物理卷110中的T区域111及HAF区域112的比例也能够从主机20_*(或用户)指定。进而,逻辑卷16整体的存储容量也能够在不超过预先设定的上限值的范围内从主机20_*(或用户)指定。
图4是主要表示图1所示的存储控制器13的典型的功能结构的框图。存储控制器13具备逻辑卷管理部400、第1再配置部401、第2再配置部402、访问统计收集部403及评价部404。这些功能要素400至404是通过图1所示的存储控制器13的CPU134执行存储控制程序420而实现的软件模组。但是,也可以将功能要素400至404的至少1个通过硬件模组实现。
存储器132包括控制程序区域410、表区域411及工作区域412。控制程序区域410用于保存由CPU134执行的存储控制程序420的至少一部分。该存储控制程序420如上述那样预先保存在HDD133中,该存储控制程序420的至少一部分在存储控制器13的起动时被从该HDD133向控制程序区域410装载。
表区域411用于将保存在HDD133中的各种表的至少一部分保存。工作区域412用于将CPU134在执行存储控制程序420时利用的临时的数据保存。
HDD133除了上述的存储控制程序420以外,还保存逻辑-物理组块变换表421、物理组块管理表422、逻辑组块管理表423、组块履历管理表424、评价结果管理表425及访问计数表426。这些表421至426例如在存储控制器13的起动时被从HDD133装载到存储器132的表区域411中而使用。因此,在装载在存储器132中的表被更新的情况下,该更新被适当反映到HDD133内的对应的表中。但是,在以后的说明中,为了简略化,设为表421至426在保存在HDD133中的状态下被使用。
图5表示图4所示的逻辑-物理组块变换表421的数据构造的例子。逻辑-物理组块变换表421具有与图2所示的逻辑卷16的逻辑组块建立了对应的条目。逻辑-物理组块变换表421的各条目被用于保持逻辑组块号码与物理组块号码的对。逻辑组块号码表示对应的逻辑组块(即逻辑卷16内的逻辑组块)。物理组块号码表示分配给对应的逻辑组块的物理组块。
在本实施方式中,层级化存储***10具备包括逻辑卷16的多个逻辑卷。但是,在图2中,逻辑卷16以外的逻辑卷为了作图的方便而被省略。这样,在层级化存储***10具备多个逻辑卷的本实施方式中,与多个逻辑卷分别建立对应而准备包括图5所示的逻辑-物理组块变换表421的多个逻辑-物理组块变换表。但是,只要在逻辑-物理组块变换表的条目信息中包含逻辑卷ID,也可以代替多个逻辑-物理组块变换表而使用1个逻辑-物理组块变换表。逻辑卷ID是指包含保持在对应的条目中的逻辑组块号码表示的逻辑组块的逻辑卷。另外,层级化存储***10也可以仅具备逻辑卷16。
图6表示图4所示的物理组块管理表422的数据构造的例子。物理组块管理表422具有与集中在卷池15中的物理组块建立了对应的条目。物理组块管理表422的各条目被用于保持物理组块号码、物理卷ID、扇区号码和状态(状态标志)的组。
物理组块号码表示对应的物理组块。物理卷ID表示包含对应的物理组块的物理卷。在本实施方式中,物理组块号码与对应的物理组块属于哪个物理卷(存储装置)无关,是唯一的。但是,物理组块号码也可以仅在对应的物理组块属于的物理卷内是唯一的。在此情况下,只要在逻辑-物理组块变换表421的条目信息中除了逻辑组块号码及物理组块号码以外还包含物理卷ID就可以。物理卷ID表示分配给对应的逻辑组块的物理组块属于的物理卷。
接着,扇区号码表示构成对应的物理组块的扇区的列的开头扇区。状态表示有对于被分配了对应的物理组块的逻辑组块分配T区域111内的物理组块的情况(状态=1的情况)还是没有(状态=0的情况)。
图7表示图4所示的逻辑组块管理表423的数据构造的例子。逻辑组块管理表423具有与构成层级化存储***10具备的多个逻辑卷(更详细地讲,包括逻辑卷16的多个逻辑卷)的全部的逻辑组块分别建立了对应的条目。逻辑组块管理表423的各条目被用于保持逻辑组块号码、逻辑卷ID和扇区号码的组。逻辑组块号码表示对应的逻辑组块。逻辑卷ID表示包含对应的逻辑组块的逻辑卷。扇区号码表示构成对应的逻辑组块的扇区的列的开头扇区。
图8表示图4所示的组块履历管理表424的数据构造的例子。组块履历管理表424被用于管理第2再配置处理的履历(以下称作组块履历)。所谓第2再配置处理,是指对于与低速物理卷120的LAF区域121内的物理组块建立了对应的逻辑组块再分配(建立对应于)高速物理卷110的T区域111内的物理组块的处理。第2再配置处理包括评价该再分配的效果的处理。
组块履历管理表424具有与组块履历(第2履历)建立了对应的条目。组块履历管理表424的各条目被用于保持组块履历号码、日时信息和物理组块一览的组。组块履历号码是指组块履历的取得顺序。在本实施方式中,组块履历号码越小,表示是越新的组块履历。日时信息表示对应的组块履历被取得的日时。物理组块一览表示对于由对应的第2再配置处理再分配了T区域111内的物理组块的集合的逻辑组块,在该再分配前分别建立了对应的LAF区域121内的物理组块的集合。在本实施方式中,T区域111由4000的物理组块构成。因而,物理组块一览表示4000的物理组块的集合。
图9表示图4所示的评价结果管理表425的数据构造的例子。评价结果管理表425被用于管理在组块履历取得时的第2再配置处理中被执行的评价处理的结果(评价结果)的履历。
评价结果管理表425具有与评价结果的履历(第1履历)建立了对应的条目。评价结果管理表425的各条目被用于保持评价结果号码、日时信息和吞吐量信息的组。评价结果号码是指评价结果(评价结果的履历)的取得顺序,与对应的组块履历的组块履历号码一致。在本实施方式中,评价结果号码越小,表示越新的评价结果。日时信息表示对应的评价结果(组块履历)被取得的日时。吞吐量信息表示对应的评价结果。在本实施方式中,作为对应的评价结果而使用吞吐量。关于该吞吐量在后面叙述。
接着,参照图10对在本实施方式中采用的第1再配置处理进行说明。图10是用来说明由存储控制器13(更详细地讲,存储控制器13的第1再配置部401)执行的第1再配置处理的典型的次序的流程图。第1再配置处理例如包括在第1期间(监视期间)中按照组块(例如逻辑组块)取得访问频度统计信息(访问频度统计值)的处理。第1再配置处理还包括基于所取得的访问频度统计值向访问频度较高的逻辑组块再分配高速物理卷110的HAF区域112内的物理组块的处理。第1再配置处理例如以与第1期间对应的周期定期地执行。
在本实施方式中,将第1再配置处理及第2再配置处理独立地执行。因此,第1再配置处理及第2再配置处理相互被排他地执行。即,在某一方的再配置处理的执行中,另一方的再配置处理为等待状态,在执行中的再配置处理的完成后,另一方的再配置处理的等待状态被解除。
所以,存储控制器13的第1再配置部401首先判定第2再配置处理是否是执行中(步骤S1)。如果第2再配置处理是执行中(步骤S1的Yes),则第1再配置部401等待第2再配置处理的完成。
相对于此,如果第2再配置处理不是执行中(步骤S1的No),则第1再配置部401将访问统计收集部403起动。于是,访问统计收集部403监视第1期间中的向各个逻辑组块的访问,取得该向各个逻辑组块的例如访问的频度(步骤S2)。如果更具体地记述,则访问统计收集部403使用访问计数表426收集向各个逻辑组块的访问的频度,作为访问频度统计信息(访问频度值)。该向各个逻辑组块的访问的频度指示表示向该各个逻辑组块的访问的状况的指标。访问计数表426的各条目被用于保持表示向对应的逻辑组块的访问的次数(例如,数据读的次数与数据写的次数的合计)的访问计数值。该访问计数值每当对应的逻辑组块被访问而增加1。另外,访问统计收集部403也可以收集向各个逻辑组块的访问的数据量的总和作为访问频度统计信息。
如果监视期间经过,即如果由访问统计收集部403取得访问频度统计信息(步骤S2),则第1再配置部401基于该访问频度统计信息(访问计数表426),选择访问频度最高的逻辑组块,即访问计数值(访问频度统计值)最大的逻辑组块(步骤S3)。接着,第1再配置部401如以下这样判定对于所选择的逻辑组块(以下称作第1逻辑组块)是否分配了低速物理卷120(LAF区域121)内的物理组块(步骤S4)。
首先,第1再配置部401基于第1逻辑组块的逻辑组块号码参照逻辑-物理组块变换表421。并且,第1再配置部401确定与第1逻辑组块建立了对应的物理组块的物理组块号码。接着,第1再配置部401基于所确定的物理组块号码参照物理组块管理表422。并且,第1再配置部401确定与所确定的物理组块号码成组的物理卷ID。基于该确定的物理卷ID,第1再配置部401判定是否对第1逻辑组块分配了低速物理卷120内(即,低速区域侧)的物理组块。
如果对第1逻辑组块分配了低速物理卷120内的物理组块(步骤S4的Yes),则第1再配置部401向步骤S5前进。在步骤S5中,第1再配置部401从被分配了HAF区域112(更详细地讲,HAF区域112内的物理组块)的未选择的逻辑组块中,如以下这样选择访问频度最低、即访问计数值(访问频度统计值)最小的逻辑组块。首先,第1再配置部401基于包含HAF区域112的高速物理卷110的物理卷ID,参照物理组块管理表422。由此,第1再配置部401确定与高速物理卷110的物理卷ID成组的物理组块号码。接着,第1再配置部401参照逻辑-物理组块变换表421,确定与所确定的物理组块号码成组的未选择的逻辑组块号码。接着,第1再配置部401参照访问计数表426,从所确定的逻辑组块号码表示的未选择的逻辑组块中选择访问频度最低的逻辑组块(以下称作第2逻辑组块)。
接着,第1再配置部401将第1逻辑组块及第2逻辑组块(即所选择的两组块)的数据的配置目标掉换(步骤S6)。更具体地讲,第1再配置部401将分配给第1逻辑组块的LAF区域121内的物理组块(以下称作第1物理组块)的数据与分配给第2逻辑组块的HAF区域112内的物理组块(以下称作第2物理组块)的数据掉换。即,第1再配置部401将第1逻辑组块的数据再配置给第2物理组块,将第2逻辑组块的数据再配置给第1物理组块。
接着,第1再配置部401基于上述的数据配置目标的掉换(再配置),将与第1逻辑组块及第2逻辑组块分别建立了对应的逻辑-物理组块变换表421的条目的信息更新(步骤S7)。即,第1再配置部401将与第1逻辑组块及第2逻辑组块分别建立了对应的逻辑-物理组块变换表421的条目的信息,以反映上述数据配置目标的掉换。更详细地讲,第1再配置部401将与第1逻辑组块建立了对应的逻辑-物理组块变换表421的条目中的物理组块号码从表示第1物理组块的号码更新为表示第2物理组块的号码。同样,第1再配置部401将与第2逻辑组块建立了对应的逻辑-物理组块变换表421的条目中的物理组块号码从表示第2物理组块的号码更新为表示第1物理组块的号码。
第1再配置部401如果执行步骤S7,则向步骤S8前进。此外,在没有对第1逻辑组块分配低速物理卷120内的物理组块的情况下(步骤S4的No),第1再配置部401也向步骤S8前进。在步骤S8中,第1再配置部401判定是否选择了与HAF区域112对应的数量的逻辑组块。所谓与HAF区域112对应的数量的逻辑组块,是指与构成该HAF区域112的物理组块的数量相同数量的逻辑组块。
如果没有选择与HAF区域112对应的数量的逻辑组块(步骤S8的No),则第1再配置部401向步骤S9前进。在步骤S9中,第1再配置部401基于访问计数表426,选择访问频度接着较高的逻辑组块作为第2逻辑组块。并且,第1再配置部401向步骤S4返回。
这样,第1再配置部401将被分配了LAF区域121内的物理组块的逻辑组块中的访问频度较高的逻辑组块的数据的配置目标、与配置在HAF区域112中的逻辑组块中的访问频度较低的逻辑组块的数据的配置目标掉换。如果最终选择了与HAF区域112对应的数量的逻辑组块(步骤S8的Yes),则第1再配置部401向步骤S10前进。在步骤S10中,第1再配置部401判定是否由用户指定了访问频度统计信息(即访问计数表426)的初始化。
如果没有指定初始化(步骤S10的Yes),则第1再配置部401将访问频度统计信息初始化(步骤S10),结束第1再配置处理。相对于此,如果没有指定初始化(步骤S10的No),则第1再配置部401将步骤S10跳过,结束第1再配置处理。将第1再配置处理如上述那样以对应于第1期间的周期定期地执行。
在上述说明中,为了简略化,设想了第1逻辑组块的访问频度总是比第2逻辑组块的访问频度高的情况。但实际上,也可能有第1逻辑组块的访问频度比第2逻辑组块的访问频度低的情况。在这样的情况下,第1再配置部401只要将步骤S6至S8跳过而向步骤S10前进就可以。
接着,参照图11及图12,对在本实施方式中采用的第2再配置处理进行说明。图11是用来说明由存储控制器13(更详细地讲,存储控制器13的第2再配置部402)执行的第2再配置处理的典型的次序的流程图。图12是用来说明在图11所示的第2再配置处理中执行的评价处理的典型的次序的流程图。
存储控制器13的第2再配置部402首先判定第1再配置处理是否是执行中(步骤S21)。如果第1再配置处理是执行中(步骤S21的Yes),则第2再配置部402等待第1再配置处理的完成。相对于此,如果第1再配置处理不是执行中(步骤S21的No),则第2再配置部402向步骤S22前进。在步骤S22中,第2再配置部402判定是否是第2再配置处理中的初次的再配置(再分配)。
如果是第2再配置处理中的初次的再配置(步骤S22的Yes),则第2再配置部402向步骤S23前进。在这样是初次的再配置的情况下,在本实施方式中,T区域111内的物理组块都没有被分配给逻辑组块。在步骤S23中,第2再配置部402例如从LAF区域121的开头选择与T区域111对应的数量Q的物理组块。所谓与T区域111对应的数量Q,是指构成该T区域111的物理组块的数量。这里,T区域111具备4,000个物理组块,因而,假设Q是4,000。
接着,第2再配置部402将所选择的Q个物理组块(以下称作第3物理组块)的数据向T区域111拷贝(步骤S24)。接着,第2再配置部402基于该拷贝,将逻辑-物理组块变换表421的条目的信息更新(步骤S25)。即,第2再配置部402在逻辑-物理组块变换表421中,将与所选择的Q个第3物理组块建立对应的逻辑组块号码变更。更详细地讲,第2再配置部402在逻辑-物理组块变换表421中,将与所选择的Q个第3物理组块到此为止建立了对应的Q个逻辑组块(以下称作第3逻辑组块)建立对应的物理组块号码,从表示第3物理组块的号码更新为表示T区域111内的Q个物理组块(以下称作第4物理组块)的号码。这样,第2再配置部402通过对于与所选择的Q个第3物理组块分别建立了对应的Q个第3逻辑组块,将T区域111内的Q个第4物理组块建立对应,进行物理组块的再分配。进而,在步骤S25中,第2再配置部402将与第3物理组块建立了对应的物理组块管理表422的条目中的状态设定为1。
第2再配置部402如果执行步骤S25,则将评价部404起动。于是,评价部404评价从LAF区域121向T区域111的物理组块的数据的拷贝(步骤S24)的效果。即,评价部404按照图12所示的流程图,如以下这样评价将对所选择的逻辑组块分配的物理组块从LAF区域121内的物理组块变更为T区域111内的物理组块的再分配的效果(步骤S26)。
首先,评价部404设定块(I/O块)的尺寸(第2尺寸)(步骤S41)。如上述那样,块是向高速存储装置11及低速存储装置12的访问的最小单位。接着,评价部404从在层级化存储***10(存储控制器13)内准备的***时钟取得当前的时刻(即***时刻)(步骤S42)。
接着,评价部404执行向逻辑卷16的随机读访问(步骤S43)。评价部404基于从该随机读访问的开始时点到结束时点的时间[s]和由该随机读访问读出的数据的量[MB],计算该随机读访问的吞吐量[MB/s](步骤S44)。并且,评价部404向组块履历管理表424及评价结果管理表425如以下这样追加条目信息(步骤S45)。
首先,评价部404生成包含组块履历号码(=1)、表示在步骤S42中取得的***时刻(日时)的日时信息、在步骤S23中选择的Q个第3物理组块的物理组块号码的条目信息(组块履历信息)。此时,假设在组块履历管理表424中存在1个以上有效的条目(例如多个条目)。在此情况下,第1再配置部401将多个条目各自的组块履历信息向后续的条目移动,并将各组块履历信息中的组块履历号码增加1。并且,评价部404将所生成的组块履历信息设定到组块履历管理表424的开头条目中。另外,也可以是将组块履历号码根据对应的组块履历信息的生成而顺序地生成、将第i个(i=1,2,3,…)生成的组块履历信息保持在组块履历管理表424的第i个条目中的结构。
此外,评价部404生成包含评价结果号码(=1)、表示在步骤S42中取得的***时刻(日时)的日时信息、和表示在步骤S44中计算出的吞吐量的吞吐量信息的条目信息(评价结果信息)。评价部404与将组块履历信息向组块履历管理表424追加同样,将所生成的评价结果信息向评价结果管理表425追加。评价部404如果了执行步骤S45,则结束评价处理(步骤S26)。
于是,第2再配置部402判定在LAF区域121内是否有未选择的物理组块(即,在步骤S23中没有被选择的物理组块)(步骤S27)。如果有未选择的物理组块(步骤S27的Yes),则第2再配置部402向步骤S22返回。在步骤S22中,第2再配置部402如上述那样,判定是否是第2再配置处理中的初次的再配置。
如果如该例那样不是初次的再配置(步骤S22的No),则为了下个再配置,第2再配置部402向步骤S28前进。在步骤S28中,第2再配置部402将T区域111内的全部物理组块(即Q个第4物理组块)的数据向低速存储装置12的原来的区域移动。所谓原来的区域,是指在最近的步骤S24中数据被拷贝到T区域111内的Q个物理组块中时、该数据曾被保存的LAF区域121内的Q个物理组块(以下称作第5物理组块)的区域,即在最近的步骤S24中执行的拷贝的拷贝源。该LAF区域121内的原来的区域(即,在步骤S28中执行的移动的移动目标)基于组块履历管理表424的开头条目(即,组块履历号码为1的条目)的组块一览确定。这样,在步骤S28中,第2再配置部402对于被分配了当前T区域111内的Q个第4物理组块的Q个逻辑组块(以下称作第4逻辑组块)再分配LAF区域121内的原来的区域。
接着,第2再配置部402从LAF区域121的后续位置选择Q个物理组块(步骤S29)。所谓LAF区域121的后续位置,是指对在步骤S28中T区域111的数据被移动的区域后续的位置。接着,第2再配置部402与在初次的再配置中执行步骤S23的情况同样,如以下这样执行步骤S24及S25。
首先,第2再配置部402将在步骤S29中选择的Q个物理组块(以下称作第3物理组块)的数据向T区域111拷贝(再配置)(步骤S24)。即,第2再配置部402向与在步骤S29中选择的Q个第3物理组块分别建立了对应的Q个逻辑组块(以下称作第3逻辑组块)再分配T区域111内的Q个物理组块(第4物理组块)。
接着,第2再配置部402基于上述拷贝(再分配),将与所选择的Q个第3物理组块建立了对应的逻辑-物理组块变换表421的条目的信息(即与Q个第3逻辑组块建立了对应的逻辑-物理组块变换表421的条目的信息)更新(步骤S25)。更详细地讲,第2再配置部402将与Q个第3逻辑组块分别建立了对应的逻辑-物理组块变换表421的条目中的物理组块号码从表示第3物理组块的号码更新为表示第4物理组块的号码。此外,在步骤S25中,第2再配置部402将与被分配了Q个第4物理组块的Q个第4逻辑组块建立了对应的逻辑-物理组块变换表421的条目的信息也更新。更详细地讲,第2再配置部402将与Q个第4逻辑组块分别建立了对应的逻辑-物理组块变换表421的条目中的物理组块号码从表示第4物理组块的号码更新为表示第5物理组块的号码。
由此,例如如果是第4次再配置,则首先,将T区域111内的全部物理组块的数据向由图8的组块履历管理表424的开头条目中的物理组块一览表示的LAF区域121内的物理组块8,000至11,999(即,物理组块号码为8,000至11,999的物理组块)移动(步骤S28)。即,对于被分配了T区域111内的4,000个物理组块的4,000个逻辑组块,分别再分配物理组块8,000至11,999。
接着,将LAF区域121内的物理组块12,000至15,999(即,物理组块号码为12,000至15,999的物理组块)的数据向T区域111拷贝(步骤S29及S24)。即,对于被分配了LAF区域121内的物理组块12,000至15,999的4,000个逻辑组块,分别再分配T区域111内的4,000个物理组块。接着,再次执行步骤S26及S27。
第2再配置部402重复上述步骤S22、S28、S29及S24至27。如果最终选择了LAF区域121内的全部物理组块的结果是不再有未选择的物理组块(步骤S27的No),则第2再配置部402向步骤S30前进。在步骤S30中,第2再配置部402基于组块履历管理表424及评价结果管理表425,如以下这样选择评价最高的(即吞吐量最大的)物理组块的组(步骤S31)。首先,第2再配置部402参照评价结果管理表425,确定表示吞吐量为最大的评价结果的评价结果号码。接着,第2再配置部402参照组块履历管理表424,确定包含与所确定的评价结果号码一致的组块履历号码的条目。并且,第2再配置部402选择设定在所确定的组块履历管理表424的条目中的物理组块一览表示的物理组块的组(Q个物理组块),作为评价最高的物理组块的组。
接着,第2再配置部402将所选择的Q个物理组块的数据向T区域111再配置(拷贝)(步骤S31)。即,第2再配置部402通过将被分配了所选择的Q个物理组块的Q个逻辑组块的数据向T区域111再配置,将评价最高的再配置的状态复原。虽然在图11的流程图中被省略,但第2再配置部402在该再配置(步骤S31)的前后,分别执行与步骤S28及S25对应的处理。另外,第2再配置部402也可以将评价结果管理表425表示的评价结果的一览经由用户接口向用户提示,使用户从该评价结果的一览中选择希望的评价结果。在此情况下,第2再配置部402只要选择能够得到由用户选择的评价结果的物理组块的组就可以。
第2再配置部402如果执行步骤S31,则判定是否由用户指定了关于第2再配置处理的状态(更详细地讲,组块履历管理表424及评价结果管理表425)(步骤S32)。如果指定了状态的初始化(步骤S32的Yes),则第2再配置部402将该状态初始化(步骤S33),结束第2再配置处理。相对于此,如果没有指定状态的初始化(步骤S32的No),则第2再配置部402将步骤S33跳过,结束第2再配置处理。在此情况下,在接着起动了第2再配置处理的情况下,继续使用当前的组块履历管理表424及评价结果管理表425。
在本实施方式中,第2再配置部402将第2再配置处理中的上述再配置(例如,步骤S22、S28、S29及S24至27)定期地(例如每1小时)执行。但是,也可以将执行该再配置的周期基于该评价处理中的评价结果是否比前次好来变更。具体而言,在评价结果比前次好的情况下,也可以为了将该状态较长地维持,第2再配置部402使开始下个再配置的时期延迟。相反,在评价结果比前次差的情况下,第2再配置部402也可以将开始下个再配置的时期提早。此外,第2再配置处理既可以例如根据用户的指示适当执行,或者也可以定期地执行。
图13及图14是用来说明本实施方式的第2再配置处理的概要的图。图13是用来说明第2再配置处理的初次的再配置的概要的图,图14是用来说明第2再配置处理中的初次以外的再配置的概要的图。
在初次的再配置中(步骤S22的Yes),从低速物理卷120的LAF区域121的开头选择Q个物理组块(步骤S23)。并且,将所选择的Q个物理组块的数据如在图13中用箭头A1表示那样向高速物理卷110的T区域111拷贝(再配置)(步骤S24)。另外,在图13及14中,为了作图的方便而表示Q=5的情况。
在初次以外的再配置中(步骤S22的No),首先,将T区域111的数据如在图14中用箭头A11表示那样,向LAF区域121的原来的区域移动(再配置)(步骤S28)。接着,从LAF区域121的后续位置的开头选择Q个物理组块(步骤S29)。并且,将所选择的Q个物理组块的数据如在图14中用箭头A12表示那样,向T区域111拷贝(再配置)(步骤S24)。
这样,在本实施方式中,第2再配置部402将在基于访问频度(访问频度统计值)的再配置中不会被配置到高速物理卷110侧那样的物理组块的组(低速物理卷120侧的物理组块的组)的数据向该高速物理卷110内的T区域111再配置(步骤S24)。在此状态下,评价部404评价该再配置(即,从LAF区域121向T区域111的数据的再配置)的效果(步骤S26)。即,根据本实施方式,能够将在基于访问频度的再配置中不会被选择那样的(即,不能确认效果那样的)物理组块的组的数据向高速物理卷110内的T区域111再配置,评价其再配置的效果。此外,根据本实施方式,将这样的再配置及评价按照LAF区域121内的连续的Q个物理组块执行,将其再配置及评价的履历分别向组块履历管理表424及评价结果管理表425记录。由此,根据本实施方式,能够基于组块履历管理表424及评价结果管理表425确定与评价最高的配置对应的Q个物理组块,将该确定的Q个物理组块的数据再配置(复原)到T区域111中。由此,能够进一步提高层级化存储***10的性能。
另外,评价部404为了评价从LAF区域121向T区域111的逻辑组块的数据的再配置的效果,也可以代替向逻辑卷16的随机读访问,而执行向逻辑卷16内的任意的存储区域(第4存储区域)的顺序读访问。在此情况下,评价部404只要取得顺序读访问中的吞吐量作为评价结果就可以。这里,作为任意的存储区域,也可以指定特别被要求顺序读访问的性能提高的存储区域、例如保存有特定的备份数据的存储区域。此外,上述任意的存储区域也可以是逻辑卷16整体。进而,评价部404也可以分别执行上述随机读访问和顺序读访问,取得该两访问中的吞吐量的例如平均值作为评价结果。
<变形例>
接着,对上述实施方式的变形例进行说明。在上述实施方式中,在第2配置处理中,从低速物理卷120的LAF区域121,以Q个物理组块为单位,顺序地选择物理组块。并且,每当选择Q个物理组块,就将该选择的Q个物理组块的数据向高速物理卷110的T区域111再配置。相对于此,在本变形例中,通过与上述实施方式不同的方法选择向T区域111再配置数据的Q个物理组块。
首先,假设基于访问频度,从低速物理卷120的LAF区域121内的物理组块向高速物理卷110的HAF区域112内的物理组块配置(拷贝)数据。将这样的情况下的LAF区域121内的物理组块称作高访问频度物理组块。本变形例的特征在于,按照新从HAF区域112对T区域111再配置了数据的高访问频度物理组块,将该周边的Q个物理组块的数据向T区域111再配置。
以下,参照图15对在本变形例中采用的第2再配置处理(即,第2再配置处理的变形例)进行说明。图15是用来说明在本变形例中由第2再配置部402执行的第2再配置处理的典型的次序的流程图。在本变形例中,假设将第2再配置处理对应于第1再配置处理的结束而执行。此外,在第1再配置处理中,第1再配置部401生成从LAF区域121新将数据配置到HAF区域112中的物理组块的一览。
在第2再配置处理中,第2再配置部402取得由第1再配置部401生成的物理组块的一览(步骤S51)。接着,第2再配置部402将变量p及q设定为初始值1(步骤S52)。变量p表示LAF区域121中的以第i个物理组块CHK_i为基准的物理组块的相对位置。例如,物理组块CHK_i-p及CHK_i+p表示LAF区域121中的第i-p个及第i+p个物理组块。即,物理组块CHK_i-p及CHK_i+p相对于物理组块CHK_i分别先行及后续p个组块。变量q表示T区域111中的物理组块的相对位置。例如,物理组块CHK_q表示T区域111中的第q个物理组块。
接着,第2再配置部402基于所取得的物理组块的一览,选择物理组块(第6的物理组块)CHK_i(步骤S53)。接着,第2再配置部402基于所选择的物理组块CHK_i和变量p,从LAF区域121中选择物理组块CHK_i-p(步骤S54)。接着,第2再配置部402参照与所选择的物理组块CHK_i-p建立了对应的物理组块管理表422的条目中的状态,判定该状态(即,物理组块CHK_i-p的状态)是否表示未配置(步骤S55)。
如果是未配置(步骤S55的Yes),则第2再配置部402从T区域111中选择第q个物理组块CHK_q(步骤S56)。接着,第2再配置部402将所选择的物理组块CHK_q的数据与上述实施方式的步骤S28同样,向低速存储装置12(低速物理卷120)内的原来的区域移动(步骤S57)。
接着,第2再配置部402将所选择的物理组块CHK_i-p的数据向所选择的物理组块CHK_q拷贝(步骤S58)。这样,第2再配置部402将物理组块(第3物理组块)CHK_i-p的数据向T区域111内的物理组块(第4物理组块)CHK_q再配置。即,第2再配置部402向被分配了物理组块CHK_i-p的逻辑组块(第3逻辑组块)再分配物理组块CHK_q。
接着,第2再配置部402将逻辑-物理组块变换表421更新,以反映上述数据移动(步骤S57)及数据拷贝(步骤S58)(步骤S59)。在步骤S59中,第2再配置部402将与物理组块CHK_i-p建立了对应的物理组块管理表422的条目中的状态设定为1。接着,第2再配置部402将变量q增加1(步骤S60)。并且,第2再配置部402判定增加后的变量q是否超过Q(步骤S61)。Q如上述那样表示T区域111中的物理组块的数量。
如果增加后的变量q不超过Q(步骤S61的No),则第2再配置部402为了选择下个物理组块而向步骤S62前进。此外,在物理组块CHK_i-p的状态表示已配置的情况下(步骤S55的No),第2再配置部402也向步骤S62前进。在步骤S62中,第2再配置部402从LAF区域121选择物理组块CHK_i+p。接着,第2再配置部402参照与所选择的物理组块CHK_i+p建立了对应的物理组块管理表422的条目中的状态,判定该状态(即,物理组块CHK_i+p的状态)是否表示未配置(步骤S63)。
如果是未配置(步骤S63的Yes),则第2再配置部402从T区域111中选择第q个物理组块CHK_q(步骤S64)。接着,第2再配置部402将所选择的物理组块CHK_q的数据向低速存储装置12内的原来的区域移动(步骤S65)。
接着,第2再配置部402将所选择的物理组块CHK_i+p的数据向物理组块CHK_q拷贝(步骤S66)。这样,第2再配置部402将物理组块CHK_i+p的数据向T区域111内的物理组块CHK_q再配置。即,第2再配置部402对被分配了物理组块CHK_i+p的逻辑组块再分配物理组块CHK_q。
接着,第2再配置部402将逻辑-物理组块变换表421更新,以反映上述数据移动(步骤S65)及数据拷贝(步骤S66)(步骤S67)。在步骤S67中,第2再配置部402将与物理组块CHK_i+p建立了对应的物理组块管理表422的条目中的状态设定为1。接着,第2再配置部402将变量q增加1(步骤S68)。并且,第2再配置部402判定增加后的变量q是否超过Q(步骤S69)。
如果增加后的变量q没有超过Q(步骤S69的No),则第2再配置部402为了选择下个物理组块而向步骤S70前进。此外,在物理组块CHK_i+p的状态表示已配置的情况下(步骤S63的No),第2再配置部402也向步骤S70前进。在步骤S70中,第2再配置部402将变量p增加1。并且,第2再配置部402回到步骤S54,基于在步骤S43中选择的物理组块CHK_i和增加后的变量p,从LAF区域121中选择物理组块CHK_i-p。这样,第2再配置部402重复步骤S54至S70,直到增加后的变量q超过Q(步骤S61或S69的Yes)。
假设最终增加后的变量q超过了Q(步骤S61或S69的Yes)。在此情况下,第2再配置部402判断为包含在LAF区域121中的物理组块CHK_i的周边(即前后)的Q个物理组块的数据被再配置到T区域111中。所以,第2再配置部402为了评价该再配置的效果,执行与上述实施方式的评价处理(步骤S26)同样的评价处理(步骤S71)。
第2再配置部402如果执行评价处理(步骤S71),则判定为在由步骤S51取得的物理组块的一览中有未选择的物理组块(步骤S72)。如果有未选择的物理组块(步骤S72的Yes),则第2再配置部402回到步骤S53,选择未选择的物理组块CHK_i。这样,第2再配置部402重复步骤S53至S72,直到没有未选择的物理组块(步骤S72的No)。
假设最终不再有未选择的物理组块(步骤S72的No),在此情况下,第2再配置部402执行图11的步骤S30以后的处理。另外,在最初选择了物理组块CHK_i的情况下,第2再配置部402不需要在将该物理组块CHK_i的周边的Q个物理组块的数据向T区域111再配置前,将该T区域111的数据向低速存储装置12的原来的区域移动。但是,在图15的流程图中,为了简略化,最初选择了物理组块CHK_i的情况下的处理次序被省略。
此外,虽然在图15的流程图中被省略,但在物理组块CHK_i-p不在LAF区域121的情况下,第2再配置部402将步骤S55至S61跳过。同样,在物理组块CHK_i+p不在LAF区域121的情况下,第2再配置部402将步骤S63至S69跳过。此外,在物理组块CHK_i-p及CHK_i+p都不在LAF区域121的情况下,第2再配置部402仅将T区域111内的已再配置的数据向LAF区域121的原来的区域送回,执行图11的步骤S30以后的处理。
图16是用来说明本变形例的第2再配置处理的概要的图。在图16中,假设选择了LAF区域121内的物理组块CHK_i(步骤S53)。物理组块CHK_i的数据在先行于此次第2再配置处理的第1配置处理中,如在图16中用箭头A21表示那样被与HAF区域112内的物理组块CHK_j的数据掉换(步骤S6)。
将T区域111内的Q个物理组块的数据如在图16中用箭头A22表示那样向LAF区域121内的原来的区域移动(再配置)(步骤S57及S65)。另一方面,将所选择的物理组块CHK_i的周边的Q个物理组块的数据如在图16中用箭头A23及A24表示那样向T区域111内的Q个物理组块拷贝(再配置)(步骤S58及S66)。
这样,在本变形例中,第2再配置部402按照由第1再配置部401新从LAF区域121将数据再配置到HAF区域112中的高访问频度物理组块,选择其周边的Q个物理组块。并且,第2再配置部402将所选择的Q个物理组块的数据向T区域111再配置。即,第2再配置部402按照高访问频度物理组块,将其周边的Q个物理组块的数据向T区域111再配置。在此状态下,评价部404评价该再配置的效果(步骤S71)。由此,根据本变形例,与从LAF区域121以Q个物理组块为单位顺序地选择物理组块的上述实施方式相比,能够选择更加期待再配置的效果的物理组块的组。
根据以上说明的至少1个实施方式,对于访问频度较低的组块也给与被分配高速区域的机会,能够评价其分配给***性能带来的效果。
说明了本发明的一些实施方式,但这些实施方式是作为例子提示的,并不是要限定发明的范围。这些新的实施方式能够以其他各种各样的形态实施,在不脱离发明的主旨的范围内能够进行各种省略、替代、变更。这些实施方式及其变形包含在发明的范围或主旨中,并且包含在权利要求书所记载的发明和其等价的范围中。

Claims (9)

1.一种层级化存储***,
具备:
第1存储装置,具备包含多个物理组块的存储区域,该多个物理组块具有第1尺寸;
第2存储装置,具备包含多个物理组块的存储区域,并且与上述第1存储装置相比访问速度低速而存储容量大,该多个物理组块具有上述第1尺寸;以及
存储控制器,控制上述第1存储装置及上述第2存储装置;
上述存储控制器具备逻辑卷管理部、访问统计收集部、第1再配置部、第2再配置部和评价部;
上述逻辑卷管理部管理逻辑卷,所述逻辑卷是包含具有上述第1尺寸的多个逻辑组块且被向主机计算机提供的逻辑卷,以上述物理组块为单位被分配上述第1存储装置的第1存储区域、上述第1存储装置的第2存储区域及上述第2存储装置的第3存储区域;
上述访问统计收集部收集访问频度统计值,该访问频度统计值表示向上述逻辑卷的上述多个逻辑组块分别访问的状况;
上述第1再配置部选择第1逻辑组块,在对上述第1逻辑组块分配了上述第3存储区域内的第1物理组块的情况下,将被分配给与上述第1逻辑组块相比访问频度统计值小的第2逻辑组块的上述第1存储区域内的第2物理组块向上述第1逻辑组块再分配,并且将上述第1物理组块向上述第2逻辑组块再分配;
上述第2再配置部以对第3逻辑组块的组分配了上述第3存储区域为条件,选择上述第2存储区域应被再分配的上述第3逻辑组块的组,对上述第3逻辑组块的组再分配上述第2存储区域;
上述评价部评价上述第2存储区域的上述再分配的效果。
2.如权利要求1所述的层级化存储***,
上述第2再配置部改变所选择的第3逻辑组块的组而重复上述第3逻辑组块的组的选择,在选择了上述第3逻辑组块的组的情况下,对于被分配了上述第2存储区域的第4逻辑组块的组再分配上述第3存储区域内的原来的区域,并且对于上述选择的第3逻辑组块的组再分配上述第2存储区域内的物理组块的组;
上述评价部将有关上述第2存储区域的上述再分配的效果的评价结果的第1履历、和物理组块一览的第2履历向上述存储控制器内的存储装置保存,所述物理组块一览表示对于被再分配了上述物理组块的组的上述第3逻辑组块的组在上述再分配之前分配的上述第3存储区域内的物理组块的组。
3.如权利要求2所述的层级化存储***,
上述第2再配置部基于上述第1履历及上述第2履历,将评价结果最高的第1再分配的状态复原。
4.如权利要求3所述的层级化存储***,
上述第2再配置部基于上述第2履历,确定对于在上述第1再分配中被再分配了上述物理组块的组的上述第3逻辑组块的组在上述第1再分配之前分配的上述第3存储区域内的物理组块的组,将上述确定的物理组块的组的数据向上述第2存储区域拷贝,从而将上述第1再分配的状态复原。
5.如权利要求2所述的层级化存储***,
上述第2再配置部从上述第3存储区域中,以与上述第2存储区域对应的数量的物理组块为单位顺序地选择物理组块的组,在从上述第3存储区域选择了物理组块的组的情况下,选择被分配给上述被选择的物理组块的组的逻辑组块的组作为上述第3逻辑组块的组。
6.如权利要求2所述的层级化存储***,
上述第2再配置部依次选择被分配给上述第1存储区域内的物理组块的逻辑组块在该分配之前分别被分配了的上述第3存储区域内的物理组块,在从上述第3存储区域选择了物理组块的情况下,选择上述被选择的物理组块的周边的物理组块的组被分配了的逻辑组块的组作为上述第3逻辑组块的组。
7.如权利要求2所述的层级化存储***,
上述评价部对应于上述第2存储区域的上述再分配,执行对于上述逻辑卷的随机读访问及对于上述逻辑卷的第4存储区域的顺序读访问的至少一方,测量上述随机读访问及上述顺序读访问的上述至少一方的吞吐量,取得该测量出的吞吐量作为有关上述第2存储区域的上述再分配的效果的评价结果。
8.一种存储控制器,在具备第1存储装置和第2存储装置的层级化存储***中,控制上述第1存储装置及上述第2存储装置,所述第1存储装置具备包含多个物理组块的存储区域,该多个物理组块具有第1尺寸;所述第2存储装置具备包含多个物理组块的存储区域,并且与上述第1存储装置相比访问速度低速而存储容量大,该多个物理组块具有上述第1尺寸;该存储控制器,
具备:
逻辑卷管理部,管理逻辑卷,所述逻辑卷是包含具有上述第1尺寸的多个逻辑组块且被向主机计算机提供的逻辑卷,以上述物理组块为单位被分配上述第1存储装置的第1存储区域、上述第1存储装置的第2存储区域及上述第2存储装置的第3存储区域;
访问统计收集部,收集访问频度统计值,该访问频度统计值表示向上述逻辑卷的上述多个逻辑组块分别访问的状况;
第1再配置部,选择第1逻辑组块,在对上述第1逻辑组块分配了上述第3存储区域内的第1物理组块的情况下,将被分配给与上述第1逻辑组块相比访问频度统计值小的第2逻辑组块的上述第1存储区域内的第2物理组块向上述第1逻辑组块再分配,并且将上述第1物理组块向上述第2逻辑组块再分配;
第2再配置部,以对第3逻辑组块的组分配了上述第3存储区域为条件,选择上述第2存储区域应被再分配的上述第3逻辑组块的组,对上述第3逻辑组块的组再分配上述第2存储区域;以及
评价部,评价上述第2存储区域的上述再分配的效果。
9.一种计算机可读取存储介质,存储有程序,该程序用来使在具备第1存储装置和第2存储装置的层级化存储***中控制上述第1存储装置及上述第2存储装置的存储控制器执行以下步骤,其中所述第1存储装置具备包含多个物理组块的存储区域,该多个物理组块具有第1尺寸;所述第2存储装置具备包含多个物理组块的存储区域,并且与上述第1存储装置相比访问速度低速而存储容量大,该多个物理组块具有上述第1尺寸:
管理逻辑卷,所述逻辑卷是包含具有上述第1尺寸的多个逻辑组块且被向主机计算机提供的逻辑卷,以上述物理组块为单位被分配上述第1存储装置的第1存储区域、上述第1存储装置的第2存储区域及上述第2存储装置的第3存储区域;
收集访问频度统计值,该访问频度统计值表示向上述逻辑卷的上述多个逻辑组块分别访问的状况;
选择第1逻辑组块,在对上述第1逻辑组块分配了上述第3存储区域内的第1物理组块的情况下,将被分配给与上述第1逻辑组块相比访问频度统计值小的第2逻辑组块的上述第1存储区域内的第2物理组块向上述第1逻辑组块再分配,并且将上述第1物理组块向上述第2逻辑组块再分配;
以对第3逻辑组块的组分配了上述第3存储区域为条件,选择上述第2存储区域应被再分配的上述第3逻辑组块的组,对上述第3逻辑组块的组再分配上述第2存储区域;以及
评价上述第2存储区域的上述再分配的效果。
CN201480000790.1A 2014-03-18 2014-03-18 具备试验区域的层级化存储***、存储控制器及介质 Active CN105611979B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/057380 WO2015140931A1 (ja) 2014-03-18 2014-03-18 トライアル領域を備えた階層化ストレージシステム、ストレージコントローラ及びプログラム

Publications (2)

Publication Number Publication Date
CN105611979A CN105611979A (zh) 2016-05-25
CN105611979B true CN105611979B (zh) 2018-08-21

Family

ID=53486815

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480000790.1A Active CN105611979B (zh) 2014-03-18 2014-03-18 具备试验区域的层级化存储***、存储控制器及介质

Country Status (4)

Country Link
US (1) US9459801B2 (zh)
JP (1) JP5730446B1 (zh)
CN (1) CN105611979B (zh)
WO (1) WO2015140931A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104050115B (zh) * 2014-06-30 2017-02-08 曙光信息产业(北京)有限公司 一种存储控制器及其使用方法
JP6067819B1 (ja) * 2015-10-21 2017-01-25 株式会社東芝 階層化ストレージシステム、ストレージコントローラ、並びに重複排除及びストレージ階層化のための方法
JP6690212B2 (ja) * 2015-12-07 2020-04-28 富士通株式会社 データ管理プログラム及びデータ管理方法
US10891201B1 (en) * 2017-04-27 2021-01-12 EMC IP Holding Company LLC Dynamic rule based model for long term retention

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067412A (en) * 1995-08-17 2000-05-23 Microsoft Corporation Automatic bottleneck detection by means of workload reconstruction from performance measurements
CN103473298A (zh) * 2013-09-04 2013-12-25 华为技术有限公司 数据归档方法和装置以及存储***

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5640595A (en) * 1993-06-29 1997-06-17 International Business Machines Corporation Multimedia resource reservation system with graphical interface for manual input of resource reservation value
JP3743723B2 (ja) * 1995-03-09 2006-02-08 富士通株式会社 ディスク内のスペース再配置装置
JPH10154101A (ja) 1996-11-26 1998-06-09 Toshiba Corp データ記憶システム及び同システムに適用するキャッシュ制御方法
US7173929B1 (en) * 2001-12-10 2007-02-06 Incipient, Inc. Fast path for performing data operations
US7389396B1 (en) * 2005-04-25 2008-06-17 Network Appliance, Inc. Bounding I/O service time
US7487327B1 (en) * 2005-06-01 2009-02-03 Sun Microsystems, Inc. Processor and method for device-specific memory address translation
US7516247B2 (en) * 2005-08-12 2009-04-07 Advanced Micro Devices, Inc. Avoiding silent data corruption and data leakage in a virtual environment with multiple guests
US7873770B2 (en) * 2006-11-13 2011-01-18 Globalfoundries Inc. Filtering and remapping interrupts
US8584128B1 (en) * 2007-09-10 2013-11-12 Emc Corporation Techniques for adjusting priorities associated with servicing requests
JP2010238138A (ja) 2009-03-31 2010-10-21 Hitachi Ltd ストレージシステムおよびファイル階層管理方法
US8566483B1 (en) * 2009-12-17 2013-10-22 Emc Corporation Measuring data access activity
EP2518613A4 (en) * 2009-12-24 2013-10-02 Hitachi Ltd STORAGE SYSTEM FOR PROVIDING A VIRTUAL VOLUME
WO2011101909A1 (ja) * 2010-02-18 2011-08-25 株式会社日立製作所 仮想ボリュームの制御方法及びストレージ装置
US9720606B2 (en) * 2010-10-26 2017-08-01 Avago Technologies General Ip (Singapore) Pte. Ltd. Methods and structure for online migration of data in storage systems comprising a plurality of storage devices
WO2012066671A1 (ja) * 2010-11-18 2012-05-24 株式会社日立製作所 計算機システムの管理装置及び管理方法
WO2012169027A1 (ja) * 2011-06-08 2012-12-13 株式会社日立製作所 計算機システム及びストレージシステム管理方法
US20120323821A1 (en) * 2011-06-15 2012-12-20 International Business Machines Corporation Methods for billing for data storage in a tiered data storage system
US9047017B1 (en) * 2011-12-20 2015-06-02 Emc Corporation Techniques for automated evaluation and movement of data between storage tiers
US8621603B2 (en) * 2011-09-09 2013-12-31 Lsi Corporation Methods and structure for managing visibility of devices in a clustered storage system
US8984170B2 (en) * 2011-09-09 2015-03-17 Oracle International Corporation Idempotence for database transactions
US8782369B2 (en) * 2011-11-15 2014-07-15 Lsi Corporation Apparatus to manage efficient data migration between tiers
US8966211B1 (en) * 2011-12-19 2015-02-24 Emc Corporation Techniques for dynamic binding of device identifiers to data storage devices
WO2013098960A1 (ja) * 2011-12-27 2013-07-04 株式会社日立製作所 計算機システム、ファイル管理方法及び記憶媒体
JP5668151B2 (ja) * 2012-01-05 2015-02-12 株式会社日立製作所 計算機システムの管理装置及び管理方法
US8751725B1 (en) * 2012-01-27 2014-06-10 Netapp, Inc. Hybrid storage aggregate
US9021203B2 (en) * 2012-05-07 2015-04-28 International Business Machines Corporation Enhancing tiering storage performance
WO2014041591A1 (ja) * 2012-09-11 2014-03-20 株式会社日立製作所 管理装置及び管理方法
WO2014155666A1 (ja) * 2013-03-29 2014-10-02 株式会社 東芝 論理アドレスと物理アドレスとの間のマッピングを管理するストレージシステム、ストレージコントローラ及び方法
US9807170B2 (en) * 2013-06-14 2017-10-31 Hitachi, Ltd. Storage management calculator, and storage management method
JP5707540B1 (ja) * 2014-01-31 2015-04-30 株式会社東芝 階層化ストレージシステム、ストレージコントローラ、及び階層間のデータ移動を代替する方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067412A (en) * 1995-08-17 2000-05-23 Microsoft Corporation Automatic bottleneck detection by means of workload reconstruction from performance measurements
CN103473298A (zh) * 2013-09-04 2013-12-25 华为技术有限公司 数据归档方法和装置以及存储***

Also Published As

Publication number Publication date
CN105611979A (zh) 2016-05-25
US20150268880A1 (en) 2015-09-24
WO2015140931A1 (ja) 2015-09-24
JPWO2015140931A1 (ja) 2017-04-06
US9459801B2 (en) 2016-10-04
JP5730446B1 (ja) 2015-06-10

Similar Documents

Publication Publication Date Title
US11435900B2 (en) Namespace size adjustment in non-volatile memory devices
US11003576B2 (en) Namespace change propagation in non-volatile memory devices
US8135907B2 (en) Method and system for managing wear-level aware file systems
KR100951107B1 (ko) 최적의 성능을 위한 파일 관리 방법
CN105009094B (zh) 在固态驱动器中利用空闲空间计数来重建两阶加电映射的方法、设备和***
US8782340B2 (en) Hot sheet upgrade facility
US9696914B2 (en) System and method for transposed storage in RAID arrays
US9619149B1 (en) Weighted-value consistent hashing for balancing device wear
US9274723B2 (en) Storage apparatus and its control method
US5956745A (en) System and method for automatically resizing a disk drive volume
US9703717B2 (en) Computer system and control method
US8095728B2 (en) Method and system for power aware I/O scheduling
CN109240938A (zh) 存储***以及控制非易失性存储器的控制方法
US7584229B2 (en) Method and system for priority-based allocation in a storage pool
Jeremic et al. The pitfalls of deploying solid-state drive RAIDs
US20120109916A1 (en) Managing snapshot storage pools
EP3958107A1 (en) Storage system, memory management method, and management node
CN105074675B (zh) 具有层级化块存储装置的计算机***、存储控制器及介质
CN1208891A (zh) 盘存储装置的数据更新方法和盘存储控制装置
CN107092442A (zh) 存储***资源分配方法及装置
US9760292B2 (en) Storage system and storage control method
CN105611979B (zh) 具备试验区域的层级化存储***、存储控制器及介质
JP2010504576A (ja) キャッシュ・ディスク・ストレージのアップグレード
CN111587423A (zh) 分布式存储***的分层数据策略
CN107704194A (zh) 无锁io处理方法及其装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant