JP2019125175A - データ処理装置、データ処理システムおよびデータ処理プログラム - Google Patents

データ処理装置、データ処理システムおよびデータ処理プログラム Download PDF

Info

Publication number
JP2019125175A
JP2019125175A JP2018005583A JP2018005583A JP2019125175A JP 2019125175 A JP2019125175 A JP 2019125175A JP 2018005583 A JP2018005583 A JP 2018005583A JP 2018005583 A JP2018005583 A JP 2018005583A JP 2019125175 A JP2019125175 A JP 2019125175A
Authority
JP
Japan
Prior art keywords
unit
data
unit area
areas
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018005583A
Other languages
English (en)
Other versions
JP7068573B2 (ja
Inventor
和俊 見尾
Kazutoshi Mio
和俊 見尾
智明 阿部
Tomoaki Abe
智明 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018005583A priority Critical patent/JP7068573B2/ja
Priority to US16/237,977 priority patent/US10606503B2/en
Priority to CN201910024030.9A priority patent/CN110058808B/zh
Publication of JP2019125175A publication Critical patent/JP2019125175A/ja
Application granted granted Critical
Publication of JP7068573B2 publication Critical patent/JP7068573B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0658Controller construction arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0685Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】データ移動処理時間を短縮する。【解決手段】論理記憶領域2に含まれる各単位領域に対して、アクセス性能が互いに異なる記憶装置を用いてそれぞれ実現される物理記憶領域3〜5のいずれかから、記憶領域が割り当てられる。制御部1bは、記憶領域の割り当て元の物理記憶領域を変更すべき単位領域R1〜R4の中から、データ移動の候補を順次選択し、選択された単位領域のデータを物理記憶領域間で移動させるように指示する移動制御処理を実行する。この移動制御処理は、単位領域R3を選択したとき、単位領域R3のデータD3の移動先となる物理記憶領域3を分割した分割領域3a,3bのそれぞれにおいて、他の単位領域についてのデータ移動が実行中かを判定し、判定結果に基づいて、単位領域R3についてのデータ移動の指示処理を制御する処理を含む。【選択図】図1

Description

本発明は、データ処理装置、データ処理システムおよびデータ処理プログラムに関する。
ストレージ装置内の記憶装置をアクセス性能に応じて階層化し、階層間でデータを再配置するストレージ階層制御が知られている。例えば、アクセス頻度の高いデータはアクセス速度の高い記憶装置に配置され、アクセス頻度の低いデータはアクセス速度の低い記憶装置に配置される。このようにデータを配置することで、迅速なアクセス処理を実現できる。
また、ストレージ階層制御技術を用いたシステムの一例として、次のような計算機システムが提案されている。この計算機システムでは、データベース管理システム上のオブジェクト(例えば、テーブル、インデックスなど)のデータの格納先が制御される。各オブジェクトにはその種別に応じて優先度が設定され、優先度の高いオブジェクトのデータが優先的に再配置される。
特開2014−199596号公報 国際公開第2013/164878号
ストレージ階層制御では、例えば、データごとのアクセス頻度に基づいて、階層間で移動させる移動対象のデータが特定される。ここで、移動対象のデータが複数特定された場合、これらのデータの移動処理にかかる全体の時間を短縮することで、各データを早期に適切な階層に配置でき、その結果、各データに対するアクセス性能を向上させることができる。しかし、各データの移動の実行をどのように制御すれば、全体の移動処理時間を短縮できるかという点に課題がある。
1つの側面では、本発明は、データ移動処理時間を短縮することが可能なデータ処理装置、データ処理システムおよびデータ処理プログラムを提供することを目的とする。
1つの案では、記憶部と制御部とを有する次のようなデータ処理装置が提供される。このデータ処理装置において、記憶部は、アクセス性能が互いに異なる記憶装置を用いてそれぞれ実現される複数の物理記憶領域の構成を示す構成情報を記憶する。制御部は、構成情報に基づき、論理記憶領域に含まれる複数の単位領域のそれぞれに対して、複数の物理記憶領域のいずれかから記憶領域が割り当てられた状態において、複数の単位領域の中から、記憶領域の割り当て元の物理記憶領域を変更すべき複数の第1単位領域が特定されたとき、複数の第1単位領域の中からデータ移動の候補を順次選択し、候補として選択された第1単位領域のデータを物理記憶領域間で移動させるように指示する移動制御処理を実行する。また、この移動制御処理は、複数の第1単位領域の中から候補として第2単位領域を選択したとき、第2単位領域のデータの移動先となる物理記憶領域を分割した複数の分割領域のそれぞれにおいて、移動指示済みの単位領域についてのデータ移動が実行中であるかを判定し、判定の結果に基づいて、第2単位領域についてのデータ移動の指示処理を制御する、処理を含む。
また、1つの案では、複数の記憶装置と、データ処理装置とを有するデータ処理システムが提供される。データ処理装置は、論理記憶領域に含まれる複数の単位領域のそれぞれに対して、複数の記憶装置のうちアクセス性能が互いに異なる記憶装置を用いてそれぞれ実現される複数の物理記憶領域のいずれかから、記憶領域が割り当てられた状態において、複数の単位領域の中から、記憶領域の割り当て元の物理記憶領域を変更すべき複数の第1単位領域が特定されたとき、複数の第1単位領域の中からデータ移動の候補を順次選択し、候補として選択された第1単位領域のデータを物理記憶領域間で移動させるように指示する移動制御処理を実行する。また、この移動制御処理は、複数の第1単位領域の中から候補として第2単位領域を選択したとき、第2単位領域のデータの移動先となる物理記憶領域を分割した複数の分割領域のそれぞれにおいて、移動指示済みの単位領域についてのデータ移動が実行中であるかを判定し、判定の結果に基づいて、第2単位領域についてのデータ移動の指示処理を制御する、処理を含む。
さらに、1つの案として、上記のデータ処理装置と同様の処理をコンピュータに実行させるデータ処理プログラムが提供される。
1つの側面では、データ移動処理時間を短縮できる。
第1の実施の形態に係るデータ処理装置の構成例および処理例を示す図である。 第2の実施の形態に係るストレージシステムの構成例を示す図である。 階層化された記憶領域の設定例を示す図である。 サブプールに対するRAIDグループの設定例を示す図である。 CMおよび管理サーバが備える処理機能の構成例を示すブロック図である。 CMに記憶される単位領域管理テーブルのデータ構成例を示す図である。 CMに記憶されるプール管理テーブルのデータ構成例を示す図である。 優先度設定用テーブルのデータ構成例を示す図である。 アクセス頻度の収集処理手順を示すシーケンス図の例である。 データの配置先決定処理手順を示すフローチャートの例である。 データ移動処理手順を示すフローチャートの例(その1)である。 データ移動処理手順を示すフローチャートの例(その2)である。
以下、本発明の実施の形態について図面を参照して説明する。
〔第1の実施の形態〕
図1は、第1の実施の形態に係るデータ処理装置の構成例および処理例を示す図である。図1に示すデータ処理装置1は、記憶部1aと制御部1bを有する。なお、記憶部1aは、RAM(Random Access Memory)やHDD(Hard Disk Drive)など、データ処理装置1が備える記憶装置の記憶領域によって実現される。制御部1bは、例えば、データ処理装置1が備えるプロセッサとして実現される。
このデータ処理装置1は、論理記憶領域2に含まれる複数の単位領域のそれぞれに対して、物理記憶領域を割り当てる。また、各単位領域への割り当て元となる物理記憶領域は複数用意される。本実施の形態では、例として3つの物理記憶領域3〜5が用意される。これらの物理記憶領域3〜5は、アクセス性能が互いに異なる記憶装置を用いてそれぞれ実現される。そして、論理記憶領域2の各単位領域に対しては、物理記憶領域3〜5のいずれかから記憶領域が割り当てられる。ただし、論理記憶領域2の単位領域のうち、少なくともデータが格納されている単位領域に対してのみ、物理記憶領域3〜5のいずれかから記憶領域が割り当てられればよい。
記憶部1aには、物理記憶領域3〜5の構成を示す構成情報1a1が記憶される。例えば、構成情報1a1には、物理記憶領域3〜5の容量や、物理記憶領域3〜5を実現する記憶装置に関する情報が含まれる。
制御部1bは、上記のように、論理記憶領域2の複数の単位領域に対して、物理記憶領域3〜5のいずれかから記憶領域が割り当てられている状態において、次のような処理を実行する。論理記憶領域2の単位領域の中から、記憶領域の割り当て元の物理記憶領域を変更すべき複数の第1単位領域が特定されると、制御部1bは、これらの複数の第1単位領域の中からデータ移動の候補を順次選択する。そして、制御部1bは、候補として選択された第1単位領域のデータを物理記憶領域間で移動させるように指示する。このように、データ移動の候補を順次選択し、選択された候補のデータの移動指示を行う処理を、ここでは「移動制御処理」と記載する。
図1では例として、第1単位領域として単位領域R1〜R4が特定されたとする。制御部1bは、例えば、単位領域R1,R2,R3,R4の順にデータ移動の候補を選択し、選択された単位領域についての移動制御処理を実行する。この移動制御処理では、詳細には、次のような処理が実行される。
制御部1bは、第1単位領域の中から候補として1つの単位領域(第2単位領域とする)を選択したとき、第2単位領域のデータの移動先となる物理記憶領域を分割した複数の分割領域のそれぞれにおいて、移動指示済みの単位領域についてのデータ移動が実行中であるかを判定する。
例えば、データ移動の候補として単位領域R3が選択されたとする。また、単位領域R3については、記憶領域の割り当て元を物理記憶領域5から物理記憶領域3へ変更するように要求されており、単位領域R3のデータD3の移動先は物理記憶領域3であるとする。さらに、物理記憶領域3は、2つの分割領域3a,3bに分割されているとする。なお、分割領域3a,3bは、それぞれ個別の記憶装置によって実現される。例えば、分割領域3a,3bは、個別のRAID(Redundant Arrays of Inexpensive Disks)グループとして実現される。
この場合、制御部1bは、分割領域3a,3bのそれぞれにおいて、移動指示済みの単位領域(このケースでは単位領域R1,R2のいずれか)についてのデータ移動が実行中であるかを判定する。そして、制御部1bは、その判定結果に基づいて、単位領域R3についてのデータ移動の指示処理を制御する。これにより、データ移動処理時間を短縮できる。
例えば、分割領域3bにおいて、単位領域R2のデータD2の移動が実行中であったとする。図1では例として、データD2を分割領域3bから物理記憶領域4へ移動する処理が実行中であったとする。この場合に、単位領域R3のデータD3を分割領域3bへ移動させようとすると、データD2の移動が完了するまでデータD3は移動待ちになってしまう。そこで、制御部1bは例えば、データD3を、データ移動が実行中でない分割領域3aを移動させるように指示する。これにより、データD3の移動待ちが発生することなく、データD2の移動とデータD3の移動とが並列に実行される。その結果、データ移動にかかる全体の時間を短縮できる。
また、図示しないが、例えば、分割領域3a,3bのそれぞれにおいて、単位領域R3以外の単位領域についてのデータ移動が実行中であったとする。この場合、制御部1bは例えば、単位領域R3についてのデータ移動を指示待ち状態とし、データ移動の候補として次の単位領域R4を選択して、単位領域R4についての移動制御処理を実行する。これにより、単位領域R3のデータD3の移動待ちによって新たな単位領域R4のデータ移動が実行されなくなる無駄な時間の発生確率を低減でき、データ移動効率を向上させることができる。その結果、データ移動にかかる全体の時間を短縮できる。
このように、分割領域3a,3bのそれぞれにおいてデータ移動が実行中であるかを判定し、その判定結果に基づいて単位領域R3についてのデータ移動の指示処理を制御することで、データ移動処理時間を短縮できる。
〔第2の実施の形態〕
次に、第2の実施の形態に係るストレージシステムについて説明する。
図2は、第2の実施の形態に係るストレージシステムの構成例を示す図である。図2に示すストレージシステムは、ストレージ装置100、ホストサーバ200、管理サーバ300および管理端末400を含む。ストレージ装置100、ホストサーバ200、管理サーバ300および管理端末400は、ネットワーク500を介して相互に接続されている。ネットワーク500は、例えば、LAN(Local Area Network)でもよいし、WAN(Wide Area Network)やインターネットなどの広域ネットワークでもよい。また、ストレージ装置100とホストサーバ200との間は、SAN(Storage Area Network)を通じて通信が行われてもよい。
ストレージ装置100は、CM(Controller Module)110とドライブ部120を有する。CM110は、ホストサーバ200からの要求に応じて、ドライブ部120に搭載された記憶装置にアクセスするストレージ制御装置である。例えば、CM110は、ドライブ部120に搭載された記憶装置の記憶領域を用いた論理ボリュームを設定し、ホストサーバ200から論理ボリュームに対するアクセス要求を受け付ける。なお、CM110は、図1に示したデータ処理装置1の一例である。
ドライブ部120には、ホストサーバ200からのアクセス対象となる記憶装置121a,121b,121c,・・・が搭載されている。ドライブ部120には、アクセス性能の異なる複数種類の記憶装置が搭載されている。例えば、ドライブ部120には、アクセス性能の低い順に、ニアラインHDD、オンラインHDD、SSD(Solid State Drive)が搭載されている。
ホストサーバ200は、例えば、種々の業務処理を実行するコンピュータである。ホストサーバ200は、論理ボリュームに対するアクセス要求をCM110に送信することで、論理ボリュームにアクセスする。
管理サーバ300は、ストレージ装置100の運用を管理するサーバコンピュータである。例えば、管理サーバ300は、ストレージ装置100における階層制御を行う。具体的には、管理サーバ300は、論理ボリューム上のデータのアクセス頻度をCM110から定期的に収集し、論理ボリューム上のデータがそのアクセス頻度に応じた適切なアクセス性能を有する記憶装置に配置されるように制御する。
管理端末400は、ストレージシステムの管理者が利用する端末装置である。例えば、管理端末400は、管理者の操作により、論理ボリュームの設定や、記憶領域の階層化に関する設定などを実行する。
次に、図2を用いて、CM110のハードウェア構成例について説明する。図2に示すように、CM110は、プロセッサ111、RAM112、SSD113、ネットワークインタフェース(I/F)114およびドライブインタフェース(I/F)115を有する。
プロセッサ111は、CM110全体を統括的に制御する。プロセッサ111は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。また、プロセッサ111は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。
RAM112は、CM110の主記憶装置として使用される。RAM112には、プロセッサ111に実行させるOS(Operating System)プログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM112には、プロセッサ111による処理に必要な各種データが格納される。
SSD113は、CM110の補助記憶装置として使用される。SSD113には、OSプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、HDDなどの他の種類の不揮発性記憶装置を使用することもできる。
ネットワークインタフェース114は、ネットワーク500を介してホストサーバ200や管理サーバ300と通信するための通信インタフェースである。なお、例えば、ホストサーバ200とSANなどを介して接続する通信インタフェースと、管理サーバ300とLANなどを介して接続する通信インタフェースとが、個別に設けられていてもよい。
ドライブインタフェース115は、ドライブ部120に搭載された記憶装置121a,121b,121c,・・・と通信するための通信インタフェースである。
なお、図示しないが、ホストサーバ200、管理サーバ300および管理端末400も、プロセッサや主記憶装置、補助記憶装置などを有するコンピュータとして実現可能である。
次に、ストレージシステムにおける階層制御について説明する。
図3は、階層化された記憶領域の設定例を示す図である。前述のように、ストレージ装置100には、ホストサーバ200からのアクセス対象となる論理ボリュームが設定される。また、ストレージ装置100には、論理ボリュームに対応する物理記憶領域の割り当て元となるTierプールが設定される。Tierプールは、ドライブ部120に搭載された1以上の記憶装置によって実現される記憶領域である。そして、論理ボリュームを所定サイズごとに分割した単位領域ごとに、Tierプールから記憶領域が割り当てられる。ただし、本実施の形態では、論理ボリューム上の単位領域のうち、ホストサーバ200からの要求に応じてデータが格納されている単位領域に対してのみ、Tierプールから記憶領域が割り当てられる。
Tierプールは、互いにアクセス速度の異なる記憶装置によって実現される複数のサブプールに分割される。これにより、Tierプールは、アクセス速度の異なる複数の記憶領域に階層化される。そして、単位領域には、ホストサーバ200からのアクセス頻度に応じて、いずれかのサブプールから記憶領域が割り当てられる。すなわち、アクセス頻度が高い単位領域には、アクセス速度の高い記憶装置によって実現されるサブプールが割り当てられ、アクセス頻度が低い単位領域には、アクセス速度の低い記憶装置によって実現されるサブプールが割り当てられる。
これにより、ストレージ装置100は、アクセス頻度が高いデータほど、高速でアクセスできるようになる。したがって、ホストサーバ200からのアクセス頻度が高いデータほど、ホストサーバ200からのアクセス要求に対する応答速度が高くなる。その結果、全体としてホストサーバ200からのアクセス要求に対する応答性能が向上する。
以下の説明では、アクセス速度が互いに異なる記憶装置として、アクセス速度の低い順にニアラインHDD、オンラインHDD、SSDが用いられるものとする。なお、ニアラインHDDによって実現されるサブプールの階層を「低階層」、オンラインHDDによって実現されるサブプールの階層を「中間階層」、SSDによって実現されるサブプールの階層を「高階層」と記載する場合がある。
図3では例として、論理ボリュームLV1が設定され、論理ボリュームLV1に対応する物理記憶領域の割り当て元として、TierプールTP1が設定されている。また、TierプールTP1には、3階層のサブプールSP1−L,SP1−M,SP1−Hが設定されている。サブプールSP1−Lは、1台以上のニアラインHDDによって実現され、サブプールSP1−Mは、1台以上のオンラインHDDによって実現され、サブプールSP1−Hは、1台以上のSSDによって実現される。したがって、サブプールSP1−H,SP1−M,SP1−Lの順でアクセス速度が高い。
さらに、ストレージ装置100には、単位領域のサイズが異なる複数のTierプールを設定可能になっている。そして、各論理ボリュームに対して、いずれか1つのTierプールから記憶領域を割り当てることができるようになっている。図3の例では、TierプールTP1に加えて、TierプールTP2,TP3が設定されている。また、論理ボリュームLV1に加えて、論理ボリュームLV2〜4が設定されている。そして、論理ボリュームLV2には、TierプールTP2から記憶領域が割り当てられ、論理ボリュームLV3,LV4には、TierプールTP3から記憶領域が割り当てられる。
また、TierプールTP2,TP3も、複数のサブプールに分割される。図3の例では、TierプールTP2には、1台以上のニアラインHDDによって実現されるサブプールSP2−Lと、1台以上のSSDによって実現されるSP2−Hが設定されている。また、TierプールTP3には、1台以上のニアラインHDDによって実現されるサブプールSP3−Lと、1台以上のオンラインHDDによって実現されるサブプールSP3−Mと、1台以上のSSDによって実点されるサブプールSP3−Hが設定されている。
ここで、データ移動の管理単位となる単位領域のサイズを小さくして、より小さなサイズに分割したデータごとに配置先の階層を決定するほど、アクセス頻度に応じた適切な階層にデータが配置されやすくなる。その反面、管理対象となる単位領域の数が大きくなるので、管理効率が低下する。したがって、単位領域のサイズは、論理ボリュームに格納するデータの性質などに応じて、ユーザによって任意に設定されればよい。
また、他の例として、Tierプールの容量が、そのTierプールから割り当て可能な単位領域の最大数によって決定されてもよい。この場合、単位領域のサイズを大きくすることで、Tierプールの容量を拡張することができる。この方法によれば、単位領域のサイズに関係なく、Tierプールごとに割り当て先として管理すべき単位領域の最大数が同一となる。このため、単位領域のサイズに関係なく、Tierプールの管理方法を共通化でき、管理を効率化できる。
図4は、サブプールに対するRAIDグループの設定例を示す図である。サブプールには、1以上のRAIDグループが設定される。RAIDグループは、データが複数の記憶装置に冗長化されるように書き込みが制御される論理記憶領域である。サブプールに対してRAIDグループが設定されることで、そのサブプールの物理記憶領域が設定される。換言すると、サブプールの記憶領域は、RAIDグループに組み込まれた、RAIDによって制御される複数の記憶装置によって実現される。
図4の例では、サブプールSP1−LにはRAIDグループRG1,RG2が設定され、サブプールSP1−MにはRAIDグループRG3,RG4が設定され、サブプールSP1−HにはRAIDグループRG5,RG6が設定されている。また、サブプールSP2−LにはRAIDグループRG11,RG12が設定され、サブプールSP2−HにはRAIDグループRG13,RG14が設定されている。さらに、サブプールSP3−LにはRAIDグループRG21〜RG23が設定され、サブプールSP3−MにはRAIDグループRG24〜RG26が設定され、サブプールSP3−HにはRAIDグループRG27〜RG29が設定されている。
次に、ストレージ装置100のCM110および管理サーバ300で実行される処理の詳細について説明する。
図5は、CMおよび管理サーバが備える処理機能の構成例を示すブロック図である。
CM110は、記憶部130、アクセス制御部141、アクセス頻度送信部142および移動処理部143を有する。なお、記憶部130は、RAM112などのCM110が備える記憶装置の記憶領域として実現される。また、アクセス制御部141、アクセス頻度送信部142および移動処理部143の処理は、例えば、プロセッサ111が所定のプログラムを実行することで実現される。
記憶部130には、論理ボリューム管理テーブル131、単位領域管理テーブル132、プール管理テーブル133およびRAIDグループ管理テーブル134が記憶される。
論理ボリューム管理テーブル131には、論理ボリュームに関する設定情報が登録される。例えば、論理ボリューム管理テーブル131には、論理ボリュームごとに、ボリューム名、容量、記憶領域が割り当てられるTierプールを示すプール名などが登録される。
単位領域管理テーブル132には、論理ボリュームに含まれる各単位領域に関する情報が登録される。例えば、単位領域管理テーブル132には、単位領域ごとに、Tierプールから割り当てられた記憶領域を示すサブプール名、RAIDグループ名およびオフセットや、単位期間におけるホストサーバ200からのアクセス回数などが登録される。
プール管理テーブル133には、Tierプールに関する情報が登録される。例えば、プール管理テーブル133には、Tierプールごとに、単位領域のサイズ、設定されたサブプールを示す情報、サブプールに設定されたRAIDグループを示す情報、空き領域を示す情報などが登録される。
RAIDグループ管理テーブル134には、設定されたRAIDグループに関する情報が登録される。例えば、RAIDグループ管理テーブル134には、RAIDグループごとに、RAIDレベル、使用される記憶装置を示す情報などが登録される。
アクセス制御部141は、ホストサーバ200からの論理ボリュームに対するアクセス要求に応じたアクセス制御を実行する。例えば、アクセス制御部141は、論理ボリューム内のいずれかの単位領域に格納されたデータの読み出し要求を受信すると、単位領域管理テーブル132を参照して、そのデータが格納されているRAIDボリューム(RAIDグループに対応する論理記憶領域)上の記憶領域を特定する。アクセス制御部141はさらに、RAIDグループ管理テーブル134を参照して、特定された記憶領域に対応する物理記憶領域(ドライブ部120内の記憶装置の記憶領域)を特定し、特定された物理記憶領域からデータを読み出してホストサーバ200に送信する。
また、アクセス制御部141は、論理ボリューム内のいずれかの単位領域に対する新規データの書き込み要求を受信すると、論理ボリューム管理テーブル131を参照して、この論理ボリュームに対応付けられたTierプールを特定する。アクセス制御部141は、プール管理テーブル133を参照して、特定されたTierプールから空き領域を特定し、特定された空き領域にデータを書き込む。また、アクセス制御部141は、単位領域管理テーブル132におけるこの単位領域に対応するレコードに、書き込み先の記憶領域を示す情報を登録する。なお、書き込み先とする空き領域は、例えば、特定されたTierプール内のサブプールのうち、あらかじめ決められたサブプール(例えば高階層のサブプール)から特定される。
アクセス頻度送信部142は、一定時間間隔で単位領域ごとのアクセス頻度を収集し、収集されたアクセス頻度をアクセス頻度情報として管理サーバ300に送信する。アクセス頻度情報は、例えば、各単位領域におけるアクセス頻度の値がリスト化された情報として送信される。
移動処理部143は、管理サーバ300から移動指示情報を受信し、移動指示情報に基づいて、階層間(サブプール間)でのデータ移動(再配置)を実行する。移動指示情報は、例えば、移動対象の単位領域とその移動先階層とを示す情報がリスト化された情報として受信される。なお、後述するように、移動指示情報には、単位領域ごとに優先度が設定されている。
一方、管理サーバ300は、記憶部310、アクセス頻度収集部321および配置先決定部322を有する。なお、記憶部310は、管理サーバ300が備える図示しない記憶装置の記憶領域として実現される。また、アクセス頻度収集部321および配置先決定部322の処理は、例えば、管理サーバ300が備える図示しないプロセッサが所定のプログラムを実行することで実現される。
記憶部310には、単位領域管理テーブル311、プール管理テーブル312および優先度設定用テーブル313が記憶される。
単位領域管理テーブル311には、論理ボリュームに含まれる各単位領域に関する情報が登録される。例えば、単位領域管理テーブル311には、単位領域ごとに、Tierプールから割り当てられた記憶領域を示すサブプール名や、単位期間におけるホストサーバ200からのアクセス回数などが登録される。なお、CM110側の単位領域管理テーブル132とは異なり、単位領域管理テーブル311では、RAIDグループ単位での記憶領域の位置は管理されない。
プール管理テーブル312には、Tierプールに関する情報が登録される。例えば、プール管理テーブル312には、Tierプールごとに、単位領域のサイズ、設定されたサブプールを示す情報、空き領域を示す情報などが登録される。ただし、CM110側のプール管理テーブル133とは異なり、プール管理テーブル312では、RAIDグループ単位での空き領域の管理は行われない。
優先度設定用テーブル313には、移動対象となった単位領域に対して優先度を設定するための条件が設定されている。優先度設定用テーブル313では、基本的に、移動先の階層とアクセス頻度との組み合わせに応じて優先度が設定されている。
アクセス頻度収集部321は、単位領域ごとのアクセス頻度を一定時間間隔でCM110から収集する。収集された情報は単位領域管理テーブル311に記録される。
配置先決定部322は、収集されたアクセス頻度に基づいて、単位領域のデータを配置すべき階層(サブプール)を決定する。そして、配置先決定部322は、決定された配置先が現在の配置先と異なる単位領域を移動対象として抽出し、移動対象の単位領域のデータを階層間で移動させるように指示する移動指示情報を、CM110に送信する。
配置先決定部322は、移動対象とされた複数の単位領域についての移動を、まとめて指示する。このとき、配置先決定部322は、複数の単位領域のそれぞれに対して、優先度設定用テーブル313に基づいて優先度を設定する。送信される移動指示情報には、複数の単位領域のそれぞれに対して、移動先階層を示す情報と優先度とが設定されている。
図6は、CMに記憶される単位領域管理テーブルのデータ構成例を示す図である。CM110に記憶される単位領域管理テーブル132は、単位領域ごとのレコードを含む。各レコードは、単位領域名、論理ボリューム名、LBA(Logical Block Address)、サブプール名、RAIDグループ名、オフセット、アクセス頻度の各項目を含む。
単位領域名は、単位領域の識別情報を示す。論理ボリューム名は、単位領域が属する論理ボリュームの識別情報を示す。LBAは、その論理ボリュームにおける単位領域の先頭の論理アドレスを示す。サブプール名は、単位領域に割り当てられたサブプールの識別情報を示す。RAIDグループ名は、単位領域に割り当てられた記憶領域が属するRAIDグループの識別情報を示す。オフセットは、単位領域に割り当てられた記憶領域についての、RAIDグループに対応するRAIDボリューム上の位置を示す。
アクセス頻度は、一定時間においてホストサーバ200から単位領域に対してアクセスされた回数を示す。
本実施の形態では、一例として、管理サーバ300のアクセス頻度収集部321は、アクセス頻度を収集する収集期間を一定の単位期間に分割し、単位期間ごとにアクセス頻度をCM110から収集するものとする。単位領域管理テーブル132のアクセス頻度の項目には、単位期間におけるアクセス回数が登録される。具体的には、アクセス頻度の値は、ホストサーバ200から単位領域に対する書き込みおよび単位領域からの読み出しが要求されるたびに、アクセス制御部141によってカウントアップされる。そして、単位期間に相当する一定時間が経過して、アクセス頻度収集部321からアクセス頻度情報の送信が要求されると、アクセス頻度送信部142は、アクセス頻度の項目の値をアクセス頻度情報に含めてアクセス頻度収集部321に送信する。これとともに、アクセス頻度送信部142は、アクセス頻度の項目に登録された値を0にリセットする。
このような処理により、CM110に記憶される単位領域管理テーブル132では、単位期間が終了するタイミングにおいて、アクセス頻度の項目にその単位期間におけるアクセス頻度が保持されるようになる。なお、上記処理に鑑み、本実施の形態では、「アクセス頻度」は「単位期間におけるアクセス回数」として定義されるものとする。
一方、図示しないが、管理サーバ300に記憶される単位領域管理テーブル311も、単位領域ごとのレコードを含む。ただし、各レコードは、単位領域名、論理ボリューム名、LBA、サブプール名、アクセス頻度の各項目を含むが、RAIDグループ名およびオフセットの各項目を含まない。単位領域名、論理ボリューム名、LBA、サブプール名の各項目には、CM110の単位領域管理テーブル132における対応する項目と同じ値が登録される。
また、アクセス頻度収集部321は、CM110からアクセス頻度を収集したとき、収集されたアクセス頻度の値が現在アクセス頻度の項目に登録されている値より大きい場合には、収集された値によって登録されている値を更新する。これにより、アクセス頻度の項目には、収集期間が終了したとき、その収集期間における単位期間ごとのアクセス頻度のうちの最大値が登録されるようになる。
図7は、CMに記憶されるプール管理テーブルのデータ構成例を示す図である。CM110に記憶されるプール管理テーブル133は、設定されたTierプールごとのレコードを含む。各レコードは、単位領域サイズの項目を含むとともに、低階層、中間階層、高階層のそれぞれについてサブプール名、ディスク種別、RAIDグループ名の各項目を含む。
単位領域サイズは、Tierプールにおける単位領域のサイズを示す。サブプール名は、Tierプールに設定されたサブプールの識別情報を示す。ディスク種別は、サブプールを実現する記憶装置の種別を示す。RAIDグループ名は、サブプールに設定されたRAIDグループの識別情報を示す。
また、図示しないが、管理サーバ300に記憶されるプール管理テーブル312も、設定されたTierプールごとのレコードを含む。ただし、各レコードは、単位領域サイズ、サブプール名の各項目を含むが、少なくともRAIDグループ名の項目を含まない。すなわち、管理サーバ300は、Tierプールの構成をサブプール単位(すなわち、階層単位)では認識するものの、RAIDグループ単位では認識しない。なお、単位領域サイズ、サブプールの各項目には、CM110のプール管理テーブル133における対応する項目と同じ値が登録される。
なお、図示しないが、実際には、プール管理テーブル133,312にはさらに、各サブプールのサイズを示す情報や、各サブプールにおける空き領域を管理するための情報が保持される。
次に、優先度に基づく階層間のデータ移動制御について説明する。
前述のように、管理サーバ300の配置先決定部322は、移動対象の単位領域を抽出すると、CM110に対して、抽出された複数の単位領域についてまとめて移動を指示する。このとき、配置先決定部322は、各単位領域に対して優先度を設定する。CM110の移動処理部143は、基本的に、移動が指示された複数の単位領域について、優先度の高い順に階層間のデータ移動を実行する。
優先度の決定方法としては、例えば、どの階層からどの階層へ移動するかを示す「移動経路条件」に基づいて決定する方法がある。例えば、中間階層から高階層への移動が指示された単位領域は、低階層から中間階層への移動が指示された単位領域より、アクセス頻度が高い。このため、中間階層から高階層への移動は、低階層から中間階層への移動より緊急性が高い。したがって、中間階層から高階層への移動に対してより高い優先度が設定される。また、例えば、2つの階層のうち上位階層への移動が指示された単位領域は、下位階層への移動が指示された単位領域より、アクセス頻度が高い。このため、上位階層への移動は、下位階層への移動より緊急性が高い。したがって、上位階層への移動に対してより高い優先度が設定される。
また、移動経路条件が同一の単位領域については、さらに、アクセス頻度の高さを示す「アクセス頻度条件」に基づいて優先度が決定されてもよい。すなわち、アクセス頻度が高いほど移動の緊急性が高いので、アクセス頻度が高い単位領域に対してより高い優先度が設定される。
しかしながら、実際には、上記の移動経路条件やアクセス頻度条件を用いて優先度を設定するだけでは、実際の状況に応じた最適な階層制御を実現できるとは限らない。例えば、上記各条件以外に、データ移動の緊急性に影響を与える条件がある可能性がある。また、データ移動が実行されるCM110側の処理状況や設定環境によっては、データ移動の緊急性に違いが生じることもあり得る。さらに、同じ階層に属する物理記憶領域の中でも、データを配置する位置によってはCM110の処理効率が低下することも考えられる。
このような問題に鑑み、本実施の形態では、管理サーバ300側で、上記各条件に加えてさらに別の条件を用いた下記のような優先度決定制御が実行される。さらに、CM110側でも、下記のようなデータ移動制御(1)〜(4)が実行される。
<管理サーバでの優先度決定制御>
ある階層から上位階層へデータを移動させる際に、上位階層に空き領域がない場合には、CM110の移動処理部143は、まず上位階層のデータを下位階層へ移動させた後、上位階層へのデータ移動を実行する必要がある。以下、このように上位階層の空き領域を確保するために下位階層へデータを移動することを、「領域確保用の移動」と記載する。
上位階層へデータを移動させる際に、下位階層への領域確保用の移動が必要になる場合には、上位階層へのデータ移動より下位階層への領域確保用の移動の方が、緊急性が高い。そこで、管理サーバ300の配置先決定部322は、前述の移動経路条件およびアクセス頻度条件に加えて、領域確保用の移動か否かという条件を用いて、優先度を決定する。
図8は、優先度設定用テーブルのデータ構成例を示す図である。本実施の形態では、配置先決定部322は、優先度設定用テーブル313に基づいて優先度を決定する。なお、図8では、Tierプールが3階層である場合の例を示している。
優先度設定用テーブル313では、移動内容に応じて大まかな移動種別C1〜C7が設定され、移動種別C1〜C7のそれぞれに対して異なる優先度が対応付けられている。これらのうち、移動種別C3,C5〜C7は、移動経路条件によって区分された移動種別である。中間階層から高階層への移動を示す移動種別C3、低階層から中間階層への移動を示す移動種別C5、高階層から中間階層への移動を示す移動種別C6、中間階層から低階層への移動を示す移動種別C7の順に、高い優先度が設定されている。
また、これらの移動種別C3,C5〜C7のそれぞれについては、さらにアクセス頻度条件に応じて優先度が細分化されている。すなわち、移動種別C3,C5〜C7のそれぞれについて、所定段階数のアクセス頻度範囲ごとに異なる優先度が設定されている。アクセス頻度が高いほど、高い優先度が設定される。
さらに、移動種別C1,C2,C4は、領域確保用の移動を示す。移動種別C1は、中間階層から低階層への移動のうち、高階層の領域確保用の移動を示す。高階層の空き領域確保のために高階層から中間階層へデータ移動する際、中間階層に空き領域がない場合には、先に中間階層のデータを低階層に移動させて中間階層に空き領域を確保する必要がある。移動種別C1は、この場合の低階層へのデータ移動を示す。したがって、このようなデータ移動には、最も高い優先度が設定される。移動種別C2は、高階層から中間階層への移動のうち、高階層の領域確保用の移動を示す。この移動種別C2には、移動種別C1の次に高い優先度が設定される。
移動種別C4は、中間階層から低階層への移動のうち、中間階層の領域確保用の移動を示す。このデータ移動は、移動種別C5に対応する、低階層から中間階層へのデータ移動のために実行されるものである。このため、移動種別C4には、移動種別C5より高い優先度が設定される。
配置先決定部322は、上記のような優先度設定用テーブル313を参照することで、領域確保用の移動か否かという条件を加味して、優先度を適切に決定できる。
なお、Tierプールが2階層である場合には、高階層の領域確保用の移動に対しては、低階層から高階層への移動より高い優先度(最大の優先度を示す値)が設定される。
<CMでのデータ移動制御(1)>
図4に例示したように、ある階層のサブプールに対して複数のRAIDグループが設定される場合がある。これらのRAIDグループは、それぞれ個別の記憶装置によって実現される。このため、異なるRAIDグループを移動元または移動先としたデータ移動を並列に実行することで、データ移動の処理効率を向上させ、全体のデータ移動にかかる時間を短縮できる。
そこで、CM110の移動処理部143は、あるサブプールへのデータ移動を実行する場合に、そのサブプールに設定されているRAIDグループの中から、データ移動が実行中であるRAIDグループ以外のRAIDグループを、データ移動先として選択する。これにより、データ移動を並列に実行できるようになり、その結果、全体のデータ移動にかかる時間を短縮できる。
<CMでのデータ移動制御(2)>
移動処理部143は、あるサブプールへの新たなデータ移動を実行しようとしたときに、そのサブプールに設定されているすべてのRAIDグループにおいてデータ移動が実行中である場合には、実行中のいずれかのデータ移動の完了を待つ必要がある。いずれかのデータ移動が完了するまで、他のすべての新たなデータ移動を実行待ちにしてしまうと、その待ち時間が無駄になり、処理効率が悪い。
そこで、移動処理部143は、上記のケースでは、実行しようとした新たなデータ移動については一旦実行待ち状態として、次に優先度の高い新たなデータ移動を実行する。これにより、管理サーバ300から移動対象として指示された単位領域のデータ移動を、効率よく実行することができる。すなわち、実行待ちによって新たなデータ移動が実行されない無駄な時間が発生する確率を低減でき、その結果、全体のデータ移動にかかる時間を短縮できる。
<CMでのデータ移動制御(3)>
上位階層へのデータ移動は、単位領域のアクセス頻度が上昇した場合に実行される。しかし、管理サーバ300による移動先階層の決定は、その直前におけるアクセス頻度に基づいて行われる。このため、上位階層へ実際にデータを移動する際に、アクセス頻度の状況が変化している可能性がある。
そこで、移動処理部143は、上位階層へのデータ移動を実行しようとする際に、同じ優先度が設定された他の単位領域の中に、現在のアクセス頻度が非常に高く、移動の緊急性が高いと判断される単位領域が存在する場合には、その単位領域のデータ移動を優先的に実行する。
例えば、移動処理部143は、データ移動を実行しようとしている単位領域についての現在のアクセス頻度が所定値未満である場合、同じ優先度が設定された他の単位領域についてのアクセス頻度を確認する。移動処理部143は、他の単位領域の中にアクセス頻度が所定値以上のものがある場合、その単位領域のデータ移動を先に実行する。また、別の処理例としては、移動処理部143は、同じ優先度が設定された他の単位領域の中に、現在データ移動を実行しようとしている単位領域より現在のアクセス頻度が高いものがある場合に、その単位領域のデータ移動を先に実行してもよい。
このような処理により、アクセス頻度の変動に応じて、データ移動の実行順を適正化することができる。すなわち、アクセス頻度の高い単位領域に対してアクセス速度の高い記憶領域を早期に割り当てることができ、その結果、ホストサーバ200からのアクセス要求に対する応答速度を向上させることができる。
<CMでのデータ移動制御(4)>
前述のように、本実施の形態では、単位領域のサイズが可変となっている。一方、CM110は、単位領域ごとのアクセス頻度を、一定の単位期間におけるアクセス回数として計測している。しかし、この方法では、単位期間でのアクセス回数が同一である場合、単位領域のサイズが小さいほど、容量当たりのアクセス頻度(IOPS:Input Output operations Per Second)は高いことになる。このため、単位期間でのアクセス回数が同一である場合、サイズが小さい単位領域の方が、データ移動の緊急性が高い。
そこで、移動処理部143は、同一の優先度が設定された複数の単位領域のうち、サイズが小さい単位領域のデータ移動を優先的に実行する。これにより、データ移動の実行順を、アクセス頻度が正確に反映されるように適正化することができる。すなわち、アクセス頻度の高い単位領域に対してアクセス速度の高い記憶領域を早期に割り当てることができ、その結果、ホストサーバ200からのアクセス要求に対する応答速度を向上させることができる。
次に、管理サーバ300およびCM110の処理の詳細について、シーケンス図およびフローチャートを用いて説明する。
まず、図9は、アクセス頻度の収集処理手順を示すシーケンス図の例である。ストレージシステムにおいては、図9の処理が繰り返し実行される。
図9の実行直前の初期状態では、CM110の単位領域管理テーブル132の各レコードでは、アクセス頻度の値が0に初期化されている。また、管理サーバ300の単位領域管理テーブル311の各レコードでは、アクセス頻度の項目に値が登録されていない。
この状態から、管理サーバ300のアクセス頻度収集部321は、一定時間が経過するまで、すなわち、単位期間が終了するまで待機する(ステップS11)。一定時間が経過するまでの間、CM110のアクセス制御部141は、ホストサーバ200からの要求に応じたアクセス制御を実行する。単位領域に対するアクセスが要求されるたびに、単位領域管理テーブル132におけるその単位領域に対応するアクセス頻度の値がカウントアップされる。
一定時間が経過すると、アクセス頻度収集部321は、CM110に対してアクセス頻度の送信を要求する(ステップS12)。CM110のアクセス頻度送信部142は、単位領域管理テーブル132の各レコードからアクセス頻度を取得し、各単位領域のアクセス頻度をリスト化したアクセス頻度情報を作成する(ステップS13)。アクセス頻度送信部142は、作成されたアクセス頻度情報を管理サーバ300に送信する(ステップS14)。これとともに、アクセス頻度送信部142は、単位領域管理テーブル132の各レコードのアクセス頻度の値を0にリセットする(ステップS15)。
管理サーバ300のアクセス頻度収集部321は、アクセス頻度情報を受信し、アクセス頻度情報に含まれるアクセス頻度を単位領域管理テーブル311に保存する(ステップS16)。このとき、アクセス頻度収集部321は、アクセス頻度情報に含まれるある単位領域のアクセス頻度と、単位領域管理テーブル311に登録された、その単位領域に対応するアクセス頻度とを比較する。アクセス頻度収集部321は、前者の値の方が大きい場合、前者の値によって後者の値を更新する。これにより、単位領域管理テーブル311のアクセス頻度の項目には、アクセス頻度の収集期間における単位期間ごとのアクセス頻度のうちの最大値が登録される。
アクセス頻度収集部321は、ステップS12,S16の処理を所定回数実行したかを判定する(ステップS17)。アクセス頻度収集部321は、これらの処理を所定回数実行していない場合には、一定時間が経過するまで待機し(ステップS11)、一定時間が経過するとステップS12の処理を実行する。また、アクセス頻度収集部321は、ステップS12,S16の処理を所定回数実行済みの場合、すなわち、アクセス頻度の収集期間が終了した場合には、各単位領域のデータの配置先決定処理を開始する(ステップS18)。
図10は、データの配置先決定処理手順を示すフローチャートの例である。
[ステップS21]管理サーバ300の配置先決定部322は、各単位領域のデータの配置先階層を決定する。例えば、配置先決定部322は、単位領域をデータの配置先となるTierプールごとに分類し、分類された単位領域のグループのそれぞれについて以下の処理を実行する。
配置先決定部322は、まず、単位領域管理テーブル311から各単位領域のアクセス頻度を取得し、取得されたアクセス頻度に基づいて、各単位領域のデータの配置先階層を決定する。例えば、Tierプールの階層数が2層の場合、閾値THが設定される。そして、アクセス頻度が閾値TH未満である単位領域のデータを低階層に配置し、アクセス頻度が閾値TH以上である単位領域のデータを高階層に配置するように、配置先階層が決定される。また、Tierプールの階層数が3層の場合、2つの閾値TH1,TH2(ただし、TH1<TH2)が設定される。そして、アクセス頻度が閾値TH1未満である単位領域のデータを低階層に配置し、アクセス頻度が閾値TH1以上閾値TH2未満である単位領域のデータを中間階層に配置し、アクセス頻度が閾値TH2以上である単位領域のデータを高階層に配置するように、配置先階層が決定される。
また、閾値を用いた上記の決定方法では、ある階層が配置先に決定された単位領域の合計データサイズが、その階層のサイズを超えてしまう場合がある。この場合、配置先決定部322は、その階層が配置先として決定された単位領域の中から、合計データサイズがその階層のサイズ内に収まる範囲で、アクセス頻度が高い順に単位領域を選択し、選択された各単位領域の配置先をその階層に確定する。また、配置先決定部322は、残りの単位領域の配置先を1つ下位の階層に変更する。階層が3層以上の場合、配置先決定部322は、上位階層から上記処理を順次実行する。
[ステップS22]配置先決定部322は、階層間でデータの移動が必要となる移動対象の単位領域を決定する。具体的には、配置先決定部322は、現在配置されている階層と、ステップS21で決定された配置先階層とが異なる単位領域を、移動対象に決定する。また、配置先決定部322は、移動対象に決定された単位領域について、ステップS21で決定された配置先階層を、移動先階層に決定する。
さらに、配置先決定部322は、移動対象の単位領域の中から、下位階層への移動が行われる単位領域を抽出し、抽出された単位領域の中からさらに、上位階層の領域確保用の移動が行われる単位領域を特定する。このような単位領域としては、移動先の階層が、ステップS21で決定された配置先階層より低い単位領域が特定される。具体的には、例えば、次のようにして特定される。
Tierプールの階層数が2層の場合、高階層から低階層への移動が行われる単位領域のうち、アクセス頻度が前述の閾値TH以上である単位領域が、領域確保用の移動が行われる単位領域として特定される。また、Tierプールの階層数が3層の場合、高階層から中間階層への移動が行われる単位領域のうち、アクセス頻度が前述の閾値TH2以上である単位領域が、領域確保用の移動が行われる単位領域として特定される。さらに、中間階層から低階層への移動が行われる単位領域のうち、アクセス頻度が前述の閾値TH1以上である単位領域が、領域確保用の移動が行われる単位領域として特定される。
[ステップS23]配置先決定部322は、優先度設定用テーブル313を参照して、移動対象の単位領域のそれぞれについて、どの階層からどの階層へ移動するかを示す移動経路条件に基づいて優先度を仮決定する。例えば、Tierプールが3階層である場合、配置先決定部322は、各単位領域を移動経路条件に応じて移動種別C3,C5〜C7(図8参照)のいずれかに分類する。配置先決定部322は、優先度設定用テーブル313において、分類された移動種別に対して設定されたいずれかの優先度(例えば、最も高い優先度を示す値)を、単位領域に対する優先度として仮決定する。
[ステップS24]配置先決定部322は、移動対象の単位領域を1つ選択する。
[ステップS25]配置先決定部322は、選択された単位領域についてのデータ移動が、下位階層への移動であるかを判定する。配置先決定部322は、下位階層への移動である場合、ステップS26の処理を実行し、下位階層への移動でない場合、ステップS28の処理を実行する。
[ステップS26]配置先決定部322は、選択された単位領域についてのデータ移動が、上位階層の領域確保用の移動であるかを判定する。配置先決定部322は、領域確保用の移動である場合、ステップS27の処理を実行し、領域確保用の移動でない場合、ステップS28の処理を実行する。
[ステップS27]配置先決定部322は、優先度設定用テーブル313に基づいて、選択された単位領域に対応する優先度の値を、より高い優先度を示すように変更する。例えば、Tierプールが3階層である場合、中間階層から低階層への移動が行われる単位領域の優先度は、「1」に変更される。高階層から中間階層への移動が行われる単位領域の優先度は、「2」に変更される。中間階層から低階層への移動が行われる単位領域の優先度は、「7」に変更される。
[ステップS28]配置先決定部322は、優先度設定用テーブル313を参照し、単位領域のアクセス頻度に基づいて優先度を最終決定する。具体的には、配置先決定部322は、優先度設定用テーブル313において、ステップS23で分類された移動種別に対して設定されたアクセス頻度範囲と、単位領域のアクセス頻度とを比較することによって、単位領域に対応する優先度を決定する。
以上のステップS27,S28のいずれかの処理により、ステップS24で選択された移動対象の単位領域に対応する優先度が、正式に決定される。
[ステップS29]配置先決定部322は、移動対象の単位領域のすべてを選択済みであるかを判定する。未選択の単位領域がある場合、配置先決定部322は、処理をステップS24に進め、未選択の単位領域を1つ選択する。一方、単位領域をすべて選択済みの場合、配置先決定部322は、ステップS30の処理を実行する。
[ステップS30]配置先決定部322は、移動指示情報を作成する。移動指示情報には、移動対象の単位領域のそれぞれについて、単位領域を示す識別情報と、データ移動先の階層またはサブプールを示す識別情報と、決定された優先度とが含められる。配置先決定部322は、作成された移動指示情報をCM110に送信する。
[ステップS31]配置先決定部322は、移動対象の単位領域のデータ移動がCM110で実行されるたびに、移動結果情報を受信する。移動結果情報には、単位領域の識別情報と、データの移動先の階層またはサブプールを示す識別情報とが含められている。配置先決定部322は、移動結果情報に基づいて、単位領域管理テーブル311のレコードのうち、データ移動が実行された単位領域に対応するレコードを更新する。
図11、図12は、データ移動処理手順を示すフローチャートの例である。CM110の移動処理部143が、図10のステップS30で送信された移動指示情報を受信すると、図11の処理が開始される。
[ステップS41]移動処理部143は、受信された移動指示情報に含まれる移動対象の単位領域を、優先度の高い順にソートした移動対象リストを作成する。
[ステップS42]移動処理部143は、移動対象リストから、先頭の単位領域を移動候補として選択する。
[ステップS43]移動処理部143は、選択された単位領域についてのデータ移動が、上位階層への移動であるかを判定する。移動処理部143は、上位階層への移動である場合、ステップS44の処理を実行し、上位階層への移動でない場合、ステップS47の処理を実行する。
[ステップS44]移動処理部143は、単位領域管理テーブル132を参照し、選択された単位領域に対応するレコードに現在登録されているアクセス頻度を取得する。移動処理部143は、取得されたアクセス頻度が所定値TH3以上かを判定し、所定値TH3以上の場合はステップS47の処理を実行し、所定値TH3未満の場合はステップS45の処理を実行する。
[ステップS45]移動処理部143は、移動対象リストから、移動候補として選択された単位領域と同一の優先度が設定された他の単位領域を特定する。移動処理部143は、単位領域管理テーブル132を参照し、特定された他の単位領域に対応するレコードに現在登録されているアクセス頻度を取得する。移動処理部143は、特定された他の単位領域の中に、アクセス頻度が所定値TH3以上のものがあるかを判定する。移動処理部143は、アクセス頻度が所定値TH3以上である他の単位領域がある場合、ステップS46の処理を実行し、アクセス頻度が所定値TH3以上である他の単位領域がない場合、ステップS47の処理を実行する。
[ステップS46]移動処理部143は、移動候補を、ステップS45でアクセス頻度が所定値TH3以上と判定された他の単位領域に変更する。該当する他の単位領域が複数存在する場合には、例えば、アクセス頻度が最大の単位領域が選択される。なお、変更前の単位領域は、移動対象リストにそのまま残される。
[ステップS47]移動処理部143は、移動対象リストから、移動候補として選択された単位領域と同一の優先度が設定された他の単位領域を特定する。移動処理部143は、特定された他の単位領域の中に、移動候補として選択された単位領域よりサイズが小さいものがあるかを判定する。移動処理部143は、サイズが小さい他の単位領域がある場合、ステップS48の処理を実行し、サイズが小さい他の単位領域がない場合、図12のステップS51の処理を実行する。
[ステップS48]移動処理部143は、移動候補を、ステップS47でサイズが小さいと判定された他の単位領域に変更する。該当する他の単位領域が複数存在する場合には、例えば、サイズが最小の単位領域が選択される。なお、変更前の単位領域は、移動対象リストにそのまま残される。この後、図12のステップS51の処理が実行される。
以下、図12を用いて説明を続ける。
[ステップS51]移動処理部143は、移動候補として選択された単位領域についてのデータ移動先のサブプールを判別する。移動処理部143は、プール管理テーブル133を参照し、判別されたサブプールに設定されたRAIDグループを特定する。移動処理部143は、特定されたRAIDグループの中から、他の単位領域についての階層間のデータ移動が現在実行されていないRAIDグループを抽出する。
[ステップS52]移動処理部143は、ステップS51においてデータ移動が実行されていないRAIDグループが抽出された場合、ステップS53の処理を実行し、抽出されなかった場合、ステップS56の処理を実行する。
[ステップS53]移動処理部143は、抽出されたRAIDグループの中から、単位領域に対して記憶領域が割り当てられた容量が最も少ないRAIDグループを選択し、選択されたRAIDグループをデータの移動先に決定する。
[ステップS54]移動処理部143は、移動候補として選択された単位領域のデータを、ステップS53で決定された移動先のRAIDグループに移動させる。
[ステップS55]移動処理部143は、ステップS54でのデータ移動内容を示す移動結果情報を、管理サーバ300に送信する。また、移動処理部143は、データ移動が完了した単位領域を、移動対象リストから削除する。
[ステップS56]移動処理部143は、移動対象として選択された単位領域を、移動対象リストの末尾に移動させる。これにより、この単位領域は移動待ち状態になる。
[ステップS57]移動処理部143は、移動対象リストにデータ移動が実行されていない単位領域が残っているかを判定する。単位領域が残っている場合、移動処理部143はステップS42に処理を進め、次の単位領域を移動候補として選択する。一方、単位領域が残っていない場合、移動処理部143は処理を終了する。
以上の図11、図12の処理では、移動先のサブプールに設定されているRAIDグループの中にデータ移動が実行されていないRAIDグループがある場合には、ステップS54においてそのRAIDグループに対してデータが移動される。これにより、前述のデータ移動制御(1)が実現される。
また、移動先のサブプールに設定されているすべてのRAIDグループにおいてデータ移動が実行中の場合には、ステップS56において、移動候補として選択された単位領域のデータ移動の実行が後回しにされる。そして、その後に再度ステップS42の処理が実行されて、次の単位領域が移動候補として選択される。これにより、前述のデータ移動制御(2)が実現される。
また、同一の優先度が設定された他の単位領域の中に、現在のアクセス頻度が非常に高い単位領域が存在する場合には、ステップS46において、移動候補がその単位領域に変更されて、その単位領域のデータ移動が優先的に実行されるようになる。これにより、前述のデータ移動制御(3)が実現される。
また、同一の優先度が設定された他の単位領域の中に、移動候補の単位領域よりサイズが小さい単位領域が存在する場合には、ステップS48において、移動候補がその単位領域に変更されて、その単位領域のデータ移動が優先的に実行されるようになる。これにより、前述のデータ移動制御(4)が実現される。
なお、上記の各実施の形態に示した装置(データ処理装置1、CM110、ホストサーバ200、管理サーバ300)の処理機能は、コンピュータによって実現することができる。その場合、各装置が有すべき機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスク(BD)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CDなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムにしたがった処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムにしたがった処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムにしたがった処理を実行することもできる。
1 データ処理装置
1a 記憶部
1a1 構成情報
1b 制御部
2 論理記憶領域
3〜5 物理記憶領域
3a,3b 分割領域
D2,D3 データ
R1〜R4 単位領域

Claims (8)

  1. アクセス性能が互いに異なる記憶装置を用いてそれぞれ実現される複数の物理記憶領域の構成を示す構成情報を記憶する記憶部と、
    前記構成情報に基づき、論理記憶領域に含まれる複数の単位領域のそれぞれに対して、前記複数の物理記憶領域のいずれかから記憶領域が割り当てられた状態において、前記複数の単位領域の中から、記憶領域の割り当て元の物理記憶領域を変更すべき複数の第1単位領域が特定されたとき、前記複数の第1単位領域の中からデータ移動の候補を順次選択し、前記候補として選択された第1単位領域のデータを物理記憶領域間で移動させるように指示する移動制御処理を実行する制御部と、
    を有するデータ処理装置であって、
    前記移動制御処理は、
    前記複数の第1単位領域の中から前記候補として第2単位領域を選択したとき、前記第2単位領域のデータの移動先となる物理記憶領域を分割した複数の分割領域のそれぞれにおいて、移動指示済みの単位領域についてのデータ移動が実行中であるかを判定し、
    前記判定の結果に基づいて、前記第2単位領域についてのデータ移動の指示処理を制御する、
    処理を含むデータ処理装置。
  2. 前記指示処理の制御では、前記複数の分割領域の中に、移動指示済みの単位領域についてのデータ移動が実行されていない一の分割領域が存在した場合、前記第2単位領域のデータを前記一の分割領域に移動させるように指示する、
    請求項1記載のデータ処理装置。
  3. 前記指示処理の制御では、前記複数の分割領域のすべてにおいて、移動指示済みの単位領域についてのデータ移動が実行中であった場合、前記第2単位領域についてのデータ移動を指示待ち状態とし、前記複数の第1単位領域の中から第3単位領域を前記候補として選択する、
    請求項1または2記載のデータ処理装置。
  4. 前記複数の第1単位領域のそれぞれにはデータ移動の実行優先度が設定されており、
    前記候補は、前記複数の第1単位領域の中から前記実行優先度の高い順に選択され、
    前記移動制御処理は、前記候補として前記第2単位領域を選択したとき、前記第2単位領域における直近のアクセス頻度が所定値未満である場合には、前記複数の第1単位領域の中から、前記第2単位領域と同一の前記実行優先度が設定され、かつデータ移動が指示されていない第4単位領域を特定し、前記第4単位領域の中に、直近のアクセス頻度が前記所定値以上である第5単位領域が存在する場合には、前記第2単位領域よりも先に前記第5単位領域についてのデータ移動を指示する処理をさらに含む、
    請求項1乃至3のいずれか1項に記載のデータ処理装置。
  5. 前記複数の第1単位領域のそれぞれについてのデータ移動元およびデータ移動先の物理記憶領域は、決定タイミングより前の期間に計測された、前記複数の第1単位領域のそれぞれにおけるアクセス頻度に基づいて決定され、
    前記第2単位領域および前記第4単位領域についての前記直近のアクセス頻度は、前記決定タイミングの後の期間において計測されたアクセス頻度である、
    請求項4記載のデータ処理装置。
  6. 前記複数の物理記憶領域が複数組存在し、前記論理記憶領域が複数存在し、前記複数の物理記憶領域のそれぞれを用いて、複数の前記論理記憶領域のうちそれぞれ個別の論理記憶領域を用いて前記移動制御処理が実行され、それぞれの前記移動制御処理において前記単位領域のサイズが互いに異なり、
    前記複数の第1単位領域のそれぞれにはデータ移動の実行優先度が設定されており、前記候補は、前記複数の第1単位領域の中から前記実行優先度の高い順に選択され、
    前記移動制御処理は、前記候補として前記第2単位領域を選択したとき、複数の前記論理記憶領域に含まれる前記第1単位領域の中に、前記第2単位領域と同一の前記実行優先度が設定され、かつ前記第2単位領域より小さいサイズの第6単位領域が存在する場合には、前記第2単位領域よりも先に前記第6単位領域についてのデータ移動を指示する処理をさらに含む、
    請求項1乃至5のいずれか1項に記載のデータ処理装置。
  7. 複数の記憶装置と、
    論理記憶領域に含まれる複数の単位領域のそれぞれに対して、前記複数の記憶装置のうちアクセス性能が互いに異なる記憶装置を用いてそれぞれ実現される複数の物理記憶領域のいずれかから、記憶領域が割り当てられた状態において、前記複数の単位領域の中から、記憶領域の割り当て元の物理記憶領域を変更すべき複数の第1単位領域が特定されたとき、前記複数の第1単位領域の中からデータ移動の候補を順次選択し、前記候補として選択された第1単位領域のデータを物理記憶領域間で移動させるように指示する移動制御処理を実行するデータ処理装置と、
    を有するデータ処理システムであって、
    前記移動制御処理は、
    前記複数の第1単位領域の中から前記候補として第2単位領域を選択したとき、前記第2単位領域のデータの移動先となる物理記憶領域を分割した複数の分割領域のそれぞれにおいて、移動指示済みの単位領域についてのデータ移動が実行中であるかを判定し、
    前記判定の結果に基づいて、前記第2単位領域についてのデータ移動の指示処理を制御する、
    処理を含むデータ処理システム。
  8. コンピュータに、
    論理記憶領域に含まれる複数の単位領域のそれぞれに対して、アクセス性能が互いに異なる記憶装置を用いてそれぞれ実現される複数の物理記憶領域のいずれかから、記憶領域が割り当てられた状態において、前記複数の単位領域の中から、記憶領域の割り当て元の物理記憶領域を変更すべき複数の第1単位領域が特定されたとき、前記複数の第1単位領域の中からデータ移動の候補を順次選択し、前記候補として選択された第1単位領域のデータを物理記憶領域間で移動させるように指示する移動制御処理、
    を実行させるデータ処理プログラムであって、
    前記移動制御処理は、
    前記複数の第1単位領域の中から前記候補として第2単位領域を選択したとき、前記第2単位領域のデータの移動先となる物理記憶領域を分割した複数の分割領域のそれぞれにおいて、移動指示済みの単位領域についてのデータ移動が実行中であるかを判定し、
    前記判定の結果に基づいて、前記第2単位領域についてのデータ移動の指示処理を制御する、
    処理を含むデータ処理プログラム。
JP2018005583A 2018-01-17 2018-01-17 データ処理装置、データ処理システムおよびデータ処理プログラム Active JP7068573B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018005583A JP7068573B2 (ja) 2018-01-17 2018-01-17 データ処理装置、データ処理システムおよびデータ処理プログラム
US16/237,977 US10606503B2 (en) 2018-01-17 2019-01-02 Apparatus to reduce a data-migration time for rearranging data between storage hierarchical layers
CN201910024030.9A CN110058808B (zh) 2018-01-17 2019-01-10 减少在存储分级层之间重排数据的数据迁移时间的装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018005583A JP7068573B2 (ja) 2018-01-17 2018-01-17 データ処理装置、データ処理システムおよびデータ処理プログラム

Publications (2)

Publication Number Publication Date
JP2019125175A true JP2019125175A (ja) 2019-07-25
JP7068573B2 JP7068573B2 (ja) 2022-05-17

Family

ID=67212893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018005583A Active JP7068573B2 (ja) 2018-01-17 2018-01-17 データ処理装置、データ処理システムおよびデータ処理プログラム

Country Status (3)

Country Link
US (1) US10606503B2 (ja)
JP (1) JP7068573B2 (ja)
CN (1) CN110058808B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111984322A (zh) * 2020-09-07 2020-11-24 北京航天数据股份有限公司 一种控制指令传输方法及装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110858124B (zh) * 2018-08-24 2021-06-01 华为技术有限公司 数据迁移方法及装置
US11010091B2 (en) * 2019-08-29 2021-05-18 International Business Machines Corporation Multi-tier storage
US11403134B2 (en) * 2020-01-31 2022-08-02 Hewlett Packard Enterprise Development Lp Prioritizing migration of data associated with a stateful application based on data access patterns
US11281404B2 (en) * 2020-03-26 2022-03-22 EMC IP Holding Company LLC Storage volume migration scheduling based on storage volume priorities and specified constraints
JP7036866B2 (ja) * 2020-06-19 2022-03-15 株式会社日立製作所 情報処理装置及び方法
US11893254B2 (en) * 2021-06-04 2024-02-06 International Business Machines Corporation Dynamic permission management of storage blocks
KR20230059911A (ko) 2021-10-26 2023-05-04 삼성전자주식회사 스토리지 장치 및 스토리지 장치의 동작 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030221063A1 (en) * 2002-05-27 2003-11-27 Yoshiaki Eguchi Method and apparatus for data relocation between storage subsystems
US20080104349A1 (en) * 2006-10-25 2008-05-01 Tetsuya Maruyama Computer system, data migration method and storage management server
JP2008112291A (ja) * 2006-10-30 2008-05-15 Hitachi Ltd 記憶制御装置及び記憶制御装置のデータ移動方法
JP2010266993A (ja) * 2009-05-13 2010-11-25 Hitachi Ltd データ移動管理装置及び情報処理システム
US20120303917A1 (en) * 2011-05-27 2012-11-29 International Business Machines Corporation Systems, methods, and physical computer storage media to optimize data placement in multi-tiered storage systems
JP2014199596A (ja) * 2013-03-29 2014-10-23 富士通株式会社 データ配置プログラム、データ配置方法、及び情報処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7096338B2 (en) 2004-08-30 2006-08-22 Hitachi, Ltd. Storage system and data relocation control device
JP4842909B2 (ja) 2004-08-30 2011-12-21 株式会社日立製作所 ストレージシステム及びデータ再配置制御装置
US8645653B2 (en) * 2010-10-14 2014-02-04 Hitachi, Ltd Data migration system and data migration method
US20150081964A1 (en) 2012-05-01 2015-03-19 Hitachi, Ltd. Management apparatus and management method of computing system
WO2014057521A1 (en) * 2012-10-12 2014-04-17 Hitachi, Ltd. Storage apparatus and data management method
US9971796B2 (en) * 2013-04-25 2018-05-15 Amazon Technologies, Inc. Object storage using multiple dimensions of object information
CN103488434A (zh) * 2013-09-23 2014-01-01 浪潮电子信息产业股份有限公司 一种加强磁盘阵列可靠性的方法
US11550557B2 (en) * 2016-02-12 2023-01-10 Nutanix, Inc. Virtualized file server
CN106775467A (zh) * 2016-12-06 2017-05-31 郑州云海信息技术有限公司 一种基于自动分层技术热度统计数据的存储***优化方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030221063A1 (en) * 2002-05-27 2003-11-27 Yoshiaki Eguchi Method and apparatus for data relocation between storage subsystems
JP2003345522A (ja) * 2002-05-27 2003-12-05 Hitachi Ltd データ再配置方法及び装置
US20080104349A1 (en) * 2006-10-25 2008-05-01 Tetsuya Maruyama Computer system, data migration method and storage management server
JP2008108020A (ja) * 2006-10-25 2008-05-08 Hitachi Ltd 計算機システム、データ移行方法、およびストレージ管理サーバ
JP2008112291A (ja) * 2006-10-30 2008-05-15 Hitachi Ltd 記憶制御装置及び記憶制御装置のデータ移動方法
JP2010266993A (ja) * 2009-05-13 2010-11-25 Hitachi Ltd データ移動管理装置及び情報処理システム
US20120303917A1 (en) * 2011-05-27 2012-11-29 International Business Machines Corporation Systems, methods, and physical computer storage media to optimize data placement in multi-tiered storage systems
JP2014199596A (ja) * 2013-03-29 2014-10-23 富士通株式会社 データ配置プログラム、データ配置方法、及び情報処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111984322A (zh) * 2020-09-07 2020-11-24 北京航天数据股份有限公司 一种控制指令传输方法及装置

Also Published As

Publication number Publication date
US20190220214A1 (en) 2019-07-18
JP7068573B2 (ja) 2022-05-17
US10606503B2 (en) 2020-03-31
CN110058808A (zh) 2019-07-26
CN110058808B (zh) 2022-08-02

Similar Documents

Publication Publication Date Title
JP7068573B2 (ja) データ処理装置、データ処理システムおよびデータ処理プログラム
JP5661921B2 (ja) 計算機システム及び管理システム
US10013170B1 (en) Intelligent data compression
US9632707B2 (en) Enhancing tiering storage performance
JP5099128B2 (ja) ストレージ管理プログラム、ストレージ管理装置およびストレージ管理方法
US8380947B2 (en) Storage application performance matching
US7979604B2 (en) Methods and apparatus for assigning performance to data volumes on data storage systems
JP5685676B2 (ja) 計算機システム及びデータ管理方法
JP4699837B2 (ja) ストレージシステム、管理計算機及びデータ移動方法
US9274941B1 (en) Facilitating data migration between tiers
JP2007156815A (ja) データマイグレーション方法及びシステム
WO2014162586A1 (ja) ストレージシステムおよびストレージシステム制御方法
JP2018041245A (ja) ストレージ装置、及びストレージ制御装置
US10521124B1 (en) Application-specific workload-based I/O performance management
JP6142685B2 (ja) ストレージシステム、運用管理方法及び運用管理プログラム
JP5104855B2 (ja) 負荷分散プログラム、負荷分散方法、及びストレージ管理装置
JP2016118821A (ja) ストレージ管理装置、ストレージ管理方法およびストレージ管理プログラム
JP5427314B2 (ja) 仮想ボリュームを提供するストレージシステム及びそのストレージシステムの省電力制御方法
US20180341423A1 (en) Storage control device and information processing system
JP2020046929A (ja) 情報処理装置及び情報処理プログラム
JP2020004186A (ja) 情報処理システム、管理装置および制御方法
JP4413899B2 (ja) ディスクアレイサブシステム及びプログラム
JP6152704B2 (ja) ストレージシステム、情報処理装置の制御プログラム、およびストレージシステムの制御方法
US8463990B2 (en) Method and apparatus to perform automated page-based tier management of storing data in tiered storage using pool groups
JP2015158711A (ja) ストレージ制御装置、仮想ストレージ装置、ストレージ制御方法、及びストレージ制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201008

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201016

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20201016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R150 Certificate of patent or registration of utility model

Ref document number: 7068573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150