JP2008112291A - 記憶制御装置及び記憶制御装置のデータ移動方法 - Google Patents
記憶制御装置及び記憶制御装置のデータ移動方法 Download PDFInfo
- Publication number
- JP2008112291A JP2008112291A JP2006294300A JP2006294300A JP2008112291A JP 2008112291 A JP2008112291 A JP 2008112291A JP 2006294300 A JP2006294300 A JP 2006294300A JP 2006294300 A JP2006294300 A JP 2006294300A JP 2008112291 A JP2008112291 A JP 2008112291A
- Authority
- JP
- Japan
- Prior art keywords
- volume
- data
- control device
- storage control
- priority
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0634—Configuration or reconfiguration of storage systems by changing the state or mode of one or more devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
- G06F3/0613—Improving I/O performance in relation to throughput
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0625—Power saving in storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0647—Migration mechanisms
- G06F3/0649—Lifecycle management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0689—Disk arrays, e.g. RAID, JBOD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1448—Management of the data involved in backup or backup restore
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】本発明の記憶制御装置は、テンポラリボリュームを用いて、ボリュームグループ間でデータを速やかに移動させる。
【解決手段】記憶制御装置1は、同一性能のボリューム3をグループ化して、複数のボリュームグループ4A〜4Cを形成する。各ボリュームグループ内には、それぞれ少なくとも一つ以上のテンポラリボリューム3Tが予め設けられている。制御部5は、各データの優先度をそれぞれ算出して管理する。下位のボリュームグループ内で最も高い優先度を有するデータは、ホスト8からアクセスされていない時間に、上位のボリュームグループ内のテンポラリボリュームに予めコピーされる。これにより、データマイグレーションの実行時等に、データを速やかに移動させることができる。
【選択図】図1
【解決手段】記憶制御装置1は、同一性能のボリューム3をグループ化して、複数のボリュームグループ4A〜4Cを形成する。各ボリュームグループ内には、それぞれ少なくとも一つ以上のテンポラリボリューム3Tが予め設けられている。制御部5は、各データの優先度をそれぞれ算出して管理する。下位のボリュームグループ内で最も高い優先度を有するデータは、ホスト8からアクセスされていない時間に、上位のボリュームグループ内のテンポラリボリュームに予めコピーされる。これにより、データマイグレーションの実行時等に、データを速やかに移動させることができる。
【選択図】図1
Description
本発明は、記憶制御装置及び記憶制御装置のデータ移動方法に関する。
例えば、政府、官公庁、地方自治体、企業、教育機関等では、多種多量のデータを取り扱うために、比較的大規模な記憶システムを用いてデータを管理する。この記憶システムは、例えば、ディスクアレイ装置等の記憶制御装置から構成される。ディスクアレイ装置は、多数のディスクドライブをアレイ状に配設して構成されるもので、例えば、RAID(Redundant Array of Independent Disks)に基づく記憶領域を提供する。ディスクドライブ群が提供する物理的な記憶領域上には少なくとも一つ以上の論理ボリューム(論理的な記憶デバイス)が形成される。この論理ボリュームは、ホストコンピュータ上で稼働するプログラムに提供される。ホストコンピュータ(以下、「ホスト」と略記)は、所定のコマンドを送信することにより、論理ボリュームに対してデータの書込み、読み出しを行うことができる。
情報化社会の進展等につれて、管理すべきデータは、日々増大する。一方、データの価値は一定ではなく、多くのデータの価値は、時間の経過に従って低下していく。データの価値に応じてデータを管理する手法は、例えばILM(Information Lifecycle Management)と呼ばれる。そこで、データの記憶場所をデータの価値に応じて変更させるというデータマイグレーション技術が提案されている(特許文献1)。
一方、ストレージ機器の構成情報とユーザにより設定されたポリシーとに基づいて、ストレージ機器を設定するためのツールにより使用されるパラメータを自動的に生成する技術も提案されている(特許文献2)。
特開2004−295457号公報
特開2003−303052号公報
前記第1の文献に記載された従来技術では、データの再配置が決定された場合、データを記憶するための記憶デバイスを移動先に用意してから、移動対象のデータを移動元から移動先にコピーさせる必要がある。従って、移動対象となるデータの合計サイズによっても相違するが、データの移動が完了するまでに長い時間がかかり、使い勝手が低い。
本発明は、上記の問題点に鑑みてなされたもので、本発明の目的は、データ移動に関する使い勝手を向上させることができる記憶制御装置及び記憶制御装置のデータ移動方法を提供することにある。本発明の他の目的は、データの移動が決定されるよりも前に、各ボリュームグループ内に予め用意されたテンポラリボリュームを用いて、データの少なくとも一部を事前に移動させておくことにより、データの移動時間を短縮し、使い勝手を向上させることができる記憶制御装置及び記憶制御装置のデータ移動方法を提供することにある。本発明のさらに別の目的は、データの価値を自動的に判断し、価値に応じた論理ボリュームに比較的短時間で移動させることができ、使い勝手を向上させることができる記憶制御装置及び記憶制御装置のデータ移動方法を提供することにある。本発明の更なる目的は、後述する実施形態の記載から明らかになるであろう。
上記課題を解決すべく、本発明に従う記憶制御装置は、上位装置により利用されるデータを記憶するための複数の記憶ドライブと、これら各記憶ドライブと前記上位装置との間のデータ入出力を制御するコントローラとを備える記憶制御装置であって、各記憶ドライブの有する物理的記憶領域に基づいて形成された複数の論理ボリュームと、各論理ボリュームを複数個ずつグループ化してそれぞれ形成された複数のボリュームグループと、コントローラ内に設けられ、上位装置から発行されるアクセス要求に基づいて、各論理ボリュームに記憶されているデータの優先度をそれぞれ検出して管理する優先度管理部と、コントローラ内に設けられ、優先度管理部により管理されている各優先度に基づいて、各ボリュームグループ間でデータを移動させるデータ移動部と、を備え、各ボリュームグループ内の各論理ボリュームのうち、少なくとも一つ以上の論理ボリュームは、データの移動に用いるテンポラリボリュームとして設定され、データ移動部は、テンポラリボリュームを用いて、移動対象のデータを各ボリュームグループ間で予め移動させる。
本発明の実施形態では、データ移動部は、移動対象のデータの移動が決定されるよりも前に、テンポラリボリュームを用いて、移動対象のデータを各ボリュームグループ間で予め移動させる。
本発明の実施形態では、各ボリュームグループをそれぞれ構成する各論理ボリュームの種類に応じて、各ボリュームグループは、ランク分けされる。
本発明の実施形態では、各記憶ドライブは、それぞれ性能の異なる複数種類の記憶ドライブに分類され、各ボリュームグループを構成する各論理ボリュームが設けられている記憶ドライブの種類に応じて、各ボリュームグループは、最高ランクのボリュームグループから最低ランクのボリュームグループまでランク分けされる。
本発明の実施形態では、データ移動部は、優先度の高いデータがより上位のランクのボリュームグループ内に位置し、優先度の低いデータがより下位のランクのボリュームグループ内に位置するように、テンポラリボリュームを用いて各ボリュームグループ間で移動対象のデータを移動させる。
本発明の実施形態では、優先度管理部は、上位装置が各データへアクセスした最終時刻、及び、上位装置が各データにアクセスした頻度に基づいて、各データ毎にそれぞれ優先度を検出して管理する。
本発明の実施形態では、優先度管理部は、上位装置が各データへアクセスした最終時刻と、上位装置が各データにアクセスした頻度、及び、各データについて予め設定された優先度保持時間とに基づいて、各データ毎にそれぞれ優先度を検出して管理する。
本発明の実施形態では、データ移動部は、相対的に低ランクの移動元ボリュームグループに含まれる各データのうち最も高い優先度を有するデータを移動対象データとして選択し、この移動対象データを、一つ上のランクの移動先ボリュームグループに含まれるテンポラリボリュームに予めコピーする。
本発明の実施形態では、データ移動部は、上位装置から移動対象データへ向けて発行されるアクセス要求を、移動先ボリュームグループ内のテンポラリボリュームにコピーされた移動対象データを用いて処理させる。
本発明の実施形態では、データ移動部は、移動対象データについて、移動先ボリュームグループ内のテンポラリボリュームと移動元ボリュームグループ内の移動元論理ボリュームとの差分を管理する。
本発明の実施形態では、データ移動部は、優先度管理部によって移動対象データの優先度が低下された場合、差分を移動元論理ボリュームに反映させ、かつ、移動元ボリュームグループ内で最も高い優先度に設定された別のデータを移動先ボリュームグループ内のテンポラリボリュームにコピーさせる。
本発明の実施形態では、データ移動部は、上位ランクのボリュームグループ内に存在するバックアップ対象の論理ボリュームに記憶されているバックアップ対象データを、下位ランクのボリュームグループ内のテンポラリボリュームに予めコピーする。
本発明の実施形態では、データ移動部は、バックアップ対象データについて、バックアップ対象の論理ボリュームと下位ランクのボリュームグループ内のテンポラリボリュームとの差分を管理しており、バックアップの実行が指示された場合には、差分をテンポラリボリュームに反映させることによりバックアップを完了させる。
本発明の実施形態では、コントローラは、(1)上位装置からアクセスされるアクセスポイントを管理するアクセス経路管理層と、(2)各論理ボリュームを管理するボリューム管理層と、(3)ボリューム管理層に記憶されているデータに関する管理用情報、及び、アクセスポイントと論理ボリュームとの対応付けをそれぞれ管理する中間管理層とを、それぞれ制御する。
本発明の実施形態では、中間管理層は、管理用情報を管理する第1層と、アクセスポイントと第1層との対応関係を管理する第2層と、第1層とボリューム管理層との対応付けを管理する第3層とを含んで構成される。
本発明の実施形態では、各ボリュームグループのうち少なくとも一つの特定のボリュームグループは、複数の別の記憶制御装置内にそれぞれ存在する別の論理ボリュームに対応付けられている仮想的な論理ボリュームから構成されており、コントローラは、仮想的な論理ボリュームがオンライン状態に設定された場合にコントローラ内のキャッシュメモリを割り当て、仮想的な論理ボリュームがオフライン状態に設定された場合にはキャッシュメモリを割り当てないようになっている。
本発明の実施形態では、コントローラは、特定の別の記憶制御装置内の別の論理ボリュームに対応付けられている特定の仮想的な論理ボリュームに、優先度の低いデータを記憶させ、かつ、特定の仮想的な論理ボリュームが全てオフライン状態に設定された場合に、特定の別の記憶制御装置への電源供給が停止可能である旨を通知するか、または、特定の別の記憶制御装置への電源供給を自動的に停止させる。
本発明の他の観点に従う、上位装置により利用されるデータを記憶するための複数の記憶ドライブと、これら各記憶ドライブと上位装置との間のデータ入出力を制御するコントローラとを備える記憶制御装置を用いたデータ移動方法では、コントローラは、各記憶ドライブの有する物理的記憶領域に基づいて形成された複数の論理ボリュームを、各記憶ドライブの性能別に複数個ずつグループ化して複数のボリュームグループをそれぞれ生成し、かつ、各ボリュームグループ内の各論理ボリュームのうち少なくとも一つ以上の論理ボリュームを、データを移動させるためのテンポラリボリュームとして設定するステップと、上位装置から発行されるアクセス要求に基づいて、各論理ボリュームに記憶されているデータの優先度をそれぞれ検出して管理するステップと、優先度の高いデータがより性能の高い記憶ドライブに関連するボリュームグループ内に記憶され、優先度の低いデータがより性能の低い記憶ドライブに関連するボリュームグループ内に記憶されるように、データ移動が決定されるよりも前に、テンポラリボリュームを用いて、各ボリュームグループ間でデータを移動させるステップと、をそれぞれ実行する。
本発明の手段、機能、ステップの全部または一部は、コンピュータシステムにより実行されるコンピュータプログラムとして構成可能な場合がある。本発明の構成の全部または一部がコンピュータプログラムから構成された場合、このコンピュータプログラムは、例えば、各種記憶媒体に固定して配布等することができ、あるいは、通信ネットワークを介して送信することもできる。
図1は、本発明の実施形態の全体概要を示す構成説明図である。本実施形態の記憶制御装置1は、上位装置としてのホスト8と、別の記憶制御装置としての外部記憶制御装置9とにそれぞれ接続されている。ホスト8は、例えば、メインフレームコンピュータやサーバコンピュータ等のようなコンピュータ装置として構成される。外部記憶制御装置9は、記憶制御装置1の外部に存在する別の記憶制御装置であり、論理ボリューム9Aを備えている。
記憶制御装置1は、例えば、複数のディスクドライブ2A,2Bと、複数の論理ボリューム3と、複数のボリュームグループ4と、少なくとも一つの制御部5とを備えて構成される。
ディスクドライブ2A,2Bは、例えば、性能や信頼性に差のある複数種類のハードディスクドライブとして構成される。一方のディスクドライブ2Aは、比較的高性能のハードディスクドライブとして構成され、他方のディスクドライブ2Bは、比較的低性能のハードディスクドライブとして構成される。なお、ディスクドライブ2A,2Bは、必ずしもディスク型の記憶媒体を用いている必要はなく、ハードディスクドライブ以外の他の記憶デバイスを用いることもできる。例えば、半導体メモリ装置(フラッシュメモリデバイスを含む)、ホログラフィックメモリ、光ディスク装置、光磁気ディスク装置、磁気テープ装置等を用いる構成でもよい。以下、特に区別しない場合には、ディスクドライブ2A,2Bをディスクドライブ2と呼ぶことがある。
論理ボリューム3は、ディスクドライブ2の有する物理的な記憶領域に設けられる論理的な記憶領域であり、論理的記憶デバイスと呼ぶこともできる。後述の実施例に示すように、一つまたは複数のディスクドライブ2が有する記憶領域を用いて、一つまたは複数の論理ボリューム3を生成することができる。本実施形態では、説明の便宜上、各論理ボリューム3のサイズは、同一であるものとする。
ボリュームグループ4は、各論理ボリューム3の性能(または信頼性)の別に、論理ボリューム3をグループ化している。即ち、各ボリュームグループ4は、それぞれ同一種類の複数の論理ボリューム3から構成されている。例えば、記憶制御装置1は、高性能のディスクドライブ2Aの記憶領域上に設定される高性能な論理ボリューム3のグループ4Aと、低性能のディスクドライブ2Bの記憶領域上に設定される低性能な論理ボリューム3のグループ4Bとを、それぞれ備えている。
図1中では、説明の便宜上、高性能の論理ボリューム3からなるボリュームグループ4Aと低性能の論理ボリューム3からなるボリュームグループ4Bとをそれぞれ一つずつ示している。これに限らず、高性能のボリュームグループ4Aと低性能のボリュームグループ4Bとをそれぞれ複数ずつ設けることもできるし、中程度の性能を有する論理ボリュームからなる中性能のボリュームグループを設けることもできる。
さらに、別のボリュームグループ4Cに含まれる論理ボリュームは、外部記憶制御装置9内の論理ボリューム9Aに対応付けられている。即ち、ボリュームグループ4A,4B内の各論理ボリューム3は、ディスクドライブ2A,2Bの有する物理的な記憶領域上にそれぞれ設けられているのに対し、ボリュームグループ4C内の各論理ボリューム3は、記憶制御装置1の外部に位置する外部記憶制御装置9内の論理ボリューム9Aを利用する仮想的な論理ボリュームとして構成されている。
換言すれば、ボリュームグループ4A,4Bを構成する各論理ボリューム3内のデータは、記憶制御装置1内のディスクドライブ2A,2Bにそれぞれ記憶されるのに対し、ボリュームグループ4Cを構成する各論理ボリューム3内のデータは、記憶制御装置1の外部に存在する外部記憶制御装置9内の論理ボリューム9Aに記憶される。例えば、ボリュームグループ4C内の仮想的な各論理ボリューム3と外部記憶制御装置9内の各論理ボリューム9Aとを直接的に対応付けることにより、データの記憶先を外部記憶制御装置9内の論理ボリューム9A(外部ボリューム9Aとも呼ぶ)に設定することができる。また、例えば、ボリュームグループ4C内の論理ボリューム3と外部ボリューム9Aとの間に、中間的な記憶階層1Aを設けることにより、外部ボリューム9Aの構成を適宜変更して利用することもできる。例えば、一つの外部ボリューム9Aを分割して複数の論理ボリューム3にマッピングすることもできるし、あるいは、複数の外部ボリューム9Aの記憶領域を集めて一つまたは複数の論理ボリューム3にマッピングすることもできる。
コントローラとしての制御部5は、記憶制御装置1の全体動作を制御する。制御部5は、例えば、マイクロプロセッサ、キャッシュメモリ、プログラムメモリ、データ入出力制御回路等を備えるコンピュータ装置として構成される。制御部5は、例えば、マイクロプロセッサが予め記憶されているプログラムを読み込んで実行することにより、論理ボリューム3へのデータ入出力処理、ボリュームグループ4間でのデータ移動処理、バックアップ処理等をそれぞれ実現する。
制御部5は、アクセスポイント6A,6B,6Cと、管理用ボリューム7A,7B,7Cとを備えている。アクセスポイント6A,6B,6C(特に区別しない場合は、アクセスポイント6と呼ぶ。)は、ホスト8からアクセス対象として認識されるポイントであり、ホスト8からアクセスされる仮想的なボリュームであると考えることもできる。具体的には、アクセスポイント6は、ポート番号やLUN(Logical Unit Number)及びアクセス対象のデータを特定するための識別情報等を対応付けることにより構成される。アクセスポイント6は、ホスト8からアクセスされる窓口であって、実際にデータを記憶する場所は論理ボリューム3である。
管理用ボリューム7A,7B,7C(特に区別しない場合、管理用ボリューム7と呼ぶ)は、アクセスポイント6と論理ボリューム3との対応関係、及び、論理ボリューム3に記憶されているデータの優先度等を管理するための情報である。アクセスポイント6と論理ボリューム3とは、管理用ボリューム7によって結びつけられる。
優先度の算出方法の一例は、後述の実施例によって明らかにされる。先に簡単に説明すると、制御部5は、例えば、ホスト8が各データへアクセスした頻度、ホスト8が各データを最後に更新した時刻、ホスト8が各データに最後にアクセスした時刻(最後のリード時刻)、優先度保持時間を考慮して、各データの優先度をそれぞれ算出する。優先度保持時間とは、そのデータに設定された優先度を維持する時間である。優先度保持時間が経過するまでの間、そのデータに設定された優先度は、他のパラメータ(アクセス頻度、最終更新時刻、最終アクセス時刻)が変化した場合であっても、変更されない。優先度保持時間には、デフォルト値が用意されているが、ユーザが任意の時間を設定可能である。
論理ボリューム3に記憶されるデータの優先度は、管理用ボリューム7によって管理される。即ち、論理ボリューム3に記憶されるデータの優先度は、データ本体から切り離されて、管理用ボリューム7内で管理されている。従って、管理用ボリューム7内の優先度を書き換えるだけで、論理ボリューム3に記憶されているデータを変更することなく、そのデータの優先度を変更することができる。また、アクセスポイント6と論理ボリューム3との対応付けを管理用ボリューム7内で書き換えるだけで、ホスト8に意識させずに、ホスト8がアクセスする論理ボリューム3を切り替えることができる。
再びボリュームグループ4に着目する。各ボリュームグループ4には、それぞれ少なくとも一つ以上のテンポラリボリューム3Tが設けられている。即ち、各ボリュームグループ4を構成する複数の論理ボリューム3のうち、常に、少なくとも一つ以上の論理ボリューム3がテンポラリボリューム3Tとして使用される。即ち、ボリュームグループ4内の論理ボリューム3は、そのいずれもがテンポラリボリューム3Tとして使用される可能性がある。
テンポラリボリューム3Tは、各ボリュームグループ4間でデータを移動させるために使用される一時的な記憶領域である。データが移動可能な方向には、上り方向と下り方向とがある。上り方向とは、より高性能な論理ボリューム3に記憶される方向を意味し、下り方向とは、より低性能な論理ボリューム3に記憶される方向を意味する。上述のように、各ボリュームグループ4は、その性能や信頼性に応じて、最上位ランクのボリュームグループ4Aから最下位ランクのボリュームグループ4Cまで、複数段階にランク分けされている。
ホスト8は、通常の場合、最上位ランクの論理ボリューム3を用いて、各種の業務処理を行う。業務処理としては、例えば、データベース処理、電子メール処理、顧客管理処理等を挙げることができる。ホスト8によって現在使用されているデータDaは、ボリュームグループ4A内の論理ボリューム3に記憶されている。このデータDaの優先度は、”3”であるとする。本実施形態では、値が大きくなるほど優先度が高くなる。即ち、優先度が”3”のデータは、優先度が”2”のデータよりも価値が高い。
ボリュームグループ4Aの一つ下のランクに位置するボリュームグループ4B内の論理ボリューム3には、データDbが記憶されている。このデータDbの優先度は”2”であり、ボリュームグループ4B内で最も高い優先度を有するものとする。ホスト8は、アクセスポイント6Bから管理用ボリューム7Bを介して、ボリュームグループ4B内の論理ボリューム3に記憶されているデータDbにアクセスすることができる。
制御部5は、ホスト8がデータDbにアクセスしていない場合、データDbをボリュームグループ4B内の論理ボリューム3からボリュームグループ4A内のテンポラリボリューム3Tにコピーさせる。制御部5は、移行元の論理ボリューム3と移行先のテンポラリボリューム3Tとの差分を管理しながらコピーさせる。そして、制御部5は、管理用ボリューム7Bの情報を書き換えて、アクセスポイント6Bとボリュームグループ4A内のテンポラリボリューム3Tとを接続させる。
ホスト8からデータDbへのアクセス要求は、以下のように処理される。ライト要求の場合、ライトデータは、移行先のテンポラリボリューム3Tに書き込まれる。テンポラリボリューム3Tに書き込まれたライトデータのアドレスは、差分ビットマップ等の差分管理用情報によって管理される。テンポラリボリューム3Tに既にコピーされているデータへのリード要求の場合、ホスト8から要求されたデータはテンポラリボリューム3Tから読み出される。テンポラリボリューム3Tに未だコピーされていないデータへのリード要求の場合、アクセスポイント6Bとボリュームグループ4B内の論理ボリューム3とが再度接続されて、ホスト8から要求されたデータは、ボリュームグループ4B内の論理ボリューム3から読み出される。
このように、下位のボリュームグループ4B内において、最も高い優先度を有するデータDbは、ホスト8からアクセスされていない期間を利用して、上位のボリュームグループ4A内のテンポラリボリューム3Tに事前にコピーされる。そして、ホスト8からのアクセス要求は、より高性能のテンポラリボリューム3Tを用いて処理される。
各データの優先度に基づいてデータの再配置を行う場合、下位のボリュームグループ4B内で優先度が最も高いデータDbは、より上位のボリュームグループ4Aへの移動が決定される可能性が高い。データDbは上位のボリュームグループ4A内のテンポラリボリューム3Tに既にコピーされているため、制御部5は、管理用ボリューム7Bの情報を書き換えて、データDbの記憶先をボリューム3Tとする。記憶先が正式に変更されることにより、テンポラリボリューム3Tは、通常の論理ボリュームとして扱われる。
上位のボリュームグループ4A内のデータのうち、最も低い優先度を有するデータは、一つ下のボリュームグループ4Bに移動される。最も低い優先度のデータを記憶していた論理ボリューム3は、データの移行が完了した後、テンポラリボリューム3Tとして使用される。このように、各ボリュームグループ4内で、最も低い優先度のデータを記憶する論理ボリューム3が、新たなテンポラリボリューム3Tとして使用される。
データDbを上位ボリュームグループ4A内のテンポラリボリューム3Tにコピーさせた後で、データDbの優先度が低い値に変更される場合も考えられる。移行先ボリュームグループ4Aのテンポラリボリューム3TにコピーされているデータDbが、移行元のボリュームグループ4B内で最も高い優先度を有さなくなった場合、データDbの先行配置は失敗したことになる。この場合、制御部5は、移行先のテンポラリボリューム3Tで管理されている差分を、移行元の論理ボリューム3に反映させる。移行先のボリュームグループ4A内のテンポラリボリューム3Tは、そのままテンポラリボリュームとして使用され、別のデータの移行先ボリュームとして使用される。
別の観点では、テンポラリボリューム3Tを用いて、上位から下位へデータを移動させることもできる。例えば、優先度が”1”のデータDcに着目すると、ホスト8がデータDcにアクセスしていない場合に、データDcを下位ボリュームグループ4C内のテンポラリボリューム3Tに予めコピーさせることができる。制御部5は、移行元の論理ボリューム3と移行先のテンポラリボリューム3Tとの差分を管理しながら、データDc論理ボリューム3からテンポラリボリューム3Tにコピーする。
ホスト8がデータDcへのライト要求を発行した場合、制御部5は、ライトデータを移行元の論理ボリューム3に書き込み、ライトデータのアドレスを差分ビットマップ等で管理する。ホスト8からデータDcへのリード要求が発行された場合、制御部5は、移行元の論理ボリューム3からデータを読み出して、ホスト8に送信する。
各データの優先度に基づくデータの再配置を行う場合、ボリュームグループ4B内で最も優先度の低いデータDcは、より下位のボリュームグループ4Cへの移動が決定される可能性が高い。既に、データDcは、下位ボリュームグループ4C内のテンポラリボリューム3Tにコピーされているため、制御部5は、コピー開始時からデータ再配置の実行時までの差分をテンポラリボリューム3Tに反映させるだけで、データDcの移動を完了させることができる。データDcの移動が完了した後、制御部5は、管理用ボリューム7Cの情報を書き換えて、アクセスポイント6Cとボリュームグループ4C内のテンポラリボリューム3Tとを接続させる。テンポラリボリューム3Tは、データDcの記憶先ボリュームとして使用される。最下位のボリュームグループ4C内で最も高い優先度を有するデータは、一つ上位のボリュームグループ4B内に移されるため、このデータを記憶していた論理ボリューム3が、新たなテンポラリボリューム3Tとして使用される。
図1では、紙面の都合上、各ボリュームグループ4内で、それぞれ一つずつのテンポラリボリューム3Tを示している。しかし、上述のように、下位から上位への上り方向の移動に使用するための上り用テンポラリボリュームと、上位から下位への下り方向の移動に使用するための下り用テンポラリボリュームとの複数のテンポラリボリュームを、各ボリュームグループ4内にそれぞれ設ける構成でもよい。なお、最上位のボリュームグループ4Aには、上り用のテンポラリボリュームを設ける必要はないため、テンポラリボリュームを一つだけ設ければよい。
ボリュームグループ4Cに着目する。ボリューム4C内の各論理ボリューム3は、外部記憶制御装置9内の各論理ボリューム9Aに対応付けられている。そして、ボリューム4C内の全ての論理ボリューム3がオフライン状態に設定された場合、制御部5は、外部記憶制御装置9への電源供給を停止可能である旨をユーザに通知することができる。あるいは、外部記憶制御装置9に電源を供給する電源装置を制御部5が制御可能な場合、制御部5は、外部記憶制御装置9への電源供給を自動的に停止させることもできる。
上述の通り、本実施形態では、ボリュームグループ4Cは、外部ボリューム9Aから構成されるため、オンライン状態にするボリューム3の数を設定可能となっている。オンライン状態のボリュームとは、ホスト8からのアクセス要求を直ちに処理可能な状態に置かれているボリュームを意味する。
オンライン状態の論理ボリューム3には、キャッシュメモリ等のアクセス処理に必要な資源が割り当てられる。これに対し、オフライン状態の論理ボリューム3には、キャッシュメモリ等のアクセス処理に必要な資源は割り当てられていない。従って、ホスト8からアクセスされていない論理ボリューム3に無駄に資源が割り当てられるのを防止して、記憶制御装置1の運用コストを低減することができる。ボリュームグループ4C内でオンライン状態にする論理ボリューム3の数は、予め設定されている。オンライン状態にできるボリューム数を超えた論理ボリューム3が存在する場合、そのボリュームグループ4C内で優先度の低いデータを記憶する論理ボリューム3が、オフライン状態にされる。
このように構成される本実施形態によれば、各ボリュームグループ4内にそれぞれ少なくとも一つ以上のテンポラリボリューム3Tを予め設けておき、テンポラリボリューム3Tを用いて各ボリュームグループ4間でデータを移動させる。従って、データの移動時になってから移行先のボリュームを生成する場合に比べて、データ移動に要する時間を短縮して使い勝手を高めることができる。
本実施形態では、データの移動が決定されるよりも前に、移動対象のデータをテンポラリボリューム3Tに予めコピーしておく。従って、データの移動が決定された場合は、アクセスポイント6と論理ボリューム3との対応関係を設定したり、差分を反映させるだけで、直ちにデータを移動させることができ、データ移動の時間を短縮して使い勝手を高めることができる。
本実施形態では、各データの価値を優先度に基づいて判断し、各データの優先度に応じてデータの記憶先を自動的に変更する。従って、データの価値に応じて、適切な論理ボリューム3にデータを記憶させることができ、ディスクドライブ2を有効に利用することができる。即ち、高性能なディスクドライブ2Aに基づいて構成される高性能な論理ボリューム3が、価値の低いデータによって占拠されるのを防止し、ユーザにとって利用価値の高いデータを高性能な論理ボリューム3に格納しておくことができる。以下、本実施形態をより詳細に説明する。
図2は、本実施例による記憶制御装置の要部の構成を示すブロック図である。ホスト10は、例えば、CPU(Central Processing Unit)やメモリ等の情報処理資源を備えたコンピュータ装置であり、例えば、パーソナルコンピュータ、ワークステーション、サーバコンピュータ、メインフレームコンピュータ等として構成される。
ホスト10は、通信ネットワークCN1を介して、記憶制御装置100にアクセスするための通信制御部と、例えば、データベースソフトウェア等のアプリケーションプログラムと、を備えている。
通信ネットワークCN1としては、例えば、LAN(Local Area Network)、SAN(Storage Area Network)、インターネット、専用回線、公衆回線等を、場合に応じて適宜用いることができる。LANを介するデータ通信は、例えば、TCP/IPプロトコルに従って行われる。ホスト10がLANを介して記憶制御装置100に接続される場合、ホスト10は、ファイル名を指定してファイル単位でのデータ入出力を要求する。ホスト10がSANを介して記憶制御装置100に接続される場合、ホスト10は、ファイバチャネルプロトコルに従って、ブロック単位でデータ入出力を要求する。
管理端末20は、記憶制御装置100の構成等を管理するためのコンピュータ装置であり、例えば、システム管理者等のユーザにより操作される。管理端末20は、通信ネットワークCN2を介して、記憶制御装置100に接続されている。ユーザは、管理端末20を介して、各データの優先度保持時間を設定することができる。
記憶制御装置100は、例えば、多数のディスクドライブ121を備えるディスクアレイシステムとして構成することができる。記憶制御装置100は、固有の記憶資源(ディスクドライブ121)を備えるほかに、外部記憶制御装置200の備える記憶資源(ディスクドライブ221)を利用することもできる。後述のように、記憶制御装置100は、外部記憶制御装置200の有する記憶資源を自己の論理ボリューム(Logical Unit)としてホスト10に提供するようになっている。
記憶制御装置100は、コントローラ110と記憶部120とに大別される。コントローラ110は、例えば、複数のチャネルアダプタ(以下、「CHA」)111と、複数のディスクアダプタ(以下、「DKA」)112と、キャッシュメモリ113と、共有メモリ114と、接続制御部115及びサービスプロセッサ(以下、「SVP」)116とを備えて構成される。
各CHA111は、ホスト10との間のデータ通信を行うものである。各CHA111は、ホスト10と通信を行うための通信ポート111Pを少なくとも一つ以上備えている。各CHA111は、それぞれCPUやメモリ等を備えたマイクロコンピュータシステムとして構成されており、ホスト10から受信した各種コマンドを解釈して実行する。各CHA111には、それぞれを識別するためのネットワークアドレス(例えば、IPアドレスやWWN)が割り当てられており、各CHA111は、それぞれが個別にNAS(Network Attached Storage)として振る舞うことも可能である。複数のホスト10が存在する場合、各CHA111は、各ホスト10からの要求をそれぞれ個別に受け付けて処理する。
各DKA112は、記憶部120が有するディスクドライブ121との間でデータ授受を行うものである。各DKA112は、CHA111と同様に、CPUやメモリ等を備えたマイクロコンピュータシステムとして構成される。各DKA112は、SAN等の通信ネットワークCN3を介して、各ディスクドライブ121にそれぞれ接続されている。
各DKA112は、例えば、CHA111がホスト10から受信したデータや外部記憶制御装置200から読み出されたデータを、所定のディスクドライブ121の所定のアドレスに書込む。また、各DKA112は、所定のディスクドライブ121の所定のアドレスからデータを読み出し、ホスト10または外部記憶制御装置200に送信させる。
ディスクドライブ121との間でデータ入出力を行う場合、各DKA112は、論理的なアドレスを物理的なアドレスに変換する。論理的なアドレスとは、論理ボリューム123のブロック位置を示すアドレスであり、LBA(Logical Block Address)と呼ばれる。各DKA112は、ディスクドライブ121がRAIDに従って管理されている場合、RAID構成に応じたデータアクセスを行う。例えば、各DKA112は、同一のデータを別々のディスクドライブ群(RAIDグループ122)にそれぞれ書き込んだり、あるいは、パリティ計算を実行し、データ及びパリティをディスクドライブ群に書き込む。
キャッシュメモリ113は、ホスト10または外部記憶制御装置200から受信したデータを記憶したり、あるいは、ディスクドライブ121から読み出されたデータを記憶するものである。共有メモリ(制御メモリと呼ばれる場合がある)114には、記憶制御装置100の作動に使用するための各種の管理情報や制御情報等が格納される。
なお、ディスクドライブ121のいずれか一つあるいは複数を、キャッシュ用のディスクとして使用してもよい。また、キャッシュメモリ113と共有メモリ114とは、それぞれ別々のメモリとして構成することもできるし、同一のメモリの一部の記憶領域をキャッシュ領域として使用し、他の記憶領域を制御領域として使用することもできる。
接続制御部115は、各CHA111,各DKA112,キャッシュメモリ113及び共有メモリ114を相互に接続させるものである。接続制御部115は、例えば、高速スイッチング動作によってデータ伝送を行うクロスバスイッチ等のように構成できる。
SVP116は、例えば、LANのような通信ネットワークCN4を介して、各CHA111とそれぞれ接続されている。SVP116は、CHA111を介して、各DKA112やキャッシュメモリ113,共有メモリ114の情報にアクセスすることができる。SVP116は、記憶制御装置100内の各種状態に関する情報を収集して、管理端末20に提供する。ユーザは、管理端末20の画面を介して、記憶制御装置100の各種状態を知ることができる。また、ユーザは、管理端末20からSVP116を介して、例えば、ホスト10と論理ボリューム123とのアクセス経路の設定や、優先度保持時間の設定等を行うことができる。SVP116は、ユーザにより入力された情報を管理情報等に反映させる。
記憶部120は、複数のディスクドライブ121を備えている。ディスクドライブ121としては、例えば、ハードディスクドライブ、フレキシブルディスクドライブ、磁気テープドライブ、半導体メモリドライブ、光ディスクドライブ等のような各種記憶デバイス及びこれらの均等物を用いることができる。また、例えば、FC(Fibre Channel)ディスクやSATA(Serial AT Attachment)ディスク、ATAディスク等のような、異種類のディスクを記憶部120内に混在させることもできる。
複数のディスクドライブ121によって一つのRAIDグループ(パリティグループとも呼ばれる)122が形成される。RAIDグループ122の物理的な記憶領域には、所定サイズまたは任意サイズの論理ボリューム123を一つまたは複数設けることができる。なお、単一のディスクドライブ121の記憶領域に一つまたは複数の論理ボリューム123を設けることもできる。本実施例では、説明の便宜上、各論理ボリューム123のサイズは同一である場合を例に挙げて説明する。
なお、記憶制御装置100は、外部記憶制御装置200の有するディスクドライブ221に基づく仮想的な内部ボリュームを備えている。この仮想的内部ボリュームは、記憶制御装置100内のディスクドライブ121に基づいて生成される内部ボリューム123と同様にホスト10に提供される。
外部記憶制御装置200は、記憶制御装置100の外部に存在する別の記憶制御装置であるため、本実施例では、外部記憶制御装置と呼ぶ。記憶制御装置100を第1記憶制御装置と呼ぶのであれば、外部記憶制御装置200は第2記憶制御装置と呼ばれる。記憶制御装置100と外部記憶制御装置200とは、SAN等の通信ネットワークCN5を介して、接続されている。従って、記憶制御装置100を接続元記憶制御装置と呼ぶのであれば、外部記憶制御装置200は接続先記憶制御装置と呼ばれる。図2では、外部記憶制御装置200を一つだけ示しているが、図3等に示すように複数の外部記憶制御装置200を記憶制御装置100に接続することができる。
記憶制御装置100,200間を接続する通信ネットワークCN5は、ホスト10と記憶制御装置100とを接続するデータ入出力用の通信ネットワークCN1とは別の通信ネットワークとして構成することができる。これにより、ホスト10と記憶制御装置100との間の通信に影響を与えることなく、記憶制御装置100,200間でデータやコマンドを送受することができる。これに代えて、通信ネットワークCN1と通信ネットワークCN3とを共通の通信ネットワークとして構成してもよい。
外部記憶制御装置200は、例えば、コントローラ210と、複数のディスクドライブ221とを備えている。コントローラ210は、通信ポート及び通信ネットワークCN5を介して、記憶制御装置100に接続されている。記憶制御装置100で述べたと同様に、複数のディスクドライブ221からRAIDグループ222が構成され、RAIDグループ222には論理ボリューム223が設けられている。
外部記憶制御装置200は、記憶制御装置100とほぼ同様の構成を備えることもできるし、記憶制御装置100よりも簡易な構成を備えることもできる。外部記憶制御装置200のディスクドライブ221は、記憶制御装置100の内部記憶デバイスとして利用される。
図3は、記憶制御装置100により管理される論理ボリューム123の構成を模式的に示す説明図である。記憶部120の有する複数のディスクドライブ121は、性能や信頼性の異なる複数種類のディスクドライブ121A,121B,121Cにそれぞれ分類される。例えば、第1種類のディスクドライブ121Aは、FCディスクのような高性能かつ高信頼性のディスクドライブである。第2種類のディスクドライブ121Bは、例えば、SAS(Serial Attached SCSI)ディスクのような比較的高性能かつ高信頼性のディスクドライブである。第3種類のディスクドライブ121Cは、例えば、SATAディスクのような比較的低性能かつ低信頼性のディスクドライブである。なお、以上は例示であって、本発明は、上述した種類のディスクドライブに限定されない。
このように性能や信頼性が同じものを集めることにより、ボリュームグループ130A,130B,130Cが形成される。特に区別しない場合は、ボリュームグループ130と呼ぶ。最上位ランクのボリュームグループ130Aは、高性能のディスクドライブ121Aに基づいて生成された高性能の論理ボリューム123のグループである。最上位ランクよりも一つ下のランクのボリュームグループ130Bは、中性能のディスクドライブ121Bに基づいて生成された中性能の論理ボリューム123のグループである。さらに一つ下のランクのボリュームグループ130Cは、低性能のディスクドライブ121Cに基づいて生成された低性能の論理ボリューム123のグループである。
最下位ランクのボリュームグループ130Dは、外部記憶制御装置200内の論理ボリューム223に対応付けられている論理ボリューム123のグループである。記憶制御装置100内の論理ボリューム123を内部ボリュームと呼ぶ場合、外部記憶制御装置200内の論理ボリューム223は外部ボリュームと呼ぶことができる。本実施例では、最下位ランクのボリュームグループ130Dは、外部ボリューム223の集合体として構成されている。
後述のように、本実施例では、各データの価値を優先度という独自の指標で計測し、管理する。そして、各データの記憶場所を優先度に応じて決定する。優先度の高いデータほど、より上位のボリュームグループ130に移動される。優先度の低いデータほど、より下位のボリュームグループ130に移動される。ボリュームグループ間でのデータの移動には、各ボリュームグループ130にそれぞれ少なくとも一つ以上設けられているテンポラリボリュームが使用される。
なお、性能が高い、性能が低いというのは、本発明の理解のために使用される相対的な表現であって、低性能のディスクドライブ121Cを用いた場合でも、記憶制御装置100の信頼性は損なわれない。
図4は、記憶制御装置100内に形成される複数の階層の構成を模式的に示す説明図である。記憶制御装置100には、ホスト10に近い側から順番に、A層141A、B層141B、C層141C、D層141D及びE層141Eが設けられる。
最もホスト10に近いA層141Aは、ホスト10から論理ボリューム123へのアクセス経路を管理するアクセス経路管理層である。A層141Aは、ポート111Pやアクセスポイント151等を管理する。なお、記憶制御装置100の内部で一方のボリュームから他方のボリュームへコピーさせるという筐体内ボリュームコピーも、ホスト10からアクセスされる複数のアクセスポイント151でコピーペアを形成することにより実行されるため、A層141Aで管理される。
B層141Bは、A層141Aの下に位置して設けられる。B層141Bは、A層141AとC層141Cとの対応関係を管理するためのマッピング層である。B層141Bは、アクセスポイント151と管理用ボリューム152との対応関係を管理する。B層141Bによって、どのアクセスポイント151がどの論理ボリューム123にアクセスさせるかを管理できる。即ち、ホスト10がアクセスするアクセスポイント151を変更することなく、実際のアクセス先ボリューム123を切り替えることができる。また、B層141Bでは、アクセス属性を設定することもできる。
C層141Cは、B層141Bの下に位置して設けられる。C層141Cは、B層141B及び後述のD層141Dと共に「中間管理層」を形成する。C層141Cは、論理ボリューム123に記憶されるデータの価値を、優先度として管理する。優先度は、データの記憶される論理ボリューム123から切り離されて管理される。
D層141Dは、C層141Cの下に位置して設けられる。D層141Dは、C層141CとE層141Eとの対応関係を管理するための第2のマッピング層である。D層141Dは、論理ボリューム123をどの管理用ボリューム152で管理させるかを制御するためのものである。
E層141Eは、各論理ボリューム123を性能や信頼性に応じてボリュームグループ130に分類し、管理するためのボリューム管理層である。
図5は、優先度の算出方法等を示す説明図である。優先度を算出するパラメータとしては、例えば、アクセス頻度、最終更新時刻(及び最終アクセス時刻)、優先度保持時間が使用される。ユーザは、データマイグレーションポリシーに従って、任意の時間を優先度保持時間として設定することができる。最終更新時刻、最終アクセス時刻、アクセス頻度は、ホスト10から発行されるアクセス要求を解析することにより得られる。
優先度は、例えば、以下の式で算出される。優先度=−α×{(現在時刻)−(最終更新時刻)}+β(アクセス頻度)−γ{{(現在時刻)−(最終アクセス時刻)}/優先度保持時間}・・・(式1)
この式1中の各係数α、β、γには、それぞれ初期値が用意されているが、ユーザは、各係数の値を適宜調整することもできる。γ{{(現在時刻)−(最終アクセス時刻)}/優先度保持時間}の演算結果は、小数点以下を切り捨てる。
式1によれば、最終更新時刻が最近であればあるほど優先度は高くなる。式1によれば、アクセス頻度が多ければ多いほど優先度は高くなる。式1によれば、最後にアクセスされた時刻から優先度保持時間が経過する毎に、優先度が段階的に低下する。従って、図5の下側に示すように、データの優先度は、時間の経過につれて段階的に低下してく。但し、図5に示すグラフは、発明の理解のために、優先度が変化する一例を模式的に表すもので、全てのデータの優先度が図5に示すように変化するわけではない。
図6は、A層141A,B層141B及びC層141Cで管理される情報をそれぞれ示す説明図である。ホストアクセスポイント情報T1は、A層141A及びB層141Bによって管理される。
ホストアクセスポイント情報T1は、ホスト10がデータにアクセスするためのアクセス経路等を定義する情報である。ホストアクセスポイント情報T1は、例えば、ポートID_I11、ホストグループ情報I12、LUN_I13、アクセス属性I14、データID_I15の管理項目を備えている。なお、以上は、いわゆるホスト10がオープン系ホストの場合である。メインフレーム系のホストの場合、ポートIDはCU(Command Unit)番号に、ホストグループ情報はSSID(Subsystem ID)に、LUNはLDEV番号に、それぞれ変更される。
アクセス属性I14には、例えば、リード及びライトの両方が可能、リードのみ可能、リード及びライトの両方が禁止、空き容量0、コピー先としての設定禁止、隠蔽等の値を設定できる。空き容量0とは、ホスト10からの容量問合せコマンドに対して、実際の空き容量の値とは無関係に、空き容量が全く無い旨の応答を返す属性である。隠蔽とは、ホスト10からの問合せコマンドに対して応答を返さずに隠れる属性である。
データIDとは、記憶制御装置100により管理されている各データを一意に特定するための識別情報である。ポートID(CU番号)、ホストグループ情報(LDEV番号)及びLUN(SSID)は、A層141Aで管理される。アクセス属性及びデータIDは、B層141Bで管理される。
図6の下側には、C層141Cで管理されるデータ管理情報T2A及びTMPデータ管理T2Bがそれぞれ示されている。データ管理情報T2Aは、各論理ボリューム123に記憶されているデータを管理するための情報である。TMPデータ管理情報T2Bは、各ボリュームグループ130内に少なくとも一つずつ以上設けられるテンポラリボリュームに記憶されているデータを管理するための情報である。
データ管理情報T2Aには、例えば、データID_121Aと、ニックネームI22Aと、優先度I23Aと、最終更新時刻I24Aと、アクセス頻度I25Aと、優先度保持時間I26Aとの管理項目が含まれている。なお、ここでは、最終更新時刻I24A内で、最終アクセス時刻も管理されているものとする。ニックネームとは、データを簡便に特定するための情報である。
TMPデータ管理情報T2Bは、例えば、データID_I21Bと、差分ビットマップI22Bとを管理する。差分ビットマップI22Bは、テンポラリボリュームに先行してコピーされたデータとコピー元(移行元)のデータとの差分を管理するための差分管理情報である。
図7には、D層141Dで管理される情報等が示されている。データ−ボリューム対応情報T3は、D層141Dによって管理される。データ−ボリューム対応情報T3は、データと論理ボリューム123との対応関係を示す情報である。この情報T3は、例えば、データ管理情報I31と、内部ボリューム情報I32と、オンラインまたはオフラインの区別を示す情報I33との管理項目を備えている。
データ管理情報I31には、図6中に示すデータ管理情報T2AまたはTMPデータ管理情報T2Bのいずれかがセットされる。内部ボリューム情報I32には、図8で後述する内部ボリューム情報T6Aまたは外部ボリューム情報T6Bのいずれかがセットされる。項目I33には、論理ボリューム123がオンライン状態であるかオフライン状態であるかを示す情報がセットされる。
ボリュームグループ情報T4は、各ボリュームグループ130を管理するための情報である。ボリュームグループ情報T4は、例えば、ボリュームグループID_I41と、ニックネームI42と、性能値I43と、TMPボリューム数I44と、複数のデータ−ボリューム対応情報I45〜I47とを備えている。
ボリュームグループID_I41とは、ボリュームグループ130を一意に特定するための情報である。ニックネームI42とは、ボリュームグループ130を簡便に特定するための情報である。性能値I43とは、ボリュームグループ130の性能に関する値を示す情報である。性能に関する情報としては、例えば、ディスクドライブ121の種別、アクセス速度等を挙げることができる。TMPボリューム数I44とは、ボリュームグループ130内に設けられるテンポラリボリュームの数を示す情報である。データ−ボリューム対応情報I45〜I47とは、図7の上側に示すデータ−ボリューム対応情報T3を特定するための情報である。
データグループ情報T5は、バックアップ処理に使用するための管理情報である。データグループ情報T5は、例えば、データグループID_I51と、ニックネームI52と、バックアップスケジュールI53と、正ボリュームI54と、少なくとも一つ以上のボリュームグループID_I55〜I57とを管理する。
データグループID_I51とは、正ボリュームと副ボリュームとからコピーペアを形成するデータグループを特定するための情報である。ニックネームとは、データグループを簡便に特定するための情報である。バックアップスケジュールI53とは、正ボリュームのデータをバックアップするためのスケジュールを示す情報である。正ボリュームI54とは、正ボリュームを特定するための情報である。ボリュームグループID_I55〜I57は、ボリュームグループ情報T4を特定するための情報である。このようなデータグループ情報T5を用いることにより、どの正ボリュームのデータを、どのタイミングで、どのボリュームグループ130内の論理ボリューム123にバックアップさせるかを管理することができる。
図8は、E層141Eで管理される内部ボリューム情報T6A及び外部ボリューム情報T6Bを示す説明図である。内部ボリューム情報T6Aは、記憶制御装置100の内部に存在する論理ボリューム123を管理するための情報である。外部ボリューム情報T6Bは、外部記憶制御装置200内に存在する論理ボリューム223を管理するための情報である。
内部ボリューム情報T6Aは、例えば、ボリュームID_I61Aと、物理ドライブ情報I62Aとを備えている。物理ドライブ情報I62Aは、ボリュームID_I61Aで特定された論理ボリューム123が設けられているRAIDグループ122やディスクドライブ121に関する情報を記憶している。例えば、論理ボリューム123が設けられているディスクドライブ121を特定するための情報(ドライブ番号)、ディスクドライブ121の種別、RAIDグループ122のRAIDレベル、容量等を挙げることができる。
外部ボリューム情報T6Bは、例えば、ボリュームID_I61Bと、外部論理デバイス情報I62Bとを備えている。外部論理デバイス情報I62Bは、外部記憶制御装置200内の論理ボリューム223を特定するための情報を記憶している。例えば、外部記憶制御装置200を提供しているベンダの名称、外部記憶制御装置200の製品名称、外部記憶制御装置200の製造番号、論理ボリューム223にアクセスするための識別情報(例えば、ポート番号、LUN、ボリューム番号)等を挙げることができる。
図9〜図11に基づいて、優先度に基づいてデータを各ボリュームグループ130間で移動させる方法を説明する。優先度の決定方法、データマイグレーションの方法、データマイグレーション前にデータを先行してコピーさせる方法の詳細は、それぞれ別図と共に後述する。
図9は、データマイグレーションが開始されるよりも前に、優先度の高いデータをより上位のボリュームグループ130に移動させる様子を示す説明図である。このデータマイグレーション実行前に、優先度の高いデータを上位ボリュームグループ内のテンポラリボリュームにコピーさせる処理を、先行配置処理と呼ぶことにする。以下の説明では、上位のボリュームグループとしてボリュームグループ130Aを、下位のボリュームグループとしてボリュームグループ130Bをそれぞれ例に挙げて説明する。
図9(a)は、先行配置処理を開始する前の状態を示す。上位ボリュームグループ130Aの論理ボリューム123(A1)には、優先度”3”を有するデータAが記憶されている。ボリューム123(A2)は、テンポラリボリュームに設定されている。下位ボリュームグループ130Bの論理ボリューム123(B1)には、優先度”2”のデータBが、論理ボリューム123(B2)には、優先度”1”のデータCが、それぞれ記憶されている。ボリューム123(B3)は、テンポラリボリュームに設定されている。
下位ボリュームグループ130Bに着目すると、データBには、ホスト10からのアクセスが頻繁に行われており、その優先度は”2”に設定されている。従って、データBの優先度は、下位ボリューム130B内に記憶されている他のデータの優先度”1”よりも大きく、下位ボリュームグループ130B内に記憶されてるデータの中で最も高い優先度を有する。従って、データBは、次回のデータマイグレーション処理時に、より上位のボリュームグループ130Aに移される可能性が高い。
図9(b)に示すように、コントローラ110は、ホスト10がデータBにアクセスしていない時間を見計らって、下位ボリュームグループ130B内で最も高い優先度を有するデータBを、上位ボリュームグループ130A内のテンポラリボリューム123(A2)にコピーさせる。即ち、先行配置処理では、下位ボリュームグループ130B内で最も高い優先度のデータBを記憶する論理ボリューム123(B1)をコピー元とし、上位ボリュームグループ130A内のテンポラリボリューム123(A2)をコピー先とするコピーペアが設定される。
図9(c)に示すように、下位の論理ボリューム123(B1)から上位のテンポラリボリューム123(A2)へのデータコピーは、差分を管理しながら行われる。差分管理には、例えば、差分ビットマップ160が使用される。
ホスト10からデータBへのアクセス要求が発行された場合、コントローラ110は、基本的に、上位のテンポラリボリューム123(A2)に記憶されたデータBを用いてアクセス要求を処理する。
即ち、ホスト10から受信したライトデータは、テンポラリボリューム123(A2)内に書き込まれる。ライトデータの更新によって生じた差分は、差分ビットマップ160に記録される。ホスト10から読出しを要求されたデータは、テンポラリボリューム123(A2)から読み出される。コピー元の論理ボリューム123(B1)にのみ存在するデータの読出しが要求された場合、コントローラ110は、論理ボリューム123(B1)からデータを読み出してホスト10に送信する。
なお、下位のボリュームグループ130B内のテンポラリボリューム123(B3)には、さらに下位のボリュームグループ内で最も高い優先度を有するデータが、事前にコピーされている。
このように、下位ボリュームグループ130B内で最も優先度の高いデータBを、事前に上位ボリュームグループ130A内のテンポラリボリューム123(A2)にコピーしておき、テンポラリボリューム123(A2)を用いてホスト10からのアクセス要求を処理する。上位のテンポラリボリューム123(A2)は、より高性能のディスクドライブ121に基づいて形成されているため、アクセス要求を速やかに処理することができ、記憶制御装置100の応答性能を高めることができる。
図10は、データBの先行配置が失敗した場合の処理を示す説明図である。各データA〜Cの優先度は、定期的にまたは不定期に算出され、更新される。図10(a)は、データBの先行配置が完了した時点の様子を示す。この時点では、データBの最新の記憶内容は、上位のテンポラリボリューム123(A2)に保存されており、先行配置を開始した時の記憶内容は下位の論理ボリューム123(B1)に記憶されている。そして、ボリューム123(A2)とボリューム123(B1)との差分は、差分ビットマップ160により管理されている。
従って、先行配置の完了後には、データBは、異なる種類のボリューム123(A2)及びボリューム123(B1)の両方にそれぞれ記憶されている。従って、ボリューム123(A2)またはボリューム123(B1)のいずれか一方に障害が発生した場合でも、他方のボリュームを用いて最新のデータBを得ることができる。
データの優先度は、ホスト10からのアクセス状況に応じて時々刻々と変化する。従って、図10(b)に示すように、上位のテンポラリボリューム123(A2)にコピーされたデータBの優先度が、その後に”2”から”1”へ低下する事態も考えられる。図10(b)では、データBの優先度が一つ低下する一方、データCの優先度は”1”から”2”へ一つ増大している。
そこで、図10(c)に示すように、コントローラ110は、差分ビットマップ160及び上位のテンポラリボリューム123(A2)内のデータBを用いて、下位の論理ボリューム123(B1)内のデータBを最新状態にする。このようにして、データBをテンポラリボリューム123(A2)から論理ボリューム123(B1)に書き戻した後、コントローラ110は、最も高い優先度を有するデータCを、論理ボリューム123(B2)からテンポラリボリューム123(A2)にコピーさせる。
最後に、コントローラ110は、データBの先行配置処理で述べたと同様に、ホスト10からのアクセス要求を、テンポラリボリューム123(A2)に記憶されたデータCを用いて処理する(図10(d))。
図11は、各データの優先度に応じて、各データをそれぞれ適切な性能を有する論理ボリューム123に再配置させるデータマイグレーション処理を示す説明図である。図11(a)は、データマイグレーション処理が開始される前の状態を示す。下位ボリュームグループ130B内で最も高い優先度を有するデータDcは、上述した先行配置処理によって、上位ボリュームグループ130A内のテンポラリボリューム123(A2)に予め記憶されている。ボリューム123(A2)とボリューム123(B2)との差分は、差分ビットマップ160によって管理される。ホスト10からのアクセス要求は、上位のテンポラリボリューム123(A2)内のデータDcを用いて処理される。
しかし、図11(a)に示す時点では、データDcの正式な格納先(記憶先デバイス)は、コピー元のボリューム123(B2)である。上位のテンポラリボリューム123(A2)は、データDcの一時的な格納先として使用されているに過ぎない。
図11(b)は、データマイグレーション処理が実行された結果を示す。ここでは、各データDa,Db,Dcの優先度が改めて算出され、その結果として、データDaの優先度が”3”から”2”へ低下したとする。
データDcの優先度は”3”のまま変化しておらず、高い優先度を有している。従って、データDcは、下位ボリュームグループ130Bから上位ボリュームグループ130Aへの移行が決定される。上述の先行配置処理によって、データDcは、上位ボリュームグループ130A内のテンポラリボリューム123(A2)に事前にコピーされており、かつ、コントローラ110は、テンポラリボリューム123(A2)にコピーされたデータDcを用いてホスト10からのアクセス要求を処理している。
従って、テンポラリボリューム123(A2)に事前にコピーされたデータDcは、最新状態を保っている。そこで、コントローラ110は、C層141C及びD層141Dで管理されている情報を書き換えて、テンポラリボリューム123(A2)をデータDcの記憶先デバイスとして設定する。つまり、管理用の情報を書き換えるだけで、下位ボリュームグループ130Bから上位ボリュームグループ130Aへのデータ移動は、直ちに完了する。
データDcが上位ボリュームグループ130Aに移動された結果、移動元であるボリューム123(B2)は、二つ目のテンポラリボリュームとして使用できる。そこで、コントローラ110は、上位ボリュームグループ130A内で最も優先度の低いデータDaを、上位の論理ボリューム123(A1)から下位のテンポラリボリューム123(B2)にコピーさせる。即ち、コントローラ110は、ボリューム123(A1)とボリューム123(B2)とのコピーペアを設定し、データ移行が完了するまでの間、両ボリュームの差分を差分ビットマップ160で管理する。
図12は、優先度管理処理を示すフローチャートである。本処理を含む以下の各処理は、コントローラ110が所定のプログラムを実行することによって実現される。また、以下に述べる各フローチャートは、本発明の理解及び実施に必要な程度で処理の概要を示しており、実際のプログラムとは相違する場合がある。ステップの変更、追加、削除は、当業者であれば適宜行うことができるであろう。
コントローラ110は、例えば、コントローラ110内に設けられているタイマやカウンタ等から、現在時刻に関する情報を取得する(S10)。コントローラ110は、最終更新時刻(S11)、最終アクセス時刻(S12)、アクセス頻度(S13)及び優先度保持時間(S14)をそれぞれ取得する。そして、コントローラ110は、上述した式1を用いて優先度を算出し(S15)、データ管理情報T2A内の優先度を最新の値に書き換える(S16)。
コントローラ110は、全てのデータについて優先度の算出を行ったか否かを判定する(S17)。未処理のデータが残っている場合(S17:NO)、コントローラ110は、処理対象を次のデータに変更し(S18)、S10に戻る。全てのデータについて優先度の算出及び更新を完了すると、本処理は終了する。
図13は、先行配置処理を示すフローチャートである。コントローラ110は、優先度が変更されたか否かを判断する(S20)。優先度管理処理によって優先度が変更された場合(S20:YES)、コントローラ110は、上位ボリュームグループ内のテンポラリボリュームに、下位ボリュームグループ内で優先度の最も高いデータが事前にコピーされているか否かを判定する(S21)。即ち、コントローラ110は、データマイグレーション処理が開始されるよりも前に、移動対象のデータが事前に移動先のボリュームグループにコピーされているか否かを判定する。
上位のテンポラリボリュームに優先度の高いデータが予めコピーされている場合(S21:YES)、コントローラ110は、この予めコピーされたデータが下位ボリュームグループ内で最も高い優先度を有しているか否かを判定する(S22)。下位ボリュームグループ内で現在最も高い優先度を有するデータが、上位ボリュームグループ内のテンポラリボリュームに既にコピーされている場合、本処理を終了する。
これに対し、前回の先行配置処理で先行配置されていた下位ボリュームのデータの優先度が変更されしまい、下位ボリュームグループ内で最も高い優先度ではない場合(S22:NO)、前回の先行配置は失敗したことになる。そこで、コントローラ110は、上位のテンポラリボリュームで管理されている差分データを、コピー元の下位ボリュームに書き込んで、下位ボリューム内のデータを最新状態にする(S23)。
下位ボリュームグループ内で最も高い優先度のデータが上位のテンポラリボリュームに予めコピーされていない場合(S21:NO)、コントローラ110は、下位ボリュームグループ内で最も高い優先度を有するデータを、上位ボリュームグループ内のテンポラリボリュームにコピーさせる(S24)。コピー元である下位ボリュームとコピー先である上位のテンポラリボリュームとの間の差分は、上位ボリュームグループ側で管理される。コントローラ110は、上位のテンポラリボリュームにコピーされたデータを用いて、ホスト10からのアクセス要求を処理する(S25)。
図14は、データマイグレーション処理を示すフローチャートである。コントローラ110は、優先度が変更されたか否かを判定する(S30)。続いて、コントローラ110は、データ移動の必要があるか否かを判定する(S31)。
コントローラ110は、少なくとも一部のデータについて優先度が変更されており(S30:YES)、かつ、データを移動させる必要性があると判断した場合に(S31:YES)、以下に述べるデータマイグレーションを開始する。
S31では、例えば、ユーザによって予め設定されたデータマイグレーションポリシーに基づいて、データ移動を行うか否かを判断する。例えば、ユーザがデータマイグレーションの実行時期を予め指定しているような場合、コントローラ110は、その指定された実行時期が到来したか否かを判断する。
データマイグレーションの開始を決定した場合、コントローラ110は、上位ボリュームグループ内のテンポラリボリュームに記憶されているデータを確認する(S32)。コントローラ110は、下位ボリュームグループから上位ボリュームグループへの移動が決定されたデータが、上位のテンポラリボリュームに既にコピーされているか否かを判定する(S33)。
上述の先行配置処理によって、データマイグレーション処理が開始されるよりも前に、優先度の高いデータは、予め上位のテンポラリボリュームにコピーされている。そこで、コントローラ110は、この先行配置が成功したか否かをS33で判定する。
先行配置が成功している場合(S33:YES)、コントローラ110は、先行配置されたデータの管理用情報を書き換えることにより、下位ボリュームグループから上位ボリュームグループへのデータ移動を完了させる(S34)。
優先度の変更等によって先行配置が失敗した場合(S33:NO)、コントローラ110は、下位ボリュームグループ内で最も高い優先度を有するデータを、上位ボリュームグループ内のテンポラリボリュームにコピーさせる(S35)。
最後に、コントローラ110は、上位ボリュームグループ内で最も優先度の低いデータを、下位ボリュームグループ内の特定のボリュームにコピーすることにより、この優先度の最も低いデータを移動させる(S36)。特定のボリュームとは、例えば、図11(b)に示すボリューム123(B2)である。即ち、特定のボリュームとは、下位ボリュームグループから上位ボリュームグループへデータが移動されたために、新たなデータを受け入れることが可能となった下位ボリュームグループ内のボリュームである。
本実施例は上述の構成を備えるため、以下の効果を奏する。本実施例では、各ボリュームグループ内に設けられたテンポラリボリュームを用いて、各ボリュームグループ間でデータを移動させる構成とした。従って、データマイグレーションに要する時間を短縮することができ、使い勝手が向上する。
本実施例では、データマイグレーションを行うよりも前に、移動対象のデータを移動先として予定されるボリュームグループ内のテンポラリボリュームに予めコピーさせる構成とした。従って、データマイグレーションを速やかに完了させることができ、使い勝手が向上する。
本実施例では、優先度に基づいてデータの価値を判断し、各データをそれぞれ適切な性能のボリュームに配置する構成とした。従って、性能や信頼性に差のあるディスクドライブ121を有効に利用することができ、使い勝手が向上する。
本実施例では、ユーザの指定する優先度保持時間が経過する毎に優先度を変更する構成とした。従って、アクセス頻度や最終アクセス時刻等だけでは測ることのできないデータの価値を評価することができる。
本実施例では、各ボリュームグループ内に予め一つずつテンポラリボリュームを用意しておき、データ移動の完了に伴って新たなデータを受け入れ可能となった論理ボリュームを別のテンポラリボリュームとして利用する構成とした。従って、記憶制御装置100の有するボリュームを有効に利用することができ、コストの増大を抑えながら使い勝手を高めることができる。
図15及び図16に基づいて、本発明の第2実施例を説明する。本実施例を含む以下の実施例は、上述した第1実施例の変形例に相当する。本実施例では、外部記憶制御装置200から提供される外部ボリューム223をできるだけオフライン状態に設定することにより、外部記憶制御装置200への通電を停止して、ストレージシステム全体での電力消費量を低減する。
図15は、オフライン状態にするボリュームを外部記憶制御装置200に集めて、外部記憶制御装置200への通電を停止する様子を示す説明図である。図15(a)に示すように、ボリュームグループ130は、外部ボリューム223(1)〜223(3)に対応付けられている論理ボリューム123(1)〜123(3)から構成されている。
第1の外部記憶制御装置200(1)の有する外部ボリューム223(1)は、論理ボリューム123(1)に対応付けられており、この論理ボリューム123(1)に記憶されているデータBの優先度は”2”である。なお、正確には、論理ボリューム123(1)は仮想的な存在であって、データBを実際に記憶しているのは外部ボリューム223(1)である。
同様に、第2の外部記憶制御装置200(2)の有する一方の外部ボリューム223(2)は、論理ボリューム123(2)に対応付けられており、この論理ボリューム123(1)に記憶されているデータCの優先度は”3”である。第2の外部記憶制御装置200(2)の有する他方の外部ボリューム223(3)は、論理ボリューム123(3)に対応付けられており、この論理ボリューム123(3)に記憶されているデータの優先度は”1”である。
ボリュームグループ130内でオンライン状態に設定可能なボリュームの数が1であるとする。そこで、記憶制御装置100は、3個の論理ボリューム123(1)〜123(3)のうち、最も優先度の高いデータを記憶する論理ボリューム123(2)のみをオンライン状態とし、論理ボリューム123(1)及び123(3)をそれぞれオフライン状態に設定する。
そして、記憶制御装置100は、オンライン状態の論理ボリューム123(2)についてのみ、キャッシュメモリ113の記憶領域を割り当てる。オフライン状態の論理ボリューム123(1)及び123(3)には、キャッシュメモリ113の記憶領域は割り当てられない。オンライン状態の論理ボリューム123(2)にのみキャッシュメモリ113の記憶領域を割り当てることにより、キャッシュメモリ113を効率的に使用することができ、記憶制御装置100のコストを低減させることができる。なお、オンライン状態の論理ボリュームにのみ割り当てられる資源は、キャッシュメモリ113に限定されないが、ここでは説明の便宜上、キャッシュメモリ113を例に挙げて説明する。
図15(b)に示すように、記憶制御装置100は、データBとデータCの記憶場所を入れ替えることにより、論理ボリューム123(2),123(3)をそれぞれオフライン状態に設定する。データBとデータCとの記憶先デバイスの入れ替えは、他のボリュームグループ130内に設けられているテンポラリボリュームを用いることにより、実現することができる。例えば、データBをボリューム123(1)からテンポラリボリュームにコピーし、データCをボリューム123(2)からボリューム123(1)にコピーし、データBをテンポラリボリュームからボリューム123(2)にコピーすれば、データBをボリューム123(2)に、データCをボリューム123(1)に、それぞれ記憶させることができる。
データBとデータCの記憶場所を入れ替えた結果、第2の外部記憶制御装置200(2)の外部ボリューム223(2),223(3)にマッピングされている論理ボリューム123(2),123(3)はそれぞれオフライン状態に設定される。従って、第2の外部記憶制御装置200(2)の作動を停止させても、ストレージシステムとしては何ら不都合を生じない。外部ボリューム223(2),223(3)は、ホスト10から使用されていないオフライン状態のボリュームに対応付けられているためである。
そこで、記憶制御装置100は、第2の外部記憶制御装置200(2)への電源供給を停止させる。これにより、ストレージシステム全体としての消費電力が低減され、ストレージシステムの運用コストが低下する。
図16は、オフライン状態のボリュームを管理するための処理を示すフローチャートである。コントローラ110は、外部記憶制御装置200の有する外部ボリューム223から構成されているボリュームグループ130の情報を取得する(S40)。続いて、コントローラ110は、外部記憶制御装置200に関する情報を取得する(S41)。
コントローラ110は、複数の外部記憶制御装置200のうち特定の外部記憶制御装置200から提供されている全ての外部ボリューム223がオフライン状態であるか否かを判定する(S42)。正確には、コントローラ110は、一つの外部記憶制御装置200の有する各外部ボリューム223に対応付けられている論理ボリューム123が全てオフライン状態であるか否かを判定する。
特定の外部記憶制御装置200内でオンライン状態の外部ボリューム223とオフライン状態の外部ボリューム223とが混在する場合(S42:NO)、図15で述べたように、コントローラ110は、別の外部記憶制御装置200から提供されているオフライン状態の外部ボリューム223を、特定の外部記憶制御装置200に移動させる(S43)。
即ち、より正確に述べると、特定の外部記憶制御装置200内の複数の外部ボリューム223にそれぞれ対応付けられている複数の論理ボリューム123の状態がオンライン状態とオフライン状態とに分かれている場合、コントローラ110は、特定の外部記憶制御装置200内の全ての外部ボリューム223がオフライン状態の論理ボリューム123に対応付けられるように、データの記憶先を変更する(S43)。
そして、コントローラ110は、特定の外部記憶制御装置200への電源供給をコントローラ110によって制御可能か否かを判断する(S44)。例えば、記憶制御装置100及び特定の外部記憶制御装置200の両方が、電源供給を遠隔から制御するためのコマンドや信号を送受するためのインターフェース等をそれぞれ備えているような場合(S44:YES)、コントローラ110からの指令によって、特定の外部記憶制御装置200への電源供給を自動的に停止させることができる(S45)。
これに対し、コントローラ110からの指令によって特定の外部記憶制御装置200への電源供給を制御できない場合(S44:NO)、コントローラ110は、管理端末20を介して、特定の外部記憶制御装置200への電源供給を停止可能である旨をユーザに通知する(S46)。
このように構成される本実施例も前記第1実施例と同様の効果を奏する。これに加えて、本実施例では、テンポラリボリュームを利用して、オフライン状態の論理ボリューム123を、特定の外部記憶制御装置200内の外部ボリューム223に対応付けることができ、特定の外部記憶制御装置200への電源供給を停止させることができる。従って、ストレージシステムの電力消費量を低減して、運用コストを節約することができる。
図17〜図23に基づいて第3実施例を説明する。本実施例では、テンポラリボリュームを用いて、バックアップ指示が発行されるよりも前に、バックアップ対象のボリュームのバックアップを予め作成する。
図17〜図22は、正ボリューム123(A1)に記憶されているバックアップ対象のデータDaを、自動的かつ段階的にバックアップする様子を示す説明図である。ホスト10により使用される正ボリューム123(A1)は、管理用ボリューム152(1)によって、アクセスポイント151(1)と対応付けられている。バックアップ対象のデータ(運用中のデータ)Daの最初の優先度は”1”であるとする。
図18に示すように、ホスト10がデータDaにアクセスしていない時期を見計らって、コントローラ110は、正ボリューム123(A1)から、一つ下位のボリュームグループ130B内に設けられているテンポラリボリューム123(B1)に、データDaをコピーさせる。そして、このテンポラリボリューム123(B1)にコピーされたデータを管理するための管理用ボリューム152(2)で、テンポラリボリューム123(B1)にコピーされたデータDaの優先度を管理させる。コントローラ110は、コピー完了後に発生した、正ボリューム123(A1)とテンポラリボリューム123(B1)との間の差分を、正ボリューム123(A1)側で管理する。
図19に示すように、バックアップスケジュールまたはユーザからの指示によって、データDaのバックアップ処理を開始する場合、コントローラ110は、正ボリューム123(A1)とテンポラリボリューム123(B1)との差分を、テンポラリボリューム123(B1)内のデータDaに反映させる。そして、コントローラ110は、テンポラリボリューム123(B1)を、データDaを記憶しているデバイスとして設定する。即ち、以後の管理上、ボリューム123(B1)に記憶されているデータDaが、実データとして取り扱われる。これにより、データDaのバックアップが完了する。
ホスト10は、バックアップ処理の完了後、正ボリューム123(A1)をそのまま使用して、業務処理を継続する。正ボリューム123(A1)には、新たな運用中データDbが記憶される。
図20に示すように、ボリューム123(B1)に記憶されたデータDaは、バックアップデータであるため、ホスト10からアクセスされる頻度は、低下する。従って、データDaの優先度は、次第に低下していく。そして、データマイグレーション処理によって、データDaは、より下位のボリュームグループ130C内のテンポラリボリューム123(C1)に移動される。
図21に示すように、新たな運用中データDbも、図18で述べたように、ホスト10がデータDbにアクセスしない時間を見計らって、下位のボリュームグループ130B内のテンポラリボリューム123(B1)にコピーされる。
図22に示すように、上述の動作を繰り返すことにより、正ボリューム123(A1)内のデータのバックアップが自動的に作成されていき、古い世代のバックアップデータほど下位のボリュームグループ130に配置される。
そして、ホスト10は、バックアップデータへアクセスするためのアクセスポイント151(2)に接続を切り替えるだけで、所望の世代のバックアップデータにアクセスすることができる。バックアップデータ用のアクセスポイント151(2)と各世代のバックアップデータを管理する管理用ボリューム152(2),152(3)との対応関係を、記憶制御装置100の内部で切り替えるだけで、ホスト10の希望する世代のバックアップデータをホスト10に提供することができる。なお、図22中では、紙面の都合上、管理用ボリューム152(1)及び152(2)の二つのみに符号を与えているが、各バックアップデータ用に管理用ボリューム152が用意されている。
なお、図22中の外部記憶制御装置200(2)に対応付けられる論理ボリューム123(C3),123(C4),123(C5)は、それぞれオフライン状態に設定されている。これらの各ボリューム123(C3)〜123(C5)は、データを移動させる場合にのみ、一時的にオンライン状態に設定される。
図23は、上述したバックアップ処理を示すフローチャートである。コントローラ110は、運用中データへのホスト10からのアクセスが途絶えたか否かを判定し(S50)、ホスト10から運用中データへのアクセスが途絶えた場合(S50:YES)、運用中データについて差分を管理している最中であるか否かを判定する(S51)。差分を管理中である場合(S51:YES)、現在運用中のデータは既に下位のテンポラリボリュームにコピーされている場合であるから、以下のS52,S53をスキップして、S54に移る。
運用中データについての差分管理を行っていない場合(S51:NO)、コントローラ110は、運用中データを下位のボリュームグループ内のテンポラリボリュームにコピーさせ(S52)、差分管理を開始する(S53)。差分管理には、例えば、差分ビットマップ160が用いられる。
コントローラ110は、バックアップを作成すべき旨の指示が与えられたか否かを判定する(S54)。例えば、バックアップスケジュールに基づいて、バックアップの作成時期が到来したと判断された場合、コントローラ110は、運用中データがコピーされたテンポラリボリュームに差分を反映させ(S55)、以後、テンポラリボリュームに記憶されたデータを、運用中データのバックアップデータとして管理する(S56)。これにより、運用中データのバックアップ処理が完了する。
このように構成される本実施例も前記第1実施例と同様の効果を奏する。これに加えて、本実施例では、テンポラリボリュームを用いて、運用中データのバックアップを自動的に作成することができ、使い勝手が向上する。また、運用中データを予めテンポラリボリュームにコピーしておくため、コピー後に発生した差分をテンポラリボリュームに書き込むだけで、運用中データのバックアップを速やかに作成することができる。従って、バックアップ時間を短縮して、使い勝手を高めることができる。
図24に基づいて第4実施例を説明する。本実施例では、複数の記憶制御装置100(1),100(2),100(3)をそれぞれ外部接続機能を用いて相互に接続し、各記憶制御装置100(1)〜100(3)の有するボリュームを、各記憶制御装置100(1)〜100(3)のE層でそれぞれ管理する。なお、図中では、紙面の都合上、「記憶制御装置」を「ストレージ」と表示している。図中の「ストレージ(1)」とは記憶制御装置100(1)を、「ストレージ(2)」とは「記憶制御装置100(2)」を、「ストレージ(3)」とは記憶制御装置100(3)を、それぞれ示す。同様に、「ホスト(1)」とはホスト10(1)を、「ホスト(2)」とはホスト10(2)を、「ホスト(3)」とはホスト10(3)を、それぞれ示す。
外部接続機能とは、記憶制御装置100と外部記憶制御装置200との関係で述べたように、一方の記憶制御装置が他方の記憶制御装置の有するボリュームを、あたかも自分自身の内部ボリュームであるかのようにして取り込む機能である。各記憶制御装置100(1)〜100(3)内に、他の記憶制御装置内のボリュームにマッピングされる仮想的なボリュームを作成することにより、各記憶制御装置は、他の記憶制御装置の有するボリュームを内部に取り込んで利用することができる。
各記憶制御装置100(1)〜100(3)は、各データをB層及びC層を用いてそれぞれ管理し、各データを更新可能なホストについての制限を設定する。即ち、予め許可されているホスト以外のホストによってデータが更新されることがないように、更新に関する制限を設定する。なお、各ホスト10(1)〜10(3)が全データをそれぞれ読み出すことができるように設定される。
そして、ストレージシステム内の各データを、各記憶制御装置100(1)〜100(3)のうち、最もアクセス頻度の高いホストに接続されている記憶制御装置内に配置されるように、データマイグレーション処理を行う。
なお、本発明は、上述した各実施例に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。
1…記憶制御装置、1A…中間記憶階層、2…ディスクドライブ、2A,2B…ディスクドライブ、3…論理ボリューム、3T…テンポラリボリューム、4A,4B,4C…ボリュームグループ、5…制御部、6A,6B,6C…アクセスポイント、7A,7B,7C…管理用ボリューム、8…ホスト、9…外部記憶制御装置、9A…論理ボリューム(外部ボリューム)、10…ホスト、20…管理端末、100,100(1),100(2),100(3)…記憶制御装置、110…コントローラ、111…チャネルアダプタ(CHA)、111P…通信ポート、112…ディスクアダプタ(DKA)、113…キャッシュメモリ、114…共有メモリ、115…接続制御部、120…記憶部、121,121A,121B,121C…ディスクドライブ、122…RAIDグループ、123…論理ボリューム、130,130A,130B,130C…ボリュームグループ、141A…A層、141B…B層、141C…C層、141D…D層、141E…E層、151…アクセスポイント、152…管理用ボリューム、160…差分ビットマップ、200,200(1),200(2)…外部記憶制御装置、210…コントローラ、221…ディスクドライブ、222…RAIDグループ、223…論理ボリューム(外部ボリューム)
Claims (18)
- 上位装置により利用されるデータを記憶するための複数の記憶ドライブと、これら各記憶ドライブと前記上位装置との間のデータ入出力を制御するコントローラとを備える記憶制御装置であって、
前記各記憶ドライブの有する物理的記憶領域に基づいて形成された複数の論理ボリュームと、
前記各論理ボリュームを複数個ずつグループ化してそれぞれ形成された複数のボリュームグループと、
前記コントローラ内に設けられ、前記上位装置から発行されるアクセス要求に基づいて、前記各論理ボリュームに記憶されているデータの優先度をそれぞれ検出して管理する優先度管理部と、
前記コントローラ内に設けられ、前記優先度管理部により管理されている前記各優先度に基づいて、前記各ボリュームグループ間で前記データを移動させるデータ移動部と、を備え、
前記各ボリュームグループ内の前記各論理ボリュームのうち、少なくとも一つ以上の論理ボリュームは、前記データの移動に用いるテンポラリボリュームとして設定され、
前記データ移動部は、前記テンポラリボリュームを用いて、移動対象のデータを前記各ボリュームグループ間で予め移動させる記憶制御装置。 - 前記データ移動部は、前記移動対象のデータの移動が決定されるよりも前に、前記テンポラリボリュームを用いて、前記移動対象のデータを前記各ボリュームグループ間で予め移動させる請求項1に記載の記憶制御装置。
- 前記各ボリュームグループをそれぞれ構成する前記各論理ボリュームの種類に応じて、前記各ボリュームグループは、ランク分けされる請求項1に記載の記憶制御装置。
- 前記各記憶ドライブは、それぞれ性能の異なる複数種類の記憶ドライブに分類され、
前記各ボリュームグループを構成する前記各論理ボリュームが設けられている前記記憶ドライブの種類に応じて、前記各ボリュームグループは、最高ランクのボリュームグループから最低ランクのボリュームグループまでランク分けされる請求項3に記載の記憶制御装置。 - 前記データ移動部は、前記優先度の高いデータがより上位のランクのボリュームグループ内に位置し、前記優先度の低いデータがより下位のランクのボリュームグループ内に位置するように、前記テンポラリボリュームを用いて前記各ボリュームグループ間で前記移動対象のデータを移動させる請求項3に記載の記憶制御装置。
- 前記優先度管理部は、前記上位装置が前記各データへアクセスした最終時刻、及び、前記上位装置が前記各データにアクセスした頻度に基づいて、前記各データ毎にそれぞれ前記優先度を検出して管理する請求項1に記載の記憶制御装置。
- 前記優先度管理部は、前記上位装置が前記各データへアクセスした最終時刻と、前記上位装置が前記各データにアクセスした頻度、及び、前記各データについて予め設定された優先度保持時間とに基づいて、前記各データ毎にそれぞれ前記優先度を検出して管理する請求項1に記載の記憶制御装置。
- 前記データ移動部は、相対的に低ランクの移動元ボリュームグループに含まれる前記各データのうち最も高い優先度を有するデータを移動対象データとして選択し、この移動対象データを、一つ上のランクの移動先ボリュームグループに含まれる前記テンポラリボリュームに予めコピーする請求項4に記載の記憶制御装置。
- 前記データ移動部は、前記上位装置から前記移動対象データへ向けて発行されるアクセス要求を、前記移動先ボリュームグループ内の前記テンポラリボリュームにコピーされた前記移動対象データを用いて処理させる請求項8に記載の記憶制御装置。
- 前記データ移動部は、前記移動対象データについて、前記移動先ボリュームグループ内の前記テンポラリボリュームと前記移動元ボリュームグループ内の移動元論理ボリュームとの差分を管理する請求項9に記載の記憶制御装置。
- 前記データ移動部は、前記優先度管理部によって前記移動対象データの優先度が低下された場合、前記差分を前記移動元論理ボリュームに反映させ、かつ、前記移動元ボリュームグループ内で最も高い優先度に設定された別のデータを前記移動先ボリュームグループ内の前記テンポラリボリュームにコピーさせる請求項10に記載の記憶制御装置。
- 前記データ移動部は、上位ランクのボリュームグループ内に存在するバックアップ対象の論理ボリュームに記憶されているバックアップ対象データを、下位ランクのボリュームグループ内のテンポラリボリュームに予めコピーする請求項1に記載の記憶制御装置。
- 前記データ移動部は、前記バックアップ対象データについて、前記バックアップ対象の論理ボリュームと前記下位ランクのボリュームグループ内の前記テンポラリボリュームとの差分を管理しており、バックアップの実行が指示された場合には、前記差分を前記テンポラリボリュームに反映させることによりバックアップを完了させる請求項12に記載の記憶制御装置。
- 前記コントローラは、(1)前記上位装置からアクセスされるアクセスポイントを管理するアクセス経路管理層と、(2)前記各論理ボリュームを管理するボリューム管理層と、(3)前記ボリューム管理層に記憶されている前記データに関する管理用情報、及び、前記アクセスポイントと前記論理ボリュームとの対応付けをそれぞれ管理する中間管理層とを、それぞれ制御する請求項1に記載の記憶制御装置。
- 前記中間管理層は、前記管理用情報を管理する第1層と、前記アクセスポイントと前記第1層との対応関係を管理する第2層と、前記第1層と前記ボリューム管理層との対応付けを管理する第3層とを含んで構成される請求項14に記載の記憶制御装置。
- 前記各ボリュームグループのうち少なくとも一つの特定のボリュームグループは、複数の別の記憶制御装置内にそれぞれ存在する別の論理ボリュームに対応付けられている仮想的な論理ボリュームから構成されており、
前記コントローラは、前記仮想的な論理ボリュームがオンライン状態に設定された場合に前記コントローラ内のキャッシュメモリを割り当て、前記仮想的な論理ボリュームがオフライン状態に設定された場合には前記キャッシュメモリを割り当てない請求項1に記載の記憶制御装置。 - 前記コントローラは、特定の前記別の記憶制御装置内の前記別の論理ボリュームに対応付けられている特定の前記仮想的な論理ボリュームに、前記優先度の低いデータを記憶させ、かつ、前記特定の仮想的な論理ボリュームが全てオフライン状態に設定された場合に、前記特定の別の記憶制御装置への電源供給が停止可能である旨を通知するか、または、前記特定の別の記憶制御装置への電源供給を自動的に停止させる請求項16に記載の記憶制御装置。
- 上位装置により利用されるデータを記憶するための複数の記憶ドライブと、これら各記憶ドライブと前記上位装置との間のデータ入出力を制御するコントローラとを備える記憶制御装置を用いたデータ移動方法であって、
前記コントローラは、
前記各記憶ドライブの有する物理的記憶領域に基づいて形成された複数の論理ボリュームを、前記各記憶ドライブの性能別に複数個ずつグループ化して複数のボリュームグループをそれぞれ生成し、かつ、前記各ボリュームグループ内の前記各論理ボリュームのうち少なくとも一つ以上の論理ボリュームを、データを移動させるためのテンポラリボリュームとして設定するステップと、
前記上位装置から発行されるアクセス要求に基づいて、前記各論理ボリュームに記憶されているデータの優先度をそれぞれ検出して管理するステップと、
前記優先度の高いデータがより性能の高い記憶ドライブに関連するボリュームグループ内に記憶され、前記優先度の低いデータがより性能の低い記憶ドライブに関連するボリュームグループ内に記憶されるように、データ移動が決定されるよりも前に、前記テンポラリボリュームを用いて、前記各ボリュームグループ間でデータを移動させるステップと、をそれぞれ実行する記憶制御装置のデータ移動方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006294300A JP2008112291A (ja) | 2006-10-30 | 2006-10-30 | 記憶制御装置及び記憶制御装置のデータ移動方法 |
US11/640,324 US7581061B2 (en) | 2006-10-30 | 2006-12-18 | Data migration using temporary volume to migrate high priority data to high performance storage and lower priority data to lower performance storage |
EP07253166A EP1918810A3 (en) | 2006-10-30 | 2007-08-13 | Storage control device and data migration method for storage control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006294300A JP2008112291A (ja) | 2006-10-30 | 2006-10-30 | 記憶制御装置及び記憶制御装置のデータ移動方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008112291A true JP2008112291A (ja) | 2008-05-15 |
Family
ID=38925563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006294300A Pending JP2008112291A (ja) | 2006-10-30 | 2006-10-30 | 記憶制御装置及び記憶制御装置のデータ移動方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7581061B2 (ja) |
EP (1) | EP1918810A3 (ja) |
JP (1) | JP2008112291A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011108027A1 (ja) * | 2010-03-04 | 2011-09-09 | 株式会社日立製作所 | 計算機システム及びその制御方法 |
JP2016058033A (ja) * | 2014-09-12 | 2016-04-21 | 富士通株式会社 | ストレージ制御装置およびストレージ制御プログラム |
JP2016532927A (ja) * | 2014-02-18 | 2016-10-20 | 株式会社日立製作所 | 論理ボリュームを管理するためのシステム及び方法 |
JP2017174219A (ja) * | 2016-03-24 | 2017-09-28 | 日本電気株式会社 | 情報処理システム、ストレージ装置、情報処理方法及びプログラム |
US9946488B2 (en) | 2014-09-30 | 2018-04-17 | International Business Machines Corporation | Automated migration of file recalled by specific application |
JP2019125175A (ja) * | 2018-01-17 | 2019-07-25 | 富士通株式会社 | データ処理装置、データ処理システムおよびデータ処理プログラム |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4863605B2 (ja) * | 2004-04-09 | 2012-01-25 | 株式会社日立製作所 | 記憶制御システム及び方法 |
US7536529B1 (en) | 2005-06-10 | 2009-05-19 | American Megatrends, Inc. | Method, system, apparatus, and computer-readable medium for provisioning space in a data storage system |
US7747835B1 (en) | 2005-06-10 | 2010-06-29 | American Megatrends, Inc. | Method, system, and apparatus for expanding storage capacity in a data storage system |
JP2008146574A (ja) * | 2006-12-13 | 2008-06-26 | Hitachi Ltd | 記憶制御装置及び記憶制御方法 |
US8140775B1 (en) | 2007-04-13 | 2012-03-20 | American Megatrends, Inc. | Allocating background workflows in a data storage system using autocorrelation |
US8006061B1 (en) * | 2007-04-13 | 2011-08-23 | American Megatrends, Inc. | Data migration between multiple tiers in a storage system using pivot tables |
US8370597B1 (en) * | 2007-04-13 | 2013-02-05 | American Megatrends, Inc. | Data migration between multiple tiers in a storage system using age and frequency statistics |
US8024542B1 (en) | 2007-04-13 | 2011-09-20 | American Megatrends, Inc. | Allocating background workflows in a data storage system using historical data |
US8001352B1 (en) * | 2007-04-17 | 2011-08-16 | American Megatrends, Inc. | Networked raid in a virtualized cluster |
US8271757B1 (en) | 2007-04-17 | 2012-09-18 | American Megatrends, Inc. | Container space management in a data storage system |
JP4477681B2 (ja) * | 2008-03-06 | 2010-06-09 | 富士通株式会社 | 階層記憶装置、制御装置、および制御方法 |
US8392370B1 (en) * | 2008-03-28 | 2013-03-05 | Emc Corporation | Managing data on data storage systems |
JP5488952B2 (ja) * | 2008-09-04 | 2014-05-14 | 株式会社日立製作所 | 計算機システム及びデータ管理方法 |
US8315981B2 (en) * | 2009-03-31 | 2012-11-20 | Commvault Systems, Inc. | Data mining systems and methods for heterogeneous data sources |
JP4862067B2 (ja) * | 2009-06-09 | 2012-01-25 | 株式会社日立製作所 | キャッシュ制御装置及び方法 |
US9465804B1 (en) * | 2009-10-13 | 2016-10-11 | Veritas Technologies Llc | Techniques for managing shortcut storage |
US20110107042A1 (en) * | 2009-11-03 | 2011-05-05 | Andrew Herron | Formatting data storage according to data classification |
US8627004B2 (en) * | 2010-01-07 | 2014-01-07 | International Business Machines Corporation | Extent migration for tiered storage architecture |
US8825603B2 (en) | 2010-05-19 | 2014-09-02 | International Business Machines Corporation | Ordering volumes and tracks for data transfer based on usage characteristics |
WO2012004837A1 (en) * | 2010-07-09 | 2012-01-12 | Hitachi, Ltd. | Storage apparatus and storage management method |
JP5605043B2 (ja) * | 2010-07-16 | 2014-10-15 | 富士通株式会社 | データコピー装置、データコピー方法およびストレージ装置 |
US8356140B2 (en) * | 2010-07-19 | 2013-01-15 | Hitachi, Ltd. | Methods and apparatus for controlling data between storage systems providing different storage functions |
US8856439B2 (en) * | 2010-12-03 | 2014-10-07 | Lsi Corporation | Method and device for utilizing application-level prior knowledge for selectively storing data in higher performance media |
US8782340B2 (en) * | 2010-12-06 | 2014-07-15 | Xiotech Corporation | Hot sheet upgrade facility |
US20120150925A1 (en) * | 2010-12-10 | 2012-06-14 | International Business Machines Corporation | Proactive Method for Improved Reliability for Sustained Persistence of Immutable Files in Storage Clouds |
US8621170B2 (en) | 2011-01-05 | 2013-12-31 | International Business Machines Corporation | System, method, and computer program product for avoiding recall operations in a tiered data storage system |
US9201751B1 (en) * | 2011-04-18 | 2015-12-01 | American Megatrends, Inc. | Data migration between multiple tiers in a storage system using policy based ILM for QOS |
US9250810B2 (en) | 2011-08-17 | 2016-02-02 | International Business Machines Corporation | Priority based depopulation of storage ranks |
US8838916B2 (en) | 2011-09-15 | 2014-09-16 | International Business Machines Corporation | Hybrid data storage management taking into account input/output (I/O) priority |
US20130185531A1 (en) * | 2012-01-17 | 2013-07-18 | Hitachi, Ltd. | Method and apparatus to improve efficiency in the use of high performance storage resources in data center |
US20140229654A1 (en) * | 2013-02-08 | 2014-08-14 | Seagate Technology Llc | Garbage Collection with Demotion of Valid Data to a Lower Memory Tier |
US20140281300A1 (en) * | 2013-03-15 | 2014-09-18 | Silicon Graphics International Corp. | Opportunistic Tier in Hierarchical Storage |
US20140281322A1 (en) * | 2013-03-15 | 2014-09-18 | Silicon Graphics International Corp. | Temporal Hierarchical Tiered Data Storage |
JP6307962B2 (ja) * | 2014-03-19 | 2018-04-11 | 日本電気株式会社 | 情報処理システム、情報処理方法、及び、情報処理プログラム |
WO2016067328A1 (ja) * | 2014-10-27 | 2016-05-06 | 株式会社日立製作所 | 不揮発メモリデバイスを有するストレージ装置、及び、不揮発メモリデバイス |
US10127110B2 (en) | 2015-07-31 | 2018-11-13 | International Business Machines Corporation | Reallocating storage in a dispersed storage network |
US9940057B2 (en) | 2015-10-20 | 2018-04-10 | International Business Machines Corporation | I/O statistic based depopulation of storage ranks |
JP2018077787A (ja) * | 2016-11-11 | 2018-05-17 | 富士通株式会社 | ストレージ制御装置およびストレージ制御プログラム |
US10437799B2 (en) * | 2016-12-02 | 2019-10-08 | International Business Machines Corporation | Data migration using a migration data placement tool between storage systems based on data access |
US10437800B2 (en) * | 2016-12-02 | 2019-10-08 | International Business Machines Corporation | Data migration using a migration data placement tool between storage systems based on data access |
US10481822B2 (en) * | 2017-07-31 | 2019-11-19 | Capital One Services, Llc | Systems and methods for providing customer service functionality during portfolio migration downtime |
US10552269B2 (en) * | 2017-08-31 | 2020-02-04 | International Business Machines Corporation | Backup optimization in hybrid storage environment |
WO2019127234A1 (zh) * | 2017-12-28 | 2019-07-04 | 华为技术有限公司 | 一种对象迁移的方法、设备和*** |
US11947799B1 (en) | 2019-10-11 | 2024-04-02 | Amzetta Technologies, Llc | Systems and methods for using the TRIM command with solid state devices |
CN114816839A (zh) * | 2021-01-21 | 2022-07-29 | 伊姆西Ip控股有限责任公司 | 用于管理存储***的方法、设备和计算机程序产品 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001337790A (ja) * | 2000-05-24 | 2001-12-07 | Hitachi Ltd | 記憶システム及びその階層管理制御方法 |
JP4196579B2 (ja) | 2002-04-10 | 2008-12-17 | 株式会社日立製作所 | ストレージ運用管理方法およびシステム |
JP4322031B2 (ja) | 2003-03-27 | 2009-08-26 | 株式会社日立製作所 | 記憶装置 |
JP4428993B2 (ja) * | 2003-11-27 | 2010-03-10 | 株式会社日立製作所 | ディスクアレイ装置及びディスクアレイ装置の制御方法 |
US7177883B2 (en) * | 2004-07-15 | 2007-02-13 | Hitachi, Ltd. | Method and apparatus for hierarchical storage management based on data value and user interest |
US7698517B2 (en) * | 2004-12-02 | 2010-04-13 | Storagedna, Inc. | Managing disk storage media |
-
2006
- 2006-10-30 JP JP2006294300A patent/JP2008112291A/ja active Pending
- 2006-12-18 US US11/640,324 patent/US7581061B2/en not_active Expired - Fee Related
-
2007
- 2007-08-13 EP EP07253166A patent/EP1918810A3/en not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011108027A1 (ja) * | 2010-03-04 | 2011-09-09 | 株式会社日立製作所 | 計算機システム及びその制御方法 |
US8645750B2 (en) | 2010-03-04 | 2014-02-04 | Hitachi, Ltd. | Computer system and control method for allocation of logical resources to virtual storage areas |
JP2016532927A (ja) * | 2014-02-18 | 2016-10-20 | 株式会社日立製作所 | 論理ボリュームを管理するためのシステム及び方法 |
JP2016058033A (ja) * | 2014-09-12 | 2016-04-21 | 富士通株式会社 | ストレージ制御装置およびストレージ制御プログラム |
US9946488B2 (en) | 2014-09-30 | 2018-04-17 | International Business Machines Corporation | Automated migration of file recalled by specific application |
US10013206B2 (en) | 2014-09-30 | 2018-07-03 | International Business Machines Corporation | Automated migration of file recalled by specific application |
US10055165B2 (en) | 2014-09-30 | 2018-08-21 | International Business Machines Corporation | Automated migration of file recalled by specific application |
JP2017174219A (ja) * | 2016-03-24 | 2017-09-28 | 日本電気株式会社 | 情報処理システム、ストレージ装置、情報処理方法及びプログラム |
JP2019125175A (ja) * | 2018-01-17 | 2019-07-25 | 富士通株式会社 | データ処理装置、データ処理システムおよびデータ処理プログラム |
JP7068573B2 (ja) | 2018-01-17 | 2022-05-17 | 富士通株式会社 | データ処理装置、データ処理システムおよびデータ処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP1918810A3 (en) | 2010-07-14 |
US7581061B2 (en) | 2009-08-25 |
EP1918810A2 (en) | 2008-05-07 |
US20080104343A1 (en) | 2008-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008112291A (ja) | 記憶制御装置及び記憶制御装置のデータ移動方法 | |
JP4990322B2 (ja) | データ移動管理装置及び情報処理システム | |
US7152149B2 (en) | Disk array apparatus and control method for disk array apparatus | |
US7120673B2 (en) | Computer storage system providing virtualized storage | |
JP4671720B2 (ja) | ストレージシステム及びデータ移動方法 | |
JP5057656B2 (ja) | ストレージシステム及びストレージシステムの運用方法 | |
US8171245B2 (en) | Data migrating method taking end time into consideration | |
EP1717689A1 (en) | Storage system and storage data migration method | |
JP2005018185A (ja) | 記憶装置システム | |
US20100082900A1 (en) | Management device for storage device | |
US20060161752A1 (en) | Method, apparatus and program storage device for providing adaptive, attribute driven, closed-loop storage management configuration and control | |
JP4920979B2 (ja) | ストレージ装置及びその制御方法 | |
JP2008123132A (ja) | 記憶制御装置及び記憶制御装置の論理ボリューム形成方法 | |
US20120297156A1 (en) | Storage system and controlling method of the same | |
JP2006127028A (ja) | 記憶システム及び記憶制御装置 | |
JP2007272357A (ja) | ストレージクラスタシステム、データ処理方法、及びプログラム | |
JP2010055557A (ja) | ストレージシステム及びストレージシステムの制御方法 | |
JP2008276626A (ja) | 記憶制御装置及び記憶制御装置の制御方法 | |
JP2008134712A (ja) | ファイル共有システム、ファイル共有装置及びファイル共有用ボリュームの移行方法 | |
JP2005228278A (ja) | 記憶領域の管理方法、管理装置及び管理プログラム | |
JP2006092120A (ja) | ストレージ装置及びストレージ装置のライトアクセス処理方法 | |
JP4969972B2 (ja) | 論理的なパスの数を制御する装置及び方法 | |
JP2009223863A (ja) | コンピュータシステム及びコマンド実行頻度制御方法 | |
JP2005301638A (ja) | ディスクアレイ装置及びディスクアレイ装置のリザーブ解除制御方法 | |
JP2007305161A (ja) | 記憶システム及び記憶制御装置 |