JP2009146169A - ストレージシステム、ストレージ装置、データバックアップ方法 - Google Patents
ストレージシステム、ストレージ装置、データバックアップ方法 Download PDFInfo
- Publication number
- JP2009146169A JP2009146169A JP2007322840A JP2007322840A JP2009146169A JP 2009146169 A JP2009146169 A JP 2009146169A JP 2007322840 A JP2007322840 A JP 2007322840A JP 2007322840 A JP2007322840 A JP 2007322840A JP 2009146169 A JP2009146169 A JP 2009146169A
- Authority
- JP
- Japan
- Prior art keywords
- data
- unit
- storage
- storage unit
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1458—Management of the backup or restore process
- G06F11/1464—Management of the backup or restore process for networked environments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1448—Management of the data involved in backup or backup restore
- G06F11/1451—Management of the data involved in backup or backup restore by selection of backup contents
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2201/00—Indexing scheme relating to error detection, to error correction, and to monitoring
- G06F2201/84—Using snapshots, i.e. a logical point-in-time copy of the data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】リモートにデータをバックアップすることができるとともに、リモートへの転送負荷、容量負荷を軽減することができるストレージシステムを提供する。
【解決手段】 MainSite1と、RemoteSite2とを通信回線にて接続されたストレージシステム3であって、MainSite1は、Disk16に格納された運用データのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得するデータ取得部4と、取得された差分データを送信するデータ送信部5と、を備え、RemoteSite2は、送信された差分データを受信するデータ受信部7と、受信された差分データを所定の期間または所定のデータ量のうちのいずれかに基づき世代を切替えて、Disk26に格納するデータ格納部8と、を備えた。
【選択図】図2
【解決手段】 MainSite1と、RemoteSite2とを通信回線にて接続されたストレージシステム3であって、MainSite1は、Disk16に格納された運用データのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得するデータ取得部4と、取得された差分データを送信するデータ送信部5と、を備え、RemoteSite2は、送信された差分データを受信するデータ受信部7と、受信された差分データを所定の期間または所定のデータ量のうちのいずれかに基づき世代を切替えて、Disk26に格納するデータ格納部8と、を備えた。
【選択図】図2
Description
本発明は、更新データを世代ごとにバックアップするストレージシステム、ストレージ装置、データバックアップ方法に関する。
過去の複数時点でのバックアップを効率的に作成する方法として更新データのみをバックアップする世代バックアップ方式がある。
また、図15にて示すように、メインサイトからリモートサイトへエクステント(コピー範囲)のミラーリングをREC(REC:Remote Equivalent Copy。主にミラーを作成するもの。コピー先のストレージのデータは、指示された期間、データ容量においてコピー元のストレージのデータと同期する技術)にて行い、ある時点のデータイメージを固定してバックアップを作成する方式がある。この方式では、リモートサイトで必要なディスク容量は、コピー元サイズ×世代数となる。
また、本発明の関連ある従来技術として、災害発生時に長距離とデータ消失なしを同時に実現することができるデータ処理システムのコピー処理技術を提供するデータ処理システムおよびそのコピー処理方法が開示されている。(例えば、特許文献1参照)。また、スナップショットを信頼性高く維持し、取得するスナップショット維持装置及び方法が開示されている(例えば、特許文献2参照)。
特開2006−072635号公報
特開2007−087036号公報
しかしながら、一般的にバックアップを行う範囲(エクステント)の全領域に対して更新が行われることは少なく、一部分だけ変更されることが多い。従来技術のように複数世代のバックアップを採取するために、その分のディスクの容量を用意しなければならないのは効率が悪い。特に近年使用されるディスク容量が増加しており,そのためのバックアップディスクが増大してしまう。さらに、リモート転送を行う場合は転送量の増大も問題となる。
また、運用で使用されている筐体と同一筐体にてバックアップされている場合、災害等が発生した場合における復旧作業に時間を要し、また、データを復旧させることが不可能な状況にもなりかねない。
本発明は上述した問題点を解決するためになされたものであり、災害が発生したときに備え、世代バックアップをリモートサイトに対して行うとともに、更新されたデータのみをバックアップすることでリモートサイトへの転送負荷、容量負荷を軽減するストレージシステム、ストレージ装置、データバックアップ方法を提供することを目的とする。
上述した課題を解決するため、本発明の一態様に係るストレージシステムは運用データが格納されている少なくとも一つの第1ストレージ装置と、前記運用データのバックアップデータが格納される少なくとも一つの第2ストレージ装置とが通信回線で接続されてなるストレージシステムであって、前記第1ストレージ装置は、少なくとも前記運用データを格納する第1記憶部と、前記第1記憶部に格納された運用データのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得部と、前記差分データ取得部にて取得された差分データを送信する差分データ送信部と、を備え、前記第2ストレージ装置は、前記運用データのバックアップデータを格納する第2記憶部と、前記差分データ送信部にて送信された差分データを受信する差分データ受信部と、前記差分データ受信部にて受信された差分データを所定の期間または所定のデータ量のうちのいずれかに基づき世代を切替えて、前記第2記憶部に格納する差分データ格納部と、を備えることを特徴とするものである。
また、上述した課題を解決するため、本発明の一態様に係るストレージ装置は、少なくとも運用データを格納する第1記憶部と、前記第1記憶部に格納された運用データのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得部と、前記差分データ取得部にて取得された差分データをバックアップデータとして外部に送信する差分データ送信部と、前記差分データ送信部の送信が失敗した場合、前記差分データをローカル差分データとしてさらに前記第1記憶部に格納するローカル格納部と、を備えるものである。
また、上述した課題を解決するため、本発明の一態様に係るデータバックアップ方法は、データを格納する記憶部に格納されたデータのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得ステップと、前記差分データ取得ステップにて取得された差分データを送信する差分データ送信ステップと、前記差分データ送信ステップにて送信された差分データを受信する差分データ受信ステップと、前記差分データ受信ステップにて受信された差分データを所定の期間または所定のデータ量のうちのいずれかに基づき世代を切替えて格納する差分データ格納ステップと、を実行するものである。
本発明によれば、運用データが格納されている筐体とは異なる筐体へバックアップデータを格納するとともに、バックアップ時に伴う筐体間のデータ転送の負荷、および筐体内のデータ容量の負荷を軽減することができる。
以下、本発明の実施の形態について図面を参照しつつ説明する。
まず、本実施の形態におけるストレージシステムの構成を図1に基づき説明する。ストレージシステム3は、運用データ(ユーザが運用で使用しているデータ)のコピー元筐体であるMainSite1(第1ストレージ装置)、遠隔地に設置され、運用データのバックアップ先筐体であるRemoteSite2(第2ストレージ装置)を備える。
また、MainSite1は、CA11(CA:Channel Adapter)、RA12(RA:Remote Adapter)、CM17(CM:Centralized Module)、Disk16を備え、CM17は、さらにCPU13(CPU:Central Processing Unit)、Cache14、DA15(DA:Disk Adapter)を備える。
CA11は、Host100とのI/F(I/F:Interface)を制御し、RA12は、MainSite1とRemoteSite2とのI/Fを制御する。
CPU13は、各種演算処理を実行するモジュールであり、Cache14は、ファームウェアや制御データが格納されているメモリである。また、記録専用バッファ(Bit Buffer)はこの領域内に格納される。
DA15は、Disk16とのI/Fを制御し、Disk16は、少なくとも運用データを格納するユーザディスクである。
RemoteSite2も同様に、CA21、RA22、CM27、Disk26(Disk26は運用データのバックアップデータを格納)を備え、CM27は、CPU23、Cache24、DA25を備える。RemoteSite2に備えられた各モジュールは、MainSite1と同等機能を有するため、ここでの説明は省略する。
また、ストレージシステム3は、ユーザがストレージシステム3を使用するための端末であるHost100と、CA11を介して接続されている構成となる。
次に、ストレージシステム3内におけるMainSite1、RemoteSite2の各機能を、図2の機能ブロックを参照しつつ説明する。尚、MainSite1の各機能は、CA11、RA12、Disk16からのコマンド指示、データ転送等に基づき、CM17が行っているものとする。またCM17は、Cache14に格納されているファームウェアをCPU13が処理することで、各機能を実施する。RemoteSite2も同様にCM27が各機能を実施する。
MainSite1は、データ取得部4、データ送信部5、ローカル格納部6を備え、RemoteSite2は、データ受信部7、データ格納部8、データマージ部9を備える。
データ取得部4は、Disk16に格納された運用データに対し、所定の時点(運用データのうちの指定可能な範囲の全てのデータがRemoteSite2のDisk26に格納された時点や、データ格納部8(またはローカル格納部6)にて世代が切り替えられた時点)からの差分データを取得する。またデータ取得部4は、Disk16に格納された運用データのうちの指定可能な範囲の全てのデータ(以下、必要に応じ全データと記す)を取得する。
データ送信部5は、データ取得部4にて取得されたデータをRemoteSite2に送信する。またデータ送信部5は、RemoteSite2との回線障害から復旧した場合、ローカル格納部6にてDisk16に格納された差分データをRemoteSite2に送信する。
ローカル格納部6は、データ送信部5によるデータ送信が失敗した場合、差分データをMainSite1のDisk16に格納する。またローカル格納部6は、差分データを所定の期間(例えば1日単位、1週間単位等)または所定のデータ量(例えば1GB単位、10GB単位)のうちのいずれかに基づき世代を切替えて格納する。
データ受信部7は、データ送信部5にて送信されたデータ(差分データ、全データ、ローカル格納部6にてDisk16に格納されている差分データ)を受信する。
データ格納部8は、データ受信部7にて受信された差分データを所定の期間(例えば1日単位、1週間単位等)または所定のデータ量(例えば1GB単位、10GB単位)のうちのいずれかに基づき世代を切替えて、Disk26に格納する。またデータ格納部8は、データ受信部7にて受信された全データを、第1世代(最初の世代)としてDisk26に格納する。さらに、データ格納部8は、データ受信部7にて受信された、ローカル格納部6にてDisk16に格納された差分データをローカル格納部6にて格納されていたその世代と同一の世代として格納する。
データマージ部9は、データ格納部8にて世代が切替えられた後、切替え前の世代として格納されたデータを、全データに反映(マージ)する。
次に、本実施の形態におけるバックアップの処理について、図3から図4を用いて説明する。
一般的に、バックアップを行う範囲(エクステント)(運用データに対し予め定義することで指定可能な範囲)の全領域に対して更新が行われることは少なく,一部分だけ変更されることが多い。よって、ストレージシステム3は、以下のような処理によって転送量、ディスク使用量を削減する。すなわち、第1世代は従来技術と同様にRECによるミラーリングを行うことで、フルバックアップを行う。一方、第2世代以降はフルバックアップを行わず、直前の世代からの更新分のみミラーリングを行うことでバックアップを行う(図3参照)。
尚、RECの処理は、MainSite1内のデータ取得部4がDisk16の運用データのうちの指定可能な範囲の全てのデータを取得し、データ送信部5が、取得された全データをRemoteSite2のデータ受信部7に送信し、データ格納部8が、データ受信部7にて受信されたデータをDisk26内に格納することで、指定された範囲に対するフルバックアップを行うことでなされる。また、RECは、第1世代をRemoteSite2内に作成するためのフルバックアップ以外に、MainSite1内の所定の世代からRemoteSite2内の同一の世代へのフルバックアップ時にも行われる。
更新データのみのバックアップ作成には、更新データのみをミラーリングし、未更新部分については転送を行わないようなREC(以下、SnapRECと記す。また、必要に応じフルバックアップを行うことをSnapRECとの差を明らかにするためRECと称す。)を用いる。ストレージシステム3は、図4に示すように、所定の期間、または所定のデータ容量(例えば予め定義された期間や、データ容量)に達し、現行世代(例えば図4における第2世代)が完了した場合、現行世代をSuspend(後述)のステータスにすると同時に、次世代(図4の第3世代)のSnapRECをスタートさせる(ステータスはActive(後述)になる)。このことより、ストレージシステム3は等価状態を維持しながら世代バックアップを採取していくことができる。
尚、SnapRECの処理は、データ取得部4が所定の時点(運用データのうちの指定可能な範囲の全てのデータがRemoteSite2のDisk26に格納された時点や、RemoteSite2のデータ格納部8にて世代が切り替えられた時点)から更新される毎に、その差分データを取得し、データ送信部5が取得されたデータ(差分データ)をRemoteSite2のデータ受信部7に送信し、データ受信部7が受信したデータをデータ格納部8がDisk26内に格納することで、運用ボリュームに対する所定の時点からの差分データをバックアップすることでなされる。
さらに、データマージ部9は、図5に示すように所定の世代(例えば図5の第3世代)に対するSnapRECが行われているうちに、現在バックアップ処理が行われている一つ前の世代(図5に示す例では第2世代)を第1世代のフルバックアップに反映(マージ)し、反映が完了した場合、反映を行った世代の差分データを削除する。
その後、データ格納部8によって現行世代(図5の第3世代)のSnapRECの完了と同時に、世代を切り替え、第2世代が格納されていた領域に対し第4世代のSnapRECが開始される。
上述の処理を繰り返し行うことで、ストレージシステム3は、ユーザによって使用されている運用ボリューム(MainSite1内のDisk16の指定範囲内)の状態との等価を維持しながらバックアップを行うことができる。尚、ストレージシステム3は、格納する世代数を3、古いものから削除するものとするが、世代数、削除順を限定するものではない。例えば、恒久的に残しておきたい世代は、削除対象としない運用も考えられる。
次に、MainSite1とRemoteSite2との間の回線異常等が発生した場合の処理を図6を参照しつつ説明する。
MainSite1からRemoteSite2へのデータ転送では、回線異常やI/O頻発による高負荷が原因となって、データ送信部5によるデータ送信が中断されるおそれがある。送信が中断された場合、データ送信中断の状態(Halt状態)から復旧するまでの期間、ストレージシステム3はRemoteSite2側でのバックアップを作成することができない。しかし、バックアップデータからの復旧を考えた場合、細かな時間間隔で複数世代のバックアップを採取することが望ましく、Halt中にもバックアップの採取を継続する必要がある。
そのため、ローカル格納部6は、図6の「回線異常状態(第2世代ミラーリング中)」に示すようにMainSite1自身に一時的なバックアップを作成する。すなわち、ローカル格納部6は、現行のSnapRECのセッションステータスがHALTに遷移する(ステータスの説明については後述)と同時に、MainSite1のDisk16内のローカルボリュームに対して更新データのみをミラーリング(以下、SnapEC)することにより、ストレージシステム3は、バックアップ継続に必要なディスク容量および回線復旧後のデータ転送量を最小限に抑制することができる。
尚、SnapECの処理は、ローカル格納部6が差分データをMainSite1のDisk16に格納する処理ということができる。
SnapECも、上述のSnapRECと同様に所定の期間、または所定のデータ容量(例えば予め定義された期間、データ容量)に達した場合、世代を切り替えることで等価状態を維持する(図6の「世代バックアップ取得」参照)。よって、MainSite1に用意すべきディスク容量は、世代あたりの更新量×世代数となる。尚、本実施の形態では、このSnapECのバックアップの世代数を2(RemoteSite2のフルバックアップを含めると3世代)とし、最も古い世代から削除するものとするが、上述同様、態様を限定するものではない。
次に、MainSite1とRemoteSite2との回線が復旧した場合(パス開通後)の処理を図7を参照しつつ説明する。尚、ここでは第2世代までのSnapECが完了し、第3世代のSnapECを行っている最中に回線が復旧した場合を例に説明する。
MainSite1とRemoteSite2との回線が復旧した場合、第2世代は、RECによって、SnapECで作成されたMainSite1の第2世代からRemoteSite2の第2世代へのバックアップが行われる。第3世代については、等価状態となるまでの期間は、運用ボリュームとのSnapREC(図7の「SnapREC処理」)およびMainSite1の第3世代とのREC(図7の「REC処理」。以下必要に応じ、差分データ間RECと表記)の組み合わせによりコピーが行われる。
尚、ストレージシステム3は、RECによるコピーを巡回エンジン(後述)にて定期的に行っており、HALT中のMainSite1のローカルボリュームにコピーされた更新データをRemoteSite2にコピーする。HALT中に運用ボリュームに更新のあった箇所はSnapEC(図7の「SnapEC処理」)に対応するBitmap(未コピー/コピー済みをBitのON/OFFで表したもので、ボリューム間ごとにBitmapがあり、管理されている)に記録されており、差分データ間RECの開始時に、差分データ間RECに対応するBitmapに反映される。これによって定期的に実行されるRECはMainSite1のローカルボリュームにコピーされたブロックのみをRemoteSite2へコピーする。
尚、差分データ間RECによるコピーが完了しないうちに運用ボリュームに対して更新があった場合には、差分データ間RECのBitmap上で更新箇所のBitをOFFにしたうえで、SnapRECによりRemoteSite2にコピーを行う。これにより定期的に行われるRECによるコピーが後から該当箇所に対して行われないようにする。
MainSite1とRemoteSite2との回線の復旧後、上述のような処理を行うことで、送信が中断される前の通常のボリューム状態(図5の状態)になる。
次に、上述の各ボリューム間のセッションのステータスおよびその遷移について説明する。以降、ストレージシステム3は図8に示すようにボリュームAからボリュームFの構成であるものとして説明する。ボリュームAは、MainSite1の現在運用にて使用されている運用データが格納された運用ボリュームであり、ボリュームBおよびボリュームCは、障害発生等でRemoteSite2との通信ができなかった場合にSnapECによる差分データを保持するボリュームである。また、RemoteSite2のボリュームDはフルバックアップデータが格納されているボリューム、ボリュームEおよびボリュームFは、SnapRECによるボリュームAの所定の時点からの差分データを格納するボリュームである。
次に、各ボリューム間のセッションのステータスついて図9に基づき説明する。本実施の形態におけるストレージシステム3は、各ボリューム間のセッションを、コピー元ボリュームにI/Oがあった場合にコピー先ボリュームに更新データを反映する状態(Active)、コピー元ボリュームとコピー先ボリュームが切り離され、コピー元ボリュームにI/Oが発生してもコピー先ボリュームに反映しない状態(Suspend)、およびリモートコピーでActive中に回線が不通となり、コピーが行われない状態(Halt)の3つのステータスで管理している。
Activeのステータスは、さらにボリュームの全コピー(以下、InitialCopy)が行われており、且つコピー先ボリュームはReadおよびWrite不可の状態(Copying)と、コピー元ボリュームとコピー先ボリュームとが等価状態にあり、InitialCopyが行われていない状態(Equivalent)との2つのステータスを有する。
また、Suspendのステータスは、さらにコピー先のReadおよびWriteが不可な状態(Copying)と、コピー先のReadおよびWriteが可能な状態(Equivalent)との2つのステータスを有する。
本実施の形態における上述のバックアップ処理は、セッションステータスに基づき実行されている。ここで、上述の各処理におけるステータスの遷移を図10を参照しつつ説明する。尚、以下の説明において、例えばボリュームAからボリュームDへのRECをREC(A to D)、例えばボリュームAからボリュームEへのSnapRECをSnapREC(A to E)、例えばボリュームAからボリュームBへのSnapECをSnapEC(A to B)という形式で表記する。
まず、第1世代のバックアップを作成するため、REC(A to D)がスタートすると(ステップS1)、そのセッションステータスはActiveとなる。また、第1世代目はフルバックアップなため、開始直後のInitialCopy期間中のステータスはCopyingである。InitialCopyが完了し、等価状態になるとステータスはEquivalentに遷移する(ステップS2)。
次に、第2世代の作成が開始されると、第1世代はSuspendに遷移し、ストレージシステム3は、ボリュームAとボリュームDとの間の更新を停止する(ステップS3)。それと同時に、ストレージシステム3は、SnapREC(A to E)のセッションのステータスをActiveにする。SnapREC(A to E)はInitialCopyではなく差分データのコピーなのでステータスは最初からEquivalentである(ステップS4)。
第2世代をコピー中に回線不通が検出されると、ボリュームDに対するセッションは全てSuspend(Copying)に遷移して、データマージ部9による更新データの反映(図5参照)を停止する(図10には本ステータスの遷移は図示せず)。一方、SnapREC(A to E)はHaltに遷移して(ステップS5)、ストレージシステム3はMainSite1のローカルボリュームへの差分コピーを開始するためSnapEC(A to B)をActiveにする(ステップS6)。尚、ストレージシステム3において、SnapECはInitialCopyが動作しないようになっているため、そのステータスはEquivalentとなる。
第2世代のコピーが完了し、第3世代に対するSnapREC(A to F)が開始される場合、SnapEC(A to B)はSuspend(Copying)に遷移して更新データの反映を停止する(ステップS7)。それと同時に、通常はSnapREC(A to F)が開始されるが、回線が不通のためそのステータスはHaltとなり(ステップS8)、それに伴いSnapEC(A to C)が開始される(ステップS9)。
その後、MainSite1とRemoteSite2との回線が開通すると、MainSite1のローカルボリュームのデータをRemoteSite2へ反映するREC(B to E)およびREC(C to F)が開始される(そのステータスは、共にActive(Copying))(ステップS10、ステップS11)。
尚、ストレージシステム3は巡回エンジンにて定期的にボリュームを確認し、ボリュームBにコピーされた更新データがあれば、REC(B to E)を実行することでRemoteSite2へコピーを行うが(上述のステップS10)、HALT中に更新された箇所はSnapEC(A to B)のBitmapに記録されている。ここで、REC(B to E)の処理は、データのコピーを開始する前に、SnapEC(A to B)のBitmapをREC(B to E)のBitmapに反映させ、反映後のBitmapに基づき、ボリュームBにコピーされたブロックのみをボリュームEへコピーする。REC(C to F)の処理(上述のステップS11)も同様である。
その後、SnapREC(A to E)のセッションのステータスはHaltからSuspend(Copying)に遷移し(ステップS12)、SnapREC(A to F)はHaltからActiveに遷移することで再開する(ステップS13)。また、ローカルボリュームのデータの反映が完了するまでは等価状態ではないため、SnapREC(A to F)のステータスはCopyingとなる。
第2世代目のボリュームEへのコピーが完了した場合、SnapREC(A to E)はSuspend(Equivalent)に遷移し(ステップS14)、コピー先(ボリュームE)のRead/Writeが可能になる。尚、SnapEC(A to B)およびREC(B to E)はセッションを停止する。
尚、第2世代目のボリュームEへのコピーが完了した時点で、ボリュームDに対するセッションは全てSuspend(Copying)からSuspend(Eauivalent)に遷移して、データマージ部9による更新データの反映(図5参照)を可能にする(図10には図示せず)。
第3世代目のボリュームFへのコピーが完了した場合、SnapREC(A to F)はActive(Equivalent)に遷移し(ステップS15)、コピー先(ボリュームF)のReadが可能となる。SnapEC(A to C)およびREC(C to F)はセッションを停止する。
次に、回線障害時および回線復旧時(パス開通時)におけるMainSite1およびRemoteSite2の処理を図11および図12のフローチャートを参照しつつ説明する。尚、ストレージシステム3は、図11、図12にて示すフローチャートの処理をセッション単位(例えばボリュームAからボリュームEのセッション、ボリュームBからボリュームEのセッション)で行うものとして説明する。
まず、回線障害が発生したときの処理を図11に基づき説明する。MainSite1は、回線不通を検出し、送信が失敗した場合(ステップS21)、そのセッションが最新世代(現在コピーが行われているセッション)であればHaltに遷移し、MainSite1内部のローカルボリューム(Disk16)へ差分バックアップを開始する(ステップS22)。
RemoteSite2は、回線不通を検出した場合(ステップS23)、最新世代であればHaltに遷移する(ステップS24)。
次に、パス開通時の処理について図12のフローチャートに基づき説明する。MainSite1は、パスの開通を検出した場合(ステップS31)、そのセッションが最新世代であるかを判定する(ステップS32)。ここで、最新世代である場合(ステップS32、Yes)、MainSite1(およびRemoteSite2)は、そのセッションのステータスをActiveに遷移させ、MainSite1のローカルボリュームの差分バックアップからの反映を開始する(ステップS33、ステップS34)。MainSite1(およびRemoteSite2)は、MainSite1のローカルボリュームからの反映が完了次第、そのセッションを終了させる(ステップS37、ステップS38)。
一方、最新世代でない場合(ステップS32、No)、MainSite1(およびRemoteSite2)は、そのセッションのステータスをSuspendに遷移させ、MainSite1のローカルボリュームの差分バックアップからの反映を開始する(ステップS35、ステップS36)。
また、パス開通後、例えばボリュームAとボリュームFとが等価状態になるまでは、ストレージシステム3は、REC(C to F)とSnapREC(A to F)の組み合わせによりコピーを行う必要がある。次に、この処理について説明する。
RECの処理(上述のとおり、RECの処理は、データ取得部4、データ送信部5、データ受信部7、データ格納部8にて実行される各処理にてなされる)は巡回エンジンとして定期的に実行されており、REC(C to F)にてHALT中のボリュームCにコピーされた更新データをボリュームFにコピーする。HALT中にコピー元ボリュームAに更新のあった箇所はSnapEC(A to C)のBitmapに記録されており、REC(C to F)の開始時に、REC(C to F)のBitmapに反映される。これによってREC(C to F)の巡回エンジンはボリュームCにコピーされたブロックのみをRemoteSite2へコピーする。
上述の内容を、さらに図13のフローチャートを参照しつつ説明する。尚、図13において、RECは巡回エンジンとして定期的に実行されるため、常時実行されているSnapREC処理に対しREC処理がどのように係わるかを説明する。また、本処理は、世代の対応付け(同一世代に対しコピー(REC処理)する必要がある)は、データ格納部8にて行われているものとする。また巡回エンジンによって、以下の処理が実行されているものとする。
巡回エンジンは、REC(C to F)のBitmapを検索する(ステップS41)。巡回エンジンは、BitmapのONの範囲を検出した場合(ステップS42、Yes)、さらに、BitmapのONの範囲についてREC(C to F)を実行し、REC(C to F)のコピー範囲のBitmapをOFFにする(ステップS43)。
その後、処理は次の巡回エンジン起動まで待機する(ステップS46)。
ステップS42にて、BitmapのONの範囲を検出しなかった場合(ステップS42、No)、巡回エンジンは、コピー範囲の最終ブロックまで検索したかを判定し(ステップS44)、最終ブロックまで検索されている場合は(ステップS44、Yes)、巡回エンジンは、SnapEC(A to C)およびREC(C to F)のセッションを停止する(ステップS45)。一方、ステップS44にて、最終ブロックまで検索していない場合は(ステップS44、No)、処理は次の巡回エンジン起動まで待機する(ステップS46)。
また、REC(C to F)によるコピーが完了しないうちにコピー元のボリュームであるボリュームAに対して更新(Write処理)があった場合には、REC(C to F)のBitmap上で更新箇所のBitをOFFにしたうえで、SnapREC(A to F)によりRemoteSite2にコピーを行う。これにより巡回エンジンによるコピーが後から該当箇所に対して行われないようにする。
この処理を、図14のフローチャートを参照しつつ、さらに説明する。
ボリュームAに対するWrite処理がなされる場合、巡回エンジンは、REC(C to F)のWriteされた範囲のBitmapがONかを確認する(ステップS51)。ここで、ONの場合(ステップS51、Yes)、巡回エンジンは、REC(C to F)のWrite範囲のBitmapをOFFにする(ステップS52)。
REC(C to F)における全てのBitmapがOFFである場合(ステップS53、Yes)、巡回エンジンは、SnapEC(A to C)と、REC(C to F)のセッションを停止し(ステップS54)、Write範囲のSnapREC(A to F)を実行するとともに、SnapREC(A to F)のWrite範囲のBitmapをOFFにする(ステップS55)。
尚、ステップS51で、ONでない場合(ステップS51、No)、およびステップS53で、全てのBitmapがOFFでない場合(ステップS53、No)、処理はステップS55へ移る。
このように、回線異常が発生しリモートサイトへの転送が中断されている状況下でも世代バックアップの採取が可能となる。
尚、本実施の形態におけるストレージシステム3は、MainSite1、RemoteSite2の2つの筐体を有するものとしたが、コピー元筐体、コピー先筐体はそれぞれ複数あってもよい。例えばストレージシステム3は、負荷分散、バックアップの安全性の観点でコピー元筐体1つに対し複数のコピー先筐体の構成としてもよいし、また複数のコピー元筐体に対し複数のコピー先筐体との構成としてもよい。
第1記憶部は、本実施の形態におけるDisk16に対応し、差分データ取得部、全データ取得部は、本実施の形態におけるデータ取得部4に対応している。また、差分データ送信部、全データ送信部は、本実施の形態におけるデータ送信部5に対応している。
第2記憶部は、本実施の形態におけるDisk26に対応し、差分データ受信部、全データ受信部は、本実施の形態におけるデータ受信部7に対応している。また、差分データ格納部、全データ格納部は、本実施の形態におけるデータ格納部8に対応している。
(付記1) 運用データが格納されている少なくとも一つの第1ストレージ装置と、前記運用データのバックアップデータが格納される少なくとも一つの第2ストレージ装置とが通信回線で接続されてなるストレージシステムであって、
前記第1ストレージ装置は、
少なくとも前記運用データを格納する第1記憶部と、
前記第1記憶部に格納された運用データのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得部と、
前記差分データ取得部にて取得された差分データを送信する差分データ送信部と、を備え、
前記第2ストレージ装置は、
前記運用データのバックアップデータを格納する第2記憶部と、
前記差分データ送信部にて送信された差分データを受信する差分データ受信部と、
前記差分データ受信部にて受信された差分データを所定の期間または所定のデータ量のうちのいずれかに基づき世代を切替えて、前記第2記憶部に格納する差分データ格納部と、を備えることを特徴とするストレージシステム。
(付記2) 付記1に記載のストレージシステムにおいて、
前記第1ストレージ装置は、さらに、
前記第1記憶部に格納された運用データのうち、前記範囲の全データを取得する全データ取得部と、
前記全データ取得部にて取得された全データを送信する全データ送信部と、を備え、
前記第2ストレージ装置は、さらに、
前記全データ送信部にて送信された全データを受信する全データ受信部と、
前記全データ受信部にて受信された前記全データを、前記範囲のデータにおける最初の世代として、前記第2記憶部に格納する全データ格納部と、を備え、
前記差分データ取得部は、前記全データ格納部に前記全データが全て格納された時点、または前記差分データ格納部にて世代が切り替わった時点を前記所定の時点として、前記差分データを取得することを特徴とするストレージシステム。
(付記3) 付記2に記載のストレージシステムにおいて、
前記第2ストレージ装置は、さらに、
前記差分データ格納部にて世代が切替えられた後、切替え前の世代として格納されたデータを前記全データ格納部にて格納された全データにマージするデータマージ部を備えることを特徴とするストレージシステム。
(付記4) 付記2または付記3に記載のストレージシステムにおいて、
前記第1ストレージ装置は、さらに、
前記差分データ送信部の送信が失敗した場合、前記差分データをローカル差分データとしてさらに前記第1記憶部に格納するローカル格納部を備えることを特徴とするストレージシステム。
(付記5) 付記4に記載のストレージシステムにおいて、
前記ローカル格納部は、前記ローカル差分データを前記所定の期間または前記所定のデータ量のうちのいずれかに基づき世代を切替えて格納することを特徴とするストレージシステム。
(付記6)付記5に記載のストレージシステムにおいて、
前記差分データ送信部は、更に、前記送信が回復した場合、前記ローカル格納部にて格納された前記ローカル差分データを送信し、
前記差分データ受信部は、更に前記差分データ送信部にて送信されたローカル差分データを受信し、
前記差分データ格納部は、更に、前記差分データ受信部にて受信されたローカル差分データを前記ローカル格納部にて格納されていた世代と同一の世代として第2記憶部に格納することを特徴とするストレージシステム。
(付記7) 少なくとも運用データを格納する第1記憶部と、
前記第1記憶部に格納された運用データのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得部と、
前記差分データ取得部にて取得された差分データをバックアップデータとして外部に送信する差分データ送信部と、
前記差分データ送信部の送信が失敗した場合、前記差分データをローカル差分データとしてさらに前記第1記憶部に格納するローカル格納部と、
を備えるストレージ装置。
(付記8) 付記7に記載のストレージ装置において、
前記ローカル格納部は、前記ローカル差分データを前記所定の期間または前記所定のデータ量のうちのいずれかに基づき世代を切替えて格納することを特徴とするストレージ装置。
(付記9) 付記7または付記8に記載のストレージ装置において、
前記差分データ送信部は、更に、前記送信が回復した場合、前記ローカル格納部にて格納された前記ローカル差分データをバックアップデータとして外部に送信することを特徴とするストレージ装置。
(付記10) データを格納する記憶部に格納されたデータのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得ステップと、
前記差分データ取得ステップにて取得された差分データを送信する差分データ送信ステップと、
前記差分データ送信ステップにて送信された差分データを受信する差分データ受信ステップと、
前記差分データ受信ステップにて受信された差分データを所定の期間または所定のデータ量のうちのいずれかに基づき世代を切替えて格納する差分データ格納ステップと、
を実行するデータバックアップ方法。
(付記11) 付記10に記載のデータバックアップ方法において、
前記記憶部に格納されたデータのうち、前記範囲の全データを取得する全データ取得ステップと、
前記全データ取得ステップにて取得された全データを送信する全データ送信ステップと、
前記全データ送信ステップにて送信された全データを受信する全データ受信ステップと、
前記全データ受信ステップにて受信された前記全データを、前記範囲のデータにおける最初の世代として格納する全データ格納ステップと、を実行し、
前記差分データ取得ステップは、前記全データ格納ステップに前記全データが全て格納された時点、または前記差分データ格納ステップにて世代が切り替わった時点を前記所定の時点として、前記差分データを取得することを特徴とするデータバックアップ方法。
(付記12) 付記11に記載のデータバックアップ方法において、
前記差分データ格納ステップにて世代が切替えられた後、切替え前の世代として格納されたデータを前記全データ格納ステップにて格納された全データにマージするデータマージステップを実行することを特徴とするデータバックアップ方法。
(付記13) 付記11または付記12に記載のデータバックアップ方法において、
更に、前記差分データ送信ステップの送信が失敗した場合、前記差分データをローカル差分データとしてさらに前記記憶部に格納するローカル格納ステップを実行することを特徴とするデータバックアップ方法。
(付記14) 付記13に記載のデータバックアップ方法において、
前記ローカル格納ステップは、前記ローカル差分データを前記所定の期間または前記所定のデータ量のうちのいずれかに基づき世代を切替えて格納することを特徴とするデータバックアップ方法。
(付記15)付記14に記載のデータバックアップ方法において、
前記差分データ送信ステップは、更に、前記送信が回復した場合、前記ローカル格納ステップにて格納された前記ローカル差分データを送信し、
前記差分データ受信ステップは、更に前記差分データ送信ステップにて送信されたローカル差分データを受信し、
前記差分データ格納ステップは、更に、前記差分データ受信ステップにて受信されたローカル差分データを前記ローカル格納ステップにて格納されていた世代と同一の世代として格納することを特徴とするデータバックアップ方法。
前記第1ストレージ装置は、
少なくとも前記運用データを格納する第1記憶部と、
前記第1記憶部に格納された運用データのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得部と、
前記差分データ取得部にて取得された差分データを送信する差分データ送信部と、を備え、
前記第2ストレージ装置は、
前記運用データのバックアップデータを格納する第2記憶部と、
前記差分データ送信部にて送信された差分データを受信する差分データ受信部と、
前記差分データ受信部にて受信された差分データを所定の期間または所定のデータ量のうちのいずれかに基づき世代を切替えて、前記第2記憶部に格納する差分データ格納部と、を備えることを特徴とするストレージシステム。
(付記2) 付記1に記載のストレージシステムにおいて、
前記第1ストレージ装置は、さらに、
前記第1記憶部に格納された運用データのうち、前記範囲の全データを取得する全データ取得部と、
前記全データ取得部にて取得された全データを送信する全データ送信部と、を備え、
前記第2ストレージ装置は、さらに、
前記全データ送信部にて送信された全データを受信する全データ受信部と、
前記全データ受信部にて受信された前記全データを、前記範囲のデータにおける最初の世代として、前記第2記憶部に格納する全データ格納部と、を備え、
前記差分データ取得部は、前記全データ格納部に前記全データが全て格納された時点、または前記差分データ格納部にて世代が切り替わった時点を前記所定の時点として、前記差分データを取得することを特徴とするストレージシステム。
(付記3) 付記2に記載のストレージシステムにおいて、
前記第2ストレージ装置は、さらに、
前記差分データ格納部にて世代が切替えられた後、切替え前の世代として格納されたデータを前記全データ格納部にて格納された全データにマージするデータマージ部を備えることを特徴とするストレージシステム。
(付記4) 付記2または付記3に記載のストレージシステムにおいて、
前記第1ストレージ装置は、さらに、
前記差分データ送信部の送信が失敗した場合、前記差分データをローカル差分データとしてさらに前記第1記憶部に格納するローカル格納部を備えることを特徴とするストレージシステム。
(付記5) 付記4に記載のストレージシステムにおいて、
前記ローカル格納部は、前記ローカル差分データを前記所定の期間または前記所定のデータ量のうちのいずれかに基づき世代を切替えて格納することを特徴とするストレージシステム。
(付記6)付記5に記載のストレージシステムにおいて、
前記差分データ送信部は、更に、前記送信が回復した場合、前記ローカル格納部にて格納された前記ローカル差分データを送信し、
前記差分データ受信部は、更に前記差分データ送信部にて送信されたローカル差分データを受信し、
前記差分データ格納部は、更に、前記差分データ受信部にて受信されたローカル差分データを前記ローカル格納部にて格納されていた世代と同一の世代として第2記憶部に格納することを特徴とするストレージシステム。
(付記7) 少なくとも運用データを格納する第1記憶部と、
前記第1記憶部に格納された運用データのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得部と、
前記差分データ取得部にて取得された差分データをバックアップデータとして外部に送信する差分データ送信部と、
前記差分データ送信部の送信が失敗した場合、前記差分データをローカル差分データとしてさらに前記第1記憶部に格納するローカル格納部と、
を備えるストレージ装置。
(付記8) 付記7に記載のストレージ装置において、
前記ローカル格納部は、前記ローカル差分データを前記所定の期間または前記所定のデータ量のうちのいずれかに基づき世代を切替えて格納することを特徴とするストレージ装置。
(付記9) 付記7または付記8に記載のストレージ装置において、
前記差分データ送信部は、更に、前記送信が回復した場合、前記ローカル格納部にて格納された前記ローカル差分データをバックアップデータとして外部に送信することを特徴とするストレージ装置。
(付記10) データを格納する記憶部に格納されたデータのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得ステップと、
前記差分データ取得ステップにて取得された差分データを送信する差分データ送信ステップと、
前記差分データ送信ステップにて送信された差分データを受信する差分データ受信ステップと、
前記差分データ受信ステップにて受信された差分データを所定の期間または所定のデータ量のうちのいずれかに基づき世代を切替えて格納する差分データ格納ステップと、
を実行するデータバックアップ方法。
(付記11) 付記10に記載のデータバックアップ方法において、
前記記憶部に格納されたデータのうち、前記範囲の全データを取得する全データ取得ステップと、
前記全データ取得ステップにて取得された全データを送信する全データ送信ステップと、
前記全データ送信ステップにて送信された全データを受信する全データ受信ステップと、
前記全データ受信ステップにて受信された前記全データを、前記範囲のデータにおける最初の世代として格納する全データ格納ステップと、を実行し、
前記差分データ取得ステップは、前記全データ格納ステップに前記全データが全て格納された時点、または前記差分データ格納ステップにて世代が切り替わった時点を前記所定の時点として、前記差分データを取得することを特徴とするデータバックアップ方法。
(付記12) 付記11に記載のデータバックアップ方法において、
前記差分データ格納ステップにて世代が切替えられた後、切替え前の世代として格納されたデータを前記全データ格納ステップにて格納された全データにマージするデータマージステップを実行することを特徴とするデータバックアップ方法。
(付記13) 付記11または付記12に記載のデータバックアップ方法において、
更に、前記差分データ送信ステップの送信が失敗した場合、前記差分データをローカル差分データとしてさらに前記記憶部に格納するローカル格納ステップを実行することを特徴とするデータバックアップ方法。
(付記14) 付記13に記載のデータバックアップ方法において、
前記ローカル格納ステップは、前記ローカル差分データを前記所定の期間または前記所定のデータ量のうちのいずれかに基づき世代を切替えて格納することを特徴とするデータバックアップ方法。
(付記15)付記14に記載のデータバックアップ方法において、
前記差分データ送信ステップは、更に、前記送信が回復した場合、前記ローカル格納ステップにて格納された前記ローカル差分データを送信し、
前記差分データ受信ステップは、更に前記差分データ送信ステップにて送信されたローカル差分データを受信し、
前記差分データ格納ステップは、更に、前記差分データ受信ステップにて受信されたローカル差分データを前記ローカル格納ステップにて格納されていた世代と同一の世代として格納することを特徴とするデータバックアップ方法。
1 MainSite、2 RemoteSite、3 ストレージシステム、4 データ取得部、5 データ送信部、6 ローカル格納部、7 データ受信部、8 データ格納部、9 データマージ部、11 CA、21 CA、12 RA、22 RA、13 CPU、23 CPU、14 Cache、24 Cache、15 DA、25 DA、16 Disk、26 Disk、17 CM、27 CM、100 Host。
Claims (7)
- 運用データが格納されている少なくとも一つの第1ストレージ装置と、前記運用データのバックアップデータが格納される少なくとも一つの第2ストレージ装置とが通信回線で接続されてなるストレージシステムであって、
前記第1ストレージ装置は、
少なくとも前記運用データを格納する第1記憶部と、
前記第1記憶部に格納された運用データのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得部と、
前記差分データ取得部にて取得された差分データを送信する差分データ送信部と、を備え、
前記第2ストレージ装置は、
前記運用データのバックアップデータを格納する第2記憶部と、
前記差分データ送信部にて送信された差分データを受信する差分データ受信部と、
前記差分データ受信部にて受信された差分データを所定の期間または所定のデータ量のうちのいずれかに基づき世代を切替えて、前記第2記憶部に格納する差分データ格納部と、を備えることを特徴とするストレージシステム。 - 請求項1に記載のストレージシステムにおいて、
前記第1ストレージ装置は、さらに、
前記第1記憶部に格納された運用データのうち、前記範囲の全データを取得する全データ取得部と、
前記全データ取得部にて取得された全データを送信する全データ送信部と、を備え、
前記第2ストレージ装置は、さらに、
前記全データ送信部にて送信された全データを受信する全データ受信部と、
前記全データ受信部にて受信された前記全データを、前記範囲のデータにおける最初の世代として、前記第2記憶部に格納する全データ格納部と、を備え、
前記差分データ取得部は、前記全データ格納部に前記全データが全て格納された時点、または前記差分データ格納部にて世代が切り替わった時点を前記所定の時点として、前記差分データを取得することを特徴とするストレージシステム。 - 請求項2に記載のストレージシステムにおいて、
前記第2ストレージ装置は、さらに、
前記差分データ格納部にて世代が切替えられた後、切替え前の世代として格納されたデータを前記全データ格納部にて格納された全データにマージするデータマージ部を備えることを特徴とするストレージシステム。 - 請求項2または請求項3に記載のストレージシステムにおいて、
前記第1ストレージ装置は、さらに、
前記差分データ送信部の送信が失敗した場合、前記差分データをローカル差分データとしてさらに前記第1記憶部に格納するローカル格納部を備えることを特徴とするストレージシステム。 - 請求項4に記載のストレージシステムにおいて、
前記ローカル格納部は、前記ローカル差分データを前記所定の期間または前記所定のデータ量のうちのいずれかに基づき世代を切替えて格納することを特徴とするストレージシステム。 - 少なくとも運用データを格納する第1記憶部と、
前記第1記憶部に格納された運用データのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得部と、
前記差分データ取得部にて取得された差分データをバックアップデータとして外部に送信する差分データ送信部と、
前記差分データ送信部の送信が失敗した場合、前記差分データをローカル差分データとしてさらに前記第1記憶部に格納するローカル格納部と、
を備えるストレージ装置。 - データを格納する記憶部に格納されたデータのうちの指定可能な範囲のデータが所定の時点から更新される毎に、更新されたデータを差分データとして取得する差分データ取得ステップと、
前記差分データ取得ステップにて取得された差分データを送信する差分データ送信ステップと、
前記差分データ送信ステップにて送信された差分データを受信する差分データ受信ステップと、
前記差分データ受信ステップにて受信された差分データを所定の期間または所定のデータ量のうちのいずれかに基づき世代を切替えて格納する差分データ格納ステップと、
を実行するデータバックアップ方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007322840A JP2009146169A (ja) | 2007-12-14 | 2007-12-14 | ストレージシステム、ストレージ装置、データバックアップ方法 |
US12/329,072 US20090158080A1 (en) | 2007-12-14 | 2008-12-05 | Storage device and data backup method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007322840A JP2009146169A (ja) | 2007-12-14 | 2007-12-14 | ストレージシステム、ストレージ装置、データバックアップ方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009146169A true JP2009146169A (ja) | 2009-07-02 |
Family
ID=40754878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007322840A Pending JP2009146169A (ja) | 2007-12-14 | 2007-12-14 | ストレージシステム、ストレージ装置、データバックアップ方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20090158080A1 (ja) |
JP (1) | JP2009146169A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215750A (ja) * | 2010-03-31 | 2011-10-27 | Fujitsu Ltd | バックアップ装置,バックアップ方法およびバックアッププログラム |
JP2013186755A (ja) * | 2012-03-08 | 2013-09-19 | Toshiba Corp | 情報処理装置、イメージファイル管理方法およびプログラム |
KR20140035417A (ko) * | 2011-06-20 | 2014-03-21 | 마이크로소프트 코포레이션 | 복구 사이트에서 복제된 가상 저장 장치를 관리하는 기법 |
US8799596B2 (en) | 2010-08-20 | 2014-08-05 | International Business Machines Corporation | Switching visibility between virtual data storage entities |
WO2018220754A1 (ja) * | 2017-05-31 | 2018-12-06 | 三菱電機株式会社 | データ複製装置およびデータ複製プログラム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9208192B2 (en) * | 2009-03-05 | 2015-12-08 | International Business Machines Corporation | Conditional storage of multiple information items |
US8504526B2 (en) * | 2010-06-04 | 2013-08-06 | Commvault Systems, Inc. | Failover systems and methods for performing backup operations |
JP2013029911A (ja) * | 2011-07-27 | 2013-02-07 | Fujitsu Ltd | 制御装置、制御方法およびストレージ装置 |
CN104267978B (zh) * | 2014-09-16 | 2017-10-10 | 青岛海信移动通信技术股份有限公司 | 一种生成差分包的方法及装置 |
US10013324B2 (en) * | 2015-12-04 | 2018-07-03 | International Business Machines Corporation | Data recovery in multi-target data storage networks |
CN105786405B (zh) * | 2016-02-25 | 2018-11-13 | 华为技术有限公司 | 一种在线升级方法、装置及*** |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2148284A1 (en) * | 2000-01-10 | 2010-01-27 | Iron Mountain Incorporated | Administration of a differential backup system in a client-server environment |
US7206961B1 (en) * | 2002-09-30 | 2007-04-17 | Emc Corporation | Preserving snapshots during disk-based restore |
US7085886B2 (en) * | 2003-05-28 | 2006-08-01 | International Buisness Machines Corporation | Autonomic power loss recovery for a multi-cluster storage sub-system |
US7275177B2 (en) * | 2003-06-25 | 2007-09-25 | Emc Corporation | Data recovery with internet protocol replication with or without full resync |
JP4477370B2 (ja) * | 2004-01-30 | 2010-06-09 | 株式会社日立製作所 | データ処理システム |
JP4551096B2 (ja) * | 2004-02-03 | 2010-09-22 | 株式会社日立製作所 | ストレージサブシステム |
JP2006072635A (ja) * | 2004-09-01 | 2006-03-16 | Hitachi Ltd | データ処理システムおよびそのコピー処理方法 |
US7571344B2 (en) * | 2005-08-12 | 2009-08-04 | Silver Peak Systems, Inc. | Ensuring data integrity in network memory |
JP2007087036A (ja) * | 2005-09-21 | 2007-04-05 | Hitachi Ltd | スナップショット維持装置及び方法 |
-
2007
- 2007-12-14 JP JP2007322840A patent/JP2009146169A/ja active Pending
-
2008
- 2008-12-05 US US12/329,072 patent/US20090158080A1/en not_active Abandoned
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215750A (ja) * | 2010-03-31 | 2011-10-27 | Fujitsu Ltd | バックアップ装置,バックアップ方法およびバックアッププログラム |
US8862844B2 (en) | 2010-03-31 | 2014-10-14 | Fujitsu Limited | Backup apparatus, backup method and computer-readable recording medium in or on which backup program is recorded |
US8799596B2 (en) | 2010-08-20 | 2014-08-05 | International Business Machines Corporation | Switching visibility between virtual data storage entities |
US8806162B2 (en) | 2010-08-20 | 2014-08-12 | International Business Machines Corporation | Switching visibility between virtual data storage entities |
KR20140035417A (ko) * | 2011-06-20 | 2014-03-21 | 마이크로소프트 코포레이션 | 복구 사이트에서 복제된 가상 저장 장치를 관리하는 기법 |
JP2014520344A (ja) * | 2011-06-20 | 2014-08-21 | マイクロソフト コーポレーション | リカバリーサイトにおけるレプリカされた仮想ストレージの管理 |
US9785523B2 (en) | 2011-06-20 | 2017-10-10 | Microsoft Technology Licensing, Llc | Managing replicated virtual storage at recovery sites |
KR101983405B1 (ko) * | 2011-06-20 | 2019-05-29 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 복구 사이트에서 복제된 가상 저장 장치를 관리하는 기법 |
JP2013186755A (ja) * | 2012-03-08 | 2013-09-19 | Toshiba Corp | 情報処理装置、イメージファイル管理方法およびプログラム |
WO2018220754A1 (ja) * | 2017-05-31 | 2018-12-06 | 三菱電機株式会社 | データ複製装置およびデータ複製プログラム |
US11151158B2 (en) | 2017-05-31 | 2021-10-19 | Mitsubishi Electric Corporation | Data duplication device and computer readable medium |
Also Published As
Publication number | Publication date |
---|---|
US20090158080A1 (en) | 2009-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009146169A (ja) | ストレージシステム、ストレージ装置、データバックアップ方法 | |
JP4870816B2 (ja) | 改良された同期データ・ミラー・スワップのための装置、システム、および方法 | |
US7260625B2 (en) | Data center system and method for controlling the same | |
US8001344B2 (en) | Storage control apparatus, storage control program, and storage control method | |
US8108606B2 (en) | Computer system and control method for the computer system | |
JP4489455B2 (ja) | ディスク制御装置及びディスク制御装置の制御方法 | |
JP5352115B2 (ja) | ストレージシステム及びその監視条件変更方法 | |
US20060085610A1 (en) | Computer system | |
US7013371B2 (en) | Data transfer control system | |
JP2008171387A (ja) | 継続的データ保護を備えたバックアップシステム | |
JP5564494B2 (ja) | 計算機システム、及び、それを用いたバックアップ方法 | |
JP2007066162A (ja) | ストレージシステム及びストレージシステムの管理方法 | |
JP2001337939A (ja) | データ多重化方法およびデータ多重化システム | |
US7069400B2 (en) | Data processing system | |
JP2006134204A (ja) | リモートコピーシステムおよびその制御方法 | |
JP2006079568A (ja) | ストレージリモートコピー方式 | |
JP2010186285A (ja) | ミラーリング制御装置、ストレージ装置、ミラーリング制御方法 | |
JP2006285336A (ja) | 記憶装置及びストレージシステム並びにその制御方法 | |
JP2006318077A (ja) | リモートコピーシステム | |
JP5817296B2 (ja) | 制御装置、制御方法およびストレージ装置 | |
JP2005293469A (ja) | データコピーシステムおよびデータコピー方法 | |
JP3937878B2 (ja) | 磁気テープ装置及びその制御方法並びに磁気テープ装置制御用プログラム | |
JP4898609B2 (ja) | ストレージ装置、データ回復方法及び計算機システム | |
WO2010097962A1 (en) | Storage system and its initial copy method | |
JP4721057B2 (ja) | データ管理システム,データ管理方法及びデータ管理用プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090818 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091019 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091117 |