JP5094193B2 - 記憶システム及びその制御方法 - Google Patents

記憶システム及びその制御方法 Download PDF

Info

Publication number
JP5094193B2
JP5094193B2 JP2007107261A JP2007107261A JP5094193B2 JP 5094193 B2 JP5094193 B2 JP 5094193B2 JP 2007107261 A JP2007107261 A JP 2007107261A JP 2007107261 A JP2007107261 A JP 2007107261A JP 5094193 B2 JP5094193 B2 JP 5094193B2
Authority
JP
Japan
Prior art keywords
data
logical volume
storage
host device
control method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007107261A
Other languages
English (en)
Other versions
JP2008269015A (ja
Inventor
禎子 毛塚
佑光 松井
健司 村岡
久司 ▲高▼松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007107261A priority Critical patent/JP5094193B2/ja
Priority to EP08250144A priority patent/EP1983420A3/en
Priority to US12/007,646 priority patent/US7953940B2/en
Publication of JP2008269015A publication Critical patent/JP2008269015A/ja
Priority to US13/093,460 priority patent/US8214606B2/en
Application granted granted Critical
Publication of JP5094193B2 publication Critical patent/JP5094193B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0804Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with main memory updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、記憶システム及びその制御方法に関し、特に、ホスト装置からのアクセス情報に基づいて記憶制御装置を制御する記憶システムに適用して好適なものである。
近年、大規模なデータを取り扱う記憶システムにおいて、ホスト装置からの大容量のデータを格納するために、ホスト装置からのデータの入出力を制御する記憶制御装置が用いられている。
記憶制御装置は、RAID(Redundant Array of Independent Inexpensive Disks)方式で運用するように構築された多数のハードディスクデバイスが提供する物理的な記憶領域上に形成される論理的なボリューム(以下、これを論理ボリュームという)を有している。
そして記憶制御装置は、ホスト装置から受信したリード/ライト要求のアクセスパターン情報に伴ったデータ処理を行う。
そして、リード/ライト要求を受信した記憶制御装置が行うデータの処理速度を速め、記憶システム全体の性能を向上させる技術が開示されている。
特許文献1では、複数のアクセスパターンのデータを1つのキャッシュメモリで扱う場合に、アクセス頻度の低いデータがキャッシュメモリから掃きだされても内部にある記憶装置に記憶させることで、システム性能の低下を軽減する技術が開示されている。
特許文献2では、磁気ディスクを制御するコントローラが論理ボリュームに関する情報を記憶制御装置に提供し、記憶制御装置が先読みするキャッシュメモリを論理ボリュームごとに割り振ることで、システム性能の低下を軽減する技術が開示されている。
特許文献3では、ホスト装置からのアクセスパターンの特性に基づいて記憶制御装置が有するリソースを割当てることで、システム性能の低下を軽減する技術が開示されている。
特許文献4では、ホスト装置からのアクセスパターンに応じて、論理ボリュームの性能負荷を算出し、性能負荷を分散する対象の論理ボリュームを異なるRAIDグループに再配置することで、システム性能の低下を軽減できる旨記載されている。
特開平10−240450号公報 特開平11―212733号公報 特開2003−131814号公報 特願2006−304526号明細書
しかしながら、従来の記憶制御装置は、ホスト装置から論理ボリュームに対するアクセスパターンに従ってデータの処理を行うにとどまるため、アクセスパターンの特殊性によって記憶システムの性能劣化が生じてしまうという問題があった。
また、記憶制御装置自らが、ホスト装置から論理ボリュームに対するアクセスパターンを解析して、最適な制御をして対応することはできなかった。
本発明は以上の点を考慮してなされたもので、ホスト装置から論理ボリュームに対するアクセスパターンを解析して最適な制御をすることで、アクセスパターンの特殊性によっても記憶システムの性能が向上し得る記憶システム及びその制御方法を提案しようとするものである。
かかる課題を解決するため本発明は、アクセス情報を送信する複数のホスト装置又は複数のアプリケーションと、データを物理ディスクの記憶領域上に提供される論理ボリュームに格納する記憶制御装置と、を有する記憶システムにおいて、複数のホスト装置又は複数のアプリケーションは、夫々のホスト装置又は夫々のアプリケーションを識別する識別子をアクセス情報に追加して送信する追加部を備え、記憶制御装置は、アクセス情報に含まれる識別子に基づいてホスト装置又はアプリケーションを識別し、識別したホスト装置又はアプリケーションから送信されるアクセス情報のアクセスパターンを解析する解析部と、ホスト装置又はアプリケーションの識別子と、解析部で解析したアクセスパターンの解析結果と、解析結果に基づいてホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を制御する制御方法と、を管理する管理部と、ホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を管理部で管理する制御方法で制御するデータ処理制御部と、を備えることを特徴とする。
その結果、記憶制御装置自らが、ホスト装置から論理ボリュームに対するアクセスパターンを解析して最適な制御を行って対応することができる。
また本発明は、アクセス情報を送信する複数のホスト装置又は複数のアプリケーションと、データを物理ディスクの記憶領域上に提供される論理ボリュームに格納する記憶制御装置と、を有する記憶システムの制御方法において、複数のホスト装置又は複数のアプリケーションでは、夫々のホスト装置又は夫々のアプリケーションを識別する識別子を前記アクセス情報に追加して送信する追加ステップを備え、記憶制御装置では、アクセス情報に含まれる識別子に基づいてホスト装置又はアプリケーションを識別し、識別したホスト装置又はアプリケーションから送信されるアクセス情報のアクセスパターンを解析する解析ステップと、ホスト装置又はアプリケーションの識別子と、解析ステップで解析したアクセスパターンの解析結果と、解析結果に基づいてホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を制御する制御方法と、を管理する管理ステップと、ホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を管理ステップで管理する制御方法で制御するデータ処理制御ステップと、を備えることを特徴とする。
その結果、記憶制御装置自らが、ホスト装置から論理ボリュームに対するアクセスパターンを解析して最適な制御を行って対応することができる。
本発明によれば、記憶制御装置自らが、ホスト装置から論理ボリュームに対するアクセスパターンを解析して最適な制御を行って対応することができるので、アクセスパターンの特殊性によっても記憶システムの性能の向上を図ることができる。
以下図面について、本発明の一実施の形態を詳述する。
(1)第1の実施の形態による記憶システムの構成
まず、第1の実施の形態による記憶システムについて以下に説明する。
図1において、1は全体として本実施の形態による記憶システムを示す。この記憶システム1は、ホスト装置2がネットワーク3を介してストレージ装置4と接続され、ストレージ装置4が管理端末12と接続され、管理端末12がネットワーク13を介してサポートシステム14と接続される構成である。
ホスト装置2は、CPU(Central Processing Unit)やメモリ等の情報処理資源を備えたコンピュータ装置であって、キーボード、スイッチやポインティングデバイス、マイクロフォン等の情報入力装置(図示せず)と、モニタディスプレイやスピーカ等の情報出力装置(図示せず)とを備える。そしてホスト装置2は、各種のアプリケーションソフトウェアA〜Cを有したアプリケーション20とドライバ21とを備える構成である。
ドライバ21は、本発明を達成するためのソフトウェアであり、識別子追加プログラム22とデータ長変更プログラム23とを有する。
識別子追加プログラム22は、ホスト装置からストレージ装置4にデータを送信する際に、ストレージ装置4に当該データであることを識別させるための識別子をデータに付与するためのプログラムである。
データ長変更プログラム23は、ストレージ装置4から送信されるデータのデータ転送長を変更するためのプログラムである。
なお、ホスト装置2には、OS(Operating System)又はファイルを管理するファイルシステムも含まれる。
ネットワーク3、13は、例えばSAN(Storage Area Network)、LAN(Local Area Network)、インターネット、公衆回線又は専用回線などから構成される。このネットワーク3を介したホスト装置2及びストレージ装置4間の通信は、例えばネットワーク3がSANである場合にはファイバチャネルプロトコルに従って行われ、ネットワーク13がLANである場合にはTCP/IP(Transmission Control Protocol/Internet Protocol)プロトコルに従って行われる。
ストレージ装置4は、ホスト装置2からのデータの入出力を制御するコントローラ部5と、ホスト装置2からのデータを保存するハードディスクドライブ部11とを備える記憶制御装置である。
コントローラ部5では、チャネルアダプタ6、共有メモリ7、キャッシュメモリ9、ディスクアダプタ10が接続部8を介して接続される構成である。そして、チャネルアダプタ6、共有メモリ7、キャッシュメモリ9、ディスクアダプタ10間のデータやコマンドの授受は、例えば高速スイッチングによりデータ伝送を行う超高速クロスバススイッチなどのスイッチ又はバス等を介して行われる。
チャネルアダプタ6は、マイクロプロセッサ、ローカルメモリ及び通信インタフェース等(図示せず)を備えたマイクロコンピュータシステムとして構成されており、ネットワーク3に接続するためのポート(図示せず)を備える。チャネルアダプタ5A、5Bは、ホスト装置2から送信される各種コマンドを解釈して、必要な処理を実行する。チャネルアダプタ6のポートには、それぞれを識別するためのネットワークアドレス(例えば、IPアドレスやWWN)が割り当てられており、これにより、各チャネルアダプタ6がそれぞれ個別にNAS(Network Attached Storage)として振る舞うことができるようになされている。
共有メモリ7は、チャネルアダプタ6及びディスクアダプタ10により共有される記憶メモリである。共有メモリ7は、主にストレージ装置4の電源投入時にシステムボリュームから読み出されたシステム構成情報及び各種制御プログラムや、ホスト装置2からのコマンドなどを記憶するために利用される。
キャッシュメモリ9も、チャネルアダプタ6及びディスクアダプタ10により共有される記憶メモリである。このキャッシュメモリ9は、主にストレージ装置4に入出力するユーザデータを一時的に記憶するために利用される。
キャッシュメモリ9には、複数の異なるアクセスパターンを解析するためのパターン解析プログラム90、このパターン解析プログラム90に基づいた結果を登録するパターン結果テーブル91、記憶システム1全体の性能速度を監視するための性能モニタリングプログラム92、論理ボリュームの用途を管理するための用途テーブル93、ハードディスクドライブ部11で形成される論理ボリュームを管理するLU管理テーブル94、パターン解析結果に基づいて制御処理を行うための制御プログラム95及び制御後のパラメータで新規な論理ボリュームを作成するボリューム作成プログラム96を備えている。パターン結果テーブル91、用途テーブル93及びLU管理テーブル94については、後述する。
ディスクアダプタ10は、マイクロプロセッサやメモリ等を備えたマイクロコンピュータシステムとして構成され、ハードディスクドライブ部11との通信時におけるプロトコル制御を行うインタフェースとして機能する。ディスクアダプタ10は、例えばファイバチャネルケーブルを介してハードディスクドライブ部11と接続されており、ファイバチャネルプロトコルに従ってハードディスクドライブ部11との間でデータの授受を行う。
ハードディスクドライブ部11は、例えばSCSI(Small Computer System Interface)ディスク等の高価なハードディスクドライブ110又はSATA(Serial AT Attachment)ディスク等の安価なハードディスクドライブでなる複数のハードディスクドライブ110から構成される。
これらハードディスクドライブ110が提供する記憶領域上には、1又は複数の論理ボリュームLUが定義される。そして、この論理ボリュームLUにホスト装置2からのデータが所定大きさのブロックを単位として読み書きされる。
各論理ボリュームLUには、それぞれ固有の識別子(LUN:Logical Unit Number)が割り当てられる。本実施の形態の場合、ユーザデータの入出力は、この識別子と、各ブロックにそれぞれ割り当てられるそのブロックに固有の番号(LBA:Logical Block Address)との組み合わせたものをアドレスとして、当該アドレスを指定して行われる。
管理端末12は、ストレージ装置4を管理するために操作されるサーバ用のコンピュータ装置であり、例えばノート型のパーソナルコンピュータから構成される。管理端末12は、ストレージ装置4内の障害発生を監視してディスプレイ画面(図示せず)に表示することができる。
サポートシステム14は、ストレージ装置4の保守のために操作され、監視されるコンピュータシステムである。サポートシステム14では、ストレージ装置4を管理する管理端末12から、ストレージ装置4に関する情報が送られる。
(2)テーブル
(2−1)パターン結果テーブル
次に、キャッシュメモリ9に記憶されるパターン結果テーブル91について説明をする。
パターン結果テーブル91は、ホスト装置2から送信される複数の異なるアクセスパターンを解析した結果を格納して管理するテーブルである。図2に示すように、パターン結果テーブル91は、「パターン番号」フィールド91A、「論理ボリューム番号」フィールド91B、「ホスト装置番号」フィールド91C、「アプリケーション」フィールド91D、「用途」フィールド91E、「性能閾値」フィールド91F、「I/Oの種類」フィールド91G、「サイクル」フィールド91H、「パウンダリ」フィールド91I及び「制御方法」フィールド91Jから構成される。
「パターン番号」フィールド91Aには、ホスト装置2から送信される複数の異なるアクセスパターンを解析し、解析したパターンに付与した番号が格納されている。
「論理ボリューム番号」フィールド91Bには、解析したアクセスパターンに基づくデータを保存する論理ボリュームLUの番号が格納されている。
「ホスト装置番号」フィールド91Cには、アクセスパターンをストレージ装置4に送信したホスト装置2の番号が格納されている。
「アプリケーション」フィールド91Dには、ホスト装置に搭載された、アクセス情報の発信元であるアプリケーションの種類が格納されている。
「用途」フィールド91Eには、論理ボリュームLUの用途が格納されている。用途としては、データベース用とアーカイブ用とがある。詳細については、後述する。
「性能閾値」フィールド91Fには、該当する論理ボリュームLUの性能の閾値が格納される。この閾値は、ユーザが設定するものである。ユーザが特に何らの入力もしない場合には「0」設定となる。
「I/Oの種類」フィールド91Gには、ホスト装置2から論理ボリュームLUに対するアクセスパターンの種類が格納される。
アクセスパターンの種類は、ランダムアクセス及びシーケンシャルアクセスに大別される。ランダムアクセスとは、連続的に発行される読込み又は書込み要求が隣接したデータを示していない入出力負荷をいう。ランダムアクセスは、データ配置の分散が真にランダムであるかに関わりなく、一般にシーケンシャルではないあらゆる入出力負荷を意味している。ランダムアクセスは、入出力要求のインテンシブなアプリケーションの特徴である。ランダムアクセスには、ランダムライトとランダムリードとがある。
シーケンシャルアクセスは、隣接したデータの連続的な読込み又は書込み要求からなる入出力負荷をいう。シーケンシャルアクセスは、大きなデータ転送を行うアプリケーションに特有のものである。シーケンシャルアクセスには、シーケンシャルリードとシーケンシャルライトとがある。
「サイクル」フィールド91Hには、ストレージ装置4が認識するリード/ライト要求の1サイクルが格納される。
「パウンダリ」フィールド91Iには、論理ボリュームLUに書き込まれるデータの開始位置のずれ値が格納される。
「制御方法」フィールド91Jには、解析したアクセスパターンに基づいて、ストレージ装置4が行う制御方法が格納される。
(2−2)用途テーブル
ここで「用途」フィールド91Eに格納される情報について図3に基づく用途テーブル93を用いて説明する。
「用途」フィールド91Eに格納される情報としては、データベース用の情報となる「テーブル」、「インデックス」、「ジャーナル」及び「ログ」情報と、アーカイブ用の情報である「アーカイブ」情報がある。
「テーブル」情報及び「インデックス」情報を「用途」フィールド91Eに格納する場合には、ストレージ装置4側で予めランダムリードのアクセスが論理ボリュームLUに対して主に行われる動作であると推測して当該情報を選択する。
「ジャーナル」情報及び「ログ」情報を「用途」フィールド91Eに格納する場合には、ストレージ装置4側で予めシーケンシャルライトのアクセスが論理ボリュームLUに対して主に行われる動作であると推測して当該情報を選択する。なお、ジャーナルとは、論理ボリュームLU内に格納されるデータの更新履歴を保存するデータのことである。
「アーカイブ」情報を「用途」フィールド91Eに格納する場合には、ストレージ装置4側で予めシーケンシャルリードアクセスが論理ボリュームLUに対して主に行われる動作であると推測して当該情報を選択する。
(2−3)LU管理テーブル
図4に示すようにLU管理テーブル94は、ストレージ装置4に形成された論理ボリュームLUを管理するテーブルである。LU管理テーブル94は、「論理ボリューム番号」フィールド94A、「エイリアス」フィールド94B、「ホスト装置番号」94C及び「容量」フィールド94Dから構成される。
「論理ボリューム番号」フィールド94Aには、論理ボリュームLUに付与された番号が格納される。
「エイリアス」フィールド94Bには、論理ボリュームLUの通称名が格納されている。例えば、論理ボリュームLUが「1」である場合には、店舗用のマスタデータを格納するための論理ボリュームであることを示している。
「ホスト装置番号」フィールド94Cには、ある論理ボリュームLUをアクセス対象先とするホスト装置2の番号が格納されている。
「容量」フィールド94Dには、論理ボリュームLUが現在使用されている容量情報が格納されている。
(3)パターン解析機能及び制御機能
この記憶システム1は、ホスト装置2からストレージ装置4へのアクセス情報に識別子を含めることによって、ストレージ装置4がアクセス情報に基づいてアクセスパターンを解析し(パターン解析機能)、解析結果に基づいて最適な制御を行う(制御機能)ことで、ストレージ装置4側でアクセスパターンを意識したアクセスを行える点が特徴である。
ここでアクセス情報とは、ホスト装置2からのリード/ライト要求をいう。
それでは次に、本願の特徴点を実現するための説明をする。
まずアクセスパターンには、複数のパターンがあるが、ここでは、全てのアクセスパターンに該当するパターン解析処理及び制御処理について説明する。個別具体的なアクセスパターンに基づくパターン解析処理及び制御処理については後述する。
(3−1)パターン解析処理
まず、ストレージ装置4がホスト装置2からのアクセス情報に基づいて何らかのアクセスパターンを解析するパターン解析処理について説明する。パターン解析処理は、ストレージ装置4のチャネルアダプタ6がパターン解析プログラム90に基づいて実行する。
まず、図5に示すように、ホスト装置2がストレージ装置4にデータを送信するときに、パターン解析処理を開始する(S0、S1)。
ホスト装置2は、ストレージ装置4に送信するアクセス情報に、識別子を挿入する(S2)。例えば、ホスト装置2は、SCSIの空きビットを使用して識別子を挿入する。ここでは識別子とは、ホスト識別子やアプリケーション識別子であって、例えばSCSIの空きビットを使用して送信するアクセス情報にホスト装置の番号やアプリケーションの種類を挿入する。なお本実施の形態において、識別子としてホスト識別子及びアプリケーション識別子をアクセス情報に挿入するが、ホスト識別子又はアプリケーション識別子のいずれか一方を挿入するだけでもよい。
ホスト装置2は、送信するアクセス情報に識別子を挿入すると、ストレージ装置4にデータを送信し(S3)、ホスト装置2側での処理を終了する(S8)。
ストレージ装置4は、ホスト装置2からのアクセス情報を受信すると(S4)、アクセス情報を判定し、判定したアクセス情報のアクセスパターンを解析して判定する(S5)。
その後、ストレージ装置4は、識別子、アクセス情報及びアクセスパターンの解析結果をパターン結果テーブル91に入力する(S6)。例えば、ストレージ装置4は、ホスト装置2からの所定のアクセスパターンを受信して、解析した結果をパターン「1」として入力する。パターン「1」に該当しないホスト装置2からの他のアクセスパターンを、パターン「2」、パターン「3」と入力する。
ストレージ装置4は、パターン結果テーブル91への入力が終ると、ストレージ装置4側での処理を終了する(S9)。
また、ステップS4において、ストレージ装置4は、アクセス情報を受信すると(S4)、ホスト装置2からのアクセス情報に従って通常のデータ処理を行う(S7)。ステップS5及びS7とは並行して処理が行われる。
例えばアクセス情報がライト要求の場合には、ストレージ装置4は、アクセス情報に続いて送信されるデータをキャッシュメモリ9に一時的に格納し、アクセス情報で指定されている論理ボリュームLUに向けてデステージを行う。
アクセス情報がリード要求の場合には、ストレージ装置4はホスト装置2が要求するデータを保存する論理ボリュームLUから読み出して、ホスト装置2に送信する。
そして、通常の処理を終えるとストレージ装置4は、パターン解析処理を終了する(S9)。
(3−2)制御処理
では次に、ストレージ装置4がホスト装置2から識別子を含んだアクセス情報を複数回受信したことでパターン結果テーブル91にパターン毎の解析結果が登録された以後に、ストレージ装置4が行う制御処理について説明する。制御処理とは、ストレージ装置4側で、ホスト装置2に搭載されるアプリケーションを意識した制御を行う処理をいう。
制御処理は、ストレージ装置4のチャネルアダプタ6が主に制御プログラム95に基づいて実行する。
まず、図6及び図7に示すように、ホスト装置2がストレージ装置4にデータを送信するときに、制御処理を開始する(S20、S21)。
ホスト装置2は、ストレージ装置4に送信するアクセス情報に、識別子を挿入する(S22)。パターン解析処理と同様に、ホスト装置2は、SCSIの空きビットを使用して識別子をアクセス情報に挿入する。ここでは識別子は、ホスト識別子及びアプリケーション識別子であり、例えばホスト装置の番号及びアプリケーションの種類が挿入される。
ホスト装置2は、送信するアクセス情報に識別子を挿入すると、ストレージ装置4にアクセス情報を送信すると(S23)、この処理を終了する(S34)。
ストレージ装置4は、ホスト装置2からのアクセス情報を受信すると(S24)、受信したアクセス情報に含まれる識別子を確認する(S25)。
そして、ストレージ装置4は、パターン結果テーブル91を参照し、アクセス情報に含まれる識別子がパターンテーブル結果テーブル91に登録された既存のアクセスパターンに該当するか否かを判断する(S26)。
ストレージ装置4は、ホスト装置2からのアクセス情報がパターンテーブル結果テーブル91に登録された既存のアクセスパターンであると判断すると(S26:YES)、送信されたアクセス情報に対する制御方法がパターン結果テーブル91の「制御方法」フィールド91Jに、入力されているか否かを判断する(S27)。
そして、ストレージ装置4は、送信されたアクセス情報に対する制御方法が「制御方法」フィールド91Jに何らの入力もされていないと判断すると(S27:NO)、ストレージ装置4は送信されたアクセス情報に対する制御方法を判断し(S28)、判断した制御方法に基づいて制御処理を行う(S29)。
その後ストレージ装置4は、性能モニタリングプログラム92を起動させて、記憶システム1の処理速度を検出し(S30)、記憶システム1の処理速度が向上したか否かを判断する(S31)。
ストレージ装置4は、制御処理を行ったことで、記憶システム1の処理速度が向上したと判断すると(S31:YES)、パターン結果テーブル91の「制御方法」フィールド91JにステップS28で判断をした制御方法を登録し(S32)、この処理を終了する(S35)。
ステップS27において、ストレージ装置4は、送信されたデータの識別子を登録した「制御方法」フィールド91Jに入力されていると判断すると(S27:YES)、「制御方法」フィールド91J内の記載事項に従った制御処理を行い(S33)、この処理を終了する(S35)。
ステップS26において、ストレージ装置4は、ホスト装置2からのアクセス情報がパターンテーブル結果テーブル91に登録された既存のアクセスパターンではないと判断すると(S26:NO)、再びパターン解析プログラム90を起動させる。
そしてパターン解析プログラム90を起動後、ストレージ装置4は、ホスト装置2から受信したアクセス情報に従って通常の処理を行った後(S7)終了する(S9)。また、アクセス情報については、ストレージ装置4は、解析及び判定して(S5)、解析結果をパターン結果テーブル91に登録して(S6)終了する(S9)。
なお、ステップS31において、ストレージ装置4は、記憶システム1の処理速度が向上していないと判断すると(S31:NO)、この処理を終了する(S35)。
(3−3)論理ボリューム作成処理
パターン解析処理や制御処理を行う際に、ストレージ環境によっては、制御したパラメータで新規な論理ボリュームLUを作成することで、記憶システム1の性能が向上する場合がある。ここでは、ストレージ装置4が、このような場合に新規な論理ボリュームLUを作成する処理について説明する。論理ボリューム作成処理は、ストレージ装置4のチャネルアダプタ6が主にボリューム作成プログラム96に基づいて実行する。
まず、図8及び図9に示すように、ストレージ装置4が管理端末12に新規な論理ボリュームLUを作成する旨のメッセージを送信し、管理端末12がメッセージを受信したときに、論理ボリューム作成処理を開始する(S40、S41)。
次に、管理端末12はストレージ装置4に論理ボリュームLUに対して作成指示を行う(S42)。
ストレージ装置4は、論理ボリューム作成指示を受領すると(S43)、LU管理テーブル94を管理端末12に送信する(S44)。
管理端末12は、LU管理テーブル94を受け取ると既存の論理ボリュームLUの一覧を管理端末12上の画面に表示する(S45)。
管理端末12は、作成したい新規な論理ボリュームLUと同じパラメータを持つ既存の論理ボリュームLUがLU管理テーブル94にあるか否かを判断する(S46)。
そして、管理端末12は、作成したい新規な論理ボリュームLUと同じパラメータを持つ既存の論理ボリュームLUがLU管理テーブル94にない、又は、既存の論理ボリュームLUがあっても選択しないと判断した場合には(S46:NO)、パラメータを入力し、新規な論理ボリュームLUを作成する(S47)。
ここでパラメータとは、例えば、ホスト装置2の番号及びアプリケーションA〜Cの種類をいう。論理ボリュームLUの用途は、図3に示す用途テーブル93にある一覧から任意に選択する。またパラメータとして、ユーザが性能閾値も任意に入力することができる。
管理端末12は、パラメータを入力すると、このパラメータをストレージ装置4に送信して(S48)、論理ボリューム作成処理を終了する(S56)。
一方、パラメータを受信したストレージ装置4は、このパラメータと同じ特性をもつ論理ボリュームLUがパターン結果テーブル91にあるか否かを判断する(S49)。
そして、ストレージ装置4は、パラメータと同じ特性をもつ論理ボリュームLUがパターン結果テーブル91にあると判断した場合には(S49:YES)、パターン結果テーブル91の該当する論理ボリュームLU情報を参照して、この論理ボリューム情報に基づいて論理ボリュームLUを作成する(S50)。
ストレージ装置4は、作成した新規な論理ボリュームLUの番号及び参照した論理ボリューム情報をパターン結果テーブル91に登録すると(S51)、論理ボリューム作成処理を終了する(S57)。
一方、ステップS49において、ストレージ装置4は、パラメータと同じ特性をもつ論理ボリュームLUがパターン結果テーブル91にないと判断した場合には(S49:NO)、論理ボリュームLUを作成し、作成した新規な論理ボリュームLUの番号及びパラメータをパターン結果テーブル91に登録して(S52)、論理ボリューム作成処理を終了する(S57)。
ステップS46において、管理端末12は、作成したい新規な論理ボリュームLUと同じパラメータを持つ既存の論理ボリュームLUがLU管理テーブル94にあると判断した場合には(S46:YES)、ステップS53〜S55までの処理をステップS50、S51及びS57までの処理と同様の処理手順で行う。
(3−4)具体的なアクセスパターンに基づく処理
それでは次に具体的なアクセスパターンに基づいて、ストレージ装置4が具体的に行うパターン解析処理及び制御処理について説明する。
(3−4−1)ライト−リード−ライトの混在アクセスパターン
まず、アクセスパターン1として、ライト−リード−ライトを1サイクルとしたホスト装置2からのリード/ライト要求をストレージ装置4が受けた場合について説明する。
本実施の形態による制御を行う前のストレージ環境では、次のようであった。
すなわち、最初のライトアクセス要求をストレージ装置4が受けると、まずホスト装置2からのデータがキャッシュメモリ9に書き込まれる。ここでのライト時間は、約0.1(ms)かかっていた。
次に、キャッシュメモリ9に一時的に書き込まれたデータをハードディスクドライブ110へデステージする。デステージは、データがキャッシュメモリ9に書き込まれる毎に毎回行われる。そしてデステージをしている間は、キャッシュメモリ9内の他の領域にアクセスできないようにキャッシュメモリ9がロックされる。このとき、デステージ時間は、約10(ms)かかっていた。
次にリードアクセス要求をストレージ装置4が受けると、ハードディスクドライブ110に書き込まれたデータが、キャッシュメモリ9のロックが解除された後に読み出される。ここでのリード時間は、約0.1(ms)かかっていた。
そして、キャッシュメモリ9がデータを上書きするためのライトアクセス要求を受け取る。ホスト装置2からの上書きデータがキャッシュメモリ9に書き込まれる。ここでのライト時間は、約0.1(ms)かかっていた。
これにより、制御を行う前のストレージ環境下で、ライト−リード−ライトを1サイクルとしたリード/ライト要求をストレージ装置4が受け取ると、全て処理するまでに約10.3(ms)かかっていたことになる。
そこで、上述したパターン解析処理及び制御処理を具体的に適用し、制御後のストレージ環境が確立される。
図10は、パターン解析処理の一部を示したフローチャートである。
まずホスト装置2及びストレージ装置4は、図5で説明をしたステップS0〜S4までを実行する。
そしてストレージ装置4は、ホスト装置2から送信されるデータには識別子が含まれているので、1つの論理ボリュームに対するアクセスのサイクルを検知して、判定する(S5A)。具体的にストレージ装置4は、論理ボリュームLUに対するアクセスのサイクルが、ライト−リード−ライトを1サイクルであると判定する。
そうしてパターンの解析と判定が終了すると、ストレージ装置4は、「ライト−リード−ライトが1サイクル」であることをパターン結果テーブル91の「サイクル」フィールド91Hに入力する(S6A)。その後、ストレージ装置4は、パターン解析処理を終了する(S9)。
図11は、制御処理の一部を示したフローチャートである。
ホスト装置2及びストレージ装置4は、図6及び図7で説明したステップS20〜S27までを実行する。
そしてストレージ装置4は、パターン結果テーブル91の「制御」フィールド91Jに未だ入力されていないと判断すると(S27:NO)、「ライト−リード−ライト」を1サイクルとし、この1サイクル分のリード/ライト要求を処理した後に、キャッシュメモリ9に一時的に記憶されるデータをハードディスクドライブ110へデステージすると、制御方法を判断する(S28A)。
ストレージ装置4は、判断結果に基づき、1サイクル分のリード/ライト要求を処理した後にハードディスクドライブ110へデステージを行う(S29A)。
その後ストレージ装置4は、性能モニタリングプログラム92を起動させて、記憶システム1の処理速度を検出し(S30A)、記憶システム1の処理速度が向上したか否かを判断する(S31A)。
ストレージ装置4は、記憶システム1の処理速度が向上したと判断すると(S31:YES)、パターン結果テーブル91の「制御」フィールド91Jに「1サイクル終了後にデステージを行う」という制御方法を登録し(S32A)、この処理を終了する(S35)。
これにより、ホスト装置2からリード/ライト要求を受領してキャッシュメモリ9からハードディスクドライブ110へデータをデステージする順序は、図12に示す順序となる。
以上により、ストレージ装置4は、ライト−リード−ライトの混在アクセスパターンを解析することで、ライト−リード−ライトのリード/ライト要求を1サイクルと認識することができる。このため、ストレージ装置4が制御前に必要としていたリード/ライト要求中に行われていたデータのデステージ時間を省くことができる。
また、コンソリデーション環境下では、1つのストレージ装置4が複数のホスト装置2や複数のアプリケーションの種類をつなぐ環境であることから、多様なアクセスが混在する場合がある。このような場合には、ストレージ装置4は、アクセス情報に挿入される識別子を確認することで、1サイクル内のリード/ライト要求を見分けることができる。
さらに本具体例は、1つのホスト装置2又はアプリケーションが1つの論理ボリュームLUを使用している場合でも、複数のホスト装置2又はアプリケーションが1つの論理ボリュームLUを使用している場合にでもよく、アプリケーション同士で連携して1つの論理ボリュームLUに対してアクセスパターンが成立すればよい。
(3−4−2)アクセスパターンにおけるパウンダリ調整
次に、アクセスパターン2として、シーケンシャルリード若しくはライト又はランダムリード若しくはライトであるホスト装置2からのリード/ライト要求をストレージ装置4が受けた場合について説明する。ここでは便宜上、シーケンシャルライトであるリード/ライト要求をストレージ装置4が受け取った場合を例に挙げて説明する。
本実施の形態は、RAIDレベルに関係なく適用できるが、ここでは図13に示すように、2台のハードディスクドライブ110(図中、HDD1,HDD2と記載)がRAID0のストライピング構成である場合を例に説明する。
具体的には、ストライピング構成でのハードディスクドライブ110は、キャッシュメモリ9からハードディスクドライブ110に書き込まれる1回のデータ転送長を格納する記憶領域(ストライプST)を64KBとし、ホスト装置2からのデータ転送長(セグメントSG)を16KBとする場合を説明する。ハードディスクドライブ110への書き込み時には、キャッシュメモリ9上の4つのセグメントをまとめて書き込む。
制御を行う前のストレージ環境では、次のようであった。
ホスト装置2が特定のOS又はアプリケーション上でのデータを処理するためにデータの最初の数KB使用するため、キャッシュメモリ9への書き込み開始位置が数KBずれて書き込まれる。このずれを、パウンダリPと呼ぶ。
例えば、パウンダリPが0.5KBとすると、キャッシュメモリ9に書き込まれる1回のデータ転送長は16KBなので、書き込み開始位置は0.5KBから始まり書き込み終了位置は16.5KBとなる。
このとき、2つのセグメントがロックされるため、次のリード/ライト要求によって生じるハードディスクドライブ110への書き込みを待たなければならない。
この待機時間が生じることによって、ハードディスクドライブ110の使用効率が低減してしまう。同様に、キャッシュメモリ9のセグメントをまとめてハードディスクドライブ110に書き込む際にも、同様のパウンダリPが生じるため、本来、ハードディスクドライブHDD1のみへの書き込みのはずが、ハードディスクドライブHDD1、HDD2の両方に書き込みを行うことになる。
そこで、上述したパターン解析処理及び制御処理を具体的に適用し、制御後のストレージ環境が確立される。
まず記憶システム1のテスト環境下で、ホスト装置2及びストレージ装置4は、パターン解析処理を実行する。このときテスト環境下で、ある論理ボリュームLUに対してリード/ライト要求を受領した場合について説明する。
図14は、パターン解析処理の一部を示したフローチャートである。
まずホスト装置2及びストレージ装置4は、図5で説明をしたステップS0〜S4までを実行する。
そしてストレージ装置4は、ホスト装置2から送信される全てのアクセス情報には識別子が含まれているので、先頭のLBAのパウンダリPを計測しパウンダリPの統計をとる(S5B)。そしてストレージ装置4は、パウンダリPの有無及びパウンダリPの大きさを解析して判定する(S5B)。具体的にストレージ装置4は、例えばパウンダリPが有り、そのパウンダリPは0.5KBであると判定する。
そうしてパターンの解析と判定が終了すると、ストレージ装置4は、「パウンダリが有り、そのパウンダリは0.5KB」であることをパターン結果テーブル91の「パウンダリ」フィールド91Iに入力する(S6B)。
本実施の具体例ではパウンダリPが生じている場合なので、ストレージ装置4は、「別の論理ボリュームLUによる性能最適化を推奨する」旨のメッセージを管理端末12に送信する(S6B)。
なおパウンダリPが生じていない場合には、パウンダリPが「0」であることをパターン結果テーブル91に入力する。
その後、ストレージ装置4は、パターン解析処理を終了する(S9)。
図15は、論理ボリューム作成処理の一部を示すフローチャートである。
ステップS6Bにおいて、ストレージ装置4は管理端末12にメッセージを送信すると、ストレージ装置4及び管理端末12は、ステップS40からS44までの処理を実行する。
管理端末12は、ストレージ装置4からLU管理テーブル94を受け取ると既存の論理ボリュームLUの一覧を管理端末12上の画面に表示する(S45B)。
加えて管理端末12は、既存の論理ボリュームLUの一覧から、テスト環境下で使用した論理ボリュームLUを選択する(S45B)。
管理端末12は、作成したい新規な論理ボリュームLUと同じパラメータを持つ既存の論理ボリュームLUがLU管理テーブル94にあるか否かを判断する(S46B)。
そして、管理端末12は、ステップS45Bにおいてテスト環境下で使用した既存の論理ボリュームを選択したので、既存の論理ボリュームはあると判断する(S46B:YES)。
ストレージ装置4は、パターン結果テーブル91の「パウンダリ」フィールド91Iを参照して、先頭のLBAをパウンダリに合わせた論理ボリュームLUを作成する(S53B)。本実施の具体例によれば、ステップS6Bでパウンダリが0.5KBであると判定したので、先頭のLBAを0.5KBずらした論理ボリュームLUを作成する。すなわち先頭のLBAは、図13に示すように、15.5KB又は−0.5KBずれたアドレスとなる。
その後、ストレージ装置4は、図8で説明したように、作成した新規な論理ボリュームLUの番号をパターン結果テーブル91に登録する(S54)。加えてストレージ装置4は、論理ボリューム情報であるパウンダリ数値として、パウンダリP分を差し引いたアドレスをパターン結果テーブル91に登録し(S54)、論理ボリューム作成処理を終了する(S55)。
本実施の具体例は、ハードディスクドライブ110から固定容量の論理ボリュームLUを作成せず、ホスト装置2に仮想的な論理ボリュームを提供し、ホスト装置2からの要求に応じて、仮想的な論理ボリュームにハードディスクドライブ110の記憶領域を動的に割り当てる、いわゆるAOU(Allocation on Use)ボリュームを使用しても実現できる。
さらに、このAOUボリュームに対してホスト装置2からのリード/ライト要求があった場合に、ホスト装置2からの要求に従ってストレージ装置4が対象となるAOUボリュームを削除することができる。
具体的には、ホスト装置2は、業務を実行するアプリケーションA〜Cと、アプリケーションA〜Cが利用するAOUボリュームの記憶領域を管理するOS又はファイルシステムとを有している。
OS又はファイルシステムは、AOUボリュームの記憶領域に格納されているファイルと、このファイルが格納されているアドレスを管理する管理テーブルを有している。
OS又はファイルシステムは、アプリケーションA〜Cからファイルのリード要求を受け取ると、管理テーブルからリード要求を受けたファイルが格納されているアドレスを、リード要求と共にストレージ装置4に送信する。
同様に、OS又はファイルシステムは、アプリケーションA〜Cからファイルのライト要求を受け取ると、管理テーブルから空き領域のアドレスと、ファイルのデータ及びライト要求とをストレージ装置4に送信する。
リード/ライト要求を受けたストレージ装置4の制御部5は、該当するアドレスに物理的な記憶領域が割当てられていない場合には、物理的な記憶領域を割当て、ホスト装置2からのデータを、割当てた物理領域に格納する。
また、OS又はファイルシステムは、アプリケーションA〜Cから削除(Delete)要求を受け取ると、管理テーブルから削除対象となるファイルを削除する。さらに、このOS又はファイルシステムは、削除したファイルのアドレスを削除要求と共にストレージ装置4に送信する。
ストレージ装置4の制御部5は、削除要求を受け取ると、このアドレスに該当する物理的な記憶領域を開放する。
以上により、ストレージ装置4は、アクセスパターンを解析してパウンダリを検出し、予めパウンダリを考慮して新規な論理ボリュームLUを作成することができるので、ハードディスクドライブ110の使用効率の低減を回避することができる。
さらに削除要求をアクセス情報とすることで、OS又はファイルシステムが削除要求を送信し、ストレージ装置側で削除要求を受信するシステム構成とすることができる。
(3−4−3)シーケンシャルアクセス
次に、アクセスパターン2として、シーケンシャルリード又はライトであるリード/ライト要求をストレージ装置4が受けた場合について説明する。
(3−4−3−1)シーケンシャルライト
ここでは、まずストレージ装置4がシーケンシャルライト要求を受信した場合を例に挙げて説明する。
まず、制御を行う前のストレージ環境では、次のようであった。
ストレージ装置4が、ホスト装置2Aとホスト装置2Bからシーケンシャルライト要求であるアクセス情報を同時に受信してしまうと、両ホスト装置2の受信を同時に認識するため、ランダムライト要求を受信したように見えてしまっていた。
そこで、パターン解析処理及び制御処理を具体的に適用し、制御後のストレージ環境が確立される。
図16は、パターン解析処理の一部を示したフローチャートである。
まずホスト装置2及びストレージ装置4は、図5で説明をしたステップS0〜S4までを実行する。
そしてストレージ装置4は、ホスト装置2から送信される全てのアクセス情報には識別子が含まれているので、リード/ライト要求の種類を検知して判定する(S5C)。具体的にストレージ装置4は、I/Oの種類は、識別子からシーケンシャルライトであると判定する。
そうしてパターンの解析と判定が終了すると、ストレージ装置4は、「シーケンシャルライト」であることをパターン結果テーブル91の「I/Oの種類」フィールド91Hに入力する(S6C)。その後、ストレージ装置4は、パターン解析処理を終了する(S9)。
図17は、制御処理の一部を示したフローチャートである。
ホスト装置2及びストレージ装置4は、ステップS20〜S27までを実行する。
そしてストレージ装置4は、パターン結果テーブル91の「制御」フィールド91Jに未だ入力されていないと判断すると(S27:NO)、「シーケンシャルライト」を受信した場合の制御方法を判断する(S28C)。
具体的には、夫々のホスト装置2から受信したデータをキャッシュメモリ9上の異なる記憶領域にためて、ハードディスクドライブ110へまとめ書きをするという制御方法を判断する。
ストレージ装置4は、この判断結果に基づき、ハードディスクドライブ110へまとめ書きをする(S29C)。
その後ストレージ装置4は、性能モニタリングプログラム92を起動させて、記憶システム1の処理速度を検出し(S30C)、記憶システム1の処理速度が向上したか否かを判断する(S31C)。
ストレージ装置4は、記憶システム1の処理速度が向上したと判断すると(S31C:YES)、パターン結果テーブル91の「制御」フィールド91Jに「ハードディスクドライブ110へまとめ書きをする」という制御方法を登録し(S32C)、この処理を終了する(S35)。
(3−4−3−2)シーケンシャルリード
続いて、まずストレージ装置4がシーケンシャルリード要求であるアクセス情報を受信した場合を例に挙げて説明する。
シーケンシャルライト要求を受信した場合と同様に、制御を行う前のストレージ環境ではストレージ装置4が、ホスト装置2Aとホスト装置2Bからシーケンシャルリード要求を同時に受信してしまうと、両ホスト装置2の受信を同時に認識するため、ランダムリード要求を受信したように見えてしまっていた。
図18は、パターン解析処理の一部を示したフローチャートである。
まずホスト装置2及びストレージ装置4は、図5で説明をしたステップS0〜S4までを実行する。
そしてストレージ装置4は、ホスト装置2から送信される全てのアクセス情報には識別子が含まれているので、リード/ライト要求の種類を検知して判定する(S5D)。具体的にストレージ装置4は、I/Oの種類は、識別子からシーケンシャルリード要求のアクセス情報であると判定する。
そうしてパターンの解析と判定が終了すると、ストレージ装置4は、「シーケンシャルリード」であることをパターン結果テーブル91の「I/Oの種類」フィールド91Hに入力する(S6D)。その後、ストレージ装置4は、パターン解析処理を終了する(S9)。
図19は、制御処理の一部を示したフローチャートである。
ホスト装置2及びストレージ装置4は、ステップS20〜S27までを実行する。
そしてストレージ装置4は、パターン結果テーブル91の「制御」フィールド91Jに未だ入力されていないと判断すると(S27:NO)、「シーケンシャルリード」を受信した場合の制御方法を判断する(S28D)。
具体的には、夫々のホスト装置2に送信する必要なデータを、ハードディスクドライブ110からキャッシュメモリ9に先読みする、という制御方法を判断する。
ストレージ装置4は、この判断結果に基づき、ハードディスクドライブ110から必要なデータを先読みしてキャッシュメモリ9上に記憶させる(S29D)。
その後ストレージ装置4は、性能モニタリングプログラム92を起動させて、記憶システム1の処理速度を検出し(S30D)、記憶システム1の処理速度が向上したか否かを判断する(S31D)。
ストレージ装置4は、記憶システム1の処理速度が向上したと判断すると(S31D:YES)、パターン結果テーブル91の「制御」フィールド91Jに「キャッシュメモリ9に先読みする」という制御方法を登録し(S32D)、この処理を終了する(S35)。
以上のように、アクセス情報に挿入される識別子によって、識別子を挿入して送るホスト装置側の環境に合わせたストレージ環境を構築できるように、ストレージ装置4がアクセスパターンを解析して制御することができる。
このように、リード/ライト要求の種類によって、ストレージ装置4が制御できる事項を図20に示す。
リード/ライト要求の種類がシーケンシャルリードの場合には、上述したように、ストレージ装置4はハードディスクドライブ110からキャッシュメモリ9に先読みするデータを予測して最適化を行う、という制御方法が実行される。加えてパターン解析処理の時に、ストレージ装置4は先読みするデータの量を把握することで制御時に先読み量の最適化を行う、と言う制御方法が実行される。
リード/ライト要求の種類がシーケンシャルライトの場合には、上述したように、ストレージ装置4はキャッシュメモリ9からハードディスクドライブ110にまとめ書きする必要データを予測して最適化を行う、という制御方法が実行される。
また、リード/ライト要求の種類がシーケンシャルライトの場合には、ストレージ装置4は、データ転送長に応じてストライプサイズを調整する、という制御方法が実行される。
リード/ライト要求の種類がシーケンシャルライトの場合には、ホスト装置2が、データ長変更プログラム23に基づいてデータ転送長を変更させる、という制御方法が実行される。
リード/ライト要求の種類がシーケンシャルライトの場合には、ユーザが指定する性能閾値に応じて優先的にデータをハードディスクドライブ110へデステージする、という制御方法が実行される。
リード/ライト要求の種類がランダムリードの場合には、ストレージ装置4がアクセスパターンによって、以後読出しが予想されるハードディスクドライブ110内の記憶領域に保存されるデータをキャッシュメモリ9に読み出しておく、という制御方法が実行される。
リード/ライト要求の種類がランダムリードの場合には、ストレージ装置4が、空き時間に読み出し頻度の高いデータを、一箇所にまとめて保存する、という制御方法が実行される。この制御方法は、RAIDレベルの移行も含まれる。
リード/ライト要求の種類がランダムリードの場合には、ホスト装置2が、データ長変更プログラム23に基づいてデータ転送長を変更させ、データ長の長さとタグ数の最適化を行う、という制御方法が実行される。
リード/ライト要求の種類がランダムライトの場合には、ストレージ装置4は上書き頻度が高く、ハードディスク110内の異なる記憶領域に保存されるデータを一箇所にまとめて保存する、若しくは書き込み速度を上げるため複数のハードディスクドライブに分散させる、という制御方法が実行される。この制御方法は、RAIDレベルの移行も含まれる。
リード/ライト要求の種類がランダムライトの場合には、ストレージ装置4はストライプサイズを最適化する、という制御方法が実行される。
リード/ライト要求の種類がランダムライトの場合には、ホスト装置2が、データ長変更プログラム23に基づいてデータ転送長を変更させる、という制御方法が実行される。
(4)第1の実施の形態の効果
本実施の形態によれば、記憶制御装置自らが、ホスト装置から論理ボリュームに対するアクセスパターンを解析して最適な制御を行って対応することができるので、アクセスパターンの特殊性によっても記憶システムの性能の向上を図ることができる。
(5)第2の実施の形態
それでは次に、第2の実施の形態による記憶システムについて以下に説明する。
図21において、1’は全体として第2の実施の形態による記憶システムを示す。この記憶システム1’は、ホスト装置2がネットワーク3を介してストレージ装置4’と接続され、ストレージ装置4’が管理端末12と接続され、管理端末12がネットワーク13を介してサポートシステム14と接続される構成である。
ストレージ装置4’は、記憶制御装置であって、ホスト装置2からのデータの入出力を制御するコントローラ部5’と、ホスト装置2からのデータを保存するハードディスクドライブ部11とを備える記憶制御装置である。
コントローラ部5’では、ホスト装置2との通信制御を行うホストインターフェース(図中ホストI/Fと表記)60、プロセッサ6’、共有メモリ7、キャッシュメモリ9、ハードディスクドライブ部11との通信制御を行うディスクインターフェース(図中ディスクI/Fと表記)10’が転送制御回路8’を介して接続される構成である。
プロセッサ6’は、キャッシュメモリ9に格納される各種テーブル91,93,94を参照して、各種プログラム90,92,95,96の実行を行うものである。
転送制御回路8’は、ホストインターフェース60、プロセッサ6’、共有メモリ7、キャッシュメモリ9及びディスクインターフェース10’間でのデータ転送を制御する回路である。
なお、その他の構成要素については、上述した対応する構成要素と同じであるので、説明を省略する。また、本実施の形態のコントローラ部5’は1つで示しているが、ストレージ装置4’内にこのコントローラ部5’を複数も受けてもよい。
このような構成であっても、記憶制御装置自らが、ホスト装置から論理ボリュームに対するアクセスパターンを解析して最適な制御を行って対応することができるので、アクセスパターンの特殊性によっても記憶システムの性能の向上を図ることができる。
(6)他の実施の形態
複数のホスト装置2又は複数のアプリケーションA〜Cは、夫々のホスト装置又は夫々のアプリケーションを識別する識別子をアクセス情報に追加して送信する追加部をドライバ21に備えたが、追加部を個別のハードウェア構成としてもよい。
ストレージ装置(記憶制御装置)4は、アクセス情報に含まれる識別子に基づいてホスト装置2又はアプリケーションA〜Cを識別し、識別したホスト装置又はアプリケーションから送信されるアクセス情報のアクセスパターンを解析する解析部と、ホスト装置2又はアプリケーションA〜Cの識別子と、解析部で解析したアクセスパターンの解析結果と、解析結果に基づいてホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を制御する制御方法と、を管理する管理部と、ホスト装置2から送信されるデータ又は論理ボリュームLUに格納されるデータの処理を管理部で管理する制御方法で制御するデータ処理制御部と、をキャッシュメモリ9に設けたが、解析部、管理部及びデータ処理制御部を個別のハードウェア構成としてもよい。
本発明は、1又は複数の記憶制御装置を有する記憶システムや、その他の形態の記憶システムに広く適用することができる。
第1の実施の形態における記憶システムの全体構成を示すブロック図である。 第1の実施の形態におけるパターン結果テーブルを示す図表である。 第1の実施の形態における用途テーブルを示す図表である。 第1の実施の形態におけるLU管理テーブルを示す図表である。 第1の実施の形態におけるパターン解析処理を示すフローチャートである。 第1の実施の形態における制御処理を示すフローチャートである。 第1の実施の形態における制御処理を示すフローチャートである。 第1の実施の形態における新規論理ボリュームの作成処理を示すフローチャートである。 第1の実施の形態における新規論理ボリュームの作成処理を示すフローチャートである。 第1の実施の形態におけるパターン解析処理の一部を示すフローチャートである。 第1の実施の形態における制御処理の一部を示すフローチャートである。 第1の実施の形態におけるデステージの順序を示す概念図である。 第1の実施の形態におけるパウンダリ調整の説明に供する概念図である。 第1の実施の形態におけるパターン解析処理の一部を示すフローチャートである。 第1の実施の形態における新規論理ボリュームの作成処理の一部を示すフローチャートである。 第1の実施の形態におけるシーケンスライト要求を受信したときのパターン解析処理の一部を示すフローチャートである。 第1の実施の形態におけるシーケンスライト要求を受信したときの制御処理の一部を示すフローチャートである。 第1の実施の形態におけるシーケンスリード要求を受信したときのパターン解析処理の一部を示すフローチャートである。 第1の実施の形態における制御処理の一部を示すフローチャートである。 第1の実施の形態における制御方法の一覧図である。 第2の実施の形態における記憶システムの全体構成を示すブロック図である。
符号の説明
1、1’……記憶システム、2……ホスト装置、4、4’……ストレージ装置、5、5’……コントローラ部、6……チャネルアダプタ、9……キャッシュメモリ、90……パターン解析プログラム、91……パターン解析テーブル、92……性能モニタリングプログラム、93……用途テーブル、94……LU管理テーブル、95……制御プログラム、96……ボリューム作成プログラム、10……ディスクアダプタ、LU……論理ボリューム。

Claims (16)

  1. アクセス情報を送信する複数のホスト装置又は複数のアプリケーションと、データを物理ディスクの記憶領域上に提供される論理ボリュームに格納する記憶制御装置と、を有する記憶システムにおいて、
    前記複数のホスト装置又は前記複数のアプリケーションは、
    夫々のホスト装置又は夫々のアプリケーションを識別する識別子を前記アクセス情報に挿入して送信する挿入部を備え、
    前記記憶制御装置は、
    前記アクセス情報に含まれる識別子に基づいてホスト装置又はアプリケーションを識別し、識別したホスト装置又はアプリケーションから送信されるアクセス情報のアクセスパターンを解析する解析部と、
    前記ホスト装置又は前記アプリケーションの識別子と、前記解析部で解析したアクセスパターンの解析結果と、前記解析結果に基づいてホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を制御する複数の制御方法と、を管理する管理部と、
    ホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を前記管理部で管理する制御方法で制御するデータ処理制御部と、を備え
    前記データ処理制御部は、
    前記複数の制御方法の中から、前記解析部で解析したアクセスパターンの解析結果に応じた制御方法を選択し、前記選択した制御方法が登録されているか否かを判定し、前記選択した制御方法が登録されている場合、前記ホスト装置から送信されるデータ又は前記論理ボリュームに格納されるデータの処理を前記登録されている制御方法で制御し、前記選択した制御方法が登録されていない場合、前記ホスト装置又は前記アプリケーションから送信されるアクセス情報に対する制御方法を判断し、当該判断で得られた制御方法の制御処理を実行して、前記記憶制御装置の処理速度を検出し、前記検出結果を基に、前記記憶制御装置の処理速度が向上するか否かを判断し、前記記憶制御装置の処理速度が向上すると判断した場合、前記ホスト装置から送信されるデータ又は前記論理ボリュームに格納されるデータの処理を前記判断で得られた制御方法で制御する
    ことを特徴とする記憶システム。
  2. 前記データ処理制御部は、
    前記複数のホスト装置又は複数のアプリケーションのうち前記管理部で管理するホスト装置の識別子を含むアクセス情報を受信する場合に、ホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を制御する
    ことを特徴とする請求項1記載の記憶システム。
  3. 前記データ処理制御部は、
    前記記憶制御装置の処理速度が向上しないと判断した場合、前記ホスト装置から送信されるデータ又は前記論理ボリュームに格納されるデータの処理を終了する
    ことを特徴とする請求項1記載の記憶システム。
  4. 前記解析部は、
    前記データ処理制御部において、前記複数のホスト装置又は複数のアプリケーションのうち前記管理部で管理するホスト装置の識別子を含まないアクセス情報を受信すると、当該アクセス情報のアクセスパターンを解析する
    ことを特徴とする請求項1記載の記憶システム。
  5. 前記識別子は、
    前記複数のホスト装置を識別するホスト識別子又は前記複数のアプリケーションを識別するアプリケーション識別子である
    ことを特徴とする請求項1記載の記憶システム。
  6. 前記解析部は、
    シーケンシャルアクセス又はランダムアクセスのアクセス情報を判定し、判定したアクセス情報のアクセスパターンを解析する
    ことを特徴とする請求項1記載の記憶システム。
  7. 前記解析部は、
    データの転送長、論理ボリュームにデータを書き込む書き込み開始位置、論理ボリュームにデータを格納する格納順序又は論理ボリュームに対するアクセスサイクルのアクセスパターンを解析する
    ことを特徴とする請求項6記載の記憶システム。
  8. 前記記憶制御装置は、
    前記解析部で解析した結果、前記論理ボリュームにデータを書き込む書き込み開始位置にずれが生じた場合には、書き込み開始位置をずれ分だけずらした論理ボリュームを作成する
    ことを特徴とする請求項7記載の記憶システム。
  9. アクセス情報を送信する複数のホスト装置又は複数のアプリケーションと、データを物理ディスクの記憶領域上に提供される論理ボリュームに格納する記憶制御装置と、を有する記憶システムの制御方法において、
    前記複数のホスト装置又は前記複数のアプリケーションでは、夫々のホスト装置又は夫々のアプリケーションを識別する識別子を前記アクセス情報に挿入して送信する挿入ステップを備え、
    前記記憶制御装置では、前記アクセス情報に含まれる識別子に基づいてホスト装置又はアプリケーションを識別し、識別したホスト装置又はアプリケーションから送信されるアクセス情報のアクセスパターンを解析する解析ステップと、
    前記ホスト装置又は前記アプリケーションの識別子と、前記解析ステップで解析したアクセスパターンの解析結果と、前記解析結果に基づいてホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を制御する複数の制御方法と、を管理する管理ステップと、
    ホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を前記管理ステップで管理する制御方法で制御するデータ処理制御ステップと、を備え
    前記データ処理制御ステップでは、
    前記複数の制御方法の中から、前記解析部で解析したアクセスパターンの解析結果に応じた制御方法を選択し、前記選択した制御方法が登録されているか否かを判定し、前記選択した制御方法が登録されている場合、前記ホスト装置から送信されるデータ又は前記論理ボリュームに格納されるデータの処理を前記登録されている制御方法で制御し、前記選択した制御方法が登録されていない場合、前記ホスト装置又は前記アプリケーションから送信されるアクセス情報に対する制御方法を判断し、当該判断で得られた制御方法の制御処理を実行して、前記記憶制御装置の処理速度を検出し、前記検出結果を基に、前記記憶制御装置の処理速度が向上するか否かを判断し、前記記憶制御装置の処理速度が向上すると判断した場合、前記ホスト装置から送信されるデータ又は前記論理ボリュームに格納されるデータの処理を前記判断で得られた制御方法で制御する
    ことを特徴とする記憶システムの制御方法。
  10. 前記データ処理制御ステップでは、
    前記複数のホスト装置又は前記複数のアプリケーションのうち前記管理ステップで管理するホスト装置又はアプリケーションの識別子を含むアクセス情報を受信すると、ホスト装置から送信されるデータ又は論理ボリュームに格納されるデータの処理を制御する
    ことを特徴とする請求項9記載の記憶システムの制御方法。
  11. 前記データ処理制御ステップでは、
    前記記憶制御装置の処理速度が向上しないと判断した場合、前記ホスト装置から送信されるデータ又は前記論理ボリュームに格納されるデータの処理を終了する
    ことを特徴とする請求項9記載の記憶システムの制御方法。
  12. 前記データ処理制御ステップで、
    前記複数のホスト装置のうち前記管理ステップで管理するホスト装置の識別子を含まないアクセス情報を受信すると、
    前記解析ステップでは、当該アクセス情報のアクセスパターンを解析する
    ことを特徴とする請求項9記載の記憶システムの制御方法。
  13. 前記識別子は、
    前記複数のホスト装置を識別するホスト識別子又は前記複数のアプリケーションを識別するアプリケーション識別子である
    ことを特徴とする請求項9記載の記憶システムの制御方法。
  14. 前記解析ステップでは、
    シーケンシャルアクセス又はランダムアクセスのアクセス情報を判定し、判定したアクセス情報のアクセスパターンを解析する
    ことを特徴とする請求項9記載の記憶システムの制御方法。
  15. 前記解析ステップでは、
    データの転送長、論理ボリュームにデータを書き込む書き込み開始位置、論理ボリュームにデータを格納する格納順序又は論理ボリュームに対するアクセスサイクルのアクセスパターンを解析する
    ことを特徴とする請求項14記載の記憶システムの制御方法。
  16. 前記記憶制御装置では、
    前記解析ステップにおいて解析した結果、前記論理ボリュームにデータを書き込む書き込み開始位置にずれが生じた場合には、書き込み開始位置をずれ分だけずらした論理ボリュームを作成する
    ことを特徴とする請求項15記載の記憶システムの制御方法。
JP2007107261A 2007-04-16 2007-04-16 記憶システム及びその制御方法 Expired - Fee Related JP5094193B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007107261A JP5094193B2 (ja) 2007-04-16 2007-04-16 記憶システム及びその制御方法
EP08250144A EP1983420A3 (en) 2007-04-16 2008-01-11 Storage system and control method thereof
US12/007,646 US7953940B2 (en) 2007-04-16 2008-01-14 Storage system and control method thereof
US13/093,460 US8214606B2 (en) 2007-04-16 2011-04-25 Storage system and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007107261A JP5094193B2 (ja) 2007-04-16 2007-04-16 記憶システム及びその制御方法

Publications (2)

Publication Number Publication Date
JP2008269015A JP2008269015A (ja) 2008-11-06
JP5094193B2 true JP5094193B2 (ja) 2012-12-12

Family

ID=39525366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007107261A Expired - Fee Related JP5094193B2 (ja) 2007-04-16 2007-04-16 記憶システム及びその制御方法

Country Status (3)

Country Link
US (2) US7953940B2 (ja)
EP (1) EP1983420A3 (ja)
JP (1) JP5094193B2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100991792B1 (ko) 2007-12-31 2010-11-04 엘지전자 주식회사 협력적 다중 입출력 방식 신호 송수신 방법
US8458404B1 (en) 2008-08-14 2013-06-04 Marvell International Ltd. Programmable cache access protocol to optimize power consumption and performance
JP5250869B2 (ja) * 2008-08-28 2013-07-31 株式会社日立製作所 ストレージシステム、論理記憶領域割り当て方法及び計算機システム
US8407436B2 (en) * 2009-02-11 2013-03-26 Hitachi, Ltd. Methods and apparatus for migrating thin provisioning volumes between storage systems
JP5816424B2 (ja) 2010-10-05 2015-11-18 富士通株式会社 情報処理装置、テープ装置、およびプログラム
JP2013020504A (ja) * 2011-07-12 2013-01-31 Nec Corp ディスクアレイ装置、論理ディスク制御方法および制御プログラム
JP5884602B2 (ja) 2012-03-30 2016-03-15 富士通株式会社 ストレージ制御装置、およびストレージシステム
KR102070136B1 (ko) * 2013-05-03 2020-01-28 삼성전자주식회사 프리페치를 위한 캐시 제어 장치 및 그 캐시 제어 장치를 이용한 프리페치 방법
JP5895918B2 (ja) * 2013-09-30 2016-03-30 日本電気株式会社 ディスク装置、ディスク装置における先読み制御方法およびプログラム
KR102295769B1 (ko) 2014-05-20 2021-08-30 삼성전자주식회사 스토리지 컨트롤러 및 상기 스토리지 컨트롤러의 동작 방법
US10002025B2 (en) * 2014-08-29 2018-06-19 Hitachi, Ltd. Computer system and load leveling program
US10545674B1 (en) * 2016-06-30 2020-01-28 EMS EP Holding Company LLC Method and system for SSD performance jitter detection and avoidance
US10390114B2 (en) * 2016-07-22 2019-08-20 Intel Corporation Memory sharing for physical accelerator resources in a data center
US10324656B1 (en) * 2016-07-29 2019-06-18 EMC IP Holding Company LLC Application-aware control for data services
US10331588B2 (en) 2016-09-07 2019-06-25 Pure Storage, Inc. Ensuring the appropriate utilization of system resources using weighted workload based, time-independent scheduling
WO2018051446A1 (ja) * 2016-09-15 2018-03-22 株式会社日立製作所 オプショナルなデータ処理機能を有するストレージシステムを含んだ計算機システム、および、記憶制御方法
US10007459B2 (en) 2016-10-20 2018-06-26 Pure Storage, Inc. Performance tuning in a storage system that includes one or more storage devices
US11379132B1 (en) 2016-10-20 2022-07-05 Pure Storage, Inc. Correlating medical sensor data
WO2018075790A1 (en) * 2016-10-20 2018-04-26 Pure Storage, Inc. Performance tuning in a storage system that includes one or more storage devices
JP6780576B2 (ja) 2017-04-27 2020-11-04 トヨタ自動車株式会社 解析手法提示システム、方法及びプログラム
US10656869B1 (en) * 2018-06-28 2020-05-19 Amazon Technologies, Inc. Performance-based volume replica migration
US11520703B2 (en) 2019-01-31 2022-12-06 EMC IP Holding Company LLC Adaptive look-ahead configuration for prefetching data in input/output operations
US10977177B2 (en) * 2019-07-11 2021-04-13 EMC IP Holding Company LLC Determining pre-fetching per storage unit on a storage system
US11182321B2 (en) 2019-11-01 2021-11-23 EMC IP Holding Company LLC Sequentiality characterization of input/output workloads
US20230169002A1 (en) * 2021-11-30 2023-06-01 Red Hat, Inc. Using a container image to determine a caching algorithm for a software application

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2943896B2 (ja) * 1993-09-03 1999-08-30 株式会社ピーエフユー 計算機システム及びディスク・データの制御方法
JPH08129461A (ja) * 1994-11-01 1996-05-21 Hitachi Ltd 補助記憶装置
JPH10240450A (ja) 1997-02-28 1998-09-11 Hitachi Ltd 記憶装置システム
JPH11212733A (ja) 1998-01-26 1999-08-06 Hitachi Ltd 外部記憶システム
JP2001125754A (ja) * 1999-10-29 2001-05-11 Mitsubishi Electric Corp ディスク・アレイのデータ・アクセス方法
JP2002023962A (ja) * 2000-07-07 2002-01-25 Fujitsu Ltd ディスク装置及び制御方法
US7039766B1 (en) * 2000-10-12 2006-05-02 International Business Machines Corporation Prescheduling sequential data prefetches in a preexisting LRU cache
US6748502B2 (en) * 2001-01-12 2004-06-08 Hitachi, Ltd. Virtual volume storage
JP3812405B2 (ja) 2001-10-25 2006-08-23 株式会社日立製作所 ディスクアレイシステム
JP4330854B2 (ja) 2002-08-15 2009-09-16 株式会社日立製作所 バッチ処理システム
US6910106B2 (en) * 2002-10-04 2005-06-21 Microsoft Corporation Methods and mechanisms for proactive memory management
JP2005135116A (ja) * 2003-10-29 2005-05-26 Nec Corp ストレージ装置及びそのアクセス制御方法
JP4117656B2 (ja) * 2003-11-26 2008-07-16 株式会社日立製作所 アクセスパターンを学習する記憶装置
US7263579B2 (en) * 2004-03-24 2007-08-28 Intel Corporation Integrated circuit capable of pre-fetching data
JP4819369B2 (ja) * 2005-02-15 2011-11-24 株式会社日立製作所 ストレージシステム
JP2006304526A (ja) 2005-04-22 2006-11-02 Kiko Kagi Kofun Yugenkoshi 回転子の組合せ構造
JP2007107261A (ja) 2005-10-13 2007-04-26 Nippon Spindle Mfg Co Ltd 引戸装置
JP2007172097A (ja) * 2005-12-20 2007-07-05 Mitsubishi Electric Corp データアクセス装置およびデータアクセス方法
JP2008065433A (ja) * 2006-09-05 2008-03-21 Hitachi Ltd 計算機システム及び性能チューニング方法
JP2010506338A (ja) * 2006-10-09 2010-02-25 サンディスク アイエル リミテッド アプリケーション依存ストレージ制御
JP2008112292A (ja) * 2006-10-30 2008-05-15 Hitachi Ltd ストレージシステム及びストレージシステムの電源供給制御方法

Also Published As

Publication number Publication date
US20110202717A1 (en) 2011-08-18
US20080256304A1 (en) 2008-10-16
JP2008269015A (ja) 2008-11-06
US7953940B2 (en) 2011-05-31
EP1983420A2 (en) 2008-10-22
US8214606B2 (en) 2012-07-03
EP1983420A3 (en) 2011-09-07

Similar Documents

Publication Publication Date Title
JP5094193B2 (ja) 記憶システム及びその制御方法
US7680984B2 (en) Storage system and control method for managing use of physical storage areas
US7930474B2 (en) Automated on-line capacity expansion method for storage device
US8312246B2 (en) Storage apparatus and storage area allocation method
JP4813843B2 (ja) ストレージ装置、ディスクキャッシュ制御方法及びディスクキャッシュの容量割当方法
US7886114B2 (en) Storage controller for cache slot management
US8533421B2 (en) Computer system, data migration monitoring method and data migration monitoring program
US7912996B2 (en) Storage system
US7660946B2 (en) Storage control system and storage control method
US20080184000A1 (en) Storage module and capacity pool free capacity adjustment method
US20090300283A1 (en) Method and apparatus for dissolving hot spots in storage systems
US6954839B2 (en) Computer system
JP2005149276A (ja) 情報処理システム、情報処理装置、情報処理装置の制御方法及びプログラム
US20080263299A1 (en) Storage System and Control Method Thereof
JP2007102762A (ja) 論理パーティション分割ストレージシステムに於けるリソース管理方法
US7975118B2 (en) Storage system and data rearrangement method
JP2010277342A (ja) 管理プログラム、管理装置および管理方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120918

R150 Certificate of patent or registration of utility model

Ref document number: 5094193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees