JP2009015841A - 同期化された処理要素を有する記憶システム - Google Patents

同期化された処理要素を有する記憶システム Download PDF

Info

Publication number
JP2009015841A
JP2009015841A JP2008168912A JP2008168912A JP2009015841A JP 2009015841 A JP2009015841 A JP 2009015841A JP 2008168912 A JP2008168912 A JP 2008168912A JP 2008168912 A JP2008168912 A JP 2008168912A JP 2009015841 A JP2009015841 A JP 2009015841A
Authority
JP
Japan
Prior art keywords
asic
data
policy processor
storage system
ring buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008168912A
Other languages
English (en)
Inventor
Clark Edward Lubbers
エドワード ルッベルス クラーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seagate Technology LLC
Original Assignee
Seagate Technology LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seagate Technology LLC filed Critical Seagate Technology LLC
Publication of JP2009015841A publication Critical patent/JP2009015841A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】同期化された処理要素を有する記憶システムを得る。
【解決手段】記憶システムには、ポリシー・プロセッサが接続される周辺装置バス上で通信するASIC内のリスト・マネージャを介して、ASIC内の複数の専用目的機能コントローラをポリシー・プロセッサに選択的に結合するインターコネクトを有するASIC、および複数の機能コントローラの各々からポリシー・プロセッサへの全トランザクション要求が集合的にポストされるイベント・リング・バッファが設けられる。
【選択図】図1

Description

本発明の実施例は一般的にデータ記憶システムに関し、限定はしないが、特に分散アレイ記憶システムにおいてネットワークI/Oコマンドに応答するデータ・トランザクションの処理に関する。
コンピュータ・ネットワーキングは産業標準アーキテクチュアの転送レートがインテル社製80386プロセッサのデータ・アクセスレートと歩調を保てなくなった時に蔓延し始めた。ローカルエリア・ネットワーク(LAN)はネットワーク内のデータ記憶容量を統合整理することにより記憶エリア網(SAN)へと発展した。ユーザは装置およびSAN内の装置により処理される関連データの統合整理により、直接取り付けられた記憶装置により可能なものよりも一桁多い記憶装置を処理する能力、および対処可能なコストでそうするという重大な利益を実現している。
より最近になって、動きはデータ記憶サブシステムを制御するネットワーク−セントリック・アプローチへ向けられている。すなわち、記憶装置が統合整理されるのと同様に、サーバからネットワーク自体内にオフロードされる記憶装置の機能性を制御するシステムが統合整理される。たとえば、ホストベース・ソフトウェアは保守および管理タスクをインテリジェント・スイッチや特殊化されたネットワーク記憶装置サービス・プラットホームへ委任することができる。応用ベース・ソリューションはホスト内で実行するソフトウェアの必要性をなくし、エンタープライズ内にノードとして配置されたコンピュータ内で作動する。いずれにせよ、インテリジェント・ネットワーク・ソリューションは記憶装置割当ルーチン、バックアップ・ルーチン、フォールト・トレランス・スキーム等をホストとは無関係に集中化することができる。
インテリジェンスをホストからネットワークへ移せばこれらの問題のいくつかは解決されるが、ホストへの仮想記憶装置のプレゼンテーションを変える際の柔軟性の一般的欠落に伴う固有の困難は解決されない。たとえば、データ格納方法は異常なホスト・ロード・アクティビティのバーストを調整するように適応させる必要がある。各データ記憶容量を自己決定的に割当て、管理し、保護してその容量を仮想記憶スペースとしてネットワークへ提示してグローバル記憶要求条件を調整するインテリジェント・データ記憶サブシステムが必要とされている。この仮想記憶スペースは多数の記憶ボリュームの中に準備することができる。本発明の実施例はこのソリューションへ向けられる。
本発明の実施例は一般的に記憶アレイ内のデータ・トランザクションに向けられる。
ある実施例では、ASIC内の複数の専用目的機能コントローラを、ポリシー・プロセッサが接続される周辺装置バス上で通信するASIC内のリスト・マネージャを介して、ポリシー・プロセッサに選択的に接続するインターコネクトを有するASIC、および複数の機能コントローラの各々からポリシー・プロセッサへの全てのトランザクション要求がリアルタイムで集合的にポストされるイベント・リング・バッファが記憶システムに設けられる。
ある実施例では、記憶システム内の記憶トランザクションを処理する方法が提供される。この方法はASIC内の専用目的ホスト交換機能コントローラによりネットワーク・デバイスからアクセス・コマンドを受信し、ホスト交換機能コントローラによりアクセス・コマンドと関連付けられたコマンドを、ASIC内のリスト・マネージャおよびポリシー・プロセッサが接続される周辺装置バスを介して、ポリシー・プロセッサにより制御されるメモリへポストするステップを含んでいる。
ある実施例では、ポリシー・プロセッサが接続される周辺装置バスと通信するASIC内のリスト・マネージャを介してポリシー・プロセッサに選択的に接続される複数の専用目的機能コントローラを有するコントローラASIC、および各機能コントローラからのポリシー・プロセッサを目標とする全トランザクションを集合的に同期化してネットワークI/Oコマンドを処理する手段が記憶システムに設けられる。
特許請求される本発明を特徴づけるこれらおよび他のさまざまな特徴および利点は添付図を検討しながら下記の詳細な説明を読めば明らかとなる。
図1は本発明の実施例が有用であるコンピュータ・システム100を例示している。1つ以上のホスト102がローカル・エリア・ネットワーク(LAN)および/またはワイド・エリア・ネットワーク(WAN)106を介して1つ以上のネットワーク取付けサーバ104にネットワーキングされている。好ましくは、LAN/WAN106はWorld Wide Webを介して通信するためのインターネット・プロトコル(IP)ネットワーキング・インフラストラクチュアを使用する。ホスト102はいくつかのインテリジェント記憶素子(ISE)108の1つ以上に格納されたデータを日常的に必要とするサーバ104内に常駐するアプリケーションにアクセスする。したがって、SAN110は格納されたデータへアクセスするためにサーバ104をISE108に接続する。ISE108はエンタープライズまたはデスクトップ・クラス記録媒体を内蔵するシリアルATAおよびファイバ−チャネル等のさまざまな選出された通信プロトコルを介してデータを格納するためのデータ記憶容量109を提供する。
図2は図1のコンピュータ・システム100の一部の単純化された線図である。3つのホストバス・アダプタ(HBA)103がネットワークまたはファブリック110を介して一対のISE108(それぞれ、AおよびBで示す)とインタラクトするように示されている。各ISE108は、好ましくは、redundant array of independent drives(RAID)として特徴づけられる一組のデータ記憶装置としてのデータ記憶容量109に作用するデュアル冗長コントローラ112(A1,A2およびB1,B2で示す)を含んでいる。すなわち、好ましくは、コントローラ112およびデータ記憶容量109はさまざまなコントローラ112が並列、冗長リンクを利用し、システム100により格納されたユーザ・データの少なくともいくらかは少なくとも一組のデータ記憶容量109内に冗長フォーマットで格納されるようにフォールトトレラント構成を利用する。
図3は本発明の実施例に従って構成されたISE108を例示している。シェル114はミッドプレーン116と電気的に接続するコントローラ112と受入れ係合する空洞を画定する。次に、シェル114はキャビネット(図示せず)内に支持される。一対のマルチドライブ・アセンブリ(MDA)118がミッドプレーン116と同じ側でシェル114内に受入れ係合することができる。ミッドプレーン116の反対側には非常電源を提供するデュアル・バッテリ122、デュアル・交流電源124、およびデュアル・インターフェイス・モジュール126が接続されている。好ましくは、デュアル・コンポーネントはいずれかのMDA118または両方を同時に作動させるように構成され、コンポーネント故障時のバックアップ保護を提供する。
図4は各々が5つのデータ記憶装置128を支持するアッパ・パーティション130およびロアー・パーティション132を有するMDA118の拡大分解等角図である。パーティション130,132はミッドプレーン116(図3)と操作可能に係合するコネクタ136を有する共通回路板134と接続するようにデータ記憶装置128を揃える。ラッパ138が電磁干渉シールディングを提供する。MDA118のこの実施例は本発明の譲受人が譲り受け、本開示の一部としてここに組み入れられている米国特許第7,133,291号Carrier Device and Method for a Multiple Disc Arrayの主題である。MDA118のもう1つの実施例はやはり本発明の譲受人が譲り受け、本開示の一部としてここに組み入れられている同じタイトルの米国特許第7,177,145号の主題である。代替同等実施例では、MDA118を封止エンクロージャ内に設けることができる。
図5は本発明の実施例を使用するのに適した回転媒体ディスク装置の形のデータ記憶装置128の等角図である。以下の検討の目的で動体データ記録媒体を有する回転スピンドルが使用されるが、代替同等実施例では固体メモリデバイス等の非回転媒体装置が使用される。図5に示す実施例では、データ記憶ディスク138がモータ140により回転されてディスク138のデータ記憶場所をリード/ライトヘッド(「ヘッド」)142へ与える。ヘッド142はディスク138の内側および外側トラック間で半径方向にヘッド142が移動する時にボイスコイルモータ(VCM)146に応答するロータリ・アクチュエータ144の先端に支持される。ヘッド142はフレックス回路150により回路板148に電気的に接続される。回路板148はデータ記憶装置128の機能を制御する制御信号を送受信するようにされている。コネクタ152が回路板148に電気的に接続され、データ記憶装置128をMDA118の回路板134(図4)に接続するようにされている。
図6は中間バス160(“ebus”と呼ばれる)により接続された2つのインテリジェント記憶プロセッサ(ISP)156,158を有するコントローラ112(図2)アーキテクチュアを示す。好ましくは、ISP156,158の各々が共通コントローラ・ボード上の個別の特定用途向け集積回路(ASIC)パッケージ内に配置される。好ましくは、ISP156,158は、それぞれ、ファイバ・チャネル・サーバリンク162,164を介して上りアプリケーション・サーバと通信し、かつファイバ・チャネル記憶リンク166,168を介して記憶容量109を構成する記憶装置と通信する。
ポリシー・プロセッサ170,172はコントローラ112に対するリアルタイム・オペレーティングシステムを実行し、かつPCIバス174,176を介して各ISP156,158と通信する。ポリシー・プロセッサ170,172は、さらに、カスタマイズド・ロジックを実行して定められた記憶アプリケーションに対するISP156,158と共に複雑な処理タスクを実施する。ISP156,158およびポリシー・プロセッサ170,172は動作中に必要に応じてメモリモジュール178,180をアクセスする。
図7Aと7Bは本発明の実施例に従ったISP156,158の詳細を示す。各ISP156,158ユニットはデータ記憶装置128の予め定められたプールを支配する、言い換えれば制御の部位を提供する。したがって、各ISP156,158の同じコンポーネントは同じ番号で示されるがISP158上のプライム記号により区別される。
各ISP156,158は交換/PCIメモリモジュール182,182′バッファ・メモリモジュール184,184′、およびSRAMモジュール186,186′に接続される。各ポリシー・プロセッサ170,172はPCIバス174,176を介してメモリモジュール182−186,182′−186′内に格納されたデータだけでなく各ISP156,158の機能にアクセスする。
図7Aと7Bの実施例では、各ISP156,158は7つの専用目的機能コントローラ(FC)190−196,190′−196′を有する。ホスト交換コントローラ(HEC)190はフロントエンド・ファイバチャネル・サーバリンク162(図6)と通信し、HEC190′はフロントエンド・ファイバチャネル・サーバリンク164(図6)と通信する。2つのディスク交換コントローラ(DEC0,DEC1)195,196はバックエンド・ファイバチャネル記憶リンク166(図6)と通信し、DEC0,DEC1 195′,196′はバックエンド・ファイバチャネル記憶リンク168(図6)と通信する。他の専用目的FCはDMA/XORコントローラ(DXC)191,191′、コマンド・ルーティング・コントローラ(CORE)192,192′、メタデータ・コントローラ(MAP)193,193′、および種種雑多の機能コントローラ(MISC)194,194′である。
FC190−196,190′−196′はクロスポイント・スイッチ(CPS)198,198′および対応するリストマネージャ(LM)200−204,200′−204′等のインターコネクトを介してメモリ182−186,182′−186′とアクセスすることができる。FCと同様に、LMはハードウェア集約的専用目的処理要素である。各LMは指定されたデータ構造操作で使用するために最適化され、各LMはそのデータ構造責任リストを維持する。すなわち、システム内の各データ構造は1つだけのLMにより一意的に所有される。
以下の説明において、ISP156に支配されたプール内に含まれるLUN1へ向けられたHEC190により受信されるI/Oコマンドはポリシー・プロセッサ170に対するローカル・データ・トランザクショントと呼ばれる。しかしながら、LUN1へ向けられたHEC190′により受信されるI/Oコマンドはポリシー・プロセッサ170に対する遠隔データ・トランザクショントと呼ばれる。同様に、ISP158に支配されたプール内に含まれるLUN2へ向けられたHEC190′により受信されるI/Oコマンドはポリシー・プロセッサ172に対するローカル・データ・トランザクショントと呼ばれる。しかしながら、LUN2へ向けられたHEC190により受信されるI/Oコマンドはポリシー・プロセッサ172に対する遠隔データ・トランザクショントと呼ばれる。
イベント・リング・バッファ(ERB)179,179′は各ポリシー・プロセッサ170、172へ向けられた複数の各FC190−196、190′−196′からリアルタイムで集合的にポストされる。一般的に、ERB179、179′は定められたポリシー・プロセッサ170、172へ向けられる両方のISP156、158に対する全トランザクションを同期化させる巡回バッファ等のFIFOバッファである。前記したように、ERB179、179′へポストされたこれらのトランザクションは各ポリシー・プロセッサ170、172へ向けられる各FC190−196、190′−196′からの、ローカルおよび遠隔の、全トランザクション要求を含んでいる。ERB179、179′へポストされたこれらのトランザクションは各ポリシー・プロセッサ170、172へ向けられる各LM200−204、200′−204′からの、ローカルおよび遠隔の、トランザクション応答も含んでいる。ERB179、179′へポストされたこれらのトランザクションは一方のポリシー・プロセッサ170、172から他方のポリシー・プロセッサ170、172へのトランザクションも含んでいる。
ERB179、179′はリアルタイム・システム内で実施された全ワークのバルクを構成する多数のリアルタイム・トランザクションを効率的かつ確実に処理する。ERB179、179′はトランザクションの全ソースを単一同期化リングへポストさせて、任意の一つのソースからのトランザクションのシーケンスは発生時間により順序付けられるようにする。さらに、第1のソースからのトランザクションおよび第2のソースからの二次的なトランザクションに関して、所望により、もう1つのソースからのアクティビティの結果一つのソースから発生されるトランザクションは逐次とすることができる。独立した異なるソースからのトランザクションは任意の順序でポストすることができるが、時間が近く(“close in time”)であれば順序が近く(“close on the ring”)となる。
前記したように、デュアル・アクティブ−アクティブ・コントローラ・モードにおいて一方のポリシー・プロセッサ170、172は他方のポリシー・プロセッサのERB179、179′へトランザクションをポストすることができる。この「ワン・リング」機構はポリシー・プロセッサ170、172により行われる全処理が極端に低いオーバヘッドで管理されるようにすることができる。全トランザクションが到着順に処理されるという事実により、リアルタイム・システムの管理に付随する複雑さの大部分が解消される。“one ring to rule them all”の形で複数の処理要素からの各トランザクションを記述するデータ構造を使用して、コード複雑さを比較的低減しながら、トランザクションおよびそれらの相対的順序の誤解釈を防止する。
各ポリシー・プロセッサ170、172に個別ERB179、179′を管理させる能力と組み合わせた信用に基づいたSloppy Quota Accounting Method(SQAM)はERB179、179′をオーバフローすることを防止できる。PowerPC 440GX ASICにより提供されるような非常に効率的なハードウェア・アーキテクチュアはトランザクションのポスティングにおける極端に低いオーバヘッドを許す。クリティカルパスを読み込むデバイスが実際上ゼロである環境をこれらの効率的なハードウェアの支援によりERB179、179′上に構成することができる。事実、割込みがERB179、179′上のまれな非ルーチン・トランザクションに対してしか生じない単純なポーリングRTOSを構成することができる。トランザクションをスレッド・レベルへ待ち行列させる割込処理およびデータの付随移動は典型的にトランザクションに対する実際の処理オーバヘッドの何倍にもなることがあるため、ERB179、179′に基づくポーリングRTOSは割込みに基づくものよりも何倍も効率的となる。効率利得はCPUのディメンジョン内だけでなく必要なメモリ・リソースのディメンジョン内でも実現される。
ERB179、179′のオーバフローを防止するために、各トランザクション・データ・エントリのサイズを固定することも好ましい。特定のトランザクションに関連する付属データはトランザクションのソースにより独立して管理されるデータ・リング・バッファ(DRB)内に格納することができる。たとえば、図7は、それぞれ、ERB179、179′上のポストされたトランザクションに関連する付属データを含む2つのDRB201、203を管理するHEC190を示す。同様に、HEC190′はそれぞれ、ERB179、179′上のポストされたトランザクションに関連する付属データを含むDRB205、207を管理する。DEC0 195およびDEC1 196はERB179に付属するDRB209、211を管理し、同様に、DEC0 195′およびDEC1 196′はERB179′に付属するDRB213、215を管理する。
各ERBおよびDRBは全未決トランザクションに対して発生されたデータに加えてアンソリシティド・ファイバ・チャネル・データに関連するデータおよびトランザクションの割当てを収容するのに十分大きい。各各FC190−196、190′−196′はアンソリシティド・ファイバ・チャネル・データ(unsolicitd fiber channel data)およびトランザクションの下記の4つの特定ケースに対して別々の割当てを有することができる。
FCP_CMD (新しい目標SCSIコマンド)
ELS Packet (拡張リンク・サービス・コマンド)
BLS Packet (ベーシック・リンク・サービス・コマンド)
FCP_DATA/Other (予期せぬデータ・フレーム−32バイト・データ保持
)/
(フレーム・ヘッダー・プラス32バイト−他は廃棄)
前記4つのクラスに対するフレーム内のデータ量は変動することがある。SQAMを使用してERBまたは特定のDRBのオーバフローを回避することができる。“FCP_DATA/Other”クラスに対して、ヘッダーを超えるデータの32バイトは全て伝えられなければならない。FCP_CMDフレームに対して、ヘッダーを超えるデータの最大64バイトはDRBを介して伝えることができる。トランザクション・プラス最初の2つのDRBエントリは単一の組合せ「カウント」を消費する。追加64バイトまたは最終部に対する部分はもう1つの「カウント」を消費しなければならない。このルールは“ELS Packet”クラス内のフレームにも適用される。“BLS Packet”はヘッダーを超える追加32バイトよりも多くを持たなければならず、そのためこのクラスは格別な処理を必要としない。
ポリシー・プロセッサ170、172はSQAMを介してトランザクションまたは関連するデータを格納する余地が不十分である要求をしないように管理する。アンソリシティド・トランザクションおよび関連するデータが消費されると、ポリシー・プロセッサ170、172は“再生(renew)”カウントを含むその割当てカウントを調節する。カウントが指定された閾値よりも低下すると、ポリシー・プロセッサ170、172は全割当てを再生する要求を発生する。ファイバ・チャネル・アンソリシティド・データが受信され割当てが不十分であれば、FCはクラスに基づいてカウントをぶっつけてデータを廃棄する。更新割当て要求が処理される時にこれらのカウントは報告されゼロとされる。FC初期化において、全割当てがゼロにデフォルトされる。ポリシー・プロセッサ170、172は更新割当て要求を発行し、FCが実行開始した直後に初期割当てを設定する。
ERB内の各トランザクション・エントリはプレー内のトランザクションのタイプを識別するイベント・コードを含んでいる。イベント・コードは処理を単純化するために論理的に分類され、イベントのタイプはデータの残りがどのように解釈されるかを指示する。トランザクション・エントリは、DRB内の任意の付属データをどこで見つけるかを制御するために、トランザクションがローカル発生されたのか遠隔発生されたのかを示すデータも含んでいる。実例となるERBは下記のフォーマットを含むことができる。
Figure 2009015841

“Event Code”フィールドはどのクラスのトランザクションが受信されたかを示す。
Figure 2009015841
“DRB ID”フィールドは、もしあるならば追加データを見つけるのにどのDRBを調べるべきかをポリシー・プロセッサ170、172が知るように、どのISP156、158からERBトランザクションが送られたかを示すのに使用される。あるBLSフレームに対して追加データは無いことがある。前記フォーマットからDRBデータ1を記述するフィールドを差し引いたものがソリシティドELSおよびBLS応答フレームのために使用される。これらのフレームは“ELS Response Table”(ERT)内に格納される。“DRB ID”フィールドは下記のように復号される。
0 HEC
1 HEC′
2 DEC0
3 DEC1
4 使用されない
完全にISP156FCおよびLMのフレームワーク内のネットワークI/Oコマンドに関連する記憶トランザクションを実施することができるが、このようなトランザクションのクリティカルパスは迅速にFCおよびLM間の長くて比較的非効率的なサブトランザクションのシリーズとなる。たとえば、図8はHEC206の専用タスクを実施するようにプログラムされたFCと、コマンド復号機能(CDC)208と、キャッシュ論理コントローラ(UCC)210を有する関連技術ソリューションに従って構成されたISPを示す。下記のステップはこのコントローラ・アーキテクチュアで読まれたキャッシュを実施するクリティカルパスを記述する。
ステップ1において、HEC206はサーバ・ファイバ・チャネルリンクを介してリクエスタからリード・キャッシュ・コマンドを受信する。
ステップ2において、HEC206はトランザクション要求を変換してデータ・トランザクションのための対応する要求パケットをCPS198を介してLM0 200へ送る。
ステップ3において、LM0 200はデータ・トランザクションをCDC208の入力待ち行列の尾部にリンクする。
ステップ4において、CDC208はその入力待ち行列からトランザクションをフェッチしてデータ・トランザクションをその各コンピュートおよびデータ構造操作へ復号する。
ステップ5において、CDC208はLM1への要求パケットを発生してデータ・トランザクションをUCC210へ移動させる。
ステップ6において、LM1はデータ・トランザクションをUCC210の入力待ち行列の尾部にリンクする。
ステップ7において、UCC210はキャッシュ・データ構造操作に対する1つ以上の要求パケットをLM3へ発生する。
ステップ8において、LM3は要求されたデータ構造を検索する。
ステップ9において、LM3は要求されたデータは転送準備完了であるという応答パケットを発生する。
対照的に、本発明の実施例はキャッシュ・ノード・ルックアップ等のメモリ集約的およびコンピュータ集約的機能をポリシー・プロセッサ170へオフロードする。すなわち、特許請求される実施例の記憶システムはネットワークI/Oコマンドに関連する格納トランザクションを実施し、ISP156インターコネクト198はポリシー・プロセッサ170が接続される周辺装置バス188上で通信するLM0 200を介して複数のFC190−196を選択的にポリシー・プロセッサ170に接続する。このアーキテクチュアによりLMはポリシー・プロセッサ170に周辺装置バス188を経た交換/PCIメモリ182内に格納されたデータ構造へのアクセスも提供する。後述するように、データ構造はデータ構造容量の仮想ストライプ境界に揃えられ、キャッシュメモリ内の対応するデータ・バッファを記述する。
この“policy processor partnering”アーキテクチュアは関与するサブトランザクション数を減じることによりコントローラ112の処理力を高める。たとえば、読まれたキャッシュに対するクリティカルパスは、前記した図8のコントローラに較べて、図7のコントローラ112および本発明の実施例に対するものは著しく短い。
ステップ1は同じであり、HEC190はサーバ・ファイバ・チャネルリンクを介してリクエスタからリード・キャッシュ・コマンドを受信する。
ステップ2も同じであり、HEC190はトランザクション要求を変換してデータ・トランザクションに対する対応する要求パケットをCPS198を介してLM0 200へ送る。
しかしながら、ステップ3においてLM0 200はデータ・トランザクションを直接ポリシー・プロセッサ170にリンクし、それはデータ・トランザクションを復号し、キャッシュ内のデータを検証し、キャッシュ・ルックアップを実施する。
図9はポリシー・プロセッサ170がストライプされた記憶ディスク214を管理するのに使用する典型的なメタデータ構造212を例示している。ストライプ・バッファ・リスト(SBL)テーブル216は記録媒体上の仮想ストライプに揃えられる複数のSBLを含み、かつキャッシュメモリ内の対応するデータ・バッファ・アドレスを参照する1つ以上のバッファ・インデクスを含んでいる。ポリシー・プロセッサ170はメモリ内に格納されたプログラミング命令を実行し、VBAおよび記憶トランザクションに関連するプールに従ってSBLテーブルをインデクスして記憶トランザクションを記憶容量内のストライプと関連付ける。
ポリシー・プロセッサ170は対応するテーブル218内のストライプ・バッファ・リスト・ディスクリプタ(SBLD)を使用してノードベースでキャッシュを管理する。各SBLDはそれが関連するデータへの最近および現在のアクセスに関するデータを保持する。好ましくは、各SBLDは対応するRAIDストリップに揃えられ(すなわち、選出された記憶装置上の全データが複数のパリティセットと関連付けられる)、特定のストライプ・バッファ・リスト(SBL)に合致する。
ポリシー・プロセッサ170により管理される各キャッシュ・ノードは、好ましくは、フォワードおよびバックワード・リンクト・リストを使用して仮想ブロック・アドレス(VBA)を介して昇ベキの順でリンクされる論理ディスクの定められたセットに対するアクティブSBLD構造を有する、ある特定のSBLDを参照する。好ましくは、VBA値はしばしばRAID AllocationGrid System(RAGS)と呼ばれるグリッド・システムを使用してRAIDデータ編成と揃えられる。一般的に、あるRAIDストライプに属するブロックの任意特定の集合(たとえば、特定のパリティセットに寄与する全データ)は特定シート上の特定の信頼できる記憶装置(RSU)に割当てられる。ブックはいくつかのシートからなり異なる記憶装置からのブロックの多数の隣接セットから構成される。実際のシートおよびVBAに基づいて、ブックはさらにゾーンへ再分割することができ、特定のデバイスまたはデバイスセット(冗長性が利用される場合)を示す。好ましくは、各SBLDはアクセス・ヒストリ、ロック状態、最終オフセット、最終ブロック、タイムスタンプデータ(一日の時間TOD)、どのゾーン(ブック)にデータが属するかの識別子、および利用したRAIDレベルを含むデータのさまざまな状態を示すへ変数を含んでいる。
ストライプ・バッファ・リスト・プレゼントビット(SPB)テーブル220およびストライプ・バッファ・リスト・ダーティビット(SDB)テーブル222によりポリシー・プロセッサ170はキャッシュメモリ内のデータ・バッファを管理することができる。SPBテーブル220は定められたセクターに対するキャッシュされたデータは有効であるまたは有効にしようとしている(すなわち、対応するセクターに対する現在データを有する)かどうかを示す各SBLの各セクターに対するビットを含む。それはバッファ・インデクスが有効であることも示す。あるセクターに対するリード操作を要求する後続交換において、データは有効であることをSPBテーブル220が示せば、要求は記録媒体へのラウンドトリップを要求するのではなくバッファメモリからサービスすることができる。SDBテーブル222は定められたセレクターに対するキャッシュされたデータが“dirty”である(すなわち、データバッファから書き込む必要がある)かどうかを示すビットをSBLの各セクターに対して含んでいる。たとえば、記憶コントローラが交換の途中でパワーを失うと、SDBテーブル222を使用してキャッシュ内のデータを適切なターゲットへフラッシュさせる必要があることを示すことができる。したがって、記憶コントローラがリブートすると、破滅的なイベントがある所でデータ完全性が維持される。
キャッシュ・ルックアップが完了した後で、ポリシー・プロセッサ170はメモリを割当てデータ・トランザクションを実施するためのアクティブ・コンテキストエントリ(ACE)を分布する。キャッシュ・ヒットの場合のように、データ・トランザクションがホスト交換範囲内のHEC190に向けられる場合、コンテキストはフロント・アクティブ・コンテキストエントリ(FACE)の形をとる。SCSIターゲットI/Oアシストに対するFACEの典型的なフォーマットは下記のようになる。
Figure 2009015841

“Flags”値は下記のように定義される。
Figure 2009015841
“Non−Sector Data”フラグはSCSI非セクタコマンドが処理されることを信号で伝える。データを得るまたは置く場所が“Buffer Index”フィールドにより定義される。転送するデータの量は“Byte Count”フィールド内で見つけられる。“Aborted”フラグは要求が到着する前に中断されていることを示す。状態は適切に設定しなければならずFACEは“Stage”フィールドを増分した後でCORE192に戻っている。“Mirror Data”フラグはebus160両端間でデータはミラーリングされることも要求する。それは正規のセクター・データだけでなく非セクター・データにも適用することができる。“Burst Length”フィールドはファイバ・チャネル・フレームを満たすのに使用すべきセクター数を定義する。フレームサイズは“セクターサイズ”(“Burst Length”+1)プラスヘッダーに対する32として計算される。たとえば、“セクターサイズ”が1(520)であり“Burst Length”が3であれば、フレームサイズは5204+32=2112となる。
“Remote Data”フラグはアクセスされるバッファメモリは他方のISP158からebus160を横切ることを示す。“Remote”フラグも設定されると、HEC190は“Use Mirror”フラグの“sense”を反転してどのバッファおよびSBLプールをアクセスするか決定する。
FACEフォーマットに戻って、“Script”値は一連のステップのいくつかの予め定義されたスクリプトの1つを選出し、それは完了すると、対応する“ケース”となる。“Stage”値はどのステップが実行されるかを示す。定められた要求に対して、完了がポリシー・プロセッサ170へ応答される前に多数のステージをISP156により完了できる点において、このアーキテクチュアは処理性能を高める。
“Blocks”フィールドはセクター内の転送サイズを定義し、0は256を意味する。“Offset”フィールドは“disk stripe”内の開始オフセットを定義する。それはSBL内の開始セクターオフセットおよび開始LBAの低順位バイトである。転送サイズが0であれば、それは256の転送サイズを意味する。HECは“Destination ID”フィールドを使用してコンテキストに記入したりFCP_HDRデータを組立てる。ターゲット・ライトに対して、最大アトミック・ライトサイズ(128KB)が“disk stripe”(SBL)境界を横切る場合は、“Additional SBL Index”が第2のSBLを参照する。このケースは“Offset”プラス“Blocks”値が256よりも大きい事実により検出される。“Real SBL Index”および“Real Additional SBL Index”はセクターのいくつかまたは全てがキャッシュ内で既に“dirty”であるライトを含む“atomic write”の特殊ケースに対してのみ使用される。“Relative Offset”フィールドはSCSIターゲットアシストのこの部分に先行するセクター数を定義する。
“Status”フィールドはターゲットI/O要求に関して検出されたエラーに関する事項を運ぶ。“Status”に対する値は下記の通りである。
Figure 2009015841
“CORE Tag Link”フィールドは下記のように符号化することができる。
Figure 2009015841

ここに、“List ID”フィールドはACEをポストする特定のリストを下記のように識別する。
Figure 2009015841
対照的に、キャッシュ・ミスの場合のように、データ・トランザクションがプール交換範囲内のDEC0またはDEC1に向けられると、コンテキストはプール・アクティブ・コンテキスト・エントリ(PACE)の形をとる。SCSIリード、ベリファイ、ライト、またはライトベリファイ・コマンド内のPACEに対する典型的なフォーマットは次の通りである。
Figure 2009015841
“Flags”フィールドは下記のように定義される。
Figure 2009015841
“Substitute Tag”フラグによりDIFデータの操作に関して特殊挙動が生じる。これはリードおよびライトの両操作に対して生じることがある。“Check Tag”フィールドが値0xFFFFまたは0xFFFEでなければ、“incoming”タグ(“META Tag”および“REFERENCE Tag”)は予期されたタグ(“Check Tag”および“VBA”)に対してチェックしなければならないが、“Substitute Tag”は置換しなければならない。ハードウェア要求条件のため、“VBA”も置換され、正しいCRCが現在のCRCを置換する。すなわち、まったく新しいDIFフィールドが発生され置換される。“Check Tag”フィールドが0xFFFFの値を有する場合、着信DIFデータがあり、CRCはもちろん正しいとされなければならない。しかしながら、“REFERENCE Tag”(VBA)および“META Tag”値は無視しなければならない。すなわち、“tag”エラーは生じてはならない。“Check Tag”フィールドが0xFFFFの値を有する場合、タグおよびCRCエラーは無視しなければならない。
“SCSI Good”以外の状態が受信されると、FCP_RSPフレームの第1の256バイト以下が“ELS Response Table”(ERT)内に格納される。“Response Byte Count”はFCP_RSPフレーム内の実際のバイト数を反映する。特殊フラグセットの無い“SCSI Good”以外の状態が受信されない限り、それは更新されない。
SCSI“Long Transfer”コマンド要求は“standard”SCSIコマンドを発行するのに使用され、転送は“RAID stripe”境界と交差し長さは256セクターを超える。この操作に対するPACEのフォーマットの下記の通りである。
Figure 2009015841
フィールド定義は“standard”SCSIコマンドに対して前記したものと本質的に同じである。“Block”フィールドは常に“256”よりも大きい。コントローラ112は、語3の全コンテンツからとられる、所望する数の書込みブロックに基づいてSCSI CDBを通常通り形成する。これを除いて、このタイプの処理がタイプ0“normal”SCSIコマンドに対する処理と異なる点はデータ転送部の処理だけである。この論理はSBLの終りに遭遇する場合を検出しなければならない。次に、新しい“SBL Index”および新しい“VBA Low”値を転送が到達したオフセットに基づいてACE相関データ(ACD)からフェッチしなければならない。論理はSBLへの初期オフセットは“0”であると仮定する。初期および後続“VBA Low”値は“0”のローバイト値を有する。サポートされる最大転送は2MB(4096セクター)である。520のセクターサイズで、低位11ビットが“0”に設定される値を転送オフセットが有する時に“boundary”が生じる。簡単にするために、ポリシー・プロセッサ170はSBLインデクスの全アレイをオフセット“0”に対する1を含むACDに組み入れる。したがって、ACDからフェッチする4バイト・フィールド(“SBL Index”、“VBA Low”)は“boundary”転送オフセットを17ビットシフトして計算される。
“Long Transfer”バリエーションに対する“Flag”フィールドの使用は次の通りである。
Figure 2009015841
データを持たないまたは非セクター・データを使用するいくつかのSCSIコマンドに対するサポートが必要である。たとえば、SCSI“Test Unit Ready”コマンドはデータを持たない。SCSI“Verify”コマンドはそのように指定されるとデータを持たない。SCSI“Mode Sense”はディスク装置上のセクターに関係しないデータを予期する。SCSI“Mode Select”コマンドはディスク装置上のセクターに関係しないデータを送る。非セクター・データを有するSCSIコマンドに対して、データの量は“Byte Count”フィールドにより定義される。“0”の“Byte Count”値は65536として解釈される。最大アウトバウンド転送は16384である。ISP156ERBに対する転送には“raw”DMAモードが必要である。
セクター・データを含まないSCSIコマンドに対するPACEのフォーマットは次の通りである。
Figure 2009015841
“Buffer Index”フィールドはBuffer Memory内のどのバッファを使用するかを定義する。それはCORE192により割り当てられる一時的バッファを参照する。“PCI Cache High”(11ビット)および“PCI Cache Line Low”フィールドはBM184内のバッファに対してデータを移動するためにDXC191により使用されるPCIアドレスを定義する。このアドレスは下記のように計算される。
Figure 2009015841
これらのバリエーションに対する“Flags”フィールドの使用は次の通りである。
Figure 2009015841
データの無いSCSIコマンド・ケースはPACE内の“Byte Count”フィールドはゼロである事実により決定することができる。“Write”フラグは“Data Out”対“Data In”ケースを決定する。ポリシー・プロセッサ170は対応するACD内の全体Fiber Channel FCP_CMNDフレームを形成する。このフレームは68バイトであり、CRC−32データ“word”に対する場所だけでなくSOFixおよびEOF“word”を含んでいる。
“Data In”ケースに対して、ターゲットは要求されたものよりも少ないデータを正当に戻すことができる。この場合、“Byte Count”フィールドは受信される最大を決定する。少なく受信されたら、“Byte Count”フィールドは更新しなければならない。それは最後にポリシー・プロセッサへ戻される。また、FCP_RSPフレームをチェックして正常な量のデータが戻されたことを確認する必要がある。
IRCをどこにしまっておくかまたどのISP156コンテキスト・エリアを使用するかを決定するOXIDと同様にSPOTはやはりCORE Tagから引き出される。サポートされる必要があるファイバ・チャネル・サービスに対する他の主要なクラスは“Link Service”である。発信フレームに対して、このサービスは“Single Frame Sequence”(SFS)機構を呼び出す。SFS機構に対するPACEのフォーマットは次の通りである。
Figure 2009015841
“Data CORE Tag”フィールドが非ゼロであれば、それはACDテーブル内のフレーム・データの第2のブロックを参照する雑多なアクティブ・コンテキスト・エントリ(MACE)インデクスを定義する。それはフレームが256バイトより大きいだけでよい。フレームの第1の256バイトはPACEに対応するACDエントリ内に格納される。フレームはSOFixおよびEOFx語だけでなくCRC−32データ語に対する場所を含んでいる。PACEは普通のPACE範囲内にある必要はない。それは実際上MACEであってもよい。FCCは任意有用な情報を引き出すのにPACE自体のCORE Tagを利用しない。SFS機構は0−3の範囲内のISP156コンテキスト・エリアの1つを使用する。
SFSサービスに対する“Flag”フィールドの使用は次の通りである。
Figure 2009015841
一般的には、前記したように、特許請求される実施例はポリシー・プロセッサが接続される周辺装置バスと通信するASIC内のリスト・マネージャを介してポリシー・プロセッサと選択的に接続される複数の専用目的機能を有する記憶システム、および各機能コントローラからのポリシー・プロセッサを目標とする全トランザクションを集合的に同期化してネットワーク入出力(I/O)コマンドを処理する手段を考えている。本明細書の目的および添付特許請求の範囲の意味に対して、「処理手段」という句はここに開示された構造および全トランザクション要求、ローカルおよび遠隔共、を共通同期化バッファへ集合的にポストするそれと同等のものを含んでいる。本明細書の目的および添付特許請求の範囲の意味に対して、「処理手段」はトランザクションの一部が個別にあるいは独立してバッファされる関連する試行されたソリューションは意図していない。
本発明のさまざまな実施例の非常に多くの特性および利点を、本発明のさまざまな実施例の構造および機能の詳細と共に明細書で述べてきたが、詳細な説明は単なる説明用であって、添付特許請求の範囲が表現される用語の広範な一般的意味により示される全範囲まで、本発明の原理内で詳細を変更することができ、特に部品の構造および配置を変更することができる。たとえば、本発明の精神および範囲を逸脱することなく特定の素子を特定の処理環境に応じて変えることができる。
さらに、ここに記述された実施例はデータ記憶アレイに向けられているが、当業者ならば特許請求された主題はそのように限定はされず、本発明の精神および範囲を逸脱することなく他のさまざまな処理システムを利用できることがお判りであろう。
本発明の実施例に従って構成されたコンピュータ・システムの線図表現である。 図1のコンピュータ・システムの一部の単純化された線図表現である。 本発明の実施例に従って構成されたインテリジェント記憶素子の分解等角図である。 図3のインテリジェント記憶素子のマルチドライブ・アレイの分解等角図である。 図4のマルチドライブ・アレイ内で使用される典型的なデータ記憶装置を示す図である。 インテリジェント記憶素子内のアレイ・コントローラの機能的ブロック図である。 図6のアレイ・コントローラのより詳細な機能的ブロック図である。 図6のアレイ・コントローラのより詳細な機能的ブロック図である。 関連技術ソリューションに従って構成されたアレイ・コントローラの機能的ブロック図である。 SBL,SBLD,SPBおよびSDBを示す線図である。
符号の説明
100 コンピュータ・システム
102 ホスト
103 ホストバス・アダプタ
104 サーバ
106 LAN/WAN
108 インテリジェント記憶素子
109 データ記憶容量
110 SAN
112 デュアル冗長コントローラ
114 シェルフ
116 ミッドプレーン
118 MDA
122 デュアル・バッテリ
124 交流電源
126 デュアル・インターフェイス・モジュール
128 データ記憶装置
130 アッパー・パーティション
132 ロアー・パーティション
134、148 回路板
136、152 コネクタ
138 ラッパー
142 リード/ライト・ヘッド
144 ロータリ・アクチュエータ
146 ボイスコイルモータ
150 フレックス回路
156、158 インテリジェント記憶プロセッサ
160 中間バス
162、164 ファイバ・チャネル・サーバ・リンク
166、168 ファイバ・チャネル記憶リンク
170、172 ポリシー・プロセッサ
174、176 PCIバス
178、180 アクセス・メモリ・バス
179、179′ ERB
182、182′ 交換/PCIメモリ・モジュール
184、184′ バッファ・メモリ・モジュール
186、186′ SRAMモジュール
188 周辺装置バス
190、190′、206 ホスト交換コントローラ
191、191′ DMA/XORコントローラ
192、192′ コマンド・ルーティング・コントローラ
193、193′ メタデータ・コントローラ
194、194′ 雑多機能コントローラ
195、196、195′、196′ ディスク交換コントローラ
198、198′ クロスポイント・スイッチ
200、202、204、200′、202′、204′ リスト・マネージャ
201、203、205、207、209、211、213、215 DRB
208 CDC
210 UCC
212 メタデータ構造
214 記憶ディスク
216 SBLテーブル
218 SBLDテーブル
220 SPBテーブル
222 SDBテーブル

Claims (20)

  1. ASIC内の複数の専用目的機能コントローラをポリシー・プロセッサが接続される周辺装置バス上で通信するASIC内のリストマネージャを介してポリシー・プロセッサに選択的に接続するインターコネクトを有するコントローラ特定用途向け集積回路(ASIC)と、
    ポリシー・プロセッサが接続される周辺装置バスと、
    複数の機能コントローラの各々からポリシー・プロセッサへの全トランザクション要求がリアルタイムで集合的にポストされるイベント・リング・バッファと、
    を含む記憶システム。
  2. 請求項1に記載の記憶システムであって、イベント・リング・バッファは同期化巡回バッファである記憶システム。
  3. 請求項1に記載の記憶システムであって、イベント・リング・バッファは周辺装置バスを介してASICに接続されるメモリ内に常駐する記憶システム。
  4. 請求項1に記載の記憶システムであって、リスト・マネージャは周辺装置バスを介してイベント・リング・バッファと通信する記憶システム。
  5. 請求項1に記載の記憶システムであって、イベント・リング・バッファは複数の固定サイズ・データフィールド内の1つに各トランザクション要求を格納する記憶システム。
  6. 請求項5に記載の記憶システムであって、トランザクション要求に関連する付属データは機能コントローラの1つにより制御されるデータ・リング・バッファへポストされる記憶システム。
  7. 請求項6に記載の記憶システムであって、データ・リング・バッファはホスト交換機能コントローラおよびディスク交換機能コントローラの少なくとも一方に常駐する記憶システム。
  8. 請求項7に記載の記憶システムであって、イベント・リング・バッファのデータは対応する付属データを含むデータ・リング・バッファにリンクする記憶システム。
  9. 請求項1に記載の記憶システムであって、コントローラはebusにより遠隔接続される第1のASICおよび第2のASICを含み、各ASICは周辺バス回路を介して各ポリシー・プロセッサおよびイベント・リング・バッファに接続されるリスト・マネージャと相互接続される複数の機能コントローラを持ち、遠隔機能コントローラからのトランザクション要求はebusおよびローカル・トランザクション要求を有する周辺装置バスを介してローカル・イベント・リング・バッファへポストされる記憶システム。
  10. 請求項1に記載のシステムであって、コントローラはebusにより遠隔接続される第1のASICおよび第2のASICを含み、各ASICは周辺装置バス回路を介して各ポリシー・プロセッサおよびイベント・リング・バッファに接続されるリスト・マネージャと相互接続される複数の機能コントローラを持ち、遠隔機能リスト・マネージャからのトランザクション応答はebusおよびローカル・トランザクション応答を有する周辺装置バスを介してローカル・イベント・リング・バッファへポストされる記憶システム。
  11. 請求項1に記載の記憶システムであって、コントローラはebusにより遠隔接続される第1のASICおよび第2のASICを含み、各ASICは周辺バス回路を介して各ポリシー・プロセッサおよびイベント・リング・バッファに接続されるリスト・マネージャと相互接続される複数の機能コントローラを有し、遠隔ポリシー・プロセッサからのトランザクションはebusおよびローカル・トランザクションを有する周辺装置バスを介してローカル・イベント・リング・バッファへポストされる記憶システム。
  12. 記憶システム内の記憶トランザクションを処理する方法であって、
    特定用途向け集積回路(ASIC)内の専用目的ホスト交換機能コントローラによりネットワーク装置からのアクセス・コマンドを受信するステップと、
    ホスト交換機能コントローラによるアクセス・コマンドに関連するコマンドを、ASIC内のリスト・マネージャおよびポリシー・プロセッサが接続される周辺装置バスを介して、ポリシー・プロセッサにより制御されるメモリへポストするステップと、
    を含む方法。
  13. 請求項12に記載の方法であって、ポスティング・ステップはポリシー・プロセッサにより制御されるメモリ内のイベント・リング・バッファへコマンドをポストするステップを含む方法。
  14. 請求項12に記載の方法であって、ポスティング・ステップはポリシー・プロセッサにより制御されるメモリ内の同期化巡回バッファへコマンドをポストするステップを含む方法。
  15. 請求項13に記載の方法であって、ポスティング・ステップはイベント・リング・バッファ内の固定サイズ・データフィールドにより特徴づけられ、コマンドに関連する付属データは機能コントローラの1つにより制御されるデータ・リング・バッファ内にポストされる方法。
  16. 請求項15に記載の方法であって、ポスティング・ステップはホスト交換機能コントローラおよびディスク交換機能コントローラの少なくとも1つに常駐するデータ・リング・バッファにより特徴づけられる方法。
  17. 請求項13に記載の方法であって、受信ステップはebusを介して第1のASICに遠隔接続される第2のASIC内に配置されるホスト交換機能コントローラにより特徴づけられ、ポスティング・ステップは遠隔ホスト交換機能コントローラからの遠隔トランザクション要求をebusおよび他のローカル・トランザクション要求を有する周辺装置バスを介してローカル・イベント・リング・バッファへポストするステップを含む方法。
  18. 請求項13に記載の方法であって、受信ステップはebusを介して第1のASICに遠隔接続される第2のASIC内に配置されるホスト交換機能コントローラにより特徴づけられ、ポスティング・ステップは遠隔リスト・マネージャからの遠隔トランザクション応答をebusおよび他のローカル・トランザクション応答を有する周辺装置バスを介してローカル・イベント・リング・バッファへポストするステップを含む方法。
  19. 請求項13に記載の方法であって、受信ステップはebusを介して第1のASICに遠隔接続される第2のASIC内に配置されるホスト交換機能コントローラにより特徴づけられ、ポスティング・ステップは遠隔ポリシー・プロセッサからの遠隔トランザクションをebusおよび他のローカル・トランザクションを有する周辺装置バスを介してローカル・イベント・リング・バッファへポストするステップを含む方法。
  20. ポリシー・プロセッサが接続される周辺装置バスと通信するASIC内のリスト・マネージャを介してポリシー・プロセッサに選択的に接続される複数の専用目的機能コントローラを有するコントローラASICと、
    各機能コントローラからのポリシー・プロセッサを目標とする全トランザクションを集合的に同期化してネットワーク入出力(I/O)コマンドを処理する手段と、
    を含む記憶システム。
JP2008168912A 2007-06-30 2008-06-27 同期化された処理要素を有する記憶システム Withdrawn JP2009015841A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/772,139 US7761649B2 (en) 2005-06-02 2007-06-30 Storage system with synchronized processing elements

Publications (1)

Publication Number Publication Date
JP2009015841A true JP2009015841A (ja) 2009-01-22

Family

ID=40162108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008168912A Withdrawn JP2009015841A (ja) 2007-06-30 2008-06-27 同期化された処理要素を有する記憶システム

Country Status (2)

Country Link
US (1) US7761649B2 (ja)
JP (1) JP2009015841A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013541753A (ja) * 2010-09-02 2013-11-14 エヌイーシー ラボラトリーズ アメリカ インク ロー・レイテンシ内容アドレス記憶装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8271748B2 (en) * 2008-08-12 2012-09-18 Intel Corporation Generating and/or receiving, at least one data access request
CN101820422B (zh) * 2010-03-30 2012-08-29 南京恩瑞特实业有限公司 安全计算机报文缓冲实现方法
US9465670B2 (en) * 2011-12-16 2016-10-11 Intel Corporation Generational thread scheduler using reservations for fair scheduling
US9110731B1 (en) 2012-08-15 2015-08-18 Xiotech Corporation Hard allocation of resources partitioning
US20150222705A1 (en) * 2012-09-06 2015-08-06 Pi-Coral, Inc. Large-scale data storage and delivery system
US9749236B2 (en) * 2014-07-29 2017-08-29 Brocade Communications Systems, Inc. Increased network scalability by router aware switches
US10025664B2 (en) 2015-12-22 2018-07-17 Western Digital Technologies, Inc. Selective buffer protection

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7028297B2 (en) * 2000-11-17 2006-04-11 Aristos Logic Corporation System and method of scalable transaction processing
US20040233910A1 (en) * 2001-02-23 2004-11-25 Wen-Shyen Chen Storage area network using a data communication protocol
US7412588B2 (en) * 2003-07-25 2008-08-12 International Business Machines Corporation Network processor system on chip with bridge coupling protocol converting multiprocessor macro core local bus to peripheral interfaces coupled system bus
US20060161733A1 (en) * 2005-01-19 2006-07-20 Emulex Design & Manufacturing Corporation Host buffer queues
US7581056B2 (en) * 2005-05-11 2009-08-25 Cisco Technology, Inc. Load balancing using distributed front end and back end virtualization engines

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013541753A (ja) * 2010-09-02 2013-11-14 エヌイーシー ラボラトリーズ アメリカ インク ロー・レイテンシ内容アドレス記憶装置

Also Published As

Publication number Publication date
US20090006732A1 (en) 2009-01-01
US7761649B2 (en) 2010-07-20

Similar Documents

Publication Publication Date Title
US9049242B2 (en) Atomic cache transactions in a distributed storage system
US6961813B2 (en) System and method for providing multi-initiator capability to an ATA drive
JP6955466B2 (ja) Ssdのデータ複製システム及び方法
US6948036B2 (en) System and method for providing multi-initiator capability to an ATA drive
JP4859471B2 (ja) ストレージシステム及びストレージコントローラ
US7404021B2 (en) Integrated input/output controller
US7529830B2 (en) Storage system and communication control method
US6952734B1 (en) Method for recovery of paths between storage area network nodes with probationary period and desperation repair
US7865588B2 (en) System for providing multi-path input/output in a clustered data storage network
JP2009015841A (ja) 同期化された処理要素を有する記憶システム
JP2009015843A (ja) ロング・サイド入出力コマンド処理
US7958302B2 (en) System and method for communicating data in a storage network
US6606630B1 (en) Data structure and method for tracking network topology in a fiber channel port driver
US20030126347A1 (en) Data array having redundancy messaging between array controllers over the host bus
US7260681B2 (en) Stripe buffer list
US8745326B2 (en) Request priority seek manager
WO2012055705A1 (en) Dynamically enabling and disabling write xfr_rdy
CN112346653B (zh) 驱动器箱、存储***和数据传送方法
US11829803B2 (en) Methods for dynamic throttling to satisfy minimum throughput service level objectives and devices thereof
US6922414B1 (en) Apparatus and method for dynamic command queue depth adjustment for storage area network nodes
US7882271B2 (en) Processor partnering in a storage system
JP5487482B2 (ja) 記憶システムにおけるプロセッサ・パートナリング

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100526

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110906