JP6596102B2 - コンテンツ連想シーブに存在している基本データエレメントからデータを導出することによるデータの無損失削減 - Google Patents

コンテンツ連想シーブに存在している基本データエレメントからデータを導出することによるデータの無損失削減 Download PDF

Info

Publication number
JP6596102B2
JP6596102B2 JP2017553049A JP2017553049A JP6596102B2 JP 6596102 B2 JP6596102 B2 JP 6596102B2 JP 2017553049 A JP2017553049 A JP 2017553049A JP 2017553049 A JP2017553049 A JP 2017553049A JP 6596102 B2 JP6596102 B2 JP 6596102B2
Authority
JP
Japan
Prior art keywords
data
elements
basic
basic data
tree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017553049A
Other languages
English (en)
Other versions
JP2018501752A5 (ja
JP2018501752A (ja
Inventor
シャラングパニ,ハーシュバーダン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ascava Inc
Original Assignee
Ascava Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ascava Inc filed Critical Ascava Inc
Publication of JP2018501752A publication Critical patent/JP2018501752A/ja
Publication of JP2018501752A5 publication Critical patent/JP2018501752A5/ja
Application granted granted Critical
Publication of JP6596102B2 publication Critical patent/JP6596102B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/55Compression Theory, e.g. compression of random number, repeated compression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/174Redundancy elimination performed by the file system
    • G06F16/1744Redundancy elimination performed by the file system using compression, e.g. sparse files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/174Redundancy elimination performed by the file system
    • G06F16/1748De-duplication implemented within the file system, e.g. based on file segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • G06F16/2372Updates performed during offline database operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • G06F16/258Data format conversion from or to a database
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/954Navigation, e.g. using categorised browsing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

背景
技術分野
本開示はデータの記憶、取出し、および通信に関する。より具体的には、本開示はコンテンツ連想シーブ(sieve)を用いるデータの無損失削減に関する。
関連技術
現代の情報化時代は、莫大な量のデータの作成、取得、および分析を特徴とする。新たなデータは多様なソースから生成され、その例として、購入取引記録、企業および政府の記録および通信、電子メール、ソーシャルメディアの投稿、デジタル写真および映像、マシンログ、埋込装置からの信号、デジタルセンサ、携帯電話全地球測位衛星、宇宙衛星、科学計算、ならびにグランドチャレンジ科学がある。データは多様なフォーマットで生成され、そのほとんどは構造化されておらず、旧来のデータベースへのエントリに適していない。企業、政府、および個人は前例のないほどの速度でデータを生成しており、このデータを記憶、分析、および通信するのに苦労している。蓄積されるデータを保持するストレージシステムの購入に年間何百億ドルという費用が費やされている。データを処理するコンピュータシステムにも同様の多額の費用が費やされている。
最新型のコンピュータおよびストレージシステムにおいて、データは、ストレージ階層として組織化される、複数のストレージ層にわたって収容されデプロイされる。頻繁かつ迅速にアクセスする必要があるデータは、最も高価であるが最速の層に入れられるが、データの大部分(バックアップ用のコピーを含む)は、最も密度が高く最も安価な記憶媒体に記憶されることが好ましい。最速および最も高価なデータストレージ層は、コンピュータシステムの揮発性ランダムアクセスメモリまたはRAMであり、これはマイクロプロセッサコアに近接して存在しており、データのランダムアクセスのための最低待ち時間および最高帯域幅を提供する。漸進的に密度が高くなり安価になるが遅くなる層(ランダムアクセスの漸進的に高くなる待ち時間および低くなる帯域幅を有する)として、不揮発性ソリッドステートメモリまたはフラッシュストレージ、ハードディスクドライブ(HDD)、および最後にテープドライブがある。
増加するデータをより効果的に記憶して処理するために、コンピュータ業界はデータ記憶媒体の密度および速度、ならびにコンピュータの処理能力を向上させ続けている。しかし、データ量の増加はコンピューティングおよびデータストレージシステムの容量および密度の向上をはるかに上回っている。2014年のデータストレージ業界からの統計では、過去数年間に作成されて取得された新たなデータは、これまでに世界中で取得されたデータの大半を含むことが明らかになっている。今日まで世界中で作成されたデータの量は数ゼタバイト(ゼタバイトは1021バイトである)を超えると見積もられている。データの大幅な増加は、このデータを確実に記憶、処理、および通信しなければならないデータ記憶、計算、および通信システムに大きな要求を突き付けている。これは、データを低コストで記憶し、同様に効率的に処理して通信することができるようにデータを圧縮する、無損失データ削減または圧縮技術の使用の増加の動機付けとなっている。
さまざまな無損失データ削減または圧縮技術が長年にわたって生まれて進化してきた。これらの技術は、データを調べてデータ内に何らかの形態の冗長を探し、その冗長を利用して、情報を損失することなくデータフットプリントの削減を実現する。データ内の特定の形態の冗長を利用することを試みる所与の技術について、達成されるデータ削減の程度は、その特定の形態の冗長がどれほど頻繁にデータ内に見つかるかに依存する。データ削減技術は、データ内のいずれかの利用可能な冗長を柔軟に発見して利用することが可能であることが望ましい。データは多種多様なソースおよび環境からさまざまなフォーマットで生じるため、この多様なデータを取扱う汎用無損失データ削減技術の開発および採用に大きい関心が集まっている。汎用データ削減技術は、アルファベット以外の入力データの予備知識が不要な技術である。したがって、これは一般的に、データの構造および統計的分布特性を予め知る必要なしに、あらゆるデータに適用可能である。
データ圧縮技術のさまざまな実現例同士を比較するために用いられ得る適合度メトリクスとして、ターゲットデータセット上で達成されるデータ削減の程度、圧縮または削減が達成される効率、およびデータが将来の使用のために復元されて取出される効率がある。効率メトリクスは、ソリューションのパフォーマンスおよびコスト効果を評価する。パフォーマンスメトリクスとして、新たなデータが消費され削減され得るスループットまたは取込速度、入力データを削減するのに必要な待ち時間または時間、データが復元され取出され得るスループットまたは速度、およびデータを復元して取出すのに必要な待ち時間または時間がある。コストメトリクスとして、マイクロプロセッサコアまたはマイクロプロセッサ利用(中央処理装置利用)といった、必要ないずれかの専用ハードウェアコンポーネントのコスト、専用スクラッチメモリおよびメモリ帯域幅の量、ならびにデータを保持するさまざまなストレージ層から要求されるアクセス回数および帯域幅がある。なお、効率的で迅速な圧縮ならびに復元および取出しを同時に提供しつつデータのフットプリントを削減することには、データを記憶して通信するための全体のコストを削減するだけでなく、その後のデータの処理を効率的に可能にするという利点もある。
業界で現在使用されている汎用データ圧縮技術の多くは、Abraham LempelおよびJacob Zivによって1977年に開発されたLempel-Ziv圧縮法に由来する。たとえば、Jacob Ziv and Abraham Lempel, "A Universal Algorithm for Sequential Data Compression," IEEE transactions on information theory, Vol. IT-23, NO. 3, May 1997参照。この方法は、インターネットを介した効率的なデータ送信を可能にする基礎となった。Lempel-Ziv法(LZ77、LZ78およびそれらの変形と名付けられる)は、繰返し発生する文字列を、シーケンシャルに提示される入力データストリームのスライディングウインドウ内に見られる以前の発生の参照で置換することによって、データフットプリントを削減する。入力データストリームからの所与のデータブロックから新規な文字列を消費すると、これらの技術は、最大でウインドウの長さまで、現在のおよび以前のブロック内で以前に見られたすべての文字列を検索する。新規な文字列が重複である場合、それは元の文字列の逆方向参照で置換される。重複文字列によって除去されるバイトの数が逆方向参照に必要なバイトの数よりも大きければ、データの削減が達成されている。ウインドウ内に見えるすべての文字列を検索するために、かつ最大の文字列一致を提供するために、これらの技術の実現例では、反復走査を含み、かつウインドウ内に見えるすべての文字列の辞書を含む一時的な帳簿構造を構築する、さまざまなスキームを使用する。新たな入力バイトを消費して新規な文字列をアセンブルすると、これらの技術は、既存のウインドウ内の全バイトを走査するか、または、文字列の辞書の参照を作成し(その後何らかの計算を行ない)、重複が見つかったか否かを決定し、重複を逆方向参照で置換する(あるいは、辞書に追加が必要か否かを決定する)。
Lempel-Ziv圧縮法は、データに適用される第2の最適化を伴うことが多く、この最適化では、ソースシンボルが、圧縮中のデータブロック内のソースシンボルの発生の頻度または確率に基づいて動的に再符号化され、より短い長さのコードがより頻繁なシンボルに用いられることによってデータを削減できるように可変幅符号化スキームが使用されることが多い。たとえば、David A. Huffman, "A Method for the Construction of Minimum-Redundancy Codes," Proceedings of the IRE-Institute of Radio Engineers, Sep. 1952, pp. 1098-1101参照。この技術はハフマン再符号化と称され、典型的に、頻度を計算するための1回目のデータの通過、およびデータを実際に符号化するための2回目の通過を必要とする。この主題に沿ったいくつかの変形も使用されている。
これらの技術を用いる一例は、Lempel-Ziv LZ77圧縮法をハフマン再符号化と組合せた「Deflate」として知られるスキームである。Deflateは、バイトのシーケンスを(通常はより短い)ビットのシーケンスとして表わすための方法、および後者のビットシーケンスをバイトにパックするための方法を指定する、圧縮ストリームデータフォーマット仕様を提供する。Deflateスキームは本来、PKZIPアーカイブユーティリティのためにPKWARE, Inc.社のPhillip W. Katzによって設計された。たとえば、"String searcher, and compressor using same," Phillip W. Katz、米国特許第5,051,745号(1991年9月24日)参照。米国特許第5,051,745号には、予め定められたターゲット文字列(入力文字列)を求めてシンボルのベクトル(ウインドウ)を検索するための方法が記載されている。このソリューションは、ウインドウ内のシンボル毎にポインタを有するポインタアレイを使用しており、ハッシング方法を用いて、入力文字列の同一コピーを求めて検索する必要があるウインドウ内の可能性のある場所をフィルタする。その後、それらの場所で走査および文字列一致が行なわれる。
Deflateスキームは、データ圧縮用のzlibライブラリにおいて実現される。zlibは、Linux(登録商標)、Mac OS X、iOSといったいくつかのソフトウェアプラットフォーム、およびさまざまなゲーミングコンソールの主要なコンポーネントであるソフトウェアライブラリである。zlibライブラリは、zip(ファイルアーカイビング)、gzip(単一ファイル圧縮)、png(無損失圧縮画像のためのポータブルネットワークグラフィックス)、および多くの他のアプリケーションによって使用されるDeflate圧縮および復元コードを提供する。zlibは今や、データ送信および記憶のために幅広く使用されている。サーバおよびブラウザによるほとんどのHTTPトランザクションは、zlibを用いてデータを圧縮して復元する。同様の実装はデータストレージシステムによってますます使用されつつある。
2014年4月にインテル社が発表した「High Performance ZLIB Compression on Intel(登録商標)Architecture Processors」と題された論文は、現在のインテルプロセッサ(コアI7 4770プロセッサ、3.4GHz、8MBキャッシュ)上で動作し、かつデータのカルガリーコーパスに対して実行されるzlibライブラリの最適化バージョンの圧縮およびパフォーマンスを特徴化している。zlibで用いられるDeflateフォーマットは、一致用の最小文字列長さを3文字に設定し、最大一致長さを256文字に設定し、ウインドウのサイズを32キロバイトに設定している。この実装は9レベルの最適化についての制御を提供し、レベル9は最高圧縮を提供するが計算の大部分を使用して最も網羅的な文字列の一致を実行し、レベル1は最速レベルであり、貪欲な文字列一致を使用する。この論文は、zlibレベル1(最速レベル)を使用し、シングルスレッドプロセッサを使用し、平均17.66クロック/バイトの入力データを消費して、51%の圧縮率を報告している。3.4GHzのクロック周波数では、これは、単一のマイクロプロセッサコアを使い果たしつつ192MB/秒の取込速度を意味する。この報告ではさらに、パフォーマンスが、適度な圧縮のゲインのために最適化レベル6を用いると38MB/秒の取込速度(平均88.1クロック/バイト)に、最適化レベル9を用いると16MB/秒の取込速度(平均209.5クロック/バイト)に急激に低下することが記載されている。
既存のデータ圧縮ソリューションは典型的に、現在のマイクロプロセッサ上でシングルプロセッサコアを用いて10MB/秒から200MB/秒の範囲の取込速度で動作する。取込速度をさらに高めるためには、複数のコアを使用するか、またはウインドウサイズを減少させる。コストは増加するが、カスタムハードウェアアクセラレータを用いると、取込速度のさらなる向上が達成される。
上記の既存のデータ圧縮法は、典型的に1つのメッセージもしくはファイル、または場合によってはいくつかのファイルのサイズであるローカルウインドウ内の短い文字列および記号のレベルで細かい冗長を利用するのに効果的である。これらの方法は、大型または超大型データセット上で動作し、かつ高速のデータ取込みおよびデータ取出しを必要とするアプリケーションで用いられる場合、重大な制限および欠点がある。
1つの重要な制限は、これらの方法の実際的な実現例が、ローカルウインドウ内でしか冗長を効率的に利用できないことである。これらの実現例は、任意に長いデータの入力ストリームを随意に受付けることができるが、効率のため、細かい冗長を発見すべきウインドウのサイズに制限が課される。これらの方法は高度に計算集約的であり、ウインドウ内のすべてのデータへの頻繁かつ迅速なアクセスを必要とする。さまざまな帳簿構造の文字列一致およびルックアップは、新規な入力文字列を作成する新規な1バイト(またはいくつかのバイト)の入力データを消費するとトリガされる。所望の取込速度を達成するために、文字列一致のためのウインドウおよび関連の機械はほとんどがプロセッサキャッシュサブシステム内に存在している必要があり、これによって実際面でウインドウサイズに制約が課される。
たとえば、シングルプロセッサコア上で200MB/秒の取込速度を達成するためには、利用可能な平均タイムバジェット/取込バイト(すべてのデータアクセスおよび計算を含む)は5ns.であり、つまり、3.4GHzの動作周波数で現在のプロセッサを用いて17クロックである。このバジェットは、(少数のサイクルを占める)オンチップキャッシュへのアクセスを収容し、その後、何らかの文字列一致が行なわれる。現在のプロセッサは、数メガバイトの容量のオンチップキャッシュを有する。メインメモリへのアクセスは200サイクル(〜70ns.)を占めるため、ほとんどがメモリ内に存在する大きいウインドウは取込速度をさらに遅くさせる。また、ウインドウサイズが増加するにつれて、かつ重複文字列までの距離が増加するにつれて、逆方向参照の長さを指定するコストも増加するため、重複を求めてより長い文字列のみがより広い範囲全体にわたって検索されることが促進される。
ほとんどの現在のデータストレージシステム上では、ストレージ階層のさまざまな層にわたって記憶されるデータのフットプリントは、システム内のメモリ容量より数桁大きい。たとえば、システムが数百ギガバイトのメモリを提供し得るのに対して、フラッシュストレージ内に存在するアクティブデータのデータフットプリントは数十テラバイトであり得、ストレージシステム内の全データは数百テラバイトから数ペタバイトの範囲であり得る。また、後続のストレージ層へのデータアクセスの達成可能なスループットは、後続の層毎に1桁以上減少する。スライディングウインドウが大きくなり過ぎてメモリに収まらなくなると、これらの技術は、かなり低い帯域幅、およびデータ記憶の次のレベルへのランダムなIO(入力または出力操作)アクセスの高い待ち時間によって抑圧される。
たとえば、既存のデータ内に既に存在しており256テラバイトのフットプリントにわたって分散している、たとえば平均長さが40バイトの100個の文字列を参照することによって当該データからアセンブルされ得る4キロバイトの受信データのファイルまたはページを考えてみる。各参照には、40バイトを保存することを約束しつつ、そのアドレスを指定するために6バイト、文字列長さに1バイトを要する。この例で述べるページは5倍よりも大きく圧縮可能であるが、このページについての取込速度は、(これらの文字列が存在する場所を完全にかつ安価に予想できたとしても)100個の重複文字列をフェッチして検証するのに必要なストレージシステムへの100回以上のIOアクセスによって制限されることになる。250,000回のランダムなIOアクセス/秒(4KBのページへの1GB/秒の帯域幅のランダムアクセスを意味する)を提供するストレージシステムは、ストレージシステムの全帯域幅を使い果たしつつ、わずか10MB/秒の取込速度のために毎秒4KBのサイズのそのようなページを2,500枚しか圧縮できないため、ストレージシステムとして利用不可能である。
テラバイトまたはペタバイトのオーダの大きいウインドウサイズを用いる従来の圧縮法の実現例は、ストレージシステムへのデータアクセスの帯域幅減少によって不足しており、許容できないほど遅い。したがって、これらの技術の実際的な実現例は、プロセッサキャッシュまたはシステムメモリに収まるウインドウサイズに対して、冗長が局所的に存在している場合にのみ冗長を効率的に発見して利用する。冗長データが受信データから空間的にまたは時間的に数テラバイト、ペタバイト、またはエクサバイトだけ離れている場合、これらの実現例は許容可能な速度で冗長を発見することができなくなり、ストレージアクセス帯域幅によって制限される。
従来の方法の別の制限は、それら方法がデータのランダムアクセスに適していないことである。いずれかのブロック内のいずれかのチャンクにアクセスできるようにする前に、圧縮されたウインドウ全体に跨っているデータのブロックを復元しなければならない。これは、ウインドウのサイズに実際的な制限を課す。また、旧来は非圧縮データに対して行なわれる操作(たとえば検索操作)を圧縮データに対して効率的に行なうことができない。
従来の方法(および特にLempel-Zivに基づく方法)のさらに別の制限は、それら方法が、同一文字列を逆方向参照で置換する、1つの次元のみに沿って冗長があるか検索することである。ハフマン再符号化スキームの制限は、周波数を計算して次に再符号化するためにデータを2回通過しなければならないことである。これは、ブロックが大きくなると遅くなる。
データのグローバルストア全体にわたって長い重複文字列を検出するデータ圧縮法は、デジタルフィンガープリンティングとハッシングスキームとの組合せを用いることが多い。この圧縮プロセスはデータ重複排除と称される。データ重複排除の最も基本的な技術は、ファイルを固定サイズのブロックに分割し、データレポジトリ全体にわたって重複ブロックを探す。ファイルのコピーが作成されると、第1のファイル内の各ブロックは第2のファイル内に重複を有することになり、当該重複は元のブロックの参照で置換され得る。潜在的な重複ブロック同士の一致を迅速化するために、ハッシングの方法が使用される。ハッシュ関数は、文字列をそのハッシュ値と称される数値にコンバートする関数である。2つの文字列同士が等しい場合、それらのハッシュ値同士も等しい。ハッシュ関数は複数の文字列を所与のハッシュ値にマップし、これによって長い文字列をはるかに短い長さのハッシュ値に減少させることができる。ハッシュ値同士の一致は、2つの長い文字列同士の一致よりもはるかに速くなる。したがって、ハッシュ値同士の一致がまず行なわれて、重複であり得る可能性のある文字列がフィルタされる。入力文字列またはブロックのハッシュ値が、レポジトリ内に存在する文字列またはブロックのハッシュ値と一致する場合、入力文字列は次に同一のハッシュ値を有するレポジトリ内の各文字列と比較されて重複の存在が確認され得る。
ファイルを固定サイズのブロックに分割することは単純で簡便であり、固定サイズのブロックは高パフォーマンスのストレージシステムにおいて非常に望ましい。しかし、この技術は、それが発見可能な冗長の量に制限があり、つまり、これらの技術は圧縮レベルが低い。たとえば、第1のファイルのコピーが第2のファイルを作成するために作られた場合、1バイトのデータでさえも第2のファイルに挿入されると、すべての下流ブロックの整列が変更され、新たな各ブロックのハッシュ値が新たに計算され、データ重複排除法はすべての重複を見つけることができなくなる。
データ重複排除法におけるこの制限に対処するために、業界では、一致するコンテンツの場所でデータストリームを同期させ整列させるフィンガープリンティングの使用が採用されている。この後者のスキームでは、フィンガープリントに基づいて可変サイズのブロックがもたらされる。Michael Rabinは、ランダムに選択した既約多項式を用いてビット文字列をフィンガープリントできることを示している。たとえば、Michael O. Rabin, "Fingerprinting by Random Polynomials," Center for Research in Computing Technology, Harvard University, TR-15-81, 1981参照。このスキームでは、ランダムに選択された素数pを用いて、長い文字列を、大きい整数モジュロpと見なされるその文字列の剰余を計算することによってフィンガープリントする。このスキームでは、kビット整数に対して整数演算を行う必要があり、ここでk=log2(p)である。あるいは、オーダkのランダムな既約素数多項式を用いてもよく、その場合、フィンガープリントは素数多項式のデータモジュロの多項式表現である。
このフィンガープリンティングの方法はデータ重複排除システムにおいて用いられ、チャンク境界を確立すべき好適な位置を特定することによって、当該システムがグローバルレポジトリ内のこれらのチャンクの重複を探すことができる。チャンク境界は、特定値のフィンガープリントが見つかると設定され得る。そのような使用の例として、フィンガープリントは、オーダ32以下の多項式を使用することによって、入力データ内の48バイト文字列毎に(入力の最初のバイトで始まり、次いで、その後は連続バイト毎に)計算され得る。次いで、32ビットフィンガープリントの下位13ビットを調べて、それら13ビットの値が予め指定された値(たとえば値1)であるたびにブレークポイントを設定することができる。ランダムデータについては、その13ビットがその特定値を有する可能性は213分の1であるため、そのようなブレークポイントはおよそ8KB毎に遭遇する可能性が高く、平均サイズが8KBの可変サイズのチャンクがもたらされる。ブレークポイントまたはチャンク境界は、データのコンテンツに依存するフィンガープリントと効果的に整列することになる。フィンガープリントが長時間見つからない場合、ブレークポイントを何らかの予め指定された閾値で強制することができるので、システムは、レポジトリについて予め指定されたサイズよりも短いチャンクを確実に作成する。たとえば、Athicha Muthitacharoen, Benjie Chen and David Mazieres, "A Low-bandwidth Network File System," SOSP '01, Proceedings of the eighteenth ACM symposium on Operating Systems Principles, 10/21/2001, pp. 174-187参照。
Michael RabinおよびRichard Karpによって開発されたラビン−カープ(Rabin-Karp)文字列一致技術は、フィンガープリンティングおよび文字列一致の効率をさらに向上させた(たとえば、Michael O. Rabin and R. Karp, "Efficient Randomized Pattern-Matching Algorithms," IBM Jour. of Res. and Dev., Vol. 31, 1987, pp. 249-260参照)。なお、そのフィンガープリントについてのmバイト部分文字列を調べるフィンガープリンティング法は、フィンガープリンティング多項式関数をO(m)時間で評価し得る。この方法は、たとえばnバイト入力ストリームの各バイトで始まる部分文字列に適用される必要があるので、データストリーム全体に対してフィンガープリンティングを行なうのに必要な全労力はO(n×m)となる。ラビン−カープはローリングハッシュと称されるハッシュ関数を特定しており、これに対して、部分文字列の長さとは無関係に一定数の演算のみを行なうことによって、前の部分文字列から次の部分文字列のハッシュ値を計算することができる。したがって、右に1バイトシフトした後、新たなmバイト文字列に対するフィンガープリントの計算を増分的に行なうことができる。これによって、フィンガープリントを計算する労力がO(1)に、データストリーム全体をフィンガープリントするための全労力がO(n)に、データのサイズと直線的に減少する。これによって、フィンガープリントの計算および識別が大きく迅速化される。
上記のデータ重複排除法についての典型的なデータアクセスおよび計算要件は以下のように説明することができる。所与の入力について、フィンガープリンティングが完了してチャンクが作成されると、当該チャンクのハッシュ値が計算された後、これらの方法はまず、すべてのチャンクのハッシュ値をレポジトリ内に維持するグローバルハッシュテーブルを検索してルックアップするために、メモリおよび後続のストレージ層への1セットのアクセスを必要とする。これは典型的に、ストレージへの1回目のIOアクセスを必要とする。ハッシュテーブル内に一致があると、続いて2回目の一組のストレージIO(典型的に1回であるが、同一のハッシュ値を有するチャンクがどのくらいレポジトリ内に存在するかに依存して2回以上であり得る)が行われて、同一のハッシュ値を有する実際のデータチャンクがフェッチされる。最後に、バイト単位の一致が行われ、入力されたチャンクがフェッチされた潜在的に一致するチャンクと比較されて重複が確認され識別される。この後、新たな重複ブロックをオリジナルの参照で置換するための(メタデータ空間への)3回目のストレージIOアクセスが行なわれる。グローバルハッシュテーブル内に一致がない場合(または重複が見つからない場合)、システムは、新たなブロックをレポジトリに入力するために1回のIO、およびグローバルハッシュテーブルを更新して新たなハッシュ値を入力するためにさらにもう1回のIOを必要とする。ゆえに、大型データセットについては(メタデータおよびグローバルハッシュテーブルがメモリに収まらず、したがってそれらにアクセスするためにストレージIOを必要とする場合)、そのようなシステムは入力チャンク毎に平均3回のIOを必要とし得る。グローバルハッシュテーブルにアクセスするための1回目のストレージIOを必要とせずにグローバルハッシュテーブル内の欠落を検出できるようにさまざまなフィルタを使用して、チャンクのうちのいくつかを処理するのに必要なIOの回数を2回にまで削減することによって、さらなる向上が可能である。
250,000回のランダムIOアクセス/秒(4KBのページへの1GB/秒のランダムアクセスの帯域幅を意味する)を提供するストレージシステムは、毎秒4KBの平均サイズの約83,333個(入力チャンク毎に3回のIOで分割される250,000個)の入力チャンクを取込んで重複排除することによって、ストレージシステムの全帯域幅を使い果たしつつ333MB/秒の取込速度を可能にする。ストレージシステムの帯域幅の半分のみが用いられる(したがって残りの半分は記憶データへのアクセスに利用可能である)場合も、そのような重複排除システムはやはり166MB/秒の取込速度を提供可能である。これらの取込速度(I/O帯域幅によって制限される)は、十分な処理能力がシステムで利用可能であるという条件で達成可能である。ゆえに、十分な処理能力を前提として、データ重複排除システムは、無駄のないIOでデータのグローバル範囲全体にわたってデータの大きい重複を見つけることができ、現在のストレージシステムに対して数百メガバイト/秒の取込速度でデータ削減を提供することができる。
上記の説明に基づいて、これらの重複排除法はグローバル範囲全体にわたって長い文字列の重複を見つけるのに効果的であるが、それらは主に大きい重複を見つけるのに効果的であることが明確であるべきである。より細かくデータに変形または変更がある場合は、利用可能な冗長はこの方法を用いて見つけられない。これによって、これらの方法が有用なデータセットの幅が大きく減少する。これらの方法は、たとえば、バックアップ中の新たなデータが変更されるファイルをほんのわずかしか有しておらず、残りはすべて以前のバックアップで保存されたファイルの重複である、定期的なデータのバックアップなどの、一定のデータストレージシステムおよびアプリケーションに使用されている。同様に、データ重複排除に基づくシステムは、データセンタにおける仮想環境といった、データまたはコードの複数の完全なコピーが作られる環境でデプロイされることが多い。しかし、データが発展して、より一般的にまたはより細かく変更されるにつれて、データ重複排除に基づく技術はその有効性が失われつつある。
いくつかのアプローチ(通常はデータバックアップアプリケーションで使用される)では、入力データと入力のハッシュ値と一致するハッシュ値を有する文字列との間の実際のバイト単位の比較が行なわれない。そのようなソリューションは、SHA−1などの強いハッシュ関数を用いて低い衝突可能性に依拠する。しかし、(複数の異なる文字列同士が同一のハッシュ値にマップし得る)衝突の有限のゼロでない可能性のため、そのような方法は無損失データ削減を提供すると見なすことができず、したがって、プライマリストレージおよび通信の高いデータ完全性要件を満たさない。
いくつかのアプローチでは、複数の既存のデータ圧縮技術同士が組合される。典型的に、そのようなセットアップでは、まずグローバルデータ重複排除法がデータに適用される。続いて、重複排除されたデータセットに対して、小さいウインドウを使用して、ハフマン再符号化と組合されたLempel-Ziv文字列圧縮法が適用されてさらなるデータ削減が達成される。
しかし、これまでに知られているすべての技術の利用にも係わらず、増加して蓄積されるデータの必要性と、世界経済が最良の利用可能な現代のストレージシステムを用いて手軽に収容できるものとの間には桁違いの大きさのギャップが存在し続けている。増加するデータが要求する記憶容量の並外れた要件を考慮すると、データのフットプリントをさらに削減する改良された方法が必要であり続けている。既存の技術の制限に対処する、または既存の技術が対処していない次元に沿ったデータ内の利用可能な冗長を利用する方法を開発することが必要であり続けている。同時に、許容可能な速度で、かつ許容可能な処理コストで効率的にデータにアクセスしてデータを取出すことが可能であることも重要であり続けている。
要約すると、大型および超大型データセット全体にわたって冗長を利用し、高速のデータ取込みおよびデータ取出しを提供することができる無損失データ削減ソリューションが長年にわたって切実に求められ続けている。
概要
本明細書に記載の実施形態は、高速のデータ取込みおよびデータ取出しを提供しつつ、大型および超大型データセットに対する無損失データ削減を実行可能な、かつ既存のデータ圧縮システムの欠点および制限を受けない技術およびシステムを特徴とする。
具体的には、いくつかの実施形態では、データチャンクに基づいて1つ以上の基本データエレメントを識別することができ、識別することは、データチャンクのコンテンツを用いて、基本データエレメントのコンテンツに基づいて基本データエレメントを組織化するデータ構造内をナビゲートすることを含む。次に、実施形態では、再構成プログラムを1つ以上の基本データエレメントに適用することによってデータチャンクが再構成され得るように、データチャンクおよび識別した1つ以上の基本データエレメントに基づいて再構成プログラムを決定することができる。実施形態では次いで、データチャンクの無損失削減表現を生成することができ、無損失削減表現は、識別した1つ以上の基本データエレメント内の各基本データエレメントの参照と、再構成プログラムの記述とを含む。
本明細書に記載のいくつかの実施形態に従う、入力データをエレメントに因子分解し、これらを基本データストアに存在している基本データエレメントから導出するデータ削減のための方法および装置を示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Aに示す方法および装置の変形を示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Aに示す方法および装置の変形を示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Aに示す方法および装置の変形を示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Aに示す方法および装置の変形を示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Aに示す方法および装置の変形を示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Aに示す方法および装置の変形を示す図である。 本明細書に記載のいくつかの実施形態に従う、蒸留データの構造を記述するフォーマットおよび仕様の例を提示する図である。 図1Aから図1Gに示すデータ削減のための方法および装置の変形についての入力データの無損失削減形態への概念的な変換を示す図である。 図1Aから図1Gに示すデータ削減のための方法および装置の変形についての入力データの無損失削減形態への概念的な変換を示す図である。 図1Aから図1Gに示すデータ削減のための方法および装置の変形についての入力データの無損失削減形態への概念的な変換を示す図である。 図1Aから図1Gに示すデータ削減のための方法および装置の変形についての入力データの無損失削減形態への概念的な変換を示す図である。 図1Aから図1Gに示すデータ削減のための方法および装置の変形についての入力データの無損失削減形態への概念的な変換を示す図である。 図1Aから図1Gに示すデータ削減のための方法および装置の変形についての入力データの無損失削減形態への概念的な変換を示す図である。 図1Aから図1Gに示すデータ削減のための方法および装置の変形についての入力データの無損失削減形態への概念的な変換を示す図である。 図1Aから図1Gに示すデータ削減のための方法および装置の変形についての入力データの無損失削減形態への概念的な変換を示す図である。 本明細書に記載のいくつかの実施形態に従う、入力データをエレメントに因子分解し、これらエレメントを基本データストア内に存在する基本データエレメントから導出することによるデータ削減のためのプロセスを示す図である。 本明細書に記載のいくつかの実施形態に従う、基本データエレメントをそれらの名前に基づいて組織化するために用いられ得るデータ組織システムを示す図である。 本明細書に記載のいくつかの実施形態に従う、基本データエレメントをそれらの名前に基づいて組織化するために用いられ得るデータ組織システムを示す図である。 本明細書に記載のいくつかの実施形態に従う、基本データエレメントをそれらの名前に基づいて組織化するために用いられ得るデータ組織システムを示す図である。 本明細書に記載のいくつかの実施形態に従う、基本データエレメントをそれらの名前に基づいて組織化するために用いられ得るデータ組織システムを示す図である。 本明細書に記載のいくつかの実施形態に従う、基本データエレメントをそれらの名前に基づいて組織化するために用いられ得るデータ組織システムを示す図である。 本明細書に記載のいくつかの実施形態に従う自己記述ツリーノードデータ構造を提示する図である。 本明細書に記載のいくつかの実施形態に従う自己記述リーフノードデータ構造を提示する図である。 本明細書に記載のいくつかの実施形態に従うナビゲーションルックアヘッドフィールドを含む自己記述リーフノードデータ構造を提示する図である。 本明細書に記載のいくつかの実施形態に従う、256TBの基本データがどのようにツリー形態に組織化され得るかの例を示し、当該ツリーがどのようにメモリおよびストレージ内にレイアウトされ得るかを提示する図である。 本明細書に記載の実施形態を用いてデータがどのように組織化され得るかの実際の例を示す図である。 本明細書に記載の実施形態を用いてデータがどのように組織化され得るかの実際の例を示す図である。 本明細書に記載の実施形態を用いてデータがどのように組織化され得るかの実際の例を示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Aを参照して説明したコンテンツ連想マッパーについてツリーデータ構造がどのように使用され得るかを示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Bを参照して説明したコンテンツ連想マッパーについてツリーデータ構造がどのように使用され得るかを示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Cを参照して説明したコンテンツ連想マッパーについてツリーデータ構造がどのように使用され得るかを示す図である。 本明細書に記載のいくつかの実施形態に従う、再構成プログラム内に指定され得る変換の例を提供する図である。 本明細書に記載のいくつかの実施形態に従う、基本データエレメントから導出されている候補エレメントの結果の例を示す図である。 本明細書に記載のいくつかの実施形態に従う、入力データを固定サイズのエレメントに因子分解し、当該エレメントを図3Dおよび図3Eを参照して説明したツリーデータ構造に組織化することによって、どのようにデータ削減が実行され得るかを示す図である。 本明細書に記載のいくつかの実施形態に従う、入力データを固定サイズのエレメントに因子分解し、当該エレメントを図3Dおよび図3Eを参照して説明したツリーデータ構造に組織化することによって、どのようにデータ削減が実行され得るかを示す図である。 本明細書に記載のいくつかの実施形態に従う、入力データを固定サイズのエレメントに因子分解し、当該エレメントを図3Dおよび図3Eを参照して説明したツリーデータ構造に組織化することによって、どのようにデータ削減が実行され得るかを示す図である。 本明細書に記載のいくつかの実施形態に従う、入力データを固定サイズのエレメントに因子分解し、当該エレメントを図3Dおよび図3Eを参照して説明したツリーデータ構造に組織化することによって、どのようにデータ削減が実行され得るかを示す図である。 本明細書に記載のいくつかの実施形態に従う、入力データを固定サイズのエレメントに因子分解し、当該エレメントを図3Dおよび図3Eを参照して説明したツリーデータ構造に組織化することによって、どのようにデータ削減が実行され得るかを示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Cに示すシステムに基づくData Distillation(商標)スキームの例を示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Cに示すシステムに基づくData Distillation(商標)スキームの例を示す図である。 本明細書に記載のいくつかの実施形態に従う、図1Cに示すシステムに基づくData Distillation(商標)スキームの例を示す図である。 本明細書に記載のいくつかの実施形態に従う、再構成プログラム内に指定された変換がどのように基本データエレメントに適用されて導出エレメントをもたらすかの例を提供する図である。 本明細書に記載のいくつかの実施形態に従うデータ取出しプロセスを示す図である。 本明細書に記載のいくつかの実施形態に従うデータ取出しプロセスを示す図である。 本明細書に記載のいくつかの実施形態に従う、Data Distillation(商標)メカニズム(ソフトウェア、ハードウェア、またはそれらの組合せを用いて実現され得る)を含むシステムを示す図である。 本明細書に記載のいくつかの実施形態に従う、Data Distillation(商標)メカニズム(ソフトウェア、ハードウェア、またはそれらの組合せを用いて実現され得る)を含むシステムを示す図である。 本明細書に記載のいくつかの実施形態に従う、Data Distillation(商標)装置がどのようにサンプル汎用計算プラットフォームに干渉し得るかを示す図である。 本明細書に記載のいくつかの実施形態に従う、帯域幅が制約された通信媒体全体にわたるデータの通信のためのData Distillation(商標)装置の使用を示す図である。 本明細書に記載のいくつかの実施形態に従う、帯域幅が制約された通信媒体全体にわたるデータの通信のためのData Distillation(商標)装置の使用を示す図である。 本明細書に記載のいくつかの実施形態に従う、さまざまな使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示す図である。 本明細書に記載のいくつかの実施形態に従う、さまざまな使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示す図である。 本明細書に記載のいくつかの実施形態に従う、さまざまな使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示す図である。 本明細書に記載のいくつかの実施形態に従う、さまざまな使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示す図である。 本明細書に記載のいくつかの実施形態に従う、さまざまな使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示す図である。 本明細書に記載のいくつかの実施形態に従う、さまざまな使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示す図である。 本明細書に記載のいくつかの実施形態に従う、さまざまな使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示す図である。 本明細書に記載のいくつかの実施形態に従う、さまざまな使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示す図である。 本明細書に記載のいくつかの実施形態に従う、さまざまな使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示す図である。
詳細な説明
以下の説明は、当業者が本発明を行って用いることができるように提示されており、特定の用途およびその要件の文脈において提供されている。開示される実施形態に対するさまざまな変更が当業者に容易に明らかとなり、本明細書に定義される一般原理は本発明の精神および範囲から逸脱することなく他の実施形態および用途にも適用され得る。ゆえに、本発明は示される実施形態に限定されず、本明細書に開示される原理および特徴と一致した最も広範な範囲が与えられる。本開示において、ある語句が「および/または」という語を一組のエンティティとともに用いる場合、当該語句は特に記載のない限りその一組のエンティティのすべての可能性のある組合せを包含する。たとえば、「X、Y、および/またはZ」という語句は、「Xのみ」、「Yのみ」、「Zのみ」、「Zを含まないXおよびY」、「Yを含まないXおよびZ」、「Xを含まないYおよびZ」、ならびに「X、Y、およびZ」の7個の組合せを包含する。
コンテンツ連想シーブを用いたデータの効率的な無損失削減
本明細書に記載のいくつかの実施形態では、データセット全体にわたってグローバルに冗長を効率的に発見して利用するようにデータが組織化されて記憶される。入力データストリームはエレメントと称される構成片またはチャンクに分割され、エレメント同士間の冗長がエレメント自体よりも細かく検出され利用されることによって、記憶データのフットプリント全体が削減される。基本データエレメントと称される一組のエレメントが識別されてデータセットのための共通および共有の構築ブロックとして用いられ、基本データストアまたはシーブと称される構造に記憶される。基本データエレメントは単に、一定サイズのビット、バイト、または桁のシーケンスである。基本データエレメントは、実現例に依存して固定サイズであってもよく、または可変サイズであってもよい。入力データの他の構成要素が基本データエレメントから導出されて導出エレメント(Derivative Element)と称される。ゆえに、入力データは基本データエレメントおよび導出エレメントに因子分解される。
基本データストアは、基本データストアをコンテンツ連想的に検索してアクセスできるように、基本データエレメントを順序付けて組織化する。何らかの入力コンテンツを前提として、いくつかの制限を伴い、基本データストアに問合わせて、そのコンテンツを含む基本データエレメントを取出すことができる。入力エレメントを前提として、当該エレメントの値、または当該エレメント内の一定のフィールドの値を用いて基本データストアを検索して、1つのまたは小さい一組の基本データエレメントを迅速に提供することができ、そこから、導出を指定するのに必要な最小ストレージで入力エレメントを導出することができる。いくつかの実施形態では、基本データストア内のエレメントはツリー形態に組織化される。基本データエレメントに対して変換を実行することによって基本データエレメントから導出エレメントが導出され、そのような変換は、1つ以上の基本データエレメントから導出エレメントをどのように生成するかを記述する再構成プログラム内に指定されている。距離閾値が、導出エレメントの記憶フットプリントのサイズに対する制限を指定する。この閾値は、基本データエレメントからの導出エレメントの最大許容距離を指定し、また、導出エレメントを生成するために用いられ得る再構成プログラムのサイズに制限を課す。
導出データの取出しは、導出によって指定される1つ以上の基本データエレメントに対して再構成プログラムを実行することによって達成される。
本開示では、上記の汎用無損失データ削減技術はData Distillation(商標)プロセスと称され得る。これは、化学の蒸留と同様の、混合物をその構成要素に分離する機能を果たす。基本データストアは、シーブまたはData Distillation(商標)シーブとも称される。
このスキームでは、入力データストリームはエレメントのシーケンスに因子分解され、各エレメントは、基本データエレメント、または1つ以上の基本データエレメントから導出される導出エレメントである。各エレメントは無損失削減表現に変換され、これは、基本データエレメントの場合は基本データエレメントの参照を含み、導出エレメントの場合は、導出に伴う1つ以上の基本データエレメントの参照と、再構成プログラムの記述とを含む。ゆえに、入力データストリームは、無損失削減表現内にあるエレメントのシーケンスに因子分解される。この(無損失削減表現内に現われる)エレメントのシーケンスは、蒸留データストリームまたは蒸留データと称される。蒸留データ内のエレメントのシーケンスは、入力データ内のエレメントのシーケンスと1対1の対応関係を有しており、すなわち、蒸留データ内のエレメントのシーケンス内のn番目のエレメントは、入力データ内のエレメントのシーケンス内のn番目のエレメントに対応する。
本開示に記載の汎用無損失データ削減技術は、入力データストリームを受信し、蒸留データストリームおよび基本データストアのフットプリントの合計が入力データストリームのフットプリントよりも通常は小さいように、入力データストリームを蒸留データストリームと基本データストアとの組合せにコンバートする。本開示では、蒸留データストリームおよび基本データストアは無損失削減データと総称され、同じ意味で「削減データストリーム」または「削減データ」とも称される。同様に、本開示に記載の無損失データ削減技術によって生成され、かつ無損失削減フォーマットで現われるエレメントのシーケンスについて、「削減出力データストリーム」、「削減出力データ」、「蒸留データストリーム」、および「蒸留データ」という語は同じ意味で用いられる。
図1Aは、本明細書に記載のいくつかの実施形態に従う、入力データをエレメントに因子分解し、これらを基本データストアに存在している基本データエレメントから導出するデータ削減のための方法および装置を示す。この図はデータ削減またはData Distillation(商標)方法および装置の全体ブロック図を示しており、機能コンポーネント、構造、および演算の概要を提供している。図1Aに示すコンポーネントおよび/または演算はソフトウェア、ハードウェア、またはそれらの組合せを用いて実現され得る。
バイトのシーケンスが入力データストリームから受信され、Data Distillation(商標)装置とも称されるデータ削減装置103に入力データ102として提示される。パーサおよび因子分解部104が受信データをパースし、当該データをチャンクまたは候補エレメントに分割する。因子分解部は、入力ストリーム内のどこにブレークを挿入してストリームを候補エレメントにスライスアップするかを決定する。データ内の連続する2つのブレークが識別されると、候補エレメント105がパーサおよび因子分解部によって作成され、Data Distillation(商標)シーブとも称される基本データストア106に提示される。
Data Distillation(商標)シーブまたは基本データストア106は、(図1AにおいてPDEとラベル付けされている)すべての基本データエレメントを含んでおり、それらの値またはコンテンツに基づいてそれらを順序付けて組織化する。シーブは2種類のアクセスのサポートを提供する。第1に、基本データエレメントの各々には、基本データエレメントがシーブ内に存在する場所の参照によって、直接アクセス可能である。第2に、エレメントには、ソフトウェア、ハードウェア、またはそれらの組合せで実現され得るコンテンツ連想マッパー121を用いることによって、コンテンツ連想的にアクセス可能である。シーブへのこの第2のアクセス形態は、候補エレメント105と完全に一致する基本データエレメントを識別するために、または、候補エレメントをそこから導出可能な基本データエレメントを識別するために、開示される実施形態によって用いられる重要な特徴である。具体的には、たとえば候補エレメント105などの候補エレメントを前提として、基本データストア106を(候補エレメント105の値に基づいて、または候補エレメント105内の一定のフィールドの値に基づいて)検索して、1つのまたは小さい一組の基本データエレメント107を迅速に提供することができ、そこから、導出を指定するのに必要な最小ストレージで候補エレメントを導出することができる。
シーブまたは基本データストア106は、その値がデータ空間にわたって分散している一組の基本データエレメントで初期化され得る。あるいは、シーブは空で開始してもよく、図1A〜図1Cおよび図2を参照して本明細書に記載されるData Distillation(商標)プロセスに従って、データが取込まれるにつれて基本データエレメントがシーブに動的に追加されてもよい。
導出部110は、候補エレメント105と、(基本データストア106から連想的に取出されるコンテンツである)導出に好適な取出された基本データエレメント107とを受信し、候補エレメント105がこれらの基本データエレメントの1つ以上から導出可能であるか否かを判断し、削減されたデータコンポーネント115(関連の基本データエレメントの参照および再構成プログラムで構成される)を生成し、基本データストアの更新114を提供する。候補エレメントが、取出された基本データエレメントの重複である場合、導出部は、基本データストア内にある基本データエレメントの参照(またはポインタ)と、これが基本データエレメントであるというインジケータとを、蒸留データ108に入れる。重複が見つからない場合、導出部は、候補エレメントを、1つ以上の取出された基本データエレメントに対して実行された1つ以上の変換の結果として表現し、この一連の変換は、たとえば再構成プログラム119Aなどの再構成プログラムと総称される。各導出では、その固有のプログラムを導出部によって構築する必要があり得る。再構成プログラムは、基本データエレメントに適用可能な挿入、削除、置換、連結、算術、および論理演算といった変換を指定する。導出エレメントのフットプリント(再構成プログラムのサイズに、必要な基本データエレメントの参照のサイズを加えたものとして計算される)が(データ削減を可能にするための)候補エレメントに関して一定の指定された距離閾値内にあるという条件で、候補エレメントは導出エレメントとして再公式化され、再構成プログラムと1つの(または複数の)関連の基本データエレメントの参照との組合せで置換され、この場合、これらは削減されたデータコンポーネント115を形成する。閾値を超えた場合、または基本データストアから好適な基本データエレメントが取出されなかった場合、基本データストアは候補を新規な基本データエレメントとしてインストールするように指示され得る。この場合、導出部は、新たに追加された基本データエレメントの参照と、さらに、これが基本データエレメントであるというインジケータとを蒸留データに入れる。
データの取出し要求(たとえば取出し要求109)は、基本データエレメントを含む基本データストア内の場所の参照の形態、または、導出物(Derivative)の場合には、基本データエレメントのそのような参照と、関連付けられた再構成プログラムとの組合せ(または複数の基本データエレメントに基づく導出物の場合は、複数の基本データエレメントの参照と、関連付けられた再構成プログラムとの組合せ)の形態であり得る。基本データストア内の基本データエレメントの1つ以上の参照を用いて、取出部111は基本データストアにアクセスして1つ以上の基本データエレメントをフェッチし、1つ以上の基本データエレメントおよび再構成プログラムを再構成部112に与えることができ、再構成部112は、(再構成プログラム内に指定されている)変換を1つ以上の基本データエレメントに対して実行して再構成されたデータ116(要求されたデータ)を生成し、それをデータ取出し要求に応答して取出されたデータ出力113に供給する。
本実施形態の変形では、基本データエレメントは、(ハフマン符号化およびLempel Ziv法を含む先行技術において公知の技術を用いて)圧縮形態でシーブに記憶され、必要に応じて復元されてもよい。これには、基本データストアのフットプリント全体を削減するという利点がある。唯一の制約は、コンテンツ連想マッパー121が、前と同様に基本データエレメントへのコンテンツ連想アクセスを提供し続けなければならないことである。
図1Bおよび図1Cは、本明細書に記載のいくつかの実施形態に従う、図1Aに示す方法および装置の変形を示す。図1Bでは、再構成プログラムは基本データストアに記憶されて基本データエレメントとして取扱われ得る。再構成プログラム119A自体を提供する代わりに、再構成プログラムの参照またはポインタ119Bが蒸留データ108内に提供される。再構成プログラムが他の導出物によって共有される場合、および、再構成プログラムの参照またはポインタ(さらに、再構成プログラムと再構成プログラムの参照とを区別するために必要な任意のメタデータを加えたもの)のストレージスペースが再構成プログラム自体よりも小さくて済む場合、さらなるデータ削減が達成される。
図1Bでは、再構成プログラムは基本データエレメントと同様に取扱われてアクセスされ、基本データエレメントとして基本データストアに記憶されることによって、基本データストアからの再構成プログラムのコンテンツ連想検索および取出しが可能になり得る。導出エレメントを作成する導出プロセスの際、導出部110が導出に必要な再構成プログラムを決定すると、導出部110は次いで、この候補再構成プログラムが基本データストア内に既に存在しているか否か、またはこの候補再構成プログラムが基本データストア内に既に存在している別のエントリから導出可能であるか否かを判断し得る。候補再構成プログラムが基本データストア内に既に存在している場合は、導出部110は既存のエントリの参照を決定し、当該参照を蒸留データ108に含めることができる。候補再構成プログラムが基本データストアに既に存在している既存のエントリから導出可能である場合、導出部は候補再構成プログラムの導出物または再公式化を蒸留データに供給し得、すなわち、導出部は、基本データストア内に予め存在しているエントリの参照を、この予め存在しているエントリから候補再構成プログラムを導出する増分的な再構成プログラムとともに、蒸留データに入れる。候補再構成プログラムが基本データストア内に存在しておらず、基本データストアへのエントリからも導出不可能である場合は、導出部110は再構成プログラムを基本データストアに追加し(再構成プログラムをストアに追加する演算は、新たに追加されたエントリの参照を戻し得る)、再構成プログラムの参照を蒸留データ108に含めることができる。
図1Cは、本明細書に記載のいくつかの実施形態に従う、図1Bに示す方法および装置の変形を提示する。具体的には、再構成プログラムを記憶して再構成プログラムに問合せるために用いられる図1Cのメカニズムは、基本データエレメントを記憶して基本データエレメントに問合せるために用いられるメカニズムと同様であるが、再構成プログラムは、基本データエレメントを含む構造とは別の構造内に維持される。そのような構造へのエントリは、基本再構成プログラム(図1CにおいてPRPとラベル付けされている)と称される。基本データストア106は、迅速なコンテンツ連想ルックアップ操作をサポートするコンテンツ連想マッパー121を含んでいることを思い起こされたい。図1Cに示す実施形態は、コンテンツ連想マッパー121と同様のコンテンツ連想マッパー122を含む。図1Cでは、コンテンツ連想マッパー122およびコンテンツ連想マッパー121は基本データストアまたはシーブ106の一部であるとして示されている。他の実施形態では、コンテンツ連想マッパー122および再構成プログラムは基本データストアまたはシーブ106とは別に記憶されてもよい。
本実施形態の変形では、基本データエレメントは、(ハフマン符号化およびLempel Ziv法を含む先行技術において公知の技術を用いて)圧縮形態でシーブに記憶され、必要に応じて復元されてもよい。同様に、基本再構成プログラムは、(ハフマン符号化およびLempel Ziv法を含む先行技術において公知の技術を用いて)圧縮形態で基本再構成プログラムシーブに記憶され、必要に応じて復元されてもよい。これには、基本データシーブおよび基本再構成プログラムシーブのフットプリント全体を削減するという利点がある。唯一の制約は、コンテンツ連想マッパー121および122が、前と同様に基本データエレメントおよび基本再構成プログラムへのコンテンツ連想アクセスを提供し続けなければならないことである。
図1Dは、本明細書に記載のいくつかの実施形態に従う、図1Aに示す方法および装置の変形を提示する。具体的には、図1Dに記載の実施形態では、基本データエレメントは蒸留データ内にインラインに記憶されている。基本データシーブまたは基本データストア106は基本データエレメントへのコンテンツ連想アクセスを提供し続け、基本データエレメントを論理的に包含し続ける。それは、蒸留データ内にインラインに配置されている基本データエレメントの参照またはリンクを維持する。たとえば、図1Dでは、基本データエレメント130は蒸留データ108内にインラインに配置されている。基本データシーブまたは基本データストア106は基本データエレメント130の参照131を維持する。ここでも、このセットアップにおいて、導出エレメントの無損失削減表現は、必要な基本データエレメントの参照を含む。データ取出し時、取出部111は、必要な基本データエレメントをその配置場所からフェッチする。
図1Eは、本明細書に記載のいくつかの実施形態に従う、図1Dに示す方法および装置の変形を提示する。具体的には、図1Eに記載の実施形態では、図1Bに示すセットアップと同様に、再構成プログラムが他の基本再構成プログラムから導出され、増分再構成プログラムに基本再構成プログラムの参照を加えたものとして指定され得る。そのような基本再構成プログラムは基本データエレメントと同様に取扱われ、基本データシーブに論理的にインストールされる。さらに、このセットアップでは、基本データエレメントおよび基本再構成プログラムの両方が蒸留データ内にインラインに記憶される。基本データシーブまたは基本データストア106は、基本データエレメントおよび基本再構成プログラムのコンテンツ連想アクセスを提供し続け、これら基本データエレメントおよび基本再構成プログラムを、それらが蒸留データ内にインラインに配置されている場所の参照またはリンクを維持しつつ、論理的に包含し続ける。たとえば、図1Eでは、基本データエレメント130は蒸留データ108内にインラインに配置されている。また図1Eでは、基本再構成プログラム132は蒸留データ内にインラインに配置されている。基本データシーブまたは基本データストア106は、基本データエレメント130(PDE_i)の参照131(Reference_to_PDE_i)、および基本再構成プログラム132(Prime_Recon_Program_l)の参照133(Reference_to_PDE_j)を維持する。ここでも、このセットアップにおいて、導出エレメントの無損失削減表現は、必要な基本データエレメントおよび必要な基本再構成プログラムの参照を含む。データ取出しの際、取出部111は、必要なコンポーネントを、対応する蒸留データ内のそれらの配置場所からフェッチする。
図1Fは、本明細書に記載のいくつかの実施形態に従う、図1Eに示す方法および装置の変形を提示する。具体的には、図1Fに記載の実施形態では、図1Cに示すセットアップと同様に、基本データシーブ108は別個のマッパー、すなわち、基本データエレメントのためのコンテンツ連想マッパー121、および基本再構成プログラムのためのコンテンツ連想マッパー122を含む。
図1Gは、図1Aから図1Fに示す方法および装置のより一般化した変形を提示する。具体的には、図1Gに記載の実施形態では、基本データエレメントは基本データシーブ内に、または蒸留データ内にインラインに配置され得る。いくつかの基本データエレメントは基本データシーブ内に配置され得、他の基本データエレメントは蒸留データ内にインラインに配置される。同様に、基本再構成プログラムは基本データシーブ内に、または蒸留データ内にインラインに配置され得る。いくつかの基本再構成プログラムは基本データシーブ内に配置され得、他の基本再構成プログラムは蒸留データ内にインラインに配置される。基本データシーブは、すべての基本データエレメントおよび基本再構成プログラムを論理的に包含しており、基本データエレメントまたは基本再構成プログラムが蒸留データ内にインラインに配置されている場合は、基本データシーブはその場所の参照を供給する。
入力データをエレメントに因子分解し、これらを基本データストアに存在している基本データエレメントから導出するデータ削減のための方法および装置の上記の説明は、例示および説明目的で提示されているに過ぎない。それらは網羅的であること、または本発明を開示された形態に限定することを意図していない。したがって、多くの変更および変形が当業者に明らかになるであろう。
図1Hは、本明細書に記載のいくつかの実施形態に従う、Data Distillation(商標)プロセスのための方法および装置の図1Aの蒸留データ119Aの構造を記述するフォーマットおよび仕様の例を提示する。Data Distillation(商標)プロセスは入力データを基本データエレメントおよび導出エレメントに因子分解するので、データの無損失削減表現のためのフォーマットはこれらエレメントを識別し、蒸留データ内のこれらのエレメントのさまざまなコンポーネントを記述する。自己記述フォーマットは蒸留データ内の各レコードを識別し、それが基本データエレメントであるか導出エレメントであるかを指示し、さまざまなコンポーネント、すなわち、シーブにインストールされる1つ以上の基本データエレメントの参照、基本データストアにインストールされる再構成プログラムの参照(図1Bの119Bのように)、または再構成プログラム(RP)ストアに記憶される再構成プログラム(図1Cの119Cのように)、およびインラインの再構成プログラム(RP)の参照を記述する。再構成プログラム(RP)ストアは、同じ意味で基本再構成プログラム(PRP)ストアとも称される。図1Hのフォーマットは、複数の基本データエレメントに対して再構成プログラムを実行することによって導出を指定する規定を有し、導出エレメントおよび基本データエレメントの各々のサイズは独立して指定可能である。図1Hのフォーマットはさらに、基本データストア内に配置されるのではなく蒸留データ内にインラインに配置されている基本データエレメントを指定する規定を有する。これは、エレメントのタイプが、蒸留データ内にインラインに配置されている基本データエレメントであることを指定するオペコード符号化7によって指定される。蒸留データは、このフォーマットを用いてデータストレージシステムに記憶される。このフォーマットのデータは、当該データのさまざまなコンポーネントがフェッチされた後に再構成され得るように、データ取出部111によって消費される。
図1Iから図1Pは、図1Aから図1Gに示すデータ削減のための方法および装置の変形についての入力データの無損失削減形態への概念的な変換を示す。図1Iは、どのように入力データのストリームが候補エレメントに因子分解され、続いて、候補エレメントが基本データエレメントまたは導出エレメントと見なされるかを示す。最後に、データは無損失削減形態に変換される。図1Iから図1Nは、さまざま実施形態についての無損失削減形態の変形を示す。
図1Iから図1Jは、図1Aに示す方法および装置によって生成されるデータの無損失削減形態の例を示す。図1Iの無損失削減形態はコンテンツ連想マッパーを含んでおり、データの連続的なさらなる取込み、および既存の基本データエレメントに対するこのデータの削減を可能にする形態である。一方、図1Jの無損失削減形態はコンテンツ連想マッパーをもはや保持しておらず、より小さいフットプリントのデータがもたらされる。図1Kおよび図1Lは、図1Cに示す方法および装置によって生成されるデータの無損失削減形態の例を示す。図1Kの無損失削減形態はコンテンツ連想マッパーを含んでおり、データの連続的なさらなる取込み、ならびに既存の基本データエレメントおよび基本再構成プログラムに対するこのデータの削減を可能にする形態である。一方、図1Lの無損失削減形態はコンテンツ連想マッパーをもはや保持しておらず、より小さいフットプリントのデータがもたらされる。
図1Mおよび図1Nは、図1Fに示す方法および装置によって生成されるデータの無損失削減形態の例を示しており、基本データエレメントおよび基本再構成プログラムは蒸留データ内にインラインに配置されている。図1Mの無損失削減形態はコンテンツ連想マッパーを含んでおり、データの連続的なさらなる取込み、ならびに既存の基本データエレメントおよび基本再構成プログラムに対するこのデータの削減を可能にする形態である。一方、図1Nの無損失削減形態はコンテンツ連想マッパーをもはや保持しておらず、より小さいフットプリントのデータがもたらされる。図1Oおよび図1Pは、図1Gに示す方法および装置によって生成されるデータの無損失削減形態の例を示しており、基本データエレメントおよび基本再構成プログラムは蒸留データ内にインラインに、または基本データシーブ内に配置され得る。図1Oの無損失削減形態はコンテンツ連想マッパーを含んでおり、データの連続的なさらなる取込み、ならびに既存の基本データエレメントおよび基本再構成プログラムに対するこのデータの削減を可能にする形態である。一方、図1Pの無損失削減形態はコンテンツ連想マッパーをもはや保持しておらず、より小さいフットプリントのデータがもたらされる。
図1Aから図1Pに示す実施形態の変形では、削減データのさまざまなコンポーネントは、(ハフマン符号化およびLempel Ziv法といった)先行技術において公知の技術を用いてさらに削減または圧縮され、この圧縮形態で記憶されてもよい。これらのコンポーネントは続いて、それらがデータ蒸留装置での使用に必要となったときに圧縮され得る。これには、データのフットプリント全体をさらに削減するという利点がある。
図2は、本明細書に記載のいくつかの実施形態に従う、入力データをエレメントに因子分解し、これらエレメントを基本データストア内に存在する基本データエレメントから導出することによるデータ削減のためのプロセスを示す。入力データが到着すると、当該データはパースされ、一連の候補エレメントに因子分解されるか分割され得る(オペレーション202)。次の候補エレメントが入力から消費され(オペレーション204)、基本データストアのコンテンツ連想ルックアップが候補エレメントのコンテンツに基づいて実行されて、候補エレメントをそこから導出可能ないずれかの好適なエレメントがあるか否かが調べられる(オペレーション206)。基本データストアがそのようなエレメントを全く見つけなかった場合(オペレーション208の「No」のブランチ)、候補エレメントが割当てられて新たな基本データエレメントとしてシーブに入力され、候補エレメントのために作成された蒸留データへのエントリが、新たに作成された基本データエレメントの参照となる(オペレーション216)。基本データストアのコンテンツ連想ルックアップが、候補がそこから導出される可能性がある1つ以上の好適なエレメントをもたらす場合(オペレーション208の「Yes」のブランチ)、取出された基本データエレメントに対して分析および計算が行われて、当該エレメントから候補エレメントが導出される。なお、いくつかの実施形態では、まず好適な基本データエレメントのためのメタデータのみがフェッチされてこのメタデータに対して分析が行われ、この好適な基本データエレメントは有用であると見なされた場合にのみ続いてフェッチされる(これらの実施形態では、基本データエレメントのためのメタデータが基本データエレメントのコンテンツについての何らかの情報を提供することによって、システムがメタデータに基づいて迅速に一致を排除するか導出可能性を評価することができる)。他の実施形態では、基本データストアは基本データエレメントを直接(すなわち、基本データエレメントを取出す前にまずメタデータを取出してメタデータを分析することなく)取出すので、分析および計算は取出された基本データエレメントに対して行なわれる。
候補がこれらエレメントのうちのいずれかの重複であるか否かを調べるための第1の確認が行なわれる(オペレーション210)。この確認は任意の好適なハッシング技術を用いて迅速化され得る。候補が基本データストアから取出された基本データエレメントと同一である場合(オペレーション210の「Yes」のブランチ)、候補エレメントのために作成された蒸留データへのエントリは、この基本データエレメントの参照と、このエントリが基本データエレメントであるという指示とに置換される(オペレーション220)。重複が見つからない場合(オペレーション210の「No」のブランチ)、候補エレメントに基づいて基本データストアから取出されたエントリが、候補エレメントをそこから導出できる可能性があるエントリと見なされる。以下は、基本データストアの重要な、新規の、非自明な特徴である:基本データストア内に重複が見つからない場合、基本データストアは基本データエレメントを戻すことができ、基本データエレメントは、候補エレメントと同一ではないが、1つ以上の変換を基本データエレメントに適用することによって候補エレメントがそこから導出される可能性があるエレメントである。プロセスは次に分析および計算を行って、最適な基本データエレメントまたは一組の好適な基本データエレメントから候補エレメントを導出し得る(オペレーション212)。いくつかの実施形態では、導出は、候補エレメントを、1つ以上の基本データエレメントに対して実行した変換の結果として表現し、そのような変換は再構成プログラムと総称される。各導出では、その固有のプログラムを構築する必要があり得る。再構成プログラムを構築するのに加えて、プロセスはさらに、ストレージリソースのレベルを一般的に示す距離メトリック、および/または、候補エレメントの再公式化を記憶するために、かつ再公式化から候補エレメントを再構成するために必要な計算リソースを計算し得る。いくつかの実施形態では、導出エレメントのフットプリントは、基本データエレメントからの候補の距離の測定として用いられ、具体的には、距離メトリックは、再構成プログラムのサイズに、導出に伴う1つ以上の基本データエレメントの参照のサイズのを加えた合計と定義され得る。最小距離を有する導出が選択され得る。この導出のための距離は距離閾値と比較され(オペレーション214)、距離が距離閾値を超えない場合、導出が受付けられる(オペレーション214の「Yes」のブランチ)。データ削減をもたらすために、距離閾値は常に候補エレメントのサイズ未満でなければならない。たとえば、距離閾値は候補エレメントのサイズの50%に設定されてもよく、これによって、導出物は、そのフットプリントが候補エレメントのフットプリントの半分以下である場合にのみ受付けられることになり、これによって、好適な導出が存在する候補エレメント毎に2倍以上の削減が確実となる。距離閾値は、ユーザが指定した入力に基づく、またはシステムによって選択される、予め定められた割合または分率であってもよい。距離閾値は、システムの静的または動的パラメータに基づいてシステムによって決定されてもよい。導出が受付けられると、候補エレメントが再公式化され、再構成プログラムと1つ以上の基本データエレメントの参照との組合せで置換される。候補エレメントのために作成された蒸留データへのエントリは導出で置換され、すなわち、それは、再構成プログラムに、導出に伴う1つ以上の基本データエレメントの参照を加えたものとともに、これは導出エレメントであるという指示に置換される(オペレーション218)。一方、最良導出のための距離が距離閾値を超えた場合(オペレーション214の「No」のブランチ)、可能性のある導出物はいずれも受付けられない。その場合、候補エレメントが割当てられ、新たな基本データエレメントとしてシーブに入力され、候補エレメントのために作成された蒸留データへのエントリは、これが基本データエレメントであるという指示とともに、新たに作成された基本データエレメントの参照となる(オペレーション216)。
最後に、プロセスは追加の候補エレメントがあるか否かを確認し(オペレーション222)、追加の候補エレメントがある場合(オペレーション222の「Yes」のブランチ)はオペレーション204に戻り、追加の候補エレメントがない場合(オペレーション222の「No」のブランチ)はプロセスを終了し得る。
図2のオペレーション202を実行するために、すなわち受信データをパースしてそれを候補エレメントに分割するために、さまざまな方法が利用され得る。因子分解アルゴリズムは、バイトストリーム内のどこにブレークを挿入してストリームを候補エレメントにスライスアップするかを決定する必要がある。可能性のある技術として、ストリームを固定サイズのブロック(4096バイトのページなど)に分割すること、または、フィンガープリンティングの方法(ランダムな素数多項式を入力ストリームの部分文字列に適用する技術など)を適用して、エレメントの境界となる好適なフィンガープリントのデータストリーム内の位置を特定すること(この技術によって可変サイズのエレメントを得ることができる)、または、入力をパースしてヘッダもしくは何らかの予め宣言された構造を検出し、この構造に基づいてエレメントの輪郭を描くことがある(がこれらに限定されない)。入力はパースされて、スキーマによって宣言される一定の構造が検出され得る。入力はパースされて、データ内の予め宣言されたパターン、文法、または正規表現の存在が検出され得る。データ内の連続する2つのブレークが識別されると、候補エレメントが作成され(候補エレメントは連続する2つのブレーク同士の間にあるデータである)、コンテンツ連想ルックアップのために基本データストアに提示される。可変サイズのエレメントが作成されると、候補エレメントの長さを指定し、候補エレメントとともにメタデータとして伝送する必要がある。
基本データストアの1つの重要な機能は、基本データストアに提示される候補エレメントに基づいてコンテンツ連想ルックアップを提供すること、および、導出を指定するのに必要な最小ストレージで候補エレメントをそこから導出可能な1つのまたは小さい一組の基本データエレメントを迅速に提供することである。これは、大型データセットを前提とすると困難な問題である。テラバイトのデータを前提として、キロバイトサイズのエレメントであっても、検索して選択する何十億ものエレメントが存在する。この問題はデータセットが大きくなるとより深刻になる。好適な技術を用いてエレメントを組織化して順序付けした後、エレメントのその組織内の類似および導出可能性を検出して、小さい一組の好適な基本データエレメントを迅速に提供可能であることが重要になる。
シーブへのエントリは各エレメント(すなわち基本データエレメント)の値に基づいて順序付けられ得るので、すべてのエントリは値によって昇順または降順に配置され得る。あるいは、エントリは、エレメント内の一定のフィールドの値に基づく主軸に沿って、次にエレメントの残りのコンテンツを用いる副軸に沿って順序付けられてもよい。この文脈において、フィールドは、エレメントのコンテンツからの一組の隣接バイトである。フィールドは、フィンガープリントの場所がフィールドの位置を特定するようにエレメントのコンテンツにフィンガープリンティングの方法を適用することによって、位置が特定され得る。あるいは、エレメントのコンテンツ内部の一定の固定オフセットを選択してフィールドの位置を特定してもよい。他の方法を用いてフィールドの位置を特定してもよく、当該方法として、エレメントをパースして一定の宣言された構造を検出し、その構造内のフィールドの位置を特定することをがある。
さらに別の形態の組織では、エレメント内の一定のフィールドまたはフィールド同士の組合せを次元と見なすことができるので、これらの次元の連結、およびそれに続く各エレメントの残りのコンテンツを用いてデータエレメントを順序付けて組織化してもよい。一般的に、フィールドおよび次元同士の間の対応関係またはマッピングは任意に複雑であり得る。たとえば、いくつかの実施形態では、1つのフィールドのみが1つの次元のみにマップし得る。他の実施形態では、たとえばF1、F2、およびF3などの複数のフィールドの組合せが1つの次元にマップし得る。フィールドの組合せは、2つのフィールド同士を連結することによって、またはそれらにその他の好適な関数を適用することによって達成され得る。重要な要件は、フィールドの配置、次元、およびエレメントを組織化するために用いられるエレメントの残りのコンテンツが、すべての基本データエレメントをそれらのコンテンツによって固有に識別してシーブ内に順序付けることが可能でなければならないことである。
いくつかの実施形態では、エレメントのコンテンツは以下のような表現:Element = Head .* sig1 .* sig2 .* … sigI .*… sigN .* Tailとして表わすことができ、式中、「Head」はエレメントの先頭バイトを含むバイトのシーケンスであり、「Tail」はエレメントの終了バイトを含むバイトのシーケンスであり、「sig1」、「sig2」、「sigI」、および「sigN」は、エレメントを特徴付けるエレメントのコンテンツの本体内の一定長さのバイトのさまざまな署名またはパターンまたは正規表現またはシーケンスである。さまざまな署名同士の間の「.*」という表現はワイルドカード表現であり、すなわち、これは、「.*」という表現に続く署名以外の任意の値の任意の数の中間バイトを許可する正規表現の表記法である。いくつかの実施形態では、Nタプル(sig1, sig2, … sigI,… sigN)がエレメントの骨格データ構造またはスケルトンと称され、エレメントの減少した本質的なサブセットまたは本質と見なすことができる。他の実施形態では、(N+2)タプル(Head, sig1, sig2, … sigI,… sigN, Tail)がエレメントの骨格データ構造またはスケルトンと称される。あるいは、HeadまたはTailを残りの署名とともに含むN+1を使用してもよい。
フィンガープリンティングの方法がエレメントのコンテンツに適用されて、エレメントのコンテンツ内の骨格データ構造のさまざまなコンポーネント(または署名)の場所が判定され得る。あるいは、エレメントのコンテンツ内部の一定の固定オフセットを選択してコンポーネントの位置を特定してもよい。他の方法を用いて骨格データ構造のコンポーネントの位置を特定してもよく、当該方法として、エレメントをパースして一定の宣言された構造を検出し、その構造内のコンポーネントの位置を特定することがある。基本データエレメントは、それらの骨格データ構造に基づいてシーブ内に順序付けられ得る。言い換えると、エレメントの骨格データ構造のさまざまなコンポーネントを次元と見なすことができるため、これらの次元同士の連結、およびそれに続く各エレメントの残りのコンテンツを用いて、基本データエレメントをシーブ内に順序付けて組織化してもよい。
いくつかの実施形態では入力データが候補エレメントに因子分解され、各候補エレメントのサイズは、グローバルデータセット内のすべてのそのようなエレメントにアクセスするのに必要な参照のサイズより実質的に大きい。そのようなデータチャンクに分割される(かつコンテンツ連想的にアクセスされる)データに関する1つの観察は、実際のデータは、データチャンクが指定可能なすべての可能性のある値に対して非常に疎らであることである。たとえば、1ゼタバイトのデータセットを考えてみる。このデータセット内の全バイトをアドレス指定するには約70ビットが必要である。128バイト(1024ビット)のチャンクサイズでは、1ゼタバイトのデータセット内に約263個のチャンクが存在するので、これらすべてのチャンクをアドレス指定するには63ビット(8バイト未満)が必要である。なお、1024ビットのエレメントまたはチャンクは21024個の可能性のある値のうちの1つを有し得るが、データセット内の所与のチャンクの実際値の数はせいぜい263個(すべてのチャンクが別個である場合)である。これは、実際のデータは、エレメントのコンテンツが達し得るまたは名付け得る値の数に対して非常に疎らであることを示す。これによって、効率的なコンテンツベースのルックアップを可能にし、新たなエレメントをツリー構造に効率的に追加することを可能にし、かつ、ツリー構造自体に必要な増分ストレージの面でコスト効率の高い態様で非常に疎らなデータを組織化するのに適しているツリー構造の使用が可能になる。1ゼタバイトのデータセット内には別個のチャンクが263個しかないため、それら同士を区別するのに63個の区別ビットの情報しか必要でないが、関連の区別ビットはエレメントの1024ビットにわたって分散し、エレメント毎に異なる場所で起こり得る。したがって、すべてのエレメント同士を完全に区別するためには、コンテンツから固定の63ビットを調べるのみでは不十分であり、むしろ、エレメントのコンテンツ全体が、エレメントをソートするのに、特に、データセット内のすべてのエレメントへの真のコンテンツ連想アクセスを提供するソリューションに関与する必要がある。Data Distillation(商標)フレームワークでは、データを順序付けて組織化するために用いられるフレームワーク内の導出可能性を検出可能であることが望ましい。上記のすべてを念頭に置いて、コンテンツに基づくツリー構造(より多くのコンテンツが調べられるにつれてデータを漸進的に区別する)は、因子分解されたデータセット内のすべてのエレメントを順序付けて区別するのに好適な組織である。そのような構造は、導出可能エレメントのグループ分け、または導出可能性の同様のプロパティを有するエレメントのグループ分けとして取扱われ得るサブツリーの多数の中間レベルを提供する。そのような構造は、各サブツリーを特徴付けるメタデータで、またはデータの各エレメントを特徴付けるメタデータで階層的に拡張され得る。そのような構造は、データ内の実際値の密度、近接、および分布を含む、当該構造が含むデータ全体の成分を効果的に通信し得る。
いくつかの実施形態では、基本データエレメントがツリー形態でシーブ内に組織化される。各基本データエレメントは、当該基本データエレメントのコンテンツ全体から構築される別個の「名前」を有する。この名前は、基本データエレメントを固有に識別するのに、かつそれをツリー内のすべての他のエレメントに対して区別するのに十分であるように設計される。基本データエレメントのコンテンツから名前を構築可能な方法はいくつかある。名前は単に基本データエレメントの全バイトで構成されてもよく、これらのバイトは、それらが基本データエレメント内に存在しているのと同じ順序で名前内に現われる。別の実施形態では、次元と称される一定のフィールドまたはフィールド同士の組合せ(フィールドおよび次元は上記の通り)を用いて名前の先頭バイトが形成され、基本データエレメントの残りのコンテンツは残りの名前を形成しているので、基本データエレメントのコンテンツ全体がエレメントの完全な固有の名前を作成するのに関与している。さらに別の実施形態では、エレメントの骨格データ構造のフィールドが次元として選択され(フィールドおよび次元は上記の通り)、当該フィールドを用いて名前の先頭バイトが形成され、基本データエレメントの残りのコンテンツは残りの名前を形成しているので、基本データエレメントのコンテンツ全体がエレメントの完全な固有の名前を作成するのに関与している。
各基本データエレメントの名前を用いて、基本データエレメントが順序付られてツリーに組織化される。ほとんどの実用的なデータセット、さらにはサイズが非常に大きい(たとえば、4KBサイズの258個のエレメントで構成される1ゼタバイトのデータセットなど)データセットについては、名前のバイトの小さいサブセットが基本データエレメントの大半をソートしてツリー内に順序付ける役割を果たすことが多いと予想される。
図3A、図3B、図3C、図3Dおよび図3Eは、本明細書に記載のいくつかの実施形態に従う、基本データエレメントをそれらの名前に基づいて組織化するために用いられ得るさまざまなデータ組織システムを示す。
図3Aは、基本データエレメントが各基本データエレメントの名前からの連続バイトの値に基づいて漸進的に小さくなるグループに組織化されるトライデータ構造を示す。図3Aに示す例では、各基本データエレメントは、当該基本データエレメントのコンテンツ全体から構築される別個の名前を有しており、この名前は単に基本データエレメントの全バイトで構成されており、これらのバイトは、それらが基本データエレメント内に存在しているのと同じ順序で名前内に現われる。トライのルートノードはすべての基本データエレメントを表わす。トライの他のノードは基本データエレメントのサブセットまたはグループを表わす。トライのルートノードまたは第1レベル(図3Aにおいてルート302とラベル付けされている)で始まり、基本データエレメントはそれらの名前の最大有効バイト(図3AにおいてN1とラベル付けされている)の値に基づいてサブツリーにグループ分けされる。それらの名前の最大有効バイトにおいて同じ値を有するすべての基本データエレメントが共通のサブツリーに互いにグループ分けされ、その値が示すリンクが、ルートノードからそのサブツリーを表わすノードに存在する。たとえば、図3Aでは、ノード303は、各自の名前のそれらの最大有効バイトN1内に同じ値2を各々が有する基本データエレメントのサブツリーまたはグループを表わす。図3Aでは、このグループは基本データエレメント305,306および307を含む。
トライの第2レベルにおいて、各基本データエレメントの名前の2番目の最大有効バイトを用いて、基本データエレメントの各グループがより小さいサブグループにさらに分割される。たとえば、図3Aでは、ノード303によって表わされる基本データエレメントのグループが、2番目の最大有効バイトN2を用いてサブグループにさらに細分割される。ノード304は、それらの最大有効バイトN1内に値2を有し、かつ各自の名前のそれらの第2の最大有効バイトN2内に値1を有する基本データエレメントのサブグループを表わす。このサブグループは基本データエレメント305および306を含む。
細分割のプロセスは、親ノードから各子ノードのリンクを作成するトライの各レベルで継続し、子ノードは親ノードによって表わされる基本データエレメントのサブセットを表わす。このプロセスは、トライのリーフに個別の基本データエレメントしか存在しなくなるまで継続する。リーフノードはリーフのグループを表わす。図3Aでは、ノード304がリーフノードである。ノード304によって表わされる基本データエレメントのグループは、基本データエレメント305および306を含む。図3Aでは、このグループは、個別の基本データエレメント305および306に、それらの名前の3番目の最大有効バイトを用いてさらに細分割される。N3=3の値は基本データエレメント305に至り、値N3=5は基本データエレメント306に至る。この例では、それらの完全な名前のうち、基本データエレメント305および306を完全に識別するのに3つの有効バイトのみで十分である。同様に、基本データエレメント307を識別するのに名前からの2つの有効バイトのみで十分である。
この例は、基本データエレメントの所与の混合において、名前のバイトのサブセットのみがツリー内の基本データエレメントを識別する役割を果たし、固有の基本データエレメントに到達するのに名前全体は不要であることを示す。また、基本データエレメントまたは基本データエレメントのグループは各々が、それらを固有に識別できるようにするために異なる数の有効バイトを必要とし得る。ゆえに、ルートノードから基本データエレメントまでのトライの深さは基本データエレメント毎に異なり得る。さらに、トライにおいて、各ノードは下位のサブツリーに下降する異なる数のリンクを有し得る。
そのようなトライでは、各ノードは、このノードにどのように到達するかを指定するバイトのシーケンスで構成される名前を有する。たとえば、ノード304についての名前は「21」である。また、ツリー内のエレメントの現在の分布におけるエレメントを固有に識別するエレメントの名前からのバイトのサブセットは、ルートノードからこの基本データエレメントまでの「パス」である。たとえば、図3Aでは、値213を有するパス301が基本データエレメント305を識別する。
ここに記載するトライ構造は、ツリー内のエレメントの名前のすべての区別バイトが1レベルの深さをトライに追加するため、深いツリー(すなわち多くのレベルを有するツリー)を作成し得る。
なお、図3A〜図3Eのツリーデータ構造は左から右に描かれている。したがって、図の左側から図の右側に移動するにつれて、ツリーの高レベルからツリーの低レベルに移動する。所与のノードの下位に(すなわち図3A〜図3Eの所与のノードの右側に向かって)、名前からの区別バイトの一定値によって選択される任意の子について、その子の下位のサブツリーに存在しているすべてのエレメントは、当該エレメントの名前内のその対応するバイト内に同じ値を有する。
次に、入力候補エレメントを前提として、トライ構造のコンテンツ連想ルックアップのための方法を説明する。この方法は、候補エレメントの名前を用いるトライ構造のナビゲーションを伴い、その後、分析およびスクリーニングが続いて行なわれて、コンテンツ連想ルックアップ全体の結果として何を戻すべきかが決定される。言い換えると、トライナビゲーションプロセスは第1の結果を戻し、次に、その結果に対して分析およびスクリーニングが行われて、コンテンツ連想ルックアップ全体の結果が判定される。
トライナビゲーションプロセスを開始するために、候補エレメントの名前から最大有効バイトの値を用いて、ルートノードから、それらの名前の最大有効バイト内にその同じ値を有する基本データエレメントのサブツリーを表わす後続ノードまでのリンク(その値によって示される)が選択される。このノードから進んで、候補エレメントの名前からの第2のバイトを調べ、その値が示すリンクを選択することによって、1レベル深く(または低く)トライの中へと進み、それらの名前からの少なくとも2つの有効バイトにおいて候補エレメントと共有するようになった基本データエレメントのより小さいサブグループが選択される。このプロセスは、1つの基本データエレメントに到達するまで、または候補エレメントの名前からの対応するバイトの値と一致するリンクがなくなるまで継続される。これらの条件のいずれか一方の下で、ツリーナビゲーションプロセスが終了する。1つの基本データエレメントに到達すると、それはトライナビゲーションプロセスの結果として戻され得る。そうでない場合、1つの代替案は「欠落」を報告することである。別の代替案は、ナビゲーションが終了したノードをルートとするサブツリー内にある複数の基本データエレメントを戻すことである。
トライナビゲーションプロセスが終了すると、他の基準および要件を用いてトライナビゲーションプロセスの結果が分析されスクリーニングされて、コンテンツ連想ルックアップの結果として何を戻すべきかが決定され得る。たとえば、1つの基本データエレメントまたは複数の基本データエレメントがトライナビゲーションプロセスによって戻された場合は、それらは、コンテンツ連想ルックアップの結果として戻される資格を得る前に、候補エレメントの名前と一定の最小数のバイトを共有しているという付加的な要件があり得る(そうでない場合、コンテンツ連想ルックアップは欠落を戻す)。スクリーニング要件の別の例は、トライナビゲーションプロセスが、複数の基本データエレメント(トライナビゲーションが終了したノードをルートとする)がトライナビゲーションプロセスの結果として戻されるように、1つの基本データエレメントに到達することなく終了した場合は、これら複数の基本データエレメントは、これらエレメントの数が一定の指定された制限未満である場合にのみ、コンテンツ連想ルックアップ全体の結果として戻される資格を得るようなものであってもよい(そうでない場合、コンテンツ連想ルックアップは欠落を戻す)。複数の要件同士の組合せを使用して、コンテンツ連想ルックアップの結果を判定してもよい。このように、ルックアッププロセスは、「欠落」を報告するかもしくは1つの基本データエレメントを戻し、または1つの基本データエレメントでない場合は、候補エレメントを導出するための良好な開始点である可能性が高い一組の基本データエレメントを戻す。
以下に記載する図3B〜図3Eは、図3Aに示すツリーデータ構造の変形および変更に関する。これらの変形は、図3Aに示すトライデータ構造に対する向上および利点を提供するが、データ構造をナビゲートするためのプロセスは図3Aを参照して上記したプロセスと同様である。すなわち、図3B〜図3Eに示すツリーデータ構造のためのツリーナビゲーションが終了した後、続いて分析およびスクリーニングが行われてコンテンツ連想ルックアップ全体の結果が判定され、プロセス全体は、欠落、1つの基本データエレメント、または候補エレメントを導出するための良好な開始点である可能性が高い一組の基本データエレメントを戻す。
図3Bは、基本データエレメントをそれらの名前に基づいて組織化するために用いられ得る別のデータ組織システムを示す。図3Bに示す例では、各基本データエレメントは、当該基本データエレメントのコンテンツ全体から構築される別個の名前を有しており、この名前は単に当該基本データエレメントの全バイトで構成されており、これらのバイトは、それらが基本データエレメント内に存在しているのと同じ順序で名前内に現われる。図3Bは、1つのリンクが下位のサブツリー内の基本データエレメントの名前から(図3Aのトライに用いられる単一のバイトではなく)複数のバイトを使用して再分割または次のレベルのグループ分けを作成する、よりコンパクトな構造を示す。親ノードから子ノードへのリンクは、ここでは複数のバイトによって示されている。さらに、任意の所与の親ノードから、各リンクは、そのリンクと関連付けられているサブツリーを区別して識別するために異なる数のバイトを使用し得る。たとえば、図3Bでは、ルートノードからノード308のリンクは名前から4バイト(N1234=9845)を用いることによって区別されているが、ルートノードからノード309へのリンクは名前から3バイト(N123=347)を用いることによって区別されている。
なお、(所与の候補エレメントからのコンテンツを用いる)ツリーナビゲーションの際、ツリー内のいずれかの親ノードに到着すると、ツリーナビゲーションプロセスは、候補エレメントの名前から十分なバイトを調べてどのリンクを選択すべきかを明確に決定することを保証する必要がある。所与のリンクを選択するために、候補の名前からのバイトは、移行を示す全バイトをその特定のリンクと一致させなければならない。ここでも、そのようなツリーにおいて、ツリーの各ノードは、このノードにどのように到達すべきかを指定するバイトのシーケンスで構成される名前を有する。たとえば、ノード309の名前は、これが基本データエレメント(たとえばエレメント311および312)のグループを表わしているので「347」であり得、それらの名前の先頭の3バイトは「347」である。名前の先頭の3バイトが347である候補エレメントを用いるツリーをルックアップすると、このデータパターンによって、ツリーナビゲーションプロセスは図3Bに示すようにノード309に到達する。ここでも、ツリー内のエレメントの現在の混合内のエレメントを固有に識別するエレメントの名前からのバイトのサブセットは、ルートノードからこの基本データエレメントへの「パス」である。たとえば、図3Bでは、バイトのシーケンス3475は基本データエレメント312に至り、その例に示す基本データエレメントの混合内の基本データエレメント312を固有に識別する。
多様で疎らなデータについて、図3Bのツリー構造は、図3Aのトライ構造よりも柔軟でコンパクトであることが判明している。
図3Cは、基本データエレメントをそれらの名前に基づいて組織化するために用いられ得る別のデータ組織システムを示す。図3Cに示す例では、各基本データエレメントは、当該基本データエレメントのコンテンツ全体から構築される別個の名前を有しており、この名前は単に当該基本データエレメントの全バイトで構成されており、これらのバイトは、それらが基本データエレメント内に存在しているのと同じ順序で名前内に現われる。図3Cは、(必要および/または有用であれば)正規表現を使用してさまざまなリンクに至る基本データエレメントの名前からの値を指定することによってツリーおよびグループエレメントをサブツリーにさらにコンパクト化する(図3Bに記載の組織に対する)別の変形を示す。正規表現の使用によって、同じサブツリー下の対応するバイト上の同一表現を共有するエレメントの効率的なグループ分けが可能になり、これに続いて、当該サブツリー内の別個の基本データエレメントのより局所的な曖昧性除去を行なうことができる。また、正規表現の使用によって、エレメントを下位の任意のサブツリーにマップするために必要なバイトの値を記述する、よりコンパクトな方法が可能になる。これによって、ツリーを指定するのに必要なバイトの数がさらに減少する。たとえば、正規表現318は28個の連続した「F」のパターンを指定しており、ツリーナビゲーション時にこのリンクをたどると、エレメント314に到達することができ、これは正規表現318に従って28個の連続した「F」を有するパターン320を含む。同様に、エレメント316に到達するパスは、16個の連続した「0」を有するパターンを指定する正規表現を使用するリンクまたはブランチを有する。そのようなツリーについては、ツリーナビゲーションプロセスは、どのリンクを選択すべきかを決定するためにそのような正規表現を検出して実行する必要がある。
図3Dは、基本データエレメントをそれらの名前に基づいて組織化するために用いられ得る別のデータ組織システムを示す。図3Dに示す例では、各基本データエレメントは、当該基本データエレメントのコンテンツ全体から構築される別個の名前を有する。フィンガープリンティングの方法が各エレメントに適用されて、選択されたフィンガープリントを評価するコンテンツを含むフィールドの場所が識別される。エレメント内に見つかった第1のフィンガープリントの場所におけるフィールドは次元として取扱われ、このフィールドからの一定数のバイト(たとえばxバイトであり、ここでxはエレメント内のバイトの数より実質的に小さい)が抽出されてエレメントの名前の先頭バイトとして用いられ、名前の残りのバイトは、基本データエレメントの残りのバイトで構成され、それらが基本データエレメント内に存在しているのと同じ周期的順序で現われる。この名前を用いて基本データエレメントがツリーに組織化される。この例では、エレメント内にフィンガープリントが検出されない場合、名前は、単にエレメントの全バイトをそれらがエレメント内に存在している順序で用いることによって公式化される。別個のサブツリー(フィンガープリントが見つからなかったという指示によって示される)が、すべてのそのようなエレメントをそれらの名前に基づいて保持して組織化する。
たとえば、図3Dに示すように、フィンガープリンティング技術がエレメント338(tバイトのデータ、すなわちB123…Btを含む)に適用されて、「次元1」として選択されるフィールドを識別するバイトBi+1におけるフィンガープリント場所「フィンガープリント1」が得られ得る。次に、「フィンガープリント1」によって識別された場所からのxバイトを抽出して「次元1」が形成され得、これらxバイトは図3Dの各エレメントの名前の先頭バイトN12…Nxとして用いられ得る。続いて、エレメント338からの残りのt−xバイト(Bi+x+1で始まり、後でB123…Biにラップアラウンドする)が連結され、名前の残りのバイトNx+1x+2…Ntとして用いられる。エレメント内にフィンガープリントが見つからない場合、名前N12……Ntは単にエレメント338からのB123…Btである。基本データエレメントは、それらの名前を用いてソートされてツリーに組織化される。たとえば、基本データエレメント(PDE)330は、パス13654…06を用いてツリーの2つのレベルを横断した後に識別されて到達され、バイト13654…0は次元1からのバイトであるN12……Nxである。(フィンガープリントが見つからなかったという指示によって示される)リンク334に沿ったルートから到達されるノード335における別個のサブツリーが、選択されたフィンガープリントを評価しなかったコンテンツを有するすべての基本データエレメントを保持して組織化する。ゆえに、この組織では、たとえばリンク336などのいくつかのリンクは、エレメント内に現われるのと同じ順序で現われるエレメントのバイトで構成される名前を用いてエレメントを組織化し得るが、たとえばリンク340などの他のリンクは、フィンガープリントを用いて公式化される名前を用いてエレメントを組織化し得る。
候補エレメントを受信すると、プロセスは上記と同一の技術を適用して候補エレメントの名前を判定し、この名前を用いてコンテンツ連想ルックアップのためにツリーをナビゲートする。ゆえに、同一の一貫した処理が基本データエレメントに(それらがツリーにインストールされると)、および候補エレメントに(それらをパーサおよび因子分解部から受信すると)適用されてそれらの名前が作成される。ツリーナビゲーションプロセスは、候補エレメントの名前を用いてツリーをナビゲートする。本実施形態では、候補エレメント内にフィンガープリントが見つからない場合、ツリーナビゲーションプロセスは、フィンガープリントを評価しなかったコンテンツを有する基本データエレメントを組織化して含んでいるサブツリーをたどってナビゲートする。
図3Eは、基本データエレメントをそれらの名前に基づいて組織化するために用いられ得る別のデータ組織システムを示す。図3Eに示す例では、各基本データエレメントは、当該基本データエレメントのコンテンツ全体から構築される別個の名前を有する。フィンガープリンティングの方法が各エレメントに適用されて、2つのフィンガープリントのいずれか一方を評価するコンテンツを含むフィールドの場所が識別される。エレメント内の第1のフィンガープリント(図3Eのフィンガープリント1)の第1の発生の場所にあるフィールドは第1の次元(次元1)として取扱われ、第2のフィンガープリント(図3Eのフィンガープリント2)の第1の発生の場所にあるフィールドは第2の次元(次元2)として取扱われる。フィンガープリンティングを用いてエレメント上の2つの別個のフィンガープリントを探すと、4つの可能なシナリオにつながる:(1)両フィンガープリントがエレメント内に見つかる、(2)フィンガープリント1は見つかるがフィンガープリント2は見つからない、(3)フィンガープリント2は見つかるがフィンガープリント1は見つからない、および(4)フィンガープリントがまったく見つからない。基本データエレメントは、上記シナリオの各々に対応する4つのサブツリーにグループ分けされ得る。図3Eでは、「FP1」はフィンガープリント1の存在を示し、「FP2」はフィンガープリント2の存在を示し、「〜FP1」はフィンガープリント1の欠如を示し、「〜FP2」はフィンガープリント2の欠如を示す。
4つのシナリオの各々について、エレメントの名前は以下のように作成される:(1)両フィンガープリントが見つかる場合、「フィンガープリント1」によって識別される場所からのxバイトが抽出されて「次元1」が形成され得、「フィンガープリント2」によって識別される場所からのyバイトが抽出されて「次元2」が形成され得、これらx+yバイトが、図3Eにおけるそのような各エレメントの名前の先頭バイトN12…Nx+yとして用いられ得る。続いて、エレメント348からの残りのt−(x+y)バイトが周期的に(第1の次元からのバイトの後に開始して)抽出され、連結されて名前の残りのバイトNx+y+1x+y+2…Ntとして用いられる。(2)フィンガープリント1は見つかるがフィンガープリント2は見つからない場合、「フィンガープリント1」によって識別される場所からのxバイトが抽出されて先頭次元が形成され得、これらxバイトはそのような各エレメントの名前の先頭バイトN12…Nxとして用いられ得る。続いて、エレメント348からの残りのt−xバイト(Bi+x+1から開始し、後でB123…Biにラップアラウンドする)が連結され、名前の残りのバイトNx+1x+2…Ntとして用いられる。(3)フィンガープリント2は見つかるがフィンガープリント1は見つからない場合、「フィンガープリント2」によって識別される場所からのyバイトが抽出されて先頭次元が形成され得、これらyバイトは、そのような各エレメントの名前の先頭バイトN12…Nyとして用いられ得る。続いて、エレメント348からの残りのt−yバイト(Bj+y+1から開始し、後でB123…Bjにラップアラウンドする)が連結され、名前の残りのバイトNy+1y+2…Ntとして用いられる。(4)エレメント内にフィンガープリントがまったく見つからない場合、名前N12……Ntは単にエレメント348からのB123…Btである。ゆえに、これら4つのシナリオ毎に別個のサブツリーが存在する。エレメント348のための名前(N123…Nt)を抽出するためのプロセスは、以下のように4つのシナリオについて要約することができる:
(1) フィンガープリント1およびフィンガープリント2の両方が見つかる:
1−Nx←Bi+1−Bi+x=次元1からのxバイト
x+1−Nx+y←Bj+1−Bj+y=次元2からのyバイト
x+y+1…Nt=(tバイトのサイズの候補エレメントからの)残りのバイト=Bi+x+1i+x+2i+x+3…Bjj+y+1j+y+2j+y+3…Bt123…Bi
(2) フィンガープリント1は見つかり、フィンガープリント2は見つからない:
1−Nx←Bi+1−Bi+x=次元1からのxバイト
x+1…Nt=(tバイトのサイズの候補エレメントからの)残りのバイト=Bi+x+1i+x+2i+x+3…Bt123…Bi
(3) フィンガープリント2は見つかり、フィンガープリント1は見つからない:
1−Ny←Bj+1−Bj+y=次元2からのyバイト
y+1…Nt=(tバイトのサイズの候補エレメントからの)残りのバイト=Bj+y+1j+y+2j+y+3…Bt123…Bj
(4) フィンガープリントがまったく見つからない:
1−Nx←B1−Bt
候補エレメントを受信すると、プロセスは上記と同一の技術を適用して候補エレメントの名前を判定する。本実施形態では、(フィンガープリント1およびフィンガープリント2が見つかるか否かに依存して)上記の名前構築の4つの方法が、基本データエレメントがシーブに入力される際の基本データエレメントに対するのと同様に、候補エレメントに適用される。ゆえに、同一の一貫した処理が基本データエレメントに(それらがツリーにインストールされると)、および候補エレメントに(それらをパーサおよび因子分解部から受信すると)適用されてそれらの名前が作成される。ツリーナビゲーションプロセスは、候補エレメントの名前を用いてコンテンツ連想ルックアップのためにツリーをナビゲートする。
コンテンツ連想ルックアップが成功すると、候補エレメントと同一のパターンを特定次元の場所に有する基本データエレメントがもたらされる。たとえば、両フィンガープリントが候補エレメント内に見つかると、ツリーナビゲーションプロセスは、ルートノードから開始して、それをツリーのリンク354にダウンさせる。候補エレメントが「次元1」としてパターン「99…3」を有し、「次元2」としてパターン「7…5」を有する場合、ツリーナビゲーションプロセスはノード334に到着する。これは、導出のターゲットの可能性が高い、2つの基本データエレメント(PDE352およびPDE353)を含むサブツリーに到達する。付加的な分析およびスクリーニングが(最初にメタデータを調べることによって、かつ必要であれば、続いて実際の基本データエレメントをフェッチして調べることによって)行われて、どの基本データエレメントが導出に最適であるかが判断される。ゆえに、本明細書に記載の実施形態は、シーブ内に用いられ得るさまざまなツリー構造を識別する。そのような構造の組合せまたはそれらの変形を使用して基本データエレメントが組織化され得る。いくつかの実施形態では基本データエレメントはツリー形態に組織化され、エレメントのコンテンツ全体がエレメントの名前として用いられる。しかし、バイトがエレメントの名前内に現われる順番は、必ずしも当該バイトがエレメント内に現われる順番とは限らない。エレメントの一定のフィールドが次元として抽出されて名前の先頭バイトを形成するために用いられ、エレメントの残りのバイトは残りの名前を構成する。これらの名前を用いて、エレメントはシーブ内にツリー形態で順序付けられる。名前の先頭桁を用いてツリーのより高位のブランチ(またはリンク)同士が区別され、残りの桁を用いてツリーのすべてのブランチ(またはリンク)が漸進的に区別される。ツリーの各ノードは、そのノードから発生する異なる数のリンクを有し得る。また、ノードからの各リンクは異なる数のバイトによって区別され表示され得、これらのバイトの記述は、正規表現およびそれらの仕様を表現する他の強力な方法を用いて達成され得る。これら特徴はすべて、コンパクトなツリー構造をもたらす。ツリーのリーフノードには、個々の基本データエレメントの参照が存在している。
一実施形態では、フィンガープリンティングの方法が基本データエレメントを含むバイトに適用され得る。フィンガープリントによって識別される場所に存在するバイトの数を用いて、名前のエレメントのコンポーネントが作成され得る。1つ以上のコンポーネントが組合されて次元が提供され得る。複数のフィンガープリントを用いて複数の次元が識別され得る。これら次元は連結され、エレメントの名前の先頭バイトとして用いられ、エレメントの残りのバイトはエレメントの残りの名前を含む。次元はフィンガープリントによって識別される位置にあるため、これによって、名前が各エレメントからの一貫したコンテンツから形成されている可能性が高くなる。フィンガープリントによって位置を特定されたフィールドにおけるコンテンツの同一の値を有するエレメントは、ツリーの同一のレッグに沿って互いにグループ分けされる。このように、同様のエレメントはツリーデータ構造に互いにグループ分けされる。内部にフィンガープリントが見つからないエレメントは、それらの名前の代替の公式化を用いて、別個のサブツリーに互いにグループ分けされ得る。
一実施形態では、フィンガープリンティングの方法がエレメントのコンテンツに適用されて、エレメントのコンテンツ内の(上記の)骨格データ構造のさまざまなコンポーネント(または署名)の場所が判定され得る。あるいは、エレメントのコンテンツ内部の一定の固定オフセットを選択してコンポーネントの位置を特定してもよい。他の方法を用いてエレメントの骨格データ構造のコンポーネントの位置を特定してもよく、当該方法として、エレメントをパースして一定の宣言された構造を検出し、その構造内のコンポーネントの位置を特定することがある。エレメントの骨格データ構造のさまざまなコンポーネントを次元と見なすことができるため、これらの次元同士の連結、およびそれに続く各エレメントの残りのコンテンツを用いて、各エレメントの名前が作成される。名前を用いて基本データエレメントが順序付けられてツリーに組織化される。
別の実施形態では、エレメントの一定の構造を検出するためにエレメントがパースされる。この構造内の一定のフィールドは次元として識別される。複数のそのような次元は連結されて名前の先頭バイトとして用いられ、エレメントの残りのバイトはエレメントの残りの名前を含む。次元はエレメントをパースしてその構造を検出することによって識別される位置にあるため、これによって、名前が各エレメントからの一貫したコンテンツから形成されている可能性が高くなる。パースすることによって位置を特定されたフィールドにおけるコンテンツの同一の値を有するエレメントは、ツリーの同一のレッグに沿って互いにグループ分けされる。このように、ここでも、同様のエレメントはツリーデータ構造に互いにグループ分けされる。
いくつかの実施形態では、ツリーデータ構造内の各ノードは自己記述仕様を含む。ツリーノードは1つ以上の子を有する。各子エントリは、当該子へのリンク上の区別バイトについての情報、および当該子ノードの参照を含む。子ノードはツリーノードまたはリーフノードであり得る。図3Fは、本明細書に記載のいくつかの実施形態に従う、自己記述ツリーノードデータ構造を提示する。図3Fに示すツリーノードデータ構造は、(A)ルートノードからこのツリーノードへのパスに関連する情報であって、以下のコンポーネントのすべてまたはサブセットを含む:名前からこのツリーノードに到達するためのバイトの実際のシーケンス、ルートノードからこのノードに到達するために消費する名前のバイトの数、この消費するバイトの数が何らかの予め指定された閾値よりも大きいか否かの指示、ならびに、このノードへのパスを記述し、ツリーのコンテンツ連想検索に、およびツリーの構築に関連する決定に有用な他のメタデータ、(B)ノードが有する子の数を指定し、(C)各子(各子はツリーの1つのブランチに対応する)について、(1)子ID、(2)ツリーのこのリンクを下位に移行させるために名前の後続バイトから必要とされる区別バイトの数、(3)それをこのリンクにダウンさせる名前からのバイトの実際値についての仕様、および(4)子ノードの参照を指定する。
図3Gは、本明細書に記載のいくつかの実施形態に従う、自己記述リーフノードデータ構造を提示する。リーフノードは1つ以上の子を有する。各子は基本データエレメントへのリンクである。各子エントリは、基本データエレメントへのリンク上の区別バイトについての情報、基本データエレメントの参照、重複および導出物のカウント、ならびに基本データエレメントについての他のメタデータを含む。図3Gに示すリーフノードデータ構造は、(A)ルートノードからこのリーフノードへのパスに関連する情報であって、以下のコンポーネントのすべてまたはサブセットを含む:名前からこのリーフノードに到達するためのバイトの実際のシーケンス、ルートノードからこのノードに到達するために消費する名前のバイトの数、この消費するバイトの数が何らかの予め指定された閾値よりも大きいか否かの指示、ならびに、このノードへのパスを記述し、ツリーのコンテンツ連想検索に、およびツリーの構築に関連する決定に有用な他のメタデータ、(B)ノードが有する子の数を指定し、(C)各子(各子はリーフノード下の1つの基本データエレメントに対応する)について、(1)子ID、(2)基本データエレメントへのツリーのこのリンクを下位に移行させるために名前の後続バイトから必要とされる区別バイトの数、(3)それをこのレッグにダウンさせる名前からのバイトの実際値についての仕様、(4)ツリーのこのパス上のツリーを終了させる基本データエレメントの参照、(5)いくつの重複および導出物がこの基本データエレメントを指しているかのカウント(これは、ストレージシステム内のデータが削除されるとシーブからエントリを削除可能であるか否かを確かめるために用いられる)、ならびに(6)基本データエレメントのサイズを含む基本データエレメントについての他のメタデータ等を指定する。
新規な基本データエレメントがツリーにインストールされる効率を増加させるために、いくつかの実施形態では、ツリーのリーフノードで維持される基本データエレメント毎に付加的なフィールドがリーフノードデータ構造に組込まれる。なお、新規なエレメントをツリーに挿入する必要がある場合、サブツリー内のどこに新規なエレメントを挿入すべきかを決定するために、またはサブツリーのさらなるパーティション分割をトリガするか否かを決定するために、対象のサブツリー内の基本データエレメントの各々の名前またはコンテンツのさらなるバイトが必要であり得る。これら付加的なバイトが必要であるので、新規なエレメントに対してこれらのエレメント毎に関連の区別バイトを抽出するために、対象の基本データエレメントのうちのいくつかをフェッチすることが必要であり得る。このタスクに必要なIOの数を減らして最適化する(かつ、ほとんどの場合は完全になくす)ために、リーフノード内のデータ構造は、そのリーフノード下の各基本データエレメントの名前からの一定数の付加的なバイトを含む。これら付加的なバイトはナビゲーションルックアヘッドバイトと称され、新規な受信エレメントに対して基本データエレメントをソートするのに役立つ。所与の基本データエレメントについてのナビゲーションルックアヘッドバイトは、基本データエレメントがシーブにインストールされると、リーフノード構造にインストールされる。この目的で保持すべきバイトの数は、関与するサブツリーの深さ、およびそのサブツリー内の基本データエレメントの密度を含むさまざまな基準を用いて静的にまたは動的に選択され得る。たとえば、ツリーの浅いレベルにインストールされている基本データエレメントについては、このソリューションは、非常に深いツリー内に存在する基本データエレメントに対してよりも長いナビゲーションルックアヘッドフィールドを追加し得る。また、新規なエレメントがシーブにインストールされており、かつ既存のターゲットサブツリー内に多くの基本データエレメントが既にある(差し迫った再パーティション分割の可能性が高い)場合は、付加的なナビゲーションルックアヘッドバイトは、新規な基本データエレメントがサブツリーにインストールされている間、その新規な基本データエレメントのために保持され得る。
図3Hは、ナビゲーションルックアヘッドフィールドを含むリーフノードについてのリーフノードデータ構造を提示する。このデータ構造は、(A)ルートノードからこのリーフノードへのパスに関連する情報であって、以下のコンポーネントのすべてまたはサブセットを含む:名前からこのリーフノードに到達するためのバイトの実際のシーケンス、ルートノードからこのノードに到達するために消費する名前のバイトの数、この消費するバイトの数が何らかの予め指定された閾値よりも大きいか否かの指示、ならびに、このノードへのパスを記述し、ツリーのコンテンツ連想検索に、およびツリーの構築に関連する決定に有用な他のメタデータ、(B)ノードが有する子の数を指定し、(C)各子(各子はリーフノード下の1つの基本データエレメントに対応する)について、(1)子ID、(2)基本データエレメントへのツリーのこのリンクを下位に移行させるために名前の後続バイトから必要とされる区別バイトの数、(3)それをこのレッグにダウンさせるバイトの実際値についての仕様、(4)ツリーのこのパス上のツリーを終了させる基本データエレメントの参照、(5)何バイトのナビゲーションルックアヘッドが基本データエレメントのために保持されているか、およびそれらのバイトの実際値を指定するナビゲーションルックアヘッドフィールド、(6)いくつの重複および導出物がこの基本データエレメントを指しているかのカウント(これは、ストレージシステム内のデータが削除されるとシーブからエントリを削除可能であるか否かを確かめるために用いられる)、ならびに(7)基本データエレメントのサイズを含む基本データエレメントについての他のメタデータ等を指定する。
いくつかの実施形態では、ツリーのさまざまなブランチを用いて、子サブツリーに至るリンクに沿った区別バイトを範囲デリミタと解釈することによって形成されるグループまたは範囲にさまざまなデータエレメントがマップされる。その子サブツリー内のすべてのエレメントは、エレメント内の対応するバイトの値が、特定の子サブツリーへのリンクに指定される区別バイトの値以下となるようなものである。ゆえに、各サブツリーはこうして、特定の範囲内に収まる値を有するエレメントのグループを表わすことになる。所与のサブツリーの内部で、ツリーの各後続レベルはエレメントのセットをより小さい範囲に漸進的に分割する。本実施形態は、図3Fに示す自己記述ツリーノード構造のコンポーネントに異なる解釈を提供する。図3FのN個の子は、ツリーノードデータ構造内でそれらの区別バイトの値によって順序付けられ、非重複範囲の順序付けられたシーケンスを表わす。N個のノードに対して、N+1個の範囲が存在し、最低のまたは1番目の範囲は最小エントリ以下の値を含み、N+1番目の範囲はN番目のエントリよりも大きい値を含む。N+1番目の範囲は範囲外として取扱われるので、N個のリンクは下位のN個のサブツリーまたは範囲に至る。
たとえば、図3Fでは、子1は最低範囲を規定しており、その範囲を区別するために(abef12d6743aの値の)6バイトを使用しており、子1の範囲は00000000からabef12d6743aである。候補エレメントの対応する6バイトは、終了値を含むこの範囲内に収まり、この子についてのリンクが選択される。候補エレメントの対応する先頭6バイトが範囲デリミタabef12d6743aよりも大きい場合、子1は選択されない。候補が子2の範囲内に収まるか否かを調べるためには、2つの条件を満たす必要があり、第1に、候補は直前の子(この例では子1)の範囲外にある必要があり、第2に、その名前の中の対応するバイトは子2の範囲デリミタ以下である必要がある。この例では、子2の範囲デリミタはdcfaの値の2バイトで記述されている。ゆえに、候補エレメントについての対応する2バイトはdcfa以下である必要がある。この方法を用いて、ツリーノード内の候補エレメントおよびすべての子を調べて、N+1個の範囲のうちのどれに候補エレメントが収まるかを確認することができる。図3Fに示す例では、候補エレメントの名前の対応する4バイトが、f3231929である子Nへのリンクについての区別バイトの値よりも大きい場合、欠落状態が検出される。
ツリーナビゲーションプロセスは、この新たな範囲ノードを収容するように修正され得る。範囲ノードに到着すると、そのノードから発生する所与のリンクを選択するために、候補の名前からのバイトは、その特定のリンクについて規定された範囲内に収まる必要がある。候補の名前からのバイトの値が、すべてのリンク内の対応するバイトの値よりも大きく、候補エレメントが下位のサブツリーが跨っているすべての範囲外にある場合−この場合(「範囲外状態」と称する)、欠落状態が検出され、ツリーナビゲーションプロセスは終了する。候補エレメントの名前の先頭バイトが、子サブツリーに至るリンクに沿った対応する区別バイトによって決定される範囲内に収まる場合、ツリーナビゲーションは下位のそのサブツリーに継続する。「範囲外状態」のために終了しない限り、ツリーナビゲーションは、リーフノードデータ構造に到達するまでツリーの下方へとより深く漸進的に継続し得る。
この種類の範囲ノードは、図3A〜図3Eに記載のトライノードとともにツリー構造において使用され得る。いくつかの実施形態では、ツリー構造の一定数のレベルの上位ノードがトライノードであり得、ツリーの横断は、候補エレメントの名前の先頭バイトと、ツリーのリンクに沿った対応するバイトとの正確な一致に基づいている。後続のノードは範囲ノードであり得、ツリーの横断は、候補エレメントの名前の対応するバイトが収まる範囲によって決まる。ツリーナビゲーションプロセスが終了すると、本文書で上述したように、さまざまな基準を用いて、コンテンツ連想ルックアップ全体の結果として何を戻すべきかが決定され得る。
ツリーノードおよびリーフノードを表現および使用するための方法および装置の上記の説明は、例示および説明目的で提示されているに過ぎない。それらは網羅的であること、または本発明を開示された形態に限定することを意図していない。したがって、多くの変更および変形が当業者に明らかになるであろう。
候補エレメントが入力として提示されると、上記のツリーノードおよびリーフノード構造を横断することができ、ツリーのコンテンツ連想ルックアップを候補エレメントのコンテンツに基づいて実行することができる。候補エレメントの名前は、基本データエレメントがシーブにインストールされたときに基本データエレメントの名前が基本データエレメントのコンテンツから構築されたのと同様に、候補エレメントのバイトから構築される。入力候補エレメントを前提として、ツリーのコンテンツ連想ルックアップのための方法は、候補エレメントの名前を用いるツリー構造のナビゲーションを伴い、その後、分析およびスクリーニングが続いて行われて、コンテンツ連想ルックアップ全体の結果として何を戻すべきかが決定される。言い換えると、ツリーナビゲーションプロセスは第1の結果を戻し、次に、その結果に対して分析およびスクリーニングが行なわれて、コンテンツ連想ルックアップ全体の結果が判定される。
候補と同じ名前の先頭バイト(またはそれらが同じ範囲に収まるようなバイト)を有する基本データエレメントがある場合、ツリーは、リンクによって示されるエレメントのサブツリーの形態の基本データエレメントのそのサブセットを識別する。一般的に、各ツリーノードまたはリーフノードは、ツリーナビゲーションプロセスが、存在する場合はどの送信リンクを選択すべきかを判断して、入力エレメントの名前の対応するバイトと、選択されたリンクに沿ってツリーがナビゲートされると到達するノードのアイデンティティとに基づいてツリー内の次の下位レベルにナビゲートすることを可能にする情報を記憶し得る。各ノードがこの情報を含んでいる場合は、ツリーナビゲーションプロセスは、一致が見つからなくなるまで(この点で、ツリーナビゲーションプロセスは、現在のノードをルートとするサブツリー内に存在する一組の基本データエレメントを戻すことができる)、または基本データエレメントに到達するまで(この点で、ツリーナビゲーションプロセスは、基本データエレメントおよび任意の関連のメタデータを戻すことができる)、ツリー内の各レベルに再帰的にナビゲートダウンし得る。
ツリーナビゲーションプロセスが終了すると、他の基準および要件を用いてツリーナビゲーションプロセスの結果が分析されスクリーニングされて、コンテンツ連想ルックアップ全体の結果として何を戻すべきかが決定され得る。まず、候補と共通の名前から最多数の先頭バイトを有する基本データエレメントを選ぶことができる。次に、1つの基本データエレメントまたは複数の基本データエレメントがツリーナビゲーションプロセスによって戻された場合は、それらは、コンテンツ連想ルックアップの結果として戻される資格を得る前に、候補エレメントの名前と一定の最小数のバイトを共有しているという付加的な要件があり得る(そうでない場合、コンテンツ連想ルックアップは欠落を戻す)。スクリーニング要件の別の例は、ツリーナビゲーションプロセスが、複数の基本データエレメント(ツリーナビゲーションが終了したノードをルートとする)がツリーナビゲーションプロセスの結果として戻されるように、1つも基本データエレメントに到達することなく終了した場合は、これら複数の基本データエレメントは、これらエレメントの数が4〜16個のエレメントといった一定の指定された制限未満である場合にのみ、コンテンツ連想ルックアップ全体の結果として戻される資格を得るようなものであってもよい(そうでない場合、コンテンツ連想ルックアップは欠落を戻す)。複数の要件同士の組合せを使用して、コンテンツ連想ルックアップの結果を判定してもよい。複数の候補がまだ残っている場合は、ナビゲーションルックアヘッドバイトおよび関連のメタデータを調べて、どの基本データエレメントが最適であるかを決定してもよい。選択を1つの基本データエレメントにまだ狭めることができない場合は、複数の基本データエレメントを導出関数に供給してもよい。このように、ルックアッププロセスは、「欠落」を報告するかもしくは1つの基本データエレメントを戻し、または1つの基本データエレメントでない場合は、候補エレメントを導出するための良好な開始点である可能性が高い一組の基本データエレメントを戻す。
ツリーは、効率的なコンテンツ連想アクセスのために設計される必要がある。バランスの取れたツリーは、データの大部分について同程度のアクセス深度を提供する。ツリーのいくつかの上位レベルはプロセッサキャッシュ内に、次のいくつかのレベルは高速メモリ内に、その後続レベルはフラッシュストレージに存在していることが多いと予想される。超大型データセットについては、1つ以上のレベルがフラッシュストレージ内に、またはさらにはディスク内に存在しなければならない可能性もある。
図4は、本明細書に記載のいくつかの実施形態に従う、256TBの基本データがどのようにツリー形態に組織化され得るかの例を示し、当該ツリーがどのようにメモリおよびストレージ内にレイアウトされ得るかを提示する。ノード毎に64(26)個の子の平均ファンアウトを仮定して、基本データエレメントの参照は、(平均して)ツリーの第6レベル(すなわち5個のリンク横断またはホップの後)に存在している(たとえば図3Hに示すような)リーフノードデータ構造に到達することによってアクセスされ得る。したがって、5個のホップ後のツリーの第6レベルにおけるそのような構造は、さらに230個のそのようなノードに沿って存在し、各々が平均64個の子(これらの子は基本データエレメントの参照である)を有するので、約640億個の基本データエレメントを収容している。4KBのエレメントサイズでは、これによって256TBの基本データエレメントが収容される。
ツリーは、以下のようにツリーの6レベルを横断することができるようにレイアウトされ得る:オンチップキャッシュ内に存在する3レベル(約256K個のノードへのリンクのための移行を指定する約4000個の「上位レベル」ツリーノードデータ構造を含む)、メモリ内の2レベル(約10億個のリーフノードへのリンクのための移行を指定する1600万個の「中位レベル」ツリーノードデータ構造を含む)、およびフラッシュストレージ内の第6レベル(10億個のリーフノードデータ構造を収容する)。フラッシュストレージ内のツリーのこの第6レベルに存在している10億個のリーフノードデータ構造は、640億個の基本データエレメントの参照(リーフノード毎に平均で64個のエレメント)を供給する。
図4に示す例では、第4および第5レベルにおいて、各ノードは平均で16バイト/エレメント(子IDに1バイト、たとえばPDEの6バイト参照、およびさらに、バイトカウントに1バイト、およびさらに、実際の移行バイトを指定するために平均で8バイト、および何らかのメタデータ)を費やす。第6レベルにおいて、各リーフノードは平均で48バイト/エレメント(子IDに1バイト、バイトカウントに1バイト、実際の移行バイトを指定するために8バイト、基本データエレメントの6バイト参照、この基本データエレメントからの導出物のカウントのために1バイト、ナビゲーションルックアヘッドの16バイト、基本データエレメントのサイズに2バイト、および13バイトの他のメタデータ)を費やし、したがって、ツリーに必要なフラッシュストレージ内の全容量(基本データエレメントの参照を含み、いずれかのメタデータを含む)は約3テラバイトである。ツリーの上位ノードに必要な全容量はこのサイズのほんの一部である(ノードが少なく、子ノードのより緊密な参照を指定するのに必要なバイトが少なくて済み、ノード毎に必要なメタデータが少なくて済むため)。この例では、上位ツリーノードは平均で8バイト/エレメント(子IDに1バイト、バイトカウントに1バイト、およびさらに、実際の移行バイトを指定するために平均で3〜4バイト、および子ノードの2〜3バイト参照)を費やす。全体として、この例では、256TBの基本データを有する合成データセットが、3TB(または256TBの1.17%)の付加的な装置を用いて10億個のグループにソートされる。
256TBの基本データの各々が4KBの640億個の基本データエレメントを含む図4に示す例では、640億個の基本データエレメント同士を完全に区別するために5バイト(または36ビット)未満のアドレスが必要である。コンテンツ連想の観点から、データの混合が、平均4バイトの漸進的な名前が最初の3レベルの各々で消費され、8バイトが次の3レベルの各々で消費されるようなものである場合、(平均で)合計36バイト(288ビット)の名前が640億個の基本データエレメントのすべてを区別することになる。これら36バイトは、各エレメントを構成する4KBの1%未満である。4KBの基本データエレメントがそのバイトの1%(またはさらには5〜10%)によって識別可能である場合は、(バイトの大半を構成する)残りのバイトはゆらぎに耐えることができ、そのようなゆらぎを有する候補でもこの基本データエレメントに到達することができ、そこからの導出のために考慮され得る。
なお、(下位のさまざまな下位のサブツリー同士を区別するための)任意の所与のリンク上に必要なバイトの数は、データセットを含むエレメントの混合内の実際のデータによって支配される。同様に、所与のノードから出るリンクの数もデータによって異なる。自己記述ツリーノードおよびリーフノードデータ構造は、実際の数、およびリンク毎に必要なバイトの値、および任意のノードから発生するリンクの数を宣言する。
ツリーのさまざまなレベルで費やされるキャッシュ、メモリ、およびストレージの量を制限するようにさらに制御して、入力を、増分ストレージの割当てられたバジェット内で可能な限り多くの区別されたグループにソートすることができる。エレメント同士を完全に区別するために非常に深いサブツリーを必要とするデータの密度およびポケットが存在する状況に対処するために、そのような密度は、大きい一組の関連のエレメントをツリーの一定の深さ(たとえば第6レベル)におけるフラットなグループにグループ分けし、これらに対して合理化された検索および導出を行なうことによって(まずナビゲーションルックアヘッドおよびメタデータを調べて最良の基本データエレメントを判定するか、または(フォールバックとして)残りのデータについて当該方法によって与えられる全導出ではなく重複のみを探すことによって)効率的に対処され得る。これによって非常に深いツリーの作成が回避される。別の代替案は、これらのレベルが利用可能なメモリに収まる限り、(多くのレベルを有する)深いツリーを許可することである。より深いレベルがフラッシュまたはディスクにスピルアウトした瞬間に、ツリーをそのレベルから前方にフラット化して、待ち時間を最小化するための工程を取ることができ、そうしなければ、フラッシュまたはディスクに記憶されたツリーノードのより深いレベルへの複数の連続アクセスによって待ち時間が発生する。
多くの場合、各基本データエレメントを識別するのに、エレメントの名前からの全バイトの比較的小さい一部で十分であると予想される。本明細書に記載の実施形態を用いてさまざまな実世界データベースに対して行なった研究では、基本データエレメントのバイトの小さいサブセットがエレメントの大半を順序付けてソリューションを可能にする役割を果たすことが確認されている。ゆえに、そのようなソリューションは、そのオペレーションのために必要なストレージの量の観点で効率的である。
図4の例に必要なアクセスの観点から、4KBのチャンクの入力(または候補エレメント)を受信するごとに、スキームはツリー構造に問合せてリーフノードに到達するために以下のアクセスを必要とする:3つのキャッシュ参照、2つのメモリ参照(または場合によっては複数のメモリ参照)、およびさらに、リーフノードデータ構造にアクセスするためのフラッシュストレージからの1回のIO。ストレージからのこの1回のIOは4KBのページをフェッチし、これは、対象の基本データエレメントに費やされる48バイトを含む、約64個のエレメントのグループについてのリーフノードデータ構造の情報を保持する。これら48バイトは、対象の基本データエレメントについてのメタデータを含む。これによってツリールックアッププロセスが終了する。続いて、必要なIOの回数は、候補エレメントが重複であるか、導出物であるか、またはシーブにインストールすべき新規な基本データエレメントであるかに依存する。
基本データエレメントの重複である候補エレメントは、基本データエレメントをフェッチして当該重複を検証するために1回のIOを必要とする。重複が検証されると、ツリー内のメタデータを更新するためにもう1回IOがある。したがって、重複エレメントの取込みにはツリールックアップの後に2回のIOが必要であり、全部で3回のIOが必要である。
ツリールックアップに失敗し、重複でも導出物でもない候補エレメントは、当該エレメントを新たな基本データエレメントとしてシーブに記憶するためにもう1回のIO、およびツリー内のメタデータを更新するためにさらにもう1回のIOを必要とする。ゆえに、ツリールックアップに失敗する候補エレメントの取込みにはツリールックアップ後に2回のIOが必要であり、全部で3回のIOが必要である。しかし、ツリールックアッププロセスがストレージIOを必要とせずに終了する候補エレメントについては、そのような候補エレメントを取込むためには全部で2回のIOで済む。
導出物である(しかし重複ではない)候補エレメントはまず、導出を計算するために必要な基本データエレメントをフェッチするために1回のIOを必要とする。ほとんどの場合、導出は(複数ではなく)1つの基本データエレメントからのものであると予想されるので、基本データエレメントをフェッチするには1回のIOのみで済むと予想される。導出の完了が成功したのに続いて、再構成プログラムおよび導出詳細を記憶されるエレメントについて作成されたエントリに記憶するためにもう1回のIOが、かつ新たな導出物を反映するようにツリー内のメタデータ(カウントなど)を更新するためにさらにもう1回のIOが必要となる。したがって、導出物となる候補エレメントの取込みには第1のツリールックアップの後にさらに3回のIOが必要であり、全部で4回のIOが必要である。
要約すると、(超大型データセット全体にわたってグローバルに冗長を利用しつつ)候補エレメントを取込み、当該候補エレメントにData Distillation(商標)法を適用するためには、約3回から4回のIOが必要である。旧来のデータ重複排除技術が必要とするものと比較して、これは典型的に候補エレメント毎にIOが1回増えただけであり、その見返りに、エレメント自体よりも細かくデータセット全体にわたってグローバルに冗長を利用することができる。
250,000回のランダムIOアクセス/秒(4KBのページへの1GB/秒のランダムアクセスの帯域幅を意味する)を提供するストレージシステムは、約62,500個の入力チャンク/秒(各々が4KBの平均サイズの入力チャンク毎に4回のIOで分割される250,000個)に対してData Distillation(商標)法を取込んで実行することができる。これによって、ストレージシステムの全帯域幅を使い果たしつつ250MB/秒の取込速度が可能になる。ストレージシステムの帯域幅の半分のみが用いられる(したがって残りの半分は記憶データのアクセスに利用可能である)場合も、そのようなData Distillation(商標)システムはやはり125MB/秒の取込速度を提供可能である。ゆえに、十分な処理能力を前提として、Data Distillation(商標)システムは、無駄のないIOで(エレメント自体よりも細かく)データセット全体にわたってグローバルに冗長を利用することができ、現在のストレージシステムに対して数百メガバイト/秒の取込速度でデータ削減を提供することができる。
ゆえに、試験結果によって確認されたように、本明細書に記載の実施形態は、無駄のないIOアクセスで、装置に必要な最小の増分ストレージで、莫大なデータストアからエレメントがあるかを検索する(導出を指定するのに必要な最小ストレージで、そこから入力エレメントが導出され得る)複雑なタスクを達成する。このように構築されたこのフレームワークによって、エレメントの全バイトのより小さい割合を用いて導出に好適なエレメントを見つけることが実行可能になり、バイトの大部分がゆらぎおよび導出に利用可能になる。このスキームがほとんどのデータに対して効率的に働く理由を説明する重要な洞察は、ツリーが、シーブ内のエレメントを特定する区別バイトおよび識別バイトの位置を特定することができる使いやすい細かい構造を提供することであり、これらのバイトは各々がデータ内の異なる深さおよび位置にあるが、それらをツリー構造内で効率的に分離して記憶できることである。
図5A〜図5Cは、本明細書に記載の実施形態を用いてデータがどのように組織化され得るかの実際の例を示す。図5Aは、512バイトの入力データ、および因子分解の結果(たとえば図2のオペレーション202を実行した結果)を示す。この例では、フィンガープリンティングが適用されてデータ内のブレークが求められるので、連続するブレークが候補エレメントを識別する。交互に現われる候補エレメントは太字および通常フォントを用いて示されている。たとえば、第1の候補エレメントは「b8ac83d9dc7caf18f2f2e3f783a0ec69774bb50bbe1d3ef1ef8a82436ec43283 bc1c0f6a82e19c224b22f9b2」であり、次の候補エレメントは「ac83d9619ae5571ad2bbcc15d3e493eef62054b0 5b2dbccce933483a6d3daab3cb19567dedbe33e952a966c49f3297191cf22aa3 1b98b9dcd0fb54a7f761415e」である、などである。図5Aの入力は、示されるように12個の可変サイズの候補エレメントに因子分解される。各チャンクの先頭バイトを用いてエレメントがシーブ内に順序付けられて組織化される。図5Bは、図5Aに示す12個の候補エレメントが、それらの名前を用いて、かつ図3Bに記載のツリー構造を用いて、どのようにツリー形態でシーブ内に基本データエレメントとして組織化され得るかを示す。各エレメントは、当該エレメントのコンテンツ全体から構築される別個の名前を有する。この例では、フィンガープリンティングが適用されて12個の候補エレメント同士の間のブレークが求められるので、各候補エレメントの先頭バイトは既にアンカーフィンガープリントと整列していることになる。したがって、各名前の先頭バイトは、このフィンガープリントをアンカーとするコンテンツの第1の次元からすでに構築されていることになる。名前の先頭バイトはさまざまなエレメントを組織化する。たとえば、エレメントの名前の最初のバイトが「0x22」と等しい場合は、トップリンクを取って基本データエレメント♯1を選択する。なお、図5Bのさまざまなリンクは、図3Bに示すツリーデータ構造を参照して説明したようにさまざまな数のバイトを用いて区別される。
図5Cは、図5Aに示す12個の候補エレメントが、図3Dを参照して説明したツリーデータ構造を用いてどのように組織化され得るかを示す。フィンガープリンティングが各エレメントのコンテンツにさらに適用されて、エレメントのコンテンツ内の2次フィンガープリントが識別される。第1のフィンガープリント(各エレメントの境界に既に存在している)および第2のフィンガープリントの場所から抽出されたコンテンツのバイトが連結されて名前の先頭バイトが形成され、これを用いてエレメントが組織化される。言い換えると、名前のエレメントは以下のように構築される:2つの次元またはフィールド(それぞれアンカーフィンガープリントおよび2次フィンガープリントによって位置を特定される)からのデータのバイトが連結されて名前の先頭バイトが形成され、残りのバイトがそれに続く。この名前の構築の選択の結果として、バイトのさまざまなシーケンスによってさまざまな基本データエレメントが(図5Bに対して)図5Cにおいてもたらされる。たとえば、基本データエレメント♯4に到達するために、ツリーナビゲーションプロセスはまず、第1の次元(すなわち第1のフィンガープリント)におけるフィールドの先頭バイトである「46093f9d」に対応するリンクを取り、次に、第2の次元(すなわち第2のフィンガープリント)に位置するフィールドの先頭バイトである「c4」に対応するリンクを取る。
図6A〜図6Cは、本明細書に記載のいくつかの実施形態に従う、それぞれ図1A〜図1Cを参照して説明したコンテンツ連想マッパー121および122にどのようにツリーデータ構造が使用され得るかを示す。
好適な基本データエレメント(そこから候補エレメントを導出することを試みる)を探すという困難な問題が解決すると、問題は、基本データエレメントの1つまたは小さいサブセットを調べること、および、導出を指定するのに必要な最小ストレージでそれらから候補エレメントを最適に導出することに絞り込まれる。他の目的として、ストレージシステムへのアクセス数を最小限に維持すること、ならびに導出時間および再構成時間を許容可能に維持することがある。
導出部は、1つ以上の基本データエレメントに対して行った変換の結果として候補エレメントを表現する必要があり、これらの変換を、データが取出されると導出物を再生成するために用いられる再構成プログラムとして指定する必要がある。各導出では、その固有のプログラムを構築する必要があり得る。導出部の機能は、これらの変換を識別し、再構成プログラムを最小フットプリントで作成することである。1つ以上の基本データエレメントに対して、または各エレメントの特定のフィールドに対して実行される算術、代数、または論理演算を含む、さまざまな変換が使用され得る。また、1つ以上の基本データエレメントにおけるバイトの連結、挿入、置換、および削除といった、バイト操作変換を用いてもよい。
図7Aは、本明細書に記載のいくつかの実施形態に従う、再構成プログラム内に指定され得る変換の例を提供する。この例で指定される変換の語彙は、エレメント内の特定長さのフィールドに対する算術演算、ならびに、基本データエレメント内の指定されたオフセットにおける宣言された長さのバイトの挿入、削除、付加、および置換を含む。さまざまな技術および演算が導出部によって使用されて、候補エレメントと1つ以上の基本データエレメントとの間の類似および相違が検出され、再構成プログラムが構築され得る。導出部は、根本的なハードウェアにおいて利用可能な語彙を利用してその機能を実行し得る。この作業の最終結果は、再構成プログラムについて指定される語彙で変換を指定すること、および、最小量の増分ストレージを用いて、高速データ取出しをも可能にする態様でそれを行なうことである。
導出部は、根本的なマシンの処理能力を利用し、自身に割当てられた処理予算内で作業して、システムのコストパフォーマンス制約内で可能な最良の分析を提供する。マイクロプロセッサコアがより容易に利用可能であると仮定して、かつストレージへのIOアクセスが高価であると仮定して、Data Distillation(商標)ソリューションは、現在のマイクロプロセッサの処理能力を利用して、数個の基本データエレメントから候補エレメントのコンテンツの局所的な分析および導出を効率的に行なうように設計されている。(超大型データに対する)Data Distillation(商標)ソリューションのパフォーマンスは、計算処理によってではなく典型的なストレージシステムのIO帯域幅によって速度が制限される。たとえば、250,000回のIO/秒をサポートする典型的なフラッシュベースのストレージシステムに対して数百メガバイト/秒の取込速度をサポートするために必要な計算および分析を行なうのに、2、3個のマイクロプロセッサコアで十分であると予想される。なお、インテルXeonプロセッサE5−2687W(10コア、3.1GHz、25MBキャッシュ)といった現在のマイクロプロセッサからの2つのそのようなマイクロプロセッサコアは、プロセッサから利用可能な全計算能力のごく一部(10分の2)である。
図7Bは、本明細書に記載のいくつかの実施形態に従う、基本データエレメントから導出されている候補エレメントの結果の例を示す。具体的には、データパターン「Elem」は基本データストアに記憶されている基本データエレメントであり、データパターン「Cand」は基本データエレメントから導出すべき候補エレメントである。「Cand」と「Elem」との間の18個の共通バイトがハイライト表示されている。再構成プログラム702は、データパターン「Cand」がデータパターン「Elem」からどのように導出され得るかを指定する。図7Bに示すように、再構成プログラム702は、1バイトの置換、6バイトの挿入、3バイトの削除、7バイトのバルク置換を用いることによって「Elem」から「Cand」をどのように導出するかを示す。導出物を指定するコストは20バイト+3バイト参照=23バイトであり、これは元のサイズの65.71%である。なお、示される再構成プログラム702は人間が読取り可能なプログラムの表現であり、プログラムが本明細書の記載の実施形態によってどのように実際に記憶されるかではない場合がある。同様に、乗算および加算などの算術演算に基づく他の再構成プログラムも図7Bに示されている。たとえば、「Elem」がbc1c0f6a790c82e19c224b22f900ac83d9619ae5571ad2bbec152054ffffff83であり、「Cand」がbc1c0f6a790c82e19c224b22f91c4da1aa0369a0461ad2bbec152054ffffff83である場合は、乗算(00ac83d9619ae557)*2a = [00]1c4da1aa0369a046を用いて示されるように8バイトの差が導出され得る。導出物を指定するコストは4バイト+3バイト参照=7バイトであり、これは元のサイズの20.00%である。あるいは、「Elem」がbc1c0f6a790c82e19c224b22f9b2ac83ffffffffffffffffffffffffffffb283であり、「Cand」がbc1c0f6a790c82e19c224b22f9b2ac8300000000000000000000000000002426である場合は、加算を用いて、たとえば、オフセット16で始まる16バイト領域に0x71a3を加算して繰り上げを切り捨てることによって、示されるように16バイトの差が導出され得る。導出物を指定するコストは5バイト+3バイト参照=8バイトであり、これは元のサイズの22.85%である。なお、図7Aのサンプル符号化は例示目的で選択されているに過ぎない。図7Bの例は32バイトのデータサイズを有しており、したがって、エレメント内の長さおよびオフセットフィールドには5ビットで十分である。大きいエレメント(たとえば4KBのエレメント)については、これらのフィールドのサイズを12ビットに増加させる必要がある。同様に、サンプル符号化は3バイトまたは24ビットの参照サイズを収容する。これによって、1600万個の基本データエレメントを参照することが可能になるべきである。参照が、たとえば256TBのデータ内のいずれかの場所をアドレス指定できる必要がある場合、参照は6バイトのサイズである必要がある。そのようなデータセットを4KBのエレメントに因子分解すると、参照を指定するのに必要な6バイトは4KBのエレメントのサイズのほんの一部である。
(1つ以上の基本データエレメントから導出される)導出エレメントを指定するのに必要な情報のサイズは、再構成プログラムのサイズと、必要な(1つ以上の)基本データエレメントを指定するのに必要な参照のサイズとの合計である。候補エレメントを導出エレメントとして指定するのに必要な情報のサイズは、基本データエレメントからの候補の距離と称される。候補が複数のセットの基本データエレメントのうちのいずれか1セットから実行可能に導出され得る場合、最短距離を有する基本データエレメントのセットがターゲットとして選択される。
2つ以上の基本データエレメントから(これらの各々から導出した抽出をアセンブルすることによって)候補エレメントを導出する必要がある場合、導出部は、ストレージシステムへの付加的なアクセスのコストを考慮に入れ、それを、より小さい再構成プログラムおよびより小さい距離の利点と比較検討する必要がある。候補についての最適な再構成プログラムが作成されると、その距離が距離閾値と比較され、距離が閾値を超えない場合は導出が受付けられる。導出が受付けられると、候補エレメントは導出エレメントとして再公式化され、基本データエレメントと再構成プログラムとの組合せで置換される。候補エレメントについて作成された蒸留データへのエントリは、再構成プログラムと、関連の基本データエレメントの1つ以上の参照とで置換される。最良の導出についての距離が距離閾値を超える場合は、導出物は受付けられない。
データ削減をもたらすために、距離閾値は常に候補エレメントのサイズ未満でなければならない。たとえば、距離閾値は候補エレメントのサイズの50%に設定されてもよく、これによって、導出物は、そのフットプリントが候補エレメントのフットプリントの半分以下である場合にのみ受付けられることになり、これによって、好適な導出が存在する候補エレメント毎に2倍以上の削減が確実になる。距離閾値は、ユーザが指定した入力に基づく、またはシステムによって選択される、予め定められた割合または分数であってもよい。距離閾値は、システムの静的または動的パラメータに基づいてシステムによって決定されてもよい。
図8A〜8Eは、本明細書に記載のいくつかの実施形態に従う、入力データを固定サイズのエレメントに因子分解し、当該エレメントを図3Dおよび図3Eを参照して説明したツリーデータ構造に組織化することによってどのようにデータ削減が実行され得るかを示す。図8Aは、どのように入力データが32バイトのチャンクに単純に因子分解され得るかを示す。具体的には、図8Aは最初の10個のチャンクを、そしてたとえば4200万個のチャンクの後に現われるさらにいくつかのチャンクを示す。図8Bは、名前の先頭バイトが(アンカーフィンガープリント、2次フィンガープリントおよび3次フィンガープリントの場所に対応する)エレメントのコンテンツ内の3つの次元からのコンテンツで構成されるように構築された名前を用いる、シーブ内の基本データエレメントの組織を示す。具体的には、図8Bでは、各32バイトのチャンクが32バイトの候補エレメント(固定サイズのブロック)になる。フィンガープリンティングの方法がエレメントのコンテンツに適用される。各エレメントは、以下のように構築される名前を有する:エレメントの3つの次元またはフィールド(それぞれアンカーフィンガープリント、2次フィンガープリント、および3次フィンガープリントによって位置が特定される)からのデータのバイトが連結されて名前の先頭バイトが形成され、エレメントの残りのバイトがそれに続く。名前を用いてエレメントがシーブ内に組織化される。図8Bに示すように、最初の10個のチャンクは重複または導出物を含んでおらず、エレメントとしてシーブに順次インストールされる。図8Bは、10番目のチャンクが消費された後のシーブを示す。図8Cは、さらに数百万個のデータ入力のエレメントを消費した後の、たとえば次の4200万個のチャンクが提示された後の、その後の時点におけるシーブのコンテンツを示す。シーブは重複または導出物があるか否か調べられる。エレメントから導出不可能なチャンクはシーブにインストールされる。図8Cは、4200万個のチャンクが消費された後のシーブを示しており、16,000,010個のエレメント(3バイトの参照アドレスで論理的にアドレス指定可能)を含んでおり、残りの26,000,000個のチャンクは導出物になる。図8Dは、続いてシーブに提示されてシーブへの(エレメント番号24,789として示される)エントリの重複として識別される、新規な入力の例を示す。この例では、シーブは、エレメント24,789(チャンク9)をチャンク42,000,011について最適なエレメントとして識別する。導出関数は、新たなチャンクが正確な重複であると判断し、それをエレメント24,789の参照で置換する。導出物を表わすコストは元の35Bに対して3バイト参照であり、これは元のサイズの8.57%である。図8Dは、シーブ内の(エレメント番号187,126として示される)エントリの導出物にコンバートされる入力の第2の例(チャンク42,000,012)を示す。この例では、シーブは正確な一致がないと判断する。シーブは、エレメント187,125および187,126(チャンク8および1)を最適なエレメントとして識別する。新たなエレメントは最適なエレメントから導出される。エレメント187,125に対する導出およびエレメント187,126に対する導出が図8Dに示されている。エレメント187,125に対する導出を表わすコストは39バイト+3バイト参照=42バイトであり、これは元のサイズの12.00%である。エレメント187,126に対する導出を表わすコストは12バイト+3バイト参照=15バイトであり、これは元のサイズの42.85%である。(エレメント187,126に対する)最良の導出が選択される。再構成サイズは閾値と比較される。たとえば、閾値が50%である場合、この導出物(42.85%)は受付けられる。図8Eは、基本データエレメントから導出されるデータチャンクの2つの付加的な例を提供しており、導出物が2つの基本データエレメントからの導出によって実際に作成される一例を含む。第1の例では、チャンク42,000,013が提示される。シーブは、エレメント9,299,998(チャンク10)を最適なエレメントとして識別する。エレメント9,299,998に対する導出が図8Eに示されている。導出物を表わすコストは4バイト+3バイト参照=7バイトであり、これは元のサイズの20.00%である。再構成サイズは閾値と比較される。たとえば、閾値が50%である場合、この導出物(20.00%)は受付けられる。第2の例では、チャンク42,000,014が提示される。この例では、チャンク42,000,014は、チャンクの半分がエレメント9,299,997から最良に導出され得、チャンクの残りの半分がエレメント9,299,998から最良に導出され得るようなものである。したがって、マルチ導出エレメントが作成されてさらなるデータ削減がもたらされる。マルチエレメント導出は図8Eに示されている。マルチ導出エレメントを表わすコストは3バイト参照+3バイト+3バイト参照=9バイトであり、これは元のサイズの25.71%である。再構成サイズは閾値と比較され、たとえば閾値が50%である場合、この導出物(25.71%)は受付けられる。なお、単一の導出エレメントからの最良の結果は45.71%であったはずである。
図8A〜8Eは、Data Distillation(商標)システムが固定サイズのブロックを消費して生成しつつデータ削減を行うのに効果的であり得るという、Data Distillation(商標)システムの重要な利点を示す。なお、固定サイズのブロックは高パフォーマンスストレージシステムにおいて非常に望ましい。Data Distillation(商標)装置を用いて、多数の固定サイズのブロックで構成される大きい受信入力ファイルが、すべての基本データエレメントが固定サイズであるように、多数の固定サイズのエレメントに因子分解され得る。導出エレメント毎の潜在的に可変サイズの再構成プログラムは互いにパックされて蒸留データファイル内にインラインに維持され得、これは続いて固定サイズのブロックにチャンク分けされ得る。ゆえに、すべての実用的な目的で、ストレージシステム内で固定サイズのブロックを消費して作成しつつ、強力なデータ削減を実行することができる。
図9A〜図9Cは、最初に図1Cに示したData Distillation(商標)スキームの例を示す。このスキームは、コンテンツ連想的にアクセスされ得る別個の基本再構成プログラムストアを使用する。そのような構造によって、基本再構成プログラムストア内に既に存在している再構成プログラムを構築する導出物の検出が可能になる。そのような導出物は、既存の再構成プログラムを参照するように再公式化され得る。これによって、再構成プログラム同士の間の冗長の検出が可能になる。図9Aでは、入力データが取込まれる。フィンガープリンティングの方法が当該データに適用され、フィンガープリント位置にチャンク境界が設定される。入力は、示されるように8個の候補エレメント(図9Aにおいて太字および正規のフォントで示される交互に現われるチャンク)に因子分解される。図9Bでは、8個の候補エレメントがシーブ内に組織化されて示されている。各エレメントは、当該エレメントのコンテンツ全体から構築される別個の名前を有する。この例では、エレメントの名前は以下のように構築される:2つの次元またはフィールド(それぞれアンカーフィンガープリントおよび2次フィンガープリントによって位置を特定される)からのデータのバイトが連結されて名前の先頭バイトが形成され、残りのバイトがそれに続く。この名前を用いてシーブ内にエレメントが順序付けられ、また、ツリー構造を介してシーブへのコンテンツ連想アクセスが提供される。図9Bはさらに、基本再構成プログラムを含む第2のコンテンツ連想構造を示す。図9Cは重複再構成を示す。いずれの基本データエレメントの重複でもない55バイトの候補エレメント(図9Cに示す)が到着すると仮定する。エレメント3が最適なエレメントとして選択され、最初の2つの次元はPDE2および3について同一であるが、88a7で始まる残りのバイトはエレメント3と一致する。新たな入力は、12バイト再構成プログラム(RP)を用いてエレメント3から導出される。符号化は図7Aに示すようなものである。なお、この例については、最大エレメントサイズは64ビットであり、すべてのオフセットおよび長さは、図7Aに示す5ビットの長さおよびオフセットとは対照的に、6ビット値として符号化される。RPストアが検索され、この新たなRPは見つけられない。このRPは基本RPストアに挿入され、その値に基づいて順序付けられる。新たなエレメントは、RPストア内の基本データエレメント3の参照、および参照4における新たに作成された基本再構成プログラムの参照として再公式化される。この導出エレメントについての全ストレージサイズは、3バイトのPDE参照、3バイトのRP参照、12バイトのRP=18バイトであり、これは、それをPDEとして記憶することに対して、サイズの31.0%である。その後、55バイトの候補エレメントのコピーが到着すると仮定する。前と同様に、エレメント3に基づいて12バイトのRPが作成される。RPストアが検索され、基本RP ID=3、RP参照=4を有するRPが見つけられる。この候補エレメントは、基本データエレメント3の参照および再構成プログラム4の参照としてシステム内に表わされる。この導出エレメントについて追加される全ストレージサイズは、3バイトのPDE参照、3バイトのRP参照=6バイトとなり、これは、それをPDEとして記憶することに対して、サイズの10.3%である。
図10Aは、本明細書に記載のいくつかの実施形態に従う、再構成プログラム内に指定された変換がどのように基本データエレメントに適用されて導出エレメントをもたらすかの例を提供する。この例は、187,126と番号付けられた基本データエレメント(この基本データエレメントは図8Cのシーブ内にも示されている)に、示される再構成プログラムによって指定されるような4つの変換(挿入、置換、削除、および付加)を適用することによって当該基本データエレメントから生成されるように指定された導出エレメントを示す。図10Aに示すように、エレメント187,126がシーブからロードされ、再構成プログラムが実行されてエレメント187,126からチャンク42,000,012が導出される。図10B〜図10Cは、本明細書に記載のいくつかの実施形態に従うデータ取出しプロセスを示す。各データ取出し要求は本質的に蒸留データ内のエレメントの形態を取り、無損失削減フォーマットで検索エンジンに提示される。エレメント毎の無損失削減フォーマットは、関連付けられた基本データエレメントおよび再構成プログラムの参照を含む。Data Distillation(商標)装置の取出部は基本データエレメントおよび再構成プログラムをフェッチし、これらを再構成のために再構成部に供給する。蒸留データのエレメントについての関連の基本データエレメントおよび再構成プログラムがフェッチされた後、再構成部は再構成プログラムを実行して、エレメントをその本来の未削減形態で生成する。再構成を実行するためにデータ取出しプロセスが必要とする労力は、再構成プログラムのサイズおよび基本データエレメントのサイズに対して直線的である。したがって、当該システムによって高いデータ取出率を達成することができる。
蒸留データ内の無損失削減形態からその本来の未削減形態にエレメントを再構成するためには、当該エレメントについて指定された基本データエレメントおよび再構成プログラムのみをフェッチするだけでよいことが明白である。ゆえに、所与のエレメントを再構成するために、他のエレメントにアクセスするかまたは他のエレメントを再構成することは不要である。このため、Data Distillation(商標)装置は、再構成および取出しの要求のランダムなシーケンスをサービスする場合にも効率的である。なお、Lempel Ziv法といった旧来の圧縮法は、所望のブロックを含むデータのウインドウ全体をフェッチして復元する必要がある。たとえば、ストレージシステムがLempel-Ziv法を利用して32KBのウインドウを用いて4KBのデータのブロックを圧縮し、次に所与の4KBのブロックをフェッチして復元する場合、32KBのウインドウ全体をフェッチして復元する必要がある。これは、所望のデータを提供するためにより大きい帯域幅を消費し、より大量のデータを復元する必要があるため、パフォーマンスペナルティを課す。Data Distillation(商標)装置はそのようなペナルティを受けない。
Data Distillation(商標)装置は、システム内のデータ全体にわたってグローバルに冗長を効率的に発見して利用する態様でデータを組織化して記憶するようにさまざまな方法でコンピュータシステムに統合され得る。図11A〜図11Gは、本明細書に記載のいくつかの実施形態に従う、Data Distillation(商標)メカニズム(ソフトウェア、ハードウェア、またはそれらの組合せを用いて実現され得る)を含むシステムを示す。図11Aは、プロセッサ、メモリおよびデータストレージコンポーネントで構成されるハードウェアプラットフォーム上で実行されるシステムソフトウェア上で動作するソフトウェアアプリケーションを有する汎用計算プラットフォームを提示する。図11Bは、プラットフォームのアプリケーション層に統合されたData Distillation(商標)装置を示しており、各特定のアプリケーションは当該装置を用いてそのアプリケーションのためのデータセット内で冗長を利用する。図11Cは、データ仮想化層またはサービスの上位で動作するすべてのアプリケーションについて当該データ仮想化層またはサービスを提供するように使用されるData Distillation(商標)装置を示す。図11Dおよび図11Eは、サンプル計算プラットフォームのオペレーティングシステム、ファイルシステムおよびデータ管理サービスを有するData Distillation(商標)装置の2つの異なる統合形態を示す。他の統合方法として、図11Fに示すようなフラッシュベースのデータストレージサブシステムにおいて使用されるようなハードウェアプラットフォームにおける埋込計算スタックとの統合があるが、これに限定されない。
図11Gは、図11Dに示すサンプル計算プラットフォームを有するData Distillation(商標)装置の統合のさらなる詳細を提示する。図11Gは、汎用プロセッサ上のソフトウェアとして実行されるパーサおよび因子分解部、導出部、取出部、ならびに再構成部、ならびにストレージ階層のいくつかのレベルにわたって存在しているコンテンツ連想マッピング構造を有する、Data Distillation(商標)装置のコンポーネントを示す。基本データストアは、(フラッシュベースのストレージドライブといった)記憶媒体内に存在し得る。
図11Hは、Data Distillation(商標)装置がどのようにサンプル汎用計算プラットフォームに干渉し得るかを示す。
ファイルシステムは、ファイル(たとえばテキスト文書、スプレッドシート、実行可能ファイル、マルチメディアファイル等)を識別子(たとえばファイル名、ファイルハンドル等)と関連付け、ファイルと関連付けられた識別子を用いることによってファイル上で演算(たとえば読出、書込、挿入、付加、削除等)を実行できるようにする。ファイルシステムによって実現されるネームスペースはフラットであってもよく、または階層状であってもよい。また、ネームスペースは多層化されてもよく、たとえば、最上層識別子が完全に分解されるまで、最上層識別子が、順次下層において1つ以上の識別子に分解されてもよい。このように、ファイルシステムは、ファイルのコンテンツを物理的に記憶する物理データストレージデバイスおよび/または記憶媒体(たとえばコンピュータメモリ、フラッシュドライブ、ディスクドライブ、ネットワークストレージデバイス、CD−ROM、DVD等)の抽象化を提供する。
情報をファイルシステムに記憶するために用いられる物理ストレージデバイスおよび/または記憶媒体は1つまたは複数のストレージ技術を用いてもよく、同一のネットワーク場所に存在してもよいし、または異なるネットワーク場所にわたって分散していてもよい。ファイルおよび当該ファイル上で実行されるように要求される1つ以上の演算と関連付けられた識別子を前提として、ファイルシステムは(1)1つ以上の物理ストレージデバイスおよび/または記憶媒体を識別することができ、(2)当該ファイルシステムによって識別された物理ストレージデバイスおよび/または記憶媒体に、当該識別子と関連付けられたファイル上で実行されるように要求された演算を実行させることができる。
システム内で読出または書込操作が実行されるたびに、異なるソフトウェアおよび/またはハードウェアコンポーネントが関与し得る。「リーダ」という用語は、所与の読出操作がシステム内で実行される際に関与するシステム内のソフトウェアおよび/またはハードウェアコンポーネントの集まりを指し得、「ライタ」という用語は、所与の書込操作がシステム内で実行される際に関与するシステム内のソフトウェアおよび/またはハードウェアコンポーネントの集まりを指し得る。本明細書に記載のデータ削減のための方法および装置のいくつか実施形態は、所与の読出または書込操作が実行される際に関与するシステムの1つ以上のソフトウェアおよび/またはハードウェアコンポーネントによって利用され得るか、またはそれに組込まれ得る。異なるリーダおよびライタは異なるデータ削減実現例を利用するかまたは組込み得る。しかし、特定のデータ削減実現例を利用するかまたは組込む各ライタは、これも同一のデータ削減実現例を利用するかまたは組込むリーダに対応する。なお、当該システムにおいて実行される読出および書込操作の中には、データ削減装置を利用しないかまたは組込まない操作もある。たとえば、Data Distillation(商標)装置またはデータ削減装置103が基本データエレメントを取出すか、または新たな基本データエレメントを基本データストアに追加すると、当該装置はデータ削減なしで読出および書込操作を直接実行することができる。
具体的には、図11Hにおいて、ライタ150Wは一般的に、所与の書込操作が実行される際に関与するシステムのソフトウェアおよび/またはハードウェアコンポーネントを指し得、リーダ150Rは一般的に、所与の読出操作が実行される際に関与するシステムのソフトウェアおよび/またはハードウェアコンポーネントを指し得る。図11Hに示すように、ライタ150Wは入力データをData Distillation(商標)装置またはデータ削減装置103に与え、Data Distillation(商標)装置またはデータ削減装置103から蒸留データ108を受信する。リーダ150Rは取出し要求109をData Distillation(商標)装置またはデータ削減装置103に与え、取出されたデータ出力113をData Distillation(商標)装置またはデータ削減装置103から受信する。
図11Hについての実現例として、Data Distillation(商標)装置またはデータ削減装置103をアプリケーション、オペレーティングシステムカーネル、ファイルシステム、データ管理モジュール、デバイスドライバ、またはフラッシュもしくはディスクドライブのファームウェアに組込むかまたは利用することがあるが、これらに限定されない。これは、図11B〜図11Fに記載のさまざまな構成および使用方法に及ぶ。
図12Aは、本明細書に記載のいくつかの実施形態に従う、帯域幅が制約された通信媒体全体にわたるデータの通信のためのData Distillation(商標)装置の使用を示す。示されるセットアップでは、通信ノードAは、通信ノードBに送信すべき一組のファイルを作成する。ノードAは、Data Distillation(商標)装置を用いて、入力ファイルを、基本データストアにインストールされる基本データエレメントの参照と、導出エレメントのための再構成プログラムとを含む蒸留データまたは蒸留ファイルに変換する。ノードAは次に、蒸留ファイルを基本データストアとともにノードBに送信する(基本データストアは、蒸留ファイルを送信する前に、送信するのと同時に、または送信した後に送信され得、さらに、基本データストアは、同一の通信チャネル上で、または蒸留ファイルを送信するために用いられる通信ファイルとは異なる通信チャネル上で送信され得る)。ノードBは基本データストアをその端における対応の構造にインストールし、続いてノードBのData Distillation(商標)装置に存在している取出部および再構成部を介して蒸留ファイルを送り、ノードAが作成した元の一組のファイルをもたらす。ゆえに、Data Distillation(商標)装置を媒体の両端で使用して削減データのみを送信することによって、帯域幅が制約された通信媒体がより効率的に使用される。なお、Data Distillation(商標)を使用することによって、(Lempel-Zivといった従来の技術を用いて実行可能である範囲を超えて)より大きい範囲にわたって冗長を利用することができるので、さらに大型のファイルまたはファイルのグループを効率的に送信することができる。
次に、複数のノードにわたって分散しているデータをワークグループが共同して共有する広域ネットワークインストールにおけるData Distillation(商標)装置の使用を説明する。データがまず作成されると、当該データは図12Aに示すように削減されて通信され得る。広域ネットワークはデータのコピーを各サイトに維持して、当該データへの迅速なローカルアクセスを可能にする。Data Distillation(商標)装置の使用によって各サイトのフットプリントを削減することができる。さらに、続いていずれかのサイトで新規データを取込むと、新規データと既存の基本データストアのコンテンツとの間のいずれかの冗長を利用して新規データを削減することができる。
そのようなインストールでは、任意の所与のサイトにおけるデータのいずれの修正も、各サイトの基本データストアが一貫して保持されるように、すべての他のサイトに通信する必要がある。したがって、図12Bに示すように、基本データエレメントのインストールおよび削減などの更新、ならびにメタデータ更新は、本明細書に記載のいくつかの実施形態に従って各サイトの基本データストアに通信され得る。たとえば、所与のサイトのシーブに新規な基本データエレメントがインストールされると、基本データエレメントをすべての他のサイトに通信する必要がある。各サイトは、基本データエレメントの値を用いてコンテンツ連想的にシーブにアクセスし、シーブ内のどこに新たなエントリを追加する必要があるかを判断することができる。同様に、所与のサイトのシーブから基本データエレメントが削除されると、この削除を反映するようにすべての他のサイトを更新する必要がある。これが達成され得る1つの方法は、各サイトが基本データエレメントを用いてコンテンツ連想的にシーブにアクセスしてリーフノードへのどのエントリを削除する必要があるかを判断できるように、すべてのサイトに基本データエレメントを、ツリー内の関連リンクへの必要な更新およびストアからのその基本データエレメントの削除とともに通信することによってである。別の方法は、基本データエレメントが存在しているリーフノード内の基本データエレメントについてのエントリの参照をすべてのサイトに通信することである。
ゆえに、Data Distillation(商標)装置を用いて、広域ネットワークのさまざまなサイトにわたって記憶されているデータのフットプリントを削減し、ネットワークの通信リンクを効率的に使用することができる。
図12C〜図12Kは、本明細書に記載のいくつかの実施形態に従う、さまざまな使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示す。
図12Cは、Data Distillation(商標)装置1203がどのように一組の入力ファイル1201を取込み、蒸留プロセスの完了後に一組の蒸留ファイル1205および基本データシーブまたは基本データストア1206を生成するかを示す。図12Cの基本データシーブまたは基本データストア1206自体は2つのコンポーネント、すなわち、図12Dに示すようなマッパー1207および基本データエレメント(またはPDE)1208で構成されている。
マッパー1207自体は内部に2つのコンポーネント、すなわち、ツリー全体を規定する一組のツリーノードデータ構造および一組のリーフノードデータ構造を有する。一組のツリーノードデータ構造は1つ以上のファイルに入れられ得る。同様に、一組のリーフノードデータ構造は1つ以上のファイルに入れられ得る。いくつかの実施形態では、ツリーノードファイルと称される1つのファイルが、所与のデータセット(入力ファイル1201)のために基本データエレメントについて作成されたツリーのための一組のツリーノードデータ構造全体を保持し、リーフノードファイルと称される別の1つのファイルが、そのデータセットのための基本データエレメントについて作成されたツリーのための一組のリーフノードデータ構造全体を保持する。
図12Dでは、基本データエレメント1208は、所与のデータセット(入力ファイル1201)のために作成された一組の基本データエレメントを含む。一組の基本データエレメントは1つ以上のファイルに入れられ得る。いくつかの実施形態では、PDEファイルと称される1つのファイルが、所与のデータセットのために作成された一組の基本データエレメント全体を保持する。
ツリーノードファイル内のツリーノードは、ツリーノードファイル内の他のツリーノードの参照を含む。ツリーノードファイル内のツリーノードの最深層(または最低レベル)は、リーフノードファイル内のリーフノードデータ構造へのエントリの参照を含む。リーフノードファイル内のリーフノードデータ構造へのエントリは、基本データエレメントの参照をPDEファイルに含む。
ツリーノードファイル、リーフノードファイル、およびPDEファイルは、装置によって作成されるすべてのコンポーネントの詳細を示す図12Eに示されている。図12Eは、ファイル1、ファイル2、ファイル3、…ファイルNと名付けられたN個のファイルを含む一組の入力ファイル1201を示しており、当該ファイルはData Distillation(商標)装置によって削減されて、一組の蒸留ファイル1205および基本データシーブのさまざまなコンポーネント、すなわち、ツリーノードファイル1209、リーフノードファイル1210、およびPDEファイル1211を生成する。蒸留ファイル1205は、file1.dist, file2.dist, file3.dist…fileN.distと名付けられたN個のファイルを含む。Data Distillation(商標)装置は入力データをその構成要素に因子分解し、2つのカテゴリのデータエレメント、すなわち基本データエレメントおよび導出エレメントを作成する。蒸留ファイルは無損失削減フォーマットのデータエレメントの記述を含み、PDEファイル内の基本データエレメントの参照を含む。入力ファイル1201内の各ファイルは、蒸留ファイル1205内の対応する蒸留ファイルを有する。たとえば、入力ファイル1201内のファイル1 1212は、蒸留ファイル1205内のfile1.distと名付けられた蒸留ファイル1213に対応する。
なお、図12Eは、図1Aに従う蒸留データおよび基本データストアの組織に基づいてData Distillation(商標)装置によって作成されたさまざまなコンポーネントを示しており、再構成プログラムは蒸留ファイル内のエレメントの無損失削減表現に入れられている。なお、(図1Bに従う)いくつかの実施形態では、再構成プログラムを基本データストアに入れて、それらを基本データエレメントと同様に取扱うことができる。蒸留ファイル内のエレメントの無損失削減表現は、(再構成プログラム自体を含むのではなく)基本データストア内の再構成プログラムの参照を含む。これらの実施形態では、再構成プログラムは基本データエレメントと同様に取扱われてPDEファイル1211内に生成される。さらに別の実施形態では、図1Cに従って、再構成プログラムは、基本データエレメントとは別個に、再構成プログラムストアと称される構造に記憶される。そのような実施形態では、蒸留ファイル内のエレメントの無損失削減表現は、再構成プログラムストア内の再構成プログラムの参照を含む。そのような実施形態では、図12Fに示すように、基本データエレメントのツリー組織のためのツリーノードファイル1209、リーフノードファイル1210およびPDEファイル1211を生成することに加えて、装置は、再構成ツリーノードファイル1219および再構成リーフノードファイル1220と称される第2の一組のツリーおよびリーフノードファイルを、RPファイル1221と称されるすべての再構成プログラムを含むファイルとともに生成する。
図12Eに示すData Distillation(商標)装置はさらに、ツリーノードファイル1209、リーフノードファイル1210、PDEファイル1211および蒸留ファイル1205の1つ以上における演算を支配する構成および制御情報を記憶する。あるいは、この情報を含む第5のコンポーネントが生成されてもよい。図12Fに示す装置と同様に、構成および制御情報は図12Fに示すさまざまなコンポーネントの1つ以上に記憶されてもよく、またはそれは、この目的で生成された別のコンポーネントに記憶されてもよい。
図12GはData Distillation(商標)装置の使用の概要を示しており、所与のデータセット(入力データセット1221)がData Distillation(商標)装置1203に送られ処理されて、無損失削減データセット(無損失削減データセット1224)が生成される。入力データセット1221は、ファイル、オブジェクト、ブロック、チャンク、またはデータストリームからの抽出の集まりで構成され得る。なお、図12Eは、データセットがファイルで構成される例を示す。図12Gの入力データセット1221は図12Eの入力ファイル1201に対応し、図12Gの無損失削減データセット1224は図12Eに示す4つのコンポーネント、すなわち、図12Eの蒸留ファイル1205、ツリーノードファイル1209、リーフノードファイル1210、およびPDEファイル1211を含む。図12Gでは、Data Distillation(商標)装置は、当該装置に提示される入力データセットの範囲全体にわたるデータエレメント同士の間の冗長を利用する。
Data Distillation(商標)装置は、入力データセットのサブセット全体にわたって冗長を利用し、当該装置に提示されるデータのサブセット毎に無損失削減を提供するように構成され得る。たとえば、図12Hに示すように、入力データセット1221は多数のより小さいデータの集まりにパーティション分割され得、各集りは本開示において「ロット」または「データのロット」または「データロット」と称される。図12Hは、入力データロット1224を取込んで無損失削減データロット1225を生成するように構成されたData Distillation(商標)装置を示す。図12Hは、データロット1、…データロットi、…データロットnである多数のデータの集まりで構成される入力データセット1221を示す。このデータは一度に1データロットずつData Distillation(商標)装置に提示され、各データロットの範囲全体にわたって冗長が利用されて無損失削減データロットが生成される。たとえば、入力データセット1221からのデータロットi1226が装置に送られ、無損失削減データロットi1228が無損失削減データセット1227に供給される。入力データセット1221からの各データロットは装置に送られ、対応する無損失削減データロットが無損失削減データセット1227に供給される。データロット1、…データロットi…データロットnのすべてを消費して削減すると、入力データセット1221は無損失削減データセット1227に削減される。
Data Distillation(商標)装置は、設計によって、データのグローバル範囲全体にわたって冗長を利用するのに既に効率的であるが、上記の技術を用いてデータ削減プロセスをさらに迅速化させ、その効率をさらに向上させてもよい。データ削減プロセスのスループットは、データロットのサイズをシステムの利用可能なメモリに収まることができるように制限することによって増加し得る。たとえば、サイズが多くのテラバイト、またはさらにはペタバイトである入力データセットを、各々のサイズがたとえば256GBである多数のデータロットに分割することができ、各データロットを迅速に削減することができる。256GBのメモリを有するシングルプロセッサコア(インテルXeon E5−1650 V3、Haswell 3.5Ghzプロセッサ)を用いて、256GBの範囲全体にわたって冗長を利用するそのようなソリューションが我々の研究所で実現され、さまざまなデータセットに対して2〜3倍の削減レベルを提供しつつ数百メガバイト/秒のデータの取込速度がもたらされた。なお、256GBの範囲は、Lempel Ziv法が現代のプロセッサに対して10MB/秒から200MB/秒の取込みパフォーマンスを提供するウインドウのサイズである32KBより何百万倍も大きい。ゆえに、冗長の範囲を適切に制限することによって、データ蒸留プロセスの速度の向上が、いくらかの削減を潜在的に犠牲にして達成され得る。
図12Iは図12Hのセットアップの変形を示しており、入力データセットのデータ削減(およびデータ再構成/取出し)のスループットを大きく高める複数のプロセッサ上で動作する複数のデータ蒸留プロセスを示す。図12Iは、x個のデータロットにパーティション分割された入力データセット1201を示しており、x個の独立したデータロットは、独立したプロセッサコア上で動作するj個の独立したプロセスに送り込まれ(各プロセスには、それに送り込まれるいずれかのデータロットを収容するのに十分なメモリが割当てられている)、並列に実行され、データ削減および再構成/取出しの両方について約j倍の迅速化をもたらす。図12Jは、使用モデルについてData Distillation(商標)装置によって生成される削減データのさまざまなコンポーネントを示しており、ここでは入力データセットの削減の後にマッパーをもはや保持しなくてもよい。そのような使用モデルの例として、ある種のデータバックアップおよびデータアーカイビングアプリケーションがある。そのような使用モデルでは、削減データの唯一のその後の使用は、削減データセットからの入力データセットの再構成および取出しである。そのようなシナリオでは、データ削減が完了した後にマッパーを記憶しないことによって、削減データのフットプリントをさらに削減することができる。図12Jは装置に送られる入力ファイル1201を示しており、当該装置は蒸留ファイル1205およびPDEファイル1211を生成する、これらコンポーネントはこのシナリオでは削減データを含む。なお、入力ファイル1201は、蒸留ファイル1205およびPDEファイル1211のみを用いて、完全に再生成および回復され得る。蒸留ファイル内のエレメント毎の無損失削減表現は、必要な場合は再構成プログラム、およびPDEファイル内の基本データエレメントの参照を含むことを思い起こされたい。PDEファイルと結合されると、これは再構成を実行するのに必要なすべての情報である。
なお、図12Jは、図1Aに従う蒸留データおよび基本データストアの組織に基づいてData Distillation装置によって作成されるさまざまなコンポーネントを示しており、再構成プログラムは蒸留ファイル内のエレメントの無損失削減表現に入れられる。なお、(図1Bに従う)いくつかの実施形態では、再構成プログラムを基本データストアに入れて、それらを基本データエレメントと同様に取扱うことができる。蒸留ファイル内のエレメントの無損失削減表現は、(再構成プログラム自体を含むのではなく)基本データストア内の再構成プログラムの参照を含む。これらの実施形態では、再構成プログラムは基本データエレメントと同様に取扱われてPDEファイル1211内に生成される。さらに別の実施形態では、図1Cに従って、再構成プログラムは、基本データエレメントとは別個に、再構成プログラムストアと称される構造に記憶される。そのような実施形態では、蒸留ファイル内のエレメントの無損失削減表現は、再構成プログラムストア内の再構成プログラムの参照を含む。そのような実施形態では、基本データエレメントのためのPDEファイルを生成することに加えて、装置は、RPファイルと称されるすべての再構成プログラムを含むファイルをさらに生成する。これは、使用モデルについての削減データのコンポーネントを示す図12Kに示されており、ここではマッパーをもはや保持しなくてもよい。図12Kは、蒸留ファイル1205、PDEファイル1211、およびRPファイル1221を含む削減されたデータコンポーネントを示す。
本明細書に記載の実施形態を用いてさまざまな実世界データベースに対してデータ削減を行い、これら実施形態の有効性を判定した。検討した実世界データベースとして、企業電子メールのエンロンコーパス、さまざまな米国政府記録および文書、MongoDB NOSQLデータベースに入力された米国運輸省記録、ならびに公衆が利用可能な企業のパワーポイントプレゼンテーションがある。本明細書に記載の実施形態を用いて、入力データを平均で4KBの可変サイズのエレメント(フィンガープリンティングによって境界が決まる)に因子分解すると、これらデータベース全体にわたって3.23倍の平均データ削減が達成された。3.23倍の削減は、削減データのサイズが3.23倍で割った元のデータのサイズと等しいことを意味しており、これによって31%の圧縮率の削減フットプリントがもたらされる。旧来のデータ重複排除技術は、同等のパラメータを用いてこれらデータセットに対して1.487倍のデータ削減を提供することがわかった。本明細書に記載の実施形態を用いて、入力データを4KBの固定サイズのエレメントに因子分解すると、これらデータセット全体にわたって1.86倍の平均データ削減が達成された。旧来のデータ重複排除技術は、同等のパラメータを用いてこれらデータセットに対して1.08倍のデータ削減を提供することがわかった。したがって、Data Distillation(商標)ソリューションは、旧来のデータ重複排除ソリューションよりもはるかに良好なデータ削減を提供することがわかった。
また、テストランでは、基本データエレメントのバイトの小さいサブセットがシーブ内のエレメントの大半を順序付けることによって、その演算のための最小の増分ストレージで済むソリューションを可能にすることがわかった。
これらの結果によって、Data Distillation(商標)装置は、エレメント自体よりも細かく、データセット全体にわたってグローバルにデータエレメント同士の間の冗長を利用することを効率的に可能にすることが確認された。この方法によって提供される無損失データ削減は、無駄のないデータアクセスおよびIOで、それら自体が最小の増分ストレージで済むデータ構造を使用して、かつ、現代のマルチコアマイクロプロセッサ上で利用可能な全計算処理能力のごく一部を用いて達成される。前節に記載の実施形態は、高速のデータ取込みおよびデータ取出しを提供しつつ、大型および超大型データセットに対する無損失データ削減を実行する、かつ従来の技術の欠点および制限を受けないシステムおよび技術を特徴とする。
上記の説明は、当業者が実施形態を行って用いることができるように提示されている。開示される実施形態に対するさまざまな変更が当業者に容易に明らかとなり、本明細書に定義される一般原理は本開示の精神および範囲から逸脱することなく他の実施形態および用途にも適用され得る。ゆえに、本発明は示される実施形態に限定されず、本明細書に開示される原理および特徴と一致した最も広範な範囲が与えられる。
本開示に記載のデータ構造およびコードは、コンピュータ読取可能記憶媒体および/またはハードウェアモジュールおよび/またはハードウェア装置上に部分的または完全に格納され得る。コンピュータ読取可能記憶媒体として、揮発性メモリ、不揮発性メモリ、ディスクドライブ、磁気テープ、CD(コンパクトディスク)、DVD(デジタル汎用ディスクもしくはデジタルビデオディスク)といった磁気および光学記憶装置、または現在公知のもしくは将来開発される、コードおよび/もしくはデータを格納可能な他の媒体があるがこれらに限定されない。本開示に記載のハードウェアモジュールまたは装置として、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、専用もしくは共有プロセッサ、および/または現在公知のもしくは将来開発される他のハードウェアモジュールもしくは装置があるがこれらに限定されない。
本開示に記載の方法およびプロセスは、コンピュータ読取可能記憶媒体または装置に格納されるコードおよび/またはデータとして部分的にまたは完全に具体化され得るので、コンピュータシステムが当該コードおよび/またはデータを読出して実行すると、コンピュータシステムは関連付けられた方法およびプロセスを実行する。当該方法およびプロセスはハードウェアモジュールまたは装置においても部分的にまたは完全に具体化され得るので、ハードウェアモジュールまたは装置は、起動されると、関連付けられた方法およびプロセスを実行する。なお、当該方法およびプロセスは、コード、データ、およびハードウェアモジュールまたは装置の組合せを用いて具体化されてもよい。
本明の実施形態の上記の説明は、例示および説明目的で提示されているに過ぎない。それらは網羅的であること、または本発明を開示された形態に限定することを意図していない。したがって、多くの変更および変形が当業者に明らかになるであろう。また、上記の開示は本発明を制限することを意図していない。

Claims (15)

  1. 無損失データ削減を実行するための方法であって、前記方法は、
    データ構造に含まれる複数の基本データエレメントの中から、データチャンクに基づ1つ以上の基本データエレメントを識別することを備え、
    前記データ構造は、前記複数の基本データエレメントの名前に基づいて、昇順または降順に前記複数の基本データエレメントを組織化し、
    前記識別することは、前記データチャンクの名前を用いて前記データ構造内をナビゲートすることによって、前記1つ以上の基本データエレメントを識別することを含み、前記方法はさらに、
    再構成プログラムを前記1つ以上の基本データエレメントに適用することによって前記データチャンクが再構成され得るように、前記データチャンクおよび前記1つ以上の基本データエレメントに基づいて前記再構成プログラムを決定することと、
    前記データチャンクの無損失削減表現を生成することとを備え、前記無損失削減表現は、前記1つ以上の基本データエレメント内の各基本データエレメントの参照と、前記再構成プログラムの記述とを含む、方法。
  2. 前記データ構造はツリーデータ構造であり、前記データ構造内をナビゲートすることは、前記ツリーデータ構造内の一連のエッジを横断することを備え、前記一連のエッジ内の各エッジは、前記データチャンクの名前の一部に対応し、前記ツリーデータ構造内のノードにナビゲートするために用いられる前記名前の各部分は、前記ノードをルートとするサブツリー内のすべての基本データエレメント内に存在するコンテンツに対応する、請求項1に記載の方法。
  3. 前記データチャンクの名前を用いて前記データ構造内をナビゲートすることは、前記データチャンクの名前の連続する部分を用いることによって前記データ構造内をナビゲートすることを含む、請求項1に記載の方法。
  4. 前記データチャンクの前記無損失削減表現を生成することは、(i)前記1つ以上の基本データエレメントの参照のサイズと、(ii)前記再構成プログラムの前記記述のサイズとの合計が前記データチャンクのサイズの所定割合未満であると判断したことに応答して行われ、
    前記方法はさらに、(i)前記1つ以上の基本データエレメントの前記参照の前記サイズと、(ii)前記再構成プログラムの前記記述の前記サイズとの合計が前記データチャンクの前記サイズの前記所定割合以上であると判断したことに応答して、
    前記データチャンクを、前記データ構造内の新たな基本データエレメントとして追加することと、
    前記データチャンクの第2の無損失削減表現を生成することとを備え、前記第2の無損失削減表現は前記新たな基本データエレメントの参照を含む、請求項1に記載の方法。
  5. 前記再構成プログラムの前記記述は一連の変換を指定し、前記一連の変換が前記1つ以上の基本データエレメントに適用されると、前記データチャンクがもたらされる、請求項1に記載の方法。
  6. 前記再構成プログラムの前記記述は、再構成プログラムストアに記憶されている第2の再構成プログラムの参照を含み、前記第2の再構成プログラムは一連の変換を指定し、前記一連の変換が前記1つ以上の基本データエレメントに適用されると、前記データチャンクがもたらされる、請求項1に記載の方法。
  7. 前記再構成プログラムの前記記述は、再構成プログラムストアに記憶されている第2の再構成プログラムの参照と、第3の再構成プログラムの記述とを含み、前記第3の再構成プログラムが前記第2の再構成プログラムに適用されると一連の変換がもたらされ、前記一連の変換が前記1つ以上の基本データエレメントに適用されると、前記データチャンクがもたらされる、請求項1に記載の方法。
  8. 前記方法はさらに、
    前記データチャンクの前記無損失削減表現を記憶装置に記憶することと、
    前記記憶装置から前記データチャンクの前記無損失削減表現を受信することとを備え、前記無損失削減表現は、前記1つ以上の基本データエレメントの参照と、前記再構成プログラムの前記記述とを含み、前記方法はさらに、
    前記1つ以上の基本データエレメントの前記参照に基づいて、前記データ構造から前記1つ以上の基本データエレメントを取出すことと、
    前記再構成プログラムを前記1つ以上の基本データエレメントに適用することによって前記データチャンクを生成することとを備える、請求項1に記載の方法。
  9. 前記方法はさらに、入力データを固定サイズのデータチャンクに因数分解することを備える、請求項1に記載の方法。
  10. 前記方法はさらに、入力データを可変サイズのデータチャンクに因数分解することを備える、請求項1に記載の方法。
  11. 前記可変サイズのデータチャンクの境界は、フィンガープリンティングプロセスを前記入力データに適用することによって決定される、請求項10に記載の方法。
  12. 前記データチャンクの前記無損失削減表現をネットワーク上で送信することと、
    記データ構造を前記ネットワーク上で送信することとをさらに備え、前記データ構造は、前記データチャンクの前記無損失削減表現を送信する前に、送信するのと同時に、または送信した後に送信される、請求項1に記載の方法。
  13. 無損失データ削減を実行するための装置であって、
    データ構造に含まれる複数の基本データエレメントの中から、データチャンクに基づ1つ以上の基本データエレメントを識別するための手段を備え、
    前記データ構造は、前記複数の基本データエレメントの名前に基づいて、昇順または降順に前記複数の基本データエレメントを組織化し、
    前記識別するための手段は、前記データチャンクの名前を用いて、前記データ構造内をナビゲートすることによって前記1つ以上の基本データエレメントを識別し、前記装置はさらに、
    再構成プログラムを前記1つ以上の基本データエレメントに適用することによって前記データチャンクが再構成され得るように、前記データチャンクおよび前記1つ以上の基本データエレメントに基づいて前記再構成プログラムを決定するための手段と、
    前記データチャンクの無損失削減表現を生成するための手段とを備え、前記無損失削減表現は、前記1つ以上の基本データエレメント内の各基本データエレメントの参照と、前記再構成プログラムの記述とを含む、装置。
  14. 前記データ構造はツリーデータ構造であり、前記データ構造内をナビゲートすることは、前記ツリーデータ構造内の一連のエッジを横断することを備え、前記一連のエッジ内の各エッジは、前記データチャンクの名前の一部に対応し、前記ツリーデータ構造内のノードにナビゲートするために用いられる前記名前の各部分は、前記ノードをルートとするサブツリー内のすべての基本データエレメント内に存在するコンテンツに対応する、請求項13に記載の装置。
  15. 前記データチャンクの前記無損失削減表現をネットワーク上で送信するための手段と、
    記データ構造を前記ネットワーク上で送信するための手段とをさらに備え、前記データ構造は、前記データチャンクの前記無損失削減表現を送信する前に、送信するのと同時に、または送信した後に送信される、請求項13に記載の装置。
JP2017553049A 2014-12-27 2015-12-22 コンテンツ連想シーブに存在している基本データエレメントからデータを導出することによるデータの無損失削減 Active JP6596102B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201462097070P 2014-12-27 2014-12-27
US62/097,070 2014-12-27
US14/685,191 2015-04-13
US14/685,199 US9286313B1 (en) 2014-12-27 2015-04-13 Efficient lossless reduction of data by deriving data from prime data elements resident in a content-associative sieve
US14/685,199 2015-04-13
US14/685,191 US9292584B1 (en) 2014-12-27 2015-04-13 Efficient data communication based on lossless reduction of data by deriving data from prime data elements resident in a content-associative sieve
PCT/US2015/067533 WO2016106397A1 (en) 2014-12-27 2015-12-22 Lossless reduction of data by deriving data from prime data elements resident in a content-associative sieve

Publications (3)

Publication Number Publication Date
JP2018501752A JP2018501752A (ja) 2018-01-18
JP2018501752A5 JP2018501752A5 (ja) 2018-09-27
JP6596102B2 true JP6596102B2 (ja) 2019-10-23

Family

ID=55450138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017553049A Active JP6596102B2 (ja) 2014-12-27 2015-12-22 コンテンツ連想シーブに存在している基本データエレメントからデータを導出することによるデータの無損失削減

Country Status (7)

Country Link
US (2) US9292584B1 (ja)
EP (1) EP3238344B1 (ja)
JP (1) JP6596102B2 (ja)
KR (1) KR102496954B1 (ja)
CN (1) CN107210753B (ja)
TW (1) TWI676903B (ja)
WO (1) WO2016106397A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9582514B2 (en) 2014-12-27 2017-02-28 Ascava, Inc. Performing multidimensional search and content-associative retrieval on data that has been losslessly reduced using a prime data sieve
US10387374B2 (en) 2015-02-27 2019-08-20 Exagrid Systems, Inc. Scalable grid deduplication
US10073855B2 (en) * 2015-05-21 2018-09-11 Exagrid Systems, Inc. Dynamic and optimized management of grid system resources
CN107852173B (zh) * 2015-06-15 2022-04-12 阿斯卡瓦公司 对无损简化的数据执行搜索和取回的方法以及装置
US10303656B2 (en) 2015-08-13 2019-05-28 Exagrid Systems, Inc. Parallelizing and deduplicating backup data
US11150997B2 (en) 2015-08-19 2021-10-19 Exagrid Systems, Inc. Adaptive bandwidth management of a replication process
CN107153647B (zh) * 2016-03-02 2021-12-07 北京字节跳动网络技术有限公司 进行数据压缩的方法、装置、***和计算机程序产品
US10509780B2 (en) * 2016-06-03 2019-12-17 Dell Products L.P. Maintaining I/O transaction metadata in log-with-index structure
US10303402B2 (en) 2016-08-02 2019-05-28 Seagate Technology Llc Data compression using partial statistics
JP6857068B2 (ja) * 2017-03-31 2021-04-14 アズビル株式会社 時系列データ記録方法および装置
EP3616405A4 (en) * 2017-04-28 2021-01-13 Ascava, Inc. LOSS-FREE DATA REDUCTION VIA A PRIMARY DATA SIEVE AND PERFORMANCE OF MULTIDIMENSIONAL SEARCH AND ASSOCIATIVE CONTENT RECOVERY ON LOSS-FREE REDUCED DATA USING A PRIMARY DATA SIEVE
KR102557384B1 (ko) * 2018-02-14 2023-07-19 삼성전자주식회사 전자장치 및 그 제어방법
CN110610450B (zh) * 2018-06-15 2023-05-05 伊姆西Ip控股有限责任公司 数据处理方法、电子设备和计算机可读存储介质
US10866928B2 (en) 2018-09-10 2020-12-15 Netapp, Inc. Methods for optimized variable-size deduplication using two stage content-defined chunking and devices thereof
KR102208364B1 (ko) * 2018-10-19 2021-01-28 펌킨네트웍스(주) 트래픽 최적화 장치 및 그 방법
US20220066994A1 (en) * 2018-12-13 2022-03-03 Ascava, Inc. Efficient retrieval of data that has been losslessly reduced using a prime data sieve
US11263116B2 (en) 2019-01-24 2022-03-01 International Business Machines Corporation Champion test case generation
US11010285B2 (en) 2019-01-24 2021-05-18 International Business Machines Corporation Fault detection and localization to generate failing test cases using combinatorial test design techniques
US11099975B2 (en) 2019-01-24 2021-08-24 International Business Machines Corporation Test space analysis across multiple combinatoric models
US11106567B2 (en) 2019-01-24 2021-08-31 International Business Machines Corporation Combinatoric set completion through unique test case generation
US11010282B2 (en) 2019-01-24 2021-05-18 International Business Machines Corporation Fault detection and localization using combinatorial test design techniques while adhering to architectural restrictions
US10970195B2 (en) 2019-06-13 2021-04-06 International Business Machines Corporation Reduction of test infrastructure
US11036624B2 (en) 2019-06-13 2021-06-15 International Business Machines Corporation Self healing software utilizing regression test fingerprints
US11232020B2 (en) 2019-06-13 2022-01-25 International Business Machines Corporation Fault detection using breakpoint value-based fingerprints of failing regression test cases
US11422924B2 (en) 2019-06-13 2022-08-23 International Business Machines Corporation Customizable test set selection using code flow trees
US10963366B2 (en) 2019-06-13 2021-03-30 International Business Machines Corporation Regression test fingerprints based on breakpoint values
US10990510B2 (en) 2019-06-13 2021-04-27 International Business Machines Corporation Associating attribute seeds of regression test cases with breakpoint value-based fingerprints
US10970197B2 (en) 2019-06-13 2021-04-06 International Business Machines Corporation Breakpoint value-based version control
WO2021231255A1 (en) 2020-05-11 2021-11-18 Ascava, Inc. Exploiting locality of prime data for efficient retrieval of data that has been losslessly reduced using a prime data sieve
US20230315606A1 (en) * 2022-03-30 2023-10-05 Vast Data Ltd. File systems capacity estimation

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2505980B2 (ja) * 1993-04-16 1996-06-12 インターナショナル・ビジネス・マシーンズ・コーポレイション 静的辞書作成方法及びコンピュ―タ実行システム
JPH0916149A (ja) * 1995-04-28 1997-01-17 Canon Inc 文字処理装置、文字処理方法、及び、メモリ
KR100354531B1 (ko) * 1998-05-06 2005-12-21 삼성전자 주식회사 실시간 복호화를 위한 무손실 부호화 및 복호화 시스템
CN1437738A (zh) * 2000-01-03 2003-08-20 埃菲克塔技术股份有限公司 数据发送和存储的有效且无损耗转换
JP3416647B2 (ja) * 2000-12-28 2003-06-16 株式会社メディアドゥ インターネット上のWebコンテンツのデータ量を削減して中継転送するコンテンツ中継サービス装置
CN1568466A (zh) * 2001-09-26 2005-01-19 交互设备有限公司 用于传递媒体信号的***和方法
US7599434B2 (en) * 2001-09-26 2009-10-06 Reynolds Jodie L System and method for compressing portions of a media signal using different codecs
WO2006052242A1 (en) * 2004-11-08 2006-05-18 Seirad, Inc. Methods and systems for compressing and comparing genomic data
US7365658B2 (en) * 2006-02-28 2008-04-29 The Board Of Trustees Of The University Of Arkansas Method and apparatus for lossless run-length data encoding
EP1852848A1 (en) * 2006-05-05 2007-11-07 Deutsche Thomson-Brandt GmbH Method and apparatus for lossless encoding of a source signal using a lossy encoded data stream and a lossless extension data stream
US7885988B2 (en) * 2006-08-24 2011-02-08 Dell Products L.P. Methods and apparatus for reducing storage size
BRPI0821803A2 (pt) * 2007-12-21 2015-06-16 Koninkl Philips Electronics Nv Método para transferir dados de imagem a partir de um servidor para pelo menos um cliente, meio legível de computador para uso por um computador, e, sistemas para transferir dados de imagem e para transferir imagens a partir de um servidor para um cliente
US8751462B2 (en) 2008-11-14 2014-06-10 Emc Corporation Delta compression after identity deduplication
US8522125B1 (en) * 2010-04-09 2013-08-27 The Research Foundation Of State University Of New York System and method for efficient horizontal maximum distance separable raid
US8694703B2 (en) * 2010-06-09 2014-04-08 Brocade Communications Systems, Inc. Hardware-accelerated lossless data compression
CN102360381B (zh) * 2011-09-29 2014-03-12 深圳众为兴技术股份有限公司 一种对嵌入式程序进行无损压制的装置和方法
US9703796B2 (en) * 2011-12-06 2017-07-11 Brocade Communications Systems, Inc. Shared dictionary between devices
US8868505B1 (en) * 2012-03-20 2014-10-21 Emc Corporation Systems and methods for protecting data in a network host environment
US9659077B2 (en) * 2012-06-18 2017-05-23 Actifio, Inc. System and method for efficient database record replication using different replication strategies based on the database records
US20140006536A1 (en) * 2012-06-29 2014-01-02 Intel Corporation Techniques to accelerate lossless compression
CN103746702B (zh) * 2013-12-17 2017-01-11 记忆科技(深圳)有限公司 数据的无损压缩方法与装置

Also Published As

Publication number Publication date
EP3238344A1 (en) 2017-11-01
EP3238344B1 (en) 2022-03-09
KR20170104509A (ko) 2017-09-15
CN107210753A (zh) 2017-09-26
TWI676903B (zh) 2019-11-11
TW201635173A (zh) 2016-10-01
US9286313B1 (en) 2016-03-15
WO2016106397A1 (en) 2016-06-30
US9292584B1 (en) 2016-03-22
CN107210753B (zh) 2021-03-09
KR102496954B1 (ko) 2023-02-08
JP2018501752A (ja) 2018-01-18
EP3238344A4 (en) 2018-05-16

Similar Documents

Publication Publication Date Title
JP6596102B2 (ja) コンテンツ連想シーブに存在している基本データエレメントからデータを導出することによるデータの無損失削減
US11947494B2 (en) Organizing prime data elements using a tree data structure
JP7122325B2 (ja) 基本データシーブの使用によるデータの無損失削減、ならびに基本データシーブを使用して無損失削減されたデータに対する多次元検索およびコンテンツ連想的な取出しの実行
JP6726690B2 (ja) 基本データシーブを用いて無損失削減されたデータに対する多次元検索、コンテンツ連想的な取出し、ならびにキーワードベースの検索および取出しの実行
US20230198549A1 (en) Exploiting locality of prime data for efficient retrieval of data that has been losslessly reduced using a prime data sieve
JP6846426B2 (ja) 音声データおよびブロック処理ストレージシステム上に記憶されたデータの削減
TWI816954B (zh) 用於重建無損地縮減的資料塊的序列的方法和設備,用於確定主要資料元件的元資料的方法和設備,及儲存媒體

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180820

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190927

R150 Certificate of patent or registration of utility model

Ref document number: 6596102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250