JP3609599B2 - ノード代理システム、ノード監視システム、それらの方法、及び記録媒体 - Google Patents

ノード代理システム、ノード監視システム、それらの方法、及び記録媒体 Download PDF

Info

Publication number
JP3609599B2
JP3609599B2 JP01922398A JP1922398A JP3609599B2 JP 3609599 B2 JP3609599 B2 JP 3609599B2 JP 01922398 A JP01922398 A JP 01922398A JP 1922398 A JP1922398 A JP 1922398A JP 3609599 B2 JP3609599 B2 JP 3609599B2
Authority
JP
Japan
Prior art keywords
node
nodes
monitoring
address
proxy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01922398A
Other languages
English (en)
Other versions
JPH11220466A (ja
Inventor
良樹 田中
易男 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP01922398A priority Critical patent/JP3609599B2/ja
Priority to US09/226,239 priority patent/US6633538B1/en
Publication of JPH11220466A publication Critical patent/JPH11220466A/ja
Application granted granted Critical
Publication of JP3609599B2 publication Critical patent/JP3609599B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • H04L12/437Ring fault isolation or reconfiguration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • H04L12/423Loop networks with centralised control, e.g. polling

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、複数のノードが接続されたネットワークにおいて、障害等により停止したノードの機能を代理するシステムに関し、より詳しくは、ネットワーク監視によって停止していることが検出されたノード、または指示によって停止されたノードの機能を自動的に代理するシステムに関する。
【0002】
【従来の技術】
近年、コンピュータの急速な普及に伴い、多くの処理がコンピュータによって行われるようになってきている。こうしたコンピュータ化は、大量のデータ処理を効率的するだけでなく、ネットワークを介して、多くの情報を世界中の様々な場所に向けて速く伝達できる。その結果、特にネットワークによってインターネットや社内LAN等に接続されたコンピュータは、産業活動を始めとする多くの活動に関して、不可欠な存在となっている。
【0003】
こうして、ネットワークやそのネットワークに接続されたコンピュータ・ノードの重要性が増大するにつれて、ネットワーク上で様々な機能を提供する該ノードの障害を早期に検知し、迅速に適切な対処を行うシステムの必要性が高まってきている。
【0004】
ノードの監視を行う従来の監視装置は、監視対象のノードが固定的に設定されたものである。前記監視装置は、所定の間隔で監視対象のノード(1つまたは複数)に信号を送信し、該ノードがその信号に応答して前記監視装置に応答信号を返信してくることを確認することによって、該ノードが正常に稼働していることを判断する。この信号は一般にハートビート信号と呼ばれ、こうしたノードの確認は、通常ヘルスチェックまたはアライブチェックと呼ばれる。ヘルスチェックまたはアライブチェックは、前述した単純な方法のみでなく、必要に応じて、アプリケーション・レベル等の様々なレベルで行われ、ノードが提供する特定の機能が正常かどうかを確認することもできる。
【0005】
また、前記監視装置は、監視専用の装置(ノード)として配置されることが多く、そのノード自体に障害が発生した場合は、該監視装置を監視している装置(ノード)はなく、当然ながら他のノード等に、該監視装置が停止したことを通知することはできない。
【0006】
監視対象のノードに対しては、事前に待機系(バックアップ)のノードが準備されることが多く、監視対象のノードに障害が発生した時点で待機系のノードに完全に切り替えられるというハードウエア的な2重化方法がとられる。待機系のノードは、監視対象のノードの通常運用時、即ち運用系である監視対象のノードが正常に稼働している間は、待機系としての性格上、例えば、監視対象のノードの監視という処理以外は何も機能しないことが多く、そのために、その待機系ノードの資源や能力を充分に活用できていない。
【0007】
また、現状ではネットワーク上に存在する複数のノードの状態を一元管理し、その運用を制御するには、制御手順、及びノード相互間における定義の設定が複雑であり、高価な専用システムを必要とする。
【0008】
また更に、ネットワークを介して、例えば、不特定多数のユーザに、ある資源を提供する資源サーバとして機能するノードにおいては、その資源の内容(コンテンツ)を更新する必要がある場合に、該ノードが提供するサービスを一時的に停止せざるを得ない状況が生じていた。
【0009】
【発明が解決しようとする課題】
前述の通り、従来の監視装置では、監視を行うノード自身は監視対象とならず、そのノードに障害が発生した場合に、その事実を他のノードに通知することができない。
【0010】
更に、監視対象のノードを2重化するためには、そのノード専用の待機系(バックアップ)のノードが必要であり、監視対象のノードが正常に稼働している間は、待機系のノードの資源や能力が有効に活用されていない。
【0011】
また、ネットワーク上に存在する複数のノードの状態を一元管理し、その運用を制御するには、制御手順、及びノード相互間における定義の設定が複雑であり、高価な専用システムが必要である。
【0012】
更に、資源サーバとして機能するノードの資源の内容を更新する場合には、前記ノードが提供するサービスを一時的に停止せざるを得なかった。
そこで、本発明は、前記課題を解決するために、ネットワーク上の複数のノードのうち1つをマスタノード、残りの少なくとも1つをスレーブノードとして設定し、ノードの障害の検知、スケジュールの発生、または資源複製の依頼通知等による各種イベントの発生に応答して、該イベントにより停止したノードが提供していた機能を他のノードが代理し、または該イベントにより停止したノードが監視していたノードを他のノードが監視するように制御可能なシステムを提供することを目的とする。
【0013】
さらに本発明は、制御用のノードを使用して、複数のノードの状態を一元管理し、その運用を制御するシステムを安価に提供することを目的とする。
【0014】
【課題を解決するための手段】
上記本発明の課題を解決するための請求項1に記載のノード代理システムは、ネットワーク上の複数のノードがそれぞれ提供する機能を代理するノード代理システムにおいて、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定し、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定し、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理手段と、前記各ノードにおいて監視対象のノードの障害を検知し、該障害を検知したノードが、該監視対象のノードが提供していた機能及び、該監視対象のノードが監視していた他のノードの監視を代理して行う障害監視・代理手段を有するように構成される。これによって、他のノードを有効に使用してノードの監視を行うことができ、あるノードに障害が生じても、そのノードの機能が動的に、そのノードを監視しているノードで代理されるため、システム資源を有効に活用しながら、システム全体の安全性を向上させることができる。
【0015】
請求項9に記載のノード代理システムは、ネットワーク上の複数のノードがそれぞれ提供する機能を代理するノード代理システムにおいて、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定し、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定し、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理手段と、該複数のノードのうち1つをマスタノードとし、その他のノードの少なくとも1つをスレーブノードとして設定し、該マスタノードから該少なくとも1つのスレーブノードに対して資源を複製させ、該複製の間に、該マスタノードに、該スレーブノードの提供していた機能を代理して行わせる資源複製手段を有するように構成される。これによって、ノードに資源の更新が必要になった場合でも、そのノードを停止させる必要がなく、資源の更新の間でも、利用ユーザに機能(サービス)を無停止で提供できる。
【0016】
請求項25に記載のノード監視システムは、ネットワーク上の複数のノードが、他のノードの障害を監視するノード監視システムにおいて、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定し、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定し、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理手段と、前記各ノードにおいて監視対象のノードの障害を検知し、該障害を検知したノードが、該監視対象のノードが監視していた他のノードの監視を代理して行う障害監視手段を有するように構成される。これによって、システム内で運用されている全てのノードについて監視を行うことができ、信頼性の高い監視システムを構築することができる。
【0017】
【発明の実施の形態】
以下に、本発明の実施の形態の例について、図面を参照して説明する。尚、各図において、同一または類似のものには同一の参照番号または、記号を付与して説明する。
【0018】
図1は、本発明の実施例のノード代理システム100のシステム構成を示すブロック図である。ノード代理システム100は、マスタノード110、複数のスレーブノード120(スレーブノード1(120A)、スレーブノード2(120B)、スレーブノード3(120C)...)、制御用ノード130、及びネットワーク140を含む。
【0019】
なお、以降の説明においては、スレーブノードを一般的あるいは集合的に表現する場合には、スレーブノード120という用語を用い、個別のスレーブノードを特定して表現する場合には、スレーブノード1、スレーブノード2などの用語を用いることとする。
【0020】
前記マスタノード110、複数のスレーブノード120及び制御用ノード130は、それぞれ前記ネットワーク140に接続されいる。ここでネットワーク140は、多くのユーザ・コンピュータ・ノードと接続可能なインターネット、社内LAN、MAN、WAN等あらゆる形態や規模のネットワークを含むものである。
【0021】
前記実施例のノード代理システム100においては、ネットワーク140上の複数のノードのうち1つをマスタノード110、その他をスレーブノード120とする。以降の説明において単に「ノード」という場合には、マスタノード110及びスレーブノード120の両方を含む一般的な概念のノードを指すものとする。また、マスタノード110及びスレーブノード120とは別に、制御用ノード130を任意に設定することができる。ネットワーク140上の各ノードには、ネットワーク140上で各ノードを一意に識別するためのアドレスを有することができる。このうち、実アドレスは、ノード固有の各ハードウエアに対応するアドレスであり、仮想アドレスは、通常各ノードで提供される機能がネットワーク通信等の処理で使用する、一時的に設定可能な一意のアドレスである。ノード間でのデータ及び命令の送受信は、どちらのアドレスを用いても行うことができる。
【0022】
本実施例では、上記実アドレス、仮想アドレスとして、それぞれ実IPアドレス、仮想IPアドレスが用いられているが、これは近年のインターネットの普及に伴い特に一般的となったTCP/IPプロトコルにおいて用いられるIPアドレスを例示のために用いたに過ぎず、所定のネットワーク上で、あるプロトコルを使用することによって該ネットワークに接続されたノードを特定することができる限り、他の種類のアドレスについて応用することができる。
【0023】
本実施例のマスタノード110は、処理部111及びマスタ用データ112を備える。処理部111は、起動管理機能111A、障害監視・代理機能111B、及び資源複製機能111C等の各機能を有する。また、マスタ用データ112は、アドレス管理テーブル112A、監視アドレスリスト112B、及びスケジュールテーブル112C等を含む。
【0024】
前記起動管理機能111Aは、マスタノード110の起動時に前記アドレス管理テーブル112A内のアドレスを参照して、そのノードがマスタノードとして機能し、特定のアドレスのノードを監視するよう設定する。
【0025】
前記障害監視・代理機能111Bは、マスタノード110が他のスレーブノード120の障害を検知した場合に、該障害によって停止したスレーブノード120が提供していた機能と、該スレーブノード120が監視すべきノードの監視を引き継いで実行する。
【0026】
前記資源複製機能111Cは、資源複製を行う対象のスレーブノード120に資源複製依頼通知を送信し、該通知の受信により各スレーブノード120が停止すると、その各スレーブノード120が提供していた機能(サービス)及び他のノードの監視を他のスレーブノード120またはマスタノード110に代理させ、その間にマスタノード110で保持する最新の資源を各スレーブノード120に複製させる。
【0027】
次に、マスタ用データ112内の各データについて説明する。アドレス管理テーブル112Aは、各エントリが図2に示されるようなアドレス名とIPアドレスからなるテーブルである。アドレス名がマスタ仮想IPアドレスのエントリに対応するIPアドレスは例えば、172.16.0.1であり、これは、マスタノード110として機能するために使用されるアドレスである。アドレス名がノード1実IPアドレスのエントリに対応するIPアドレスは例えば、172.16.1.1であり、アドレス名がノード1仮想IPアドレスのエントリに対応するIPアドレスは例えば、172.16.2.1である。これらのIPアドレスは、あるノード(例えば、マスタノード110)の実IPアドレスと仮想IPアドレスである。 アドレス名がノード2実IPアドレスのエントリに対応するIPアドレスは例えば、172.16.1.2であり、アドレス名がノード2仮想IPアドレスに対応するエントリのIPアドレスは例えば、172.16.2.2である。これらのIPアドレスは、別のノード(例えば、スレーブノード120の1つであるスレーブノード1)の実IPアドレスと仮想IPアドレスであり、以降のエントリに、同様に、各ノードに割り当てられた実IPアドレスと仮想IPアドレスの組が設定されている。
【0028】
監視アドレスリスト112Bは、そのノード(ここではマスタノード110)が監視する実IPアドレスを格納する。通常は、前記アドレス管理テーブル112A上のマスタノード110の仮想IPアドレス(ノード1仮想IPアドレス)が設定されたエントリの次のエントリの実IPアドレス、即ちスレーブノード1のノード実IPアドレスが含まれているが、その監視対象の実IPアドレスに障害が発生した場合は、その障害の発生したノードが監視すべきノードの実IPアドレスもこのリストに含まれるようになる。
【0029】
スケジュールテーブル112Cは、後述する制御用ノード130のスケジュール指定機能131Bによって指定されたスケジュールをノード毎に記憶する。このスケジュールは、いつ、どのノードにどのような作業を行わせるかを定義するものである。このテーブル112Cは、事前に指定されて、マスタノード110内、制御用ノード130内、またはその他の適当な場所に格納されていてもよい。
【0030】
本実施例のスレーブノード120は、処理部121及びスレーブ用データ122を備える。処理部121は、起動管理機能121A、障害監視・代理機能121B、及び資源複製機能121C等の各機能を含む。また、スレーブ用データ122は、アドレス管理テーブル122A、及び監視アドレスリスト122Bを含む。
【0031】
図1に示すように、スレーブノード120はスレーブノード1(120A)以外に、複数設定することができるが(例えば、スレーブノード2(120B)、スレーブノード3(120C)...)、これらの構成はスレーブノード1(120A)について示するものと同様である。以下では、スレーブノード1(120A)について説明する。
【0032】
前記起動管理機能121Aは、スレーブノード120の起動時にマスタノード110内のアドレス管理テーブル112Aを取得・参照し、または自身のノード内のアドレス管理テーブル122Aを参照し、そのノードがスレーブノード120として機能し、特定のアドレスのノードを監視するよう設定する。この時、マスタノード110のアドレス管理テーブル112Aを取得・参照した場合、この内容はスレーブノード120内のアドレス管理テーブル122Aとして保存される。
【0033】
前記障害監視・代理機能121Bは、他のノードの障害を検知した場合に、障害によって停止したノードが提供していた機能と、該ノードが監視すべきノードの監視を引き継いで実行する。停止したノードがマスタノード110である場合は、そのスレーブノード120はマスタノード110としても機能するよう設定される。
【0034】
前記資源複製機能121Cは、マスタノード110から資源複製依頼通知を受信すると、自身のノードを停止させる。そして、自己の資源を、マスタノード110から受信する資源に更新した後、マスタノード110によって代理されていた自身のノードが提供すべき機能を再開させる。
【0035】
次に、スレーブ用データ122内の各データについて説明する。アドレス管理テーブル122Aは、前述のように、マスタノード110のマスタ用データ112内のアドレス管理テーブル112Aからコピーされたものであり、前記テーブル112Aと同じ内容、及び構成を有する。
【0036】
監視アドレスリスト122Bは、そのノード(ここではスレーブノード120)が監視するノードの実IPアドレスを格納する。通常は、前記アドレス管理テーブル(112Aまたは122A)の該ノードの仮想IPアドレス(例えば、ノード2仮想IPアドレス)が設定されたエントリの次のエントリの実IPアドレス(例えば、ノード3実IPアドレス)が含まれているが、その監視対象のノードに障害が発生した場合は、その障害の発生したノードが監視すべきノードの実IPアドレスもこのリストに含まれるようになる。
【0037】
次に、本実施例の制御用ノード130について説明する。制御用ノード130は、処理部131、表示部132、及び入力部133を備える。処理部131は、資源複製指示機能131A、スケジュール指定機能131B、ノード設定機能131C、及びノード状態表示・制御機能131D等の機能を含んでいる。
【0038】
資源複製指示機能131Aは、所望の資源をマスタノード110からスレーブノード120に複製させるために、制御用ノード130の表示部132に資源複製指示画面を表示させ、該画面を介して、システム管理者などのユーザが、入力部133から、マスタノード110に対し、指定されたスレーブノード120に対する資源複製処理を実行するように指示することを可能とするためのインタフェースを提供する。資源複製指示機能131Aは該ユーザからの指示に従い、前述のマスタノード110の資源複製機能111C、及びスレーブノード120の資源複製機能121Cを起動させて資源の複製を行わせる。
【0039】
スケジュール指定機能131Bは、システム管理者などのユーザが、いつ、どのノードにどのような作業を行わせるかといったスケジュールを入力するための指定画面を、制御用ノード130の表示部132に表示させ、該指定画面を介して、該ユーザが入力部133から上記スケジュールを入力できるためのインタフェース機能を提供する。スケジュール指定機能131Bは、該インタフェースを介して該ユーザにより設定されたスケジュールを、ネットワーク140を介してマスタノード110のスケジュールテーブル112Cに記憶させ、マスタノード110に対し、該スケジュールに従って、指定された時刻に、指定された作業を指定されたノードに実行させる。
【0040】
ノード設定機能131Cは、システム管理者などのユーザが、各ノードに対して、そのノードをマスタノード110として設定するかどうかや、そのノードの実IPアドレス、仮想IPアドレス(マスタ仮想IPアドレス、ノード仮想IPアドレス)、及び監視対象の実IPアドレス等を設定するために用いられるノード設定画面を、制御用ノード130の表示部132に表示させ、該ユーザが、該ノード設定画面に対して、入力部133から上記設定情報を入力できるためのインタフェースを提供する。該ユーザにより設定された内容は、マスタノード110のアドレス管理テーブル112A等に反映される。
【0041】
ノード状態表示・制御機能131Dは、各ノードが正常に運用されているか、または代理運用されているかといった状態を表示部132に表示し、その表示画面を介して各ノードを停止させるなどの変更を可能とする。ノード状態表示・制御機能131Dは、制御用ノード130の表示部132にノード状態表示・制御画面を表示し、システム管理者などのユーザがその画面を介して、入力部133から入力した指定情報に従って、各ノードの運用をマスタノード110等を介して制御する。
【0042】
表示部132は通常、CRTディスプレイなどの表示装置であり、入力部133は、前記表示部132上の表示画面に対して指示を行うためのキーボードやマウスなどの入力装置である。
【0043】
次に、図3〜図12を用いて、本実施例をより詳細に説明する。
図3には、本実施例による監視が行われている態様が概念的に示されている。まず、ノード1をマスタノード110と定義し、ノード2〜ノード6はそれぞれスレーブノード1〜スレーブノード5と定義する。この例では、ノード1はノード2を監視し、ノード2はノード3を監視し、ノード3はノード4を監視し、以降同様に次のノードを監視するように設定されている。これは、前述のアドレス管理テーブル112A、122Aにおいて、各ノードの仮想IPアドレスが設定されたエントリの次のエントリの実IPアドレスを有するノードを監視する(ただし、最後のエントリのノードはアドレス管理テーブル112A、122Aの先頭のエントリ(マスタ仮想IPアドレス)の次のエントリの実IPアドレスを有するノードを監視する)という規則に従うようになっている。
【0044】
図3においては、ノード1〜ノード6は、各ノードの監視の方向を示した実線の矢印で接続され、一見、各ノードが全体としてリング状に接続されているように見えるが、これはあくまでも監視状態を表す論理的接続形態であって、各ノードがリング型のLANで物理的に接続されていることを表しているわけではないことに注意すべきである。各ノードは、リング型、スター型、バス型、及びその他の任意のトポロジーのネットワーク接続形態で接続されうる。また、監視は、監視対象のノードの実IPアドレスを用いて行われるので、ノード間を接続する形態や経路には関係ない。
【0045】
図4は、マスタノード110及びスレーブノード120の起動管理機能111A、121Aの処理フローを示すものである。マスタノード110及びスレーブノード120は、電源投入時または再起動時に、自身のノードがマスタノード110として設定されているか、またはスレーブノード120として設定されているかを判定する(ステップS101)。これは、各ノードの記憶装置内に、自身のノードがマスタノード110であることを示すマスタ識別情報があるかどうかを判断することによって、またはデータサーバ等の共有記憶域内等に記憶された、マスタノード110がどのノードであるかを示すマスタ識別情報に基づいて判断することなどによって行われる。この情報(不図示)は、前述のように、制御用ノード130のノード設定機能131Cによって設定される。
【0046】
電源投入または再起動されたノードがマスタノード110かどうか判定され、マスタノード110であった場合(ステップS101、Yes)、マスタノード立ち上げ処理に進む(ステップS102)。マスタノード立ち上げ処理においては、基本的に通常の立ち上げ処理(OSの起動やネットワークインタフェースボードのイニシャライズ等)が行われる。次に、ステップS103に進み、仮想IPアドレス処理を行う。この処理は、マスタノード110に関するアドレス設定を行うものであり、詳細については、図5を用いて後で説明する。この処理が終わると、そのノードが通常行う処理の実行を開始する(ステップS104)。
【0047】
ノードがスレーブノード120である場合(ステップS101、No)、スレーブノード立ち上げ処理に進む(ステップS105)。スレーブノード立ち上げ処理においては、基本的に通常の立ち上げ処理(OSの起動やネットワークインタフェースボードのイニシャライズ等)が行われる。次に、ステップS106に進み、仮想IPアドレス処理を行う。この処理は、スレーブノード120に関するアドレス設定を行うものであり、詳細については、図5を用いて後で説明する。この処理が終わると、そのノードが通常行う処理の実行を開始する(ステップS107)。
【0048】
ステップS104及びステップS107における通常処理は、ノードのシャットダウン等により終了する。
図5には、図4のマスタノード110の仮想IPアドレス処理(ステップS103)、及びスレーブノード120の仮想IPアドレス処理(ステップS106)に関する詳細なフローが示されている。最初に、ステップS201で、ノードがマスタノード110かスレーブノード120かの判断が行われる。
【0049】
ノードがスレーブノード120であると判断された場合(ステップS201、No)、ステップS202において、マスタノード110のアドレス管理テーブル112Aから、自身のノードの実IPアドレスに対応する仮想IPアドレスを取得する。ここでは説明を簡単にするために、ステップS202が処理される時点でマスタノード110が有効に稼働していることを前提としている。この時点でマスタノード110が存在しないか、または正常に稼働していない場合は、マスタノード110が稼働していないことを他のノードに通知したり、マスタノード110の稼働を待ったり、または他のいずれかのノードでマスタノード110を稼働させるなど、必要に応じた対処を行うことができる。また、マスタノード110が稼働していないことによって、マスタノード110に接続されたアドレス管理テーブル112Aを参照する事もできなくなるが、このような場合には、スレーブノード120のアドレス管理テーブル122Aを使用することができる。 その後、ステップS203において、その仮想IPアドレス宛に確認パケットを送信する。次に、そのパケットに対する応答の有無が判定され(ステップS204)、該パケットに対する応答があった場合(ステップS204、Yes)、その仮想IPアドレスは既に他のノードで使用されていることになり、当該ノードでの使用はできない。その場合、処理はステップS205に進み、この事象を通知するような所定のエラー処理を行う。このエラー処理については、様々な態様が考えられるが、詳細な説明は省略する。
【0050】
上記パケットに対する応答がない場合(ステップS205、No)、その仮想IPアドレスは他のノードで使用されていないことを示し、従って、ステップS206で前記仮想IPアドレスを有効にする。この仮想IPアドレスを有効にすることによって、当該ノードにネットワーク140等を介して接続された他のノードは、当該ノードに対し、この仮想IPアドレスを使用してアクセスする事ができる。逆に、当該ノードにおいて、この仮想IPアドレスを無効にすれば、他のノードが、その仮想IPアドレスを使用することができ、もはや、その仮想IPアドレスを使用しては、当該ノードにアクセスする事ができない。
【0051】
次に、アドレス管理テーブル112Aから監視対象のノードの実IPアドレスを取得し(ステップS207)、その実IPアドレスが正常に稼働しているかどうかをヘルスチェックにより確認する(ステップS208)。こうしたヘルスチェックは、図4の通常処理(ステップS107)に進んでも、所定の間隔で行われる。
【0052】
この時点での監視対象は、前記アドレス管理テーブル112Aにおいて、各ノードに対応する仮想IPアドレスが設定されたエントリの次のエントリに設定された実IPアドレスを有するノードである。ここでスレーブノード120はノード2からノード6であるとしているので、図2に示すアドレス管理テーブル112Aの例では、ノード2がノード3実IPアドレス有するノードを、ノード3がノード4実IPアドレスを有するノード監視し、以降同様に監視対象が決定され、最後にノード6はノード1実IPアドレスを有するノード(即ちマスタノード110)の監視を行うことになる。
【0053】
ノードがマスタノード110であると判断された場合(ステップS201、Yes)、ステップS209において、マスタノード110のアドレス管理テーブル112Aから、自身のノードの実IPアドレスに対応する仮想IPアドレスとマスタ仮想IPアドレスを取得する。
【0054】
次に、ステップS210において、その自身のノードの実IPアドレスに対応する仮想IPアドレスとマスタ仮想IPアドレス宛に確認パケットを送信する。次に、それらのパケットに対する応答の有無が判定され(ステップS211)、いずれかの仮想IPアドレスへのパケットに対して応答があった場合(ステップS211、Yes)、その仮想IPアドレスは既に他のノードで使用されていることになり、当該ノードでの使用はできない。その場合、処理はステップS212に進み、ステップS204と同様の所定のエラー処理を行う。このエラー処理については、詳細な説明を省略する。
【0055】
前記両パケットに対する応答がない場合(ステップS211、Yes)、それらの仮想IPアドレスは他のノードで使用されていないことを示し、従って、ステップS213で前記マスタ仮想IPアドレスを有効にし、ステップS214で前記仮想IPアドレスを有効にする。これらの仮想IPアドレスを有効にすることによって、当該ノードにネットワーク140等を介して接続された他のノードは、当該ノードに対し、これらの仮想IPアドレスを使用してアクセスする事ができる。逆に、当該ノードにおいて、これらの仮想IPアドレスを無効にすれば、他のノードが、それらの仮想IPアドレスを使用することができ、もはや、それらの仮想IPアドレスを使用しては、当該ノードにアクセスする事ができない。
【0056】
次に、アドレス管理テーブル112Aから監視対象のノードの実IPアドレスを取得し(ステップS215)、その実IPアドレスが有効であるかどうかをヘルスチェックにより確認する(ステップS216)。こうしたヘルスチェックは、図4の通常処理(ステップS104)に進んでも、所定の間隔で行われる。
【0057】
この時点での監視対象のノードは、前記アドレス管理テーブル112Aにおいて、当該ノードの仮想IPアドレスが設定されているエントリの次のエントリの実IPアドレスを有するノードである。ここではマスタノード110をノード1としているので、図2に示すアドレス管理テーブル112Aの例では、マスタノード110は、ノード2実アドレスを有するノード(ノード2)の監視を行うことになる。
【0058】
図5に示す処理がネットワーク140上の各ノードについて行われ、図4の通常処理(ステップS104、ステップS107)に戻ると、本実施例の正常稼働状態となる。各ノードは、それぞれの監視対象ノードの実IPアドレスに対して定期的にヘルスチェックを行い、各ノードの障害やその他の異常を監視する。
【0059】
次に、図6を参照して障害時の処理フローを説明する。このフローは、各ノードの障害等を検知した際に起動されるプロセスのフローを示すものであり、処理を完了した時点でプロセスを終了する。
【0060】
障害発生の第1のパターンは、スレーブノード120に障害が発生した場合の例である。ここでは、ノード3が障害になり、その後さらにノード4も障害になり、その後ノード4が障害のままノード3の障害が復旧する場合を考える。
【0061】
ノード3で障害が発生すると、ノード3を監視していたノード2が、その異常を検知する(ステップS301)。そこでノード2は、マスタノード110のアドレス管理テーブル112Aから、ノード3に対応する仮想IPアドレス(ノード3仮想IPアドレス)を取得する(ステップS302)。次に、ノード2において、障害の発生したノード3の仮想IPアドレスを有効にする(ステップS303)。これによって、ノード2は、本来ノード3が提供していた機能を代理して行うことができるようになる。
【0062】
次に、ノード2は、自身のアドレス管理テーブル122Aまたはマスタノード110のアドレス管理テーブル112Aから、ノード3が監視していたノード4の実IPアドレス(即ち、アドレス管理テーブル112Aにおいて、ノード3仮想IPアドレスが設定されているエントリの次のエントリのノード4実IPアドレス)を取得し(ステップS304)、その実IPアドレスをノード2の監視アドレスリスト122Bに加える(ステップS305)。これによって、ノード2は、ノード3が本来監視すべきノード4の障害も監視することになり、これ以降ノード3が復旧するまで、ノード4実IPアドレス(ノード4)に対し所定の間隔でハートビート信号を送信する。
【0063】
ノード2は次に、ステップS306に進み、監視対象のノードの中で、最もノード2から遠いノード、即ちここではノード4の実IPアドレス(ノード4実IPアドレス)がハートビート信号に応答するかどうか判定する。「最もノード2から遠いノード」というのは、前記アドレス管理テーブル112Aでの配列において、ノード2が監視しているノードのうち、ノード2実IPアドレスが設定されているエントリから最も遠いエントリに実IPアドレスが設定されているノードと言う意味であり、換言するならば、図3に示す論理ネットワークにおいて、監視方向の最後に位置する監視対象ノードである。この時点でノード2はノード3とノード4を監視しており、図2または図3から理解されるように、ノード2から最も遠いのはノード4である。
【0064】
なお、ノード2がマスタノード110(ノード1)及び他のスレーブノード120(ノード3〜6)の監視を行うとした場合、図3から容易に理解されるように、最も遠いノードはノード1である。
【0065】
ステップS306でノード4実IPアドレスがハートビート信号に応答する場合(ステップS306、Yes)、即ちノード4が正常に稼働している場合、その他の監視対象のノードの実IPアドレス(ここではノード3実IPアドレス)がハートビート信号に応答するか判定する(ステップS307)。応答がない場合(ステップS307、No)、即ち依然としてノード3に障害が生じている場合、ステップS306の判定に戻り、また次にステップS307の判定を行い、監視対象のノードの状況が変わらない限り、これら2つの判定を繰り返す。
【0066】
この状況で、ノード4に障害が発生すると、このことがステップS306で検知され(ステップS306、No)、ステップS301に進み、前述と同様に、ノード4の代理を行うための設定がなされる。ノード2は、ステップS302で、自身のアドレス管理テーブル122Aまたはマスタノード110のアドレス管理テーブル112Aから、ノード4に対応する仮想IPアドレス(ノード4仮想IPアドレス)を取得する。次に、ノード2において、障害の発生したノード4の仮想IPアドレスを有効にする(ステップS303)。これによって、ノード2は、ノード3の機能に加えて、本来ノード4が提供していた機能を代理して行うことができるようになる。
【0067】
次に、ノード2は、マスタノード110のアドレス管理テーブル112Aから、ノード4が監視していたノード5の実IPアドレス(即ち、アドレス管理テーブル112Aにおいて、ノード4仮想IPアドレスが設定されているエントリの次のエントリのノード5実IPアドレス)を取得し(ステップS304)、その実IPアドレスをノード2の監視アドレスリスト122Bに加える(ステップS305)。これによって、ノード2は、ノード3が本来監視すべきノード4の障害の監視に加え、ノード4が本来監視すべきノード5の障害も監視することになり、これ以降、ノード3及びノード4の両方が障害の間、ノード3実IPアドレス(ノード3)、ノード4実IPアドレス(ノード4)及びノード5実IPアドレス(ノード5)に対し所定の間隔でハートビート信号を送信する。
【0068】
ノード2は次に、ステップS306に進み、監視対象のノードの中で、最もノード2から遠いノード、即ちここではノード5の実IPアドレス(ノード5実IPアドレス)がハートビート信号に応答するかどうか判定する。「最もノード2から遠い」という意味は前述した通りである。
【0069】
ステップS306でノード5実IPアドレスがハートビート信号に応答する場合(ステップS306、Yes)、即ちノード5が正常に稼働している場合、その他の監視対象のノードの実IPアドレス(ここではノード3実IPアドレスとノード4実IPアドレス)がハートビート信号に応答するか判定する(ステップS307)。応答がない場合(ステップS307、No)、即ち依然としてノード3及びノード4の両方に障害が生じている場合、ステップS306の判定に戻り、また次にステップS307の判定を行い、監視対象のノードの状況が変わらない限り、この2つの判定を繰り返す。
【0070】
次に、ノード3及びノード4の両方が障害である状態から、ノード3が復旧し、正常に稼働するようになった場合を考える。ノード3が正常な稼働を開始すると、ノード3実IPアドレスが有効になり、ノード2は、前記ステップS307の判定において、そのことを検知する(ステップS307、Yes)。その後、ノード2は、有効にしている仮想IPアドレスのうち、応答があったノード3及び、ノード3より遠いノードの機能を代理しているノードの仮想IPアドレス(即ち、ここではノード3仮想IPアドレスとノード4仮想IPアドレス)を無効にして、ノード3とノード4の機能の代理を終了する(ステップS308)。さらに、監視アドレスリスト122Bから、応答があったノード3より遠いノードの実IPアドレス、即ちノード4の実IPアドレス(ノード4実IPアドレス)とノード5の実IPアドレス(ノード5実IPアドレス)を削除し(ステップS309)、ノード2が、これらのノードの監視を行わないようにする。
【0071】
ステップS308とステップS309の処理は、ここでは、ノード3の復旧によって、依然として障害中のノード4の機能の代理とノード4が監視すべきノード5の監視をアドレス管理テーブル112Aにおいてより近いノード3に任せてしまおうと言うものである。ノード3は障害から復旧して起動されると、図5に関して説明したように、自身のアドレス管理テーブル122Aまたはマスタノード110のアドレス管理テーブル112Aから自身のノードの実IPアドレスに対応する仮想IPアドレス(ノード3仮想IPアドレス)と監視対象のノードの実IPアドレス(ノード4実IPアドレス)を取得し、すぐに、ノード4が障害であることを検知し、図6に示す前述の代理処理のプロセスを開始する。
【0072】
その後ノード2は、ステップS310において、監視対象の実IPアドレスが1つになったか(監視対象のノードが1つになったか)、即ちノード2が本来の正常状態に戻ったかを判定し、1つでなければ(ステップS310、No)ステップS306の判定に戻り、1つであれば(ステップS310、Yes)当該プロセスを終了し、通常のノード監視に戻る。
【0073】
障害発生の第2のパターンは、マスタノード110に障害が発生した場合の例である。ここでは、ノード1が障害になり、その後ノード1の障害が復旧する場合を考える。ノード1で障害が発生すると、ノード1を監視していたスレーブノード120のノード6が、その異常を検知する(ステップS301)。そこでノード6は、ノード6のアドレス管理テーブル122Aから、ノード1に対応する仮想IPアドレス(ノード1仮想IPアドレス)及びマスタ仮想IPアドレスを取得する(ステップS302)。次に、ノード6において、障害の発生したノード1の仮想IPアドレス及びマスタ仮想IPアドレスを有効にする(ステップS303)。この時、これらの仮想IPアドレスが既に使用されているようなことがあれば、所定のエラー処理を行うように設定できる。これによって、ノード6は、本来ノード1が提供していた機能とマスタノード110としての機能を代理して行うことができるようになる。
【0074】
次に、ノード6は、ノード6のアドレス管理テーブル122Aから、ノード1が監視していたノード2の実IPアドレス(即ち、アドレス管理テーブル122Aにおいて、ノード1仮想IPアドレスが設定されているエントリの次のエントリのノード2実IPアドレス)を取得し(ステップS304)、その実IPアドレスをノード6の監視アドレスリスト122Bに加える(ステップS305)。これによって、ノード6は、ノード1が本来監視すべきノード2の障害も監視することになり、これ以降ノード1が復旧するまで、ノード2実IPアドレス(ノード2)に対し所定の間隔でハートビート信号を送信する。
【0075】
ノード6は次に、ステップS306に進み、ノード2実IPアドレスがハートビート信号に応答するかどうか判定する。ステップS306でノード2実IPアドレスがハートビート信号に応答する場合(ステップS306、Yes)、即ちノード2が正常に稼働している場合、その他の監視対象のノードの実IPアドレス(ここではノード1実IPアドレス)がハートビート信号に応答するか判定する(ステップS307)。応答がない場合(ステップS307、No)、即ち依然としてノード1に障害が生じている場合、ステップS306の判定に戻り、また次にステップS307の判定を行い、監視対象のノードの状況が変わらない限り、この2つの判定を繰り返す。
【0076】
この状況で、ノード1の障害が復旧して正常な稼働を開始すると、ノード1実IPアドレスが有効になり、ノード6は、前記ステップS307の判定において、そのことを検知する(ステップS307、Yes)。その後、ノード6は、有効にしている仮想IPアドレスのうち、応答があったノード1の仮想IPアドレスとマスタ仮想IPアドレスを無効にして、ノード1とマスタノード110の機能の代理を終了する(ステップS308)。さらに、監視アドレスリスト122Bから、応答があったノード1より遠い監視対象のノードの実IPアドレス、即ちノード2の実IPアドレス(ノード2実IPアドレス)を削除し(ステップS309)、ノード6が、このノード2の監視を行わないようにする。
【0077】
ノード1は、障害から復旧して起動されると、図5に関して説明したように、自身のアドレス管理テーブル112Aから自身のノードの実IPアドレスに対応する仮想IPアドレス(ノード1仮想IPアドレス)、マスタ仮想IPアドレス、及び監視対象のノード2の実IPアドレス(ノード2実IPアドレス)を取得し、自身のノードに対応する仮想IPアドレスに対する確認パケットに応答がないことを確認してから、前記仮想IPアドレス及びマスタ仮想IPアドレスを有効にし、マスタノード110として稼働する。
【0078】
更に本実施例では、ネットワーク140上の複数のノードに対し、制御用ノード130を使用して、ノード間における資源複製を行うことができる。この実施例において、該制御用ノード130は、1つのマスタノード110に対してのみ、その指示を与えることができる。マスタノード110から各スレーブノード120に対してある資源が複製される際に、各スレーブノード120の提供する機能を停止させないために、マスタノード110がそれらの処理を強制的に代理して行う。これによりユーザは、各スレーブノード120において提供される機能を、該各スレーブノード120が資源を複製している間も連続的に使用することができる。
【0079】
図7及び図8を参照して、上記資源複製処理のフローを説明する。マスタノード110をノード1とし、ノード1には複製用の最新の資源(コンテンツ)が用意されているものとする。このとき、ノード1で実際に運用されている資源と、前記最新の資源は別のものであるとする。
【0080】
まず最初に図7を参照すると、マスタノード110であるノード1において、スレーブノード120のノード2からノード6までに関して、ステップS401からステップS404の一連の処理が同様に行われる。ステップS401では、マスタノード110からスレーブノード120に資源複製依頼通知が送信される。ここで図8を参照すると、各スレーブノード120は、これを受信し(ステップS501)、自身のノードの仮想IPアドレスを無効化する(ステップS502)。次に、各スレーブノード120は、前記仮想IPアドレスの無効化が終了したことをマスタノード110に通知する(ステップS503)。
【0081】
再び図7に戻ると、マスタノード110がその通知を受信する(ステップS402)。その後、マスタノード110は、該通知を送信してきたスレーブノード120の仮想IPアドレスを有効にし(ステップS403)、そのスレーブノード120の機能を代理する。次に、そのスレーブノード120に対して最新の資源の複製処理を行う(ステップS404)。この資源は、各スレーブノード120が提供する機能に関して使用される情報などである。
【0082】
全てのスレーブノード120に対する複製処理が終了すると、ステップS405において、全スレーブノード120の機能の代理を終了するために、全スレーブノード120の仮想IPアドレスを無効化する(ステップS405)。
【0083】
ここで図8を参照すると、各スレーブノード120では、ステップS504で最新の資源が複製された後、ステップS505で、自身の仮想IPアドレスが無効でないと判別している間(ステップS505、No)ループし、無効であると判別した時点で(ステップS505、Yes)、ステップS506に進む。ステップS506では、各スレーブノード120が自身の仮想IPアドレスを有効にし、最新の資源で正常運用が開始される(ステップS507)。
【0084】
この実施例では、全てのスレーブノード120において複製が終了した時点で、マスタノード110による全てのスレーブノード120の機能の代理が解除され、全てのスレーブノード120による最新の資源による機能の提供(及び前述のノード監視)がほぼ同時に行われることになり、利用者ユーザに対して提供する機能(サービス)の更新は、全ユーザに対し、ほぼ同時に均等に提供されるという効果(利点)が得られるが、ノード監視のタイミング等を好適に制御して、最新の資源の複製が終了したスレーブノード120から機能の提供を開始するように設定することもできる。
【0085】
例えば、スレーブノード120の資源の複製を、順次1つのスレーブノード120毎に行うように設定することができる。この場合、図6に関して説明したような代理処理が実施され、資源の複製を行っているスレーブノード120の提供する機能(サービス)及び他のノードの監視は、停止することなく他のスレーブノード120等によって代理される。このことから分かるように、図6の代理処理で検知される異常は、ここでは資源の複製によるスレーブノード120の停止を意味する。また更に、スレーブノード120の保守等に関して該スレーブノード120を停止(運転休止)させる場合なども、当該処理にて検知することができ、厳密なノードの「異常」という事象のみにこうした検知処理を限定すべきではない。
【0086】
また、こうした複製処理の間は各スレーブノード120の提供する機能の代理は行うが、他のノードの監視の代理は行わないといった方法も、マルチタスク処理等を用いて可能である。この場合、例えば、複数処理を行っているスレーブノード120は、資源の複製を行っている間も、本来の監視機能を続行する。
【0087】
また、スレーブノード120に資源の複製を、順次1つのスレーブノード120毎に行う場合、その複製の順を監視する方向順に設定することもできる。例えば、図3のノード2の資源の複製を行い、その後ノード3の資源の複製を行い、順に1つずつのスレーブノード120の資源の複製を行い、最後にノード6の資源の複製を行って終了するといった方法をとることができる。
【0088】
また、更にこれらの複製は、スレーブノード120全てではないが、2つ以上のスレーブノード120を同時に停止させて行うこともできる。
再度図7に戻ると、今度は、マスタノード110自身が最新の資源複製を行うために、自身のノードの仮想IPアドレスとマスタ仮想IPアドレスを無効化し、ノード6にそれらの仮想IPアドレスを有効にさせて、ノード6にマスタノード110及びノード1の提供する機能の代理を依頼する(ステップS406)。この例ではマスタノード110及びノード1の提供する機能の代理を固定的にノード6にさせているが、他のスレーブノード120でもよく、また代理を行う時点で最も負荷の小さいスレーブノード120に自動的に代理させることもできる。
【0089】
次に、自身のマスタノード110内で最新の資源を運用資源に複製し(ステップS407)、ノード6に自身のノードの仮想IPアドレスとマスタ仮想IPアドレスを無効にさせ、ノード6で行われているマスタノード110の代理処理を解除するとともに、それらの仮想IPアドレスをノード1にて有効にする(ステップS408)。これらの処理によって、マスタノード110は、最新の資源で正常運用が開始される(ステップS409)。
【0090】
図9には、こうした資源複製処理を指示するための資源複製指示画面の一例である、資源複製指示画面200が示されている。該資源複製指示画面200は、複製元210、複製指示チェックボックス220、複製先230、及び複製開始ボタン240を含む。複製元210は、複製元のノードを示し、通常「マスタノード」と表記されたラベルである。複製先230は、複製先のノードを表すラベルである。ある複製先230(例えば、スレーブノード2)にマスタノード110からの複製を指示する場合には、その複製先230の左側にある複製指示チェックボックス220をマウス等の入力部133によってクリック(選択)する。こうした複製の指示は、任意の数のスレーブノード120、及びマスタノード110に対しても行うことができ、同時に複数のノードを指定することができる。
【0091】
通常、マスタノード110に最新の複製用資源が用意されるが、マスタノード110は、上述したように、スレーブノード110に最新の資源を複製させる間、最新の複製用の資源ではなく、該資源に更新される前の資源により運用しているので、マスタノード110の運用資源を上記最新の複製用資源に切り替えるために、前記画面200を用いて、マスタノード110からマスタノード110に対して資源の複製の指示が明示的に行われることもある。こうしてチェックボックス220に対する指示が終わると、資源複製処理を開始するために、「複製開始」ボタン240をクリックする。
【0092】
このボタン240がクリックされると、クリックされているチェックボックス220に対応するノードに対して、マスタノード110から上記最新の複製用資源が複製される。
【0093】
図7及び図8に関して前述したように、資源複製処理は、複製対象となる全てのスレーブノード120において上記資源複製処理が終了するまで、それらのノードが有する機能がマスタノード110によって代理されるが、この資源複製指示画面200において、最新の資源の複製が終了したスレーブノード120から、順次、機能の提供を開始(再開)するように設定することもできる。さらに、マスタノード110を含めた全ノードにおける資源の複製順を定義できるようにしてもよい。
【0094】
また、こうした資源複製処理の間は各スレーブノード120の提供する機能の代理は行うが、他のノードの監視は行わないといった指定も行うこともできる。
更に、この資源複製処理を自動的に行うためのスケジューリング情報は、マスタノード110のスケジュールテーブル112Cに保持される。このスケジューリング情報に従って、マスタノード110及びスレーブノード120の運用が制御される。このスケジュール情報は、あらかじめマスタノード110のスケジュールテーブル112C内に定義(記憶)されていてもよく、また制御用ノード130のスケジュール指定機能131Bによって、指示画面(不図示)を介して指定されても良い。また、更にネットワーク上のある特定のノード(不図示)に、上記スケジュール情報を記憶させておいてもよく、その他にも幾多の変形例が考えられる。
【0095】
図10には、スケジュールテーブル112Cの例が示されている。スケジュールテーブル112Cは、ノード毎のスケジュールを管理し、ノード名、及びスケジュールデータ1〜スケジュールデータnを含む。ノード名には、マスタノードを示すM、及びスレーブノード1...スレーブノードnをそれぞれ示すS1...Snが設定される。スケジュールデータ1〜スケジュールデータnは、それぞれ作業コード、年月日、開始時刻、及び終了時刻の各項目を含み、作業コードは例えば、資源複製やS3代理及び運用休止などの処理内容が、年月日には前記作業コードに設定された作業を実施する年月日が、開始時刻には前記作業の開始時刻が、終了時刻には前記作業の終了時刻がそれぞれ設定される。
【0096】
図10に示されたスケジュールデータの一例である、スケジュールデータ1を参照すると、スレーブノード3が1997年12月30日の午前8時から午後5時まで運転を休止し、その機能の代理をスレーブノード2が同じ時間帯で行い、マスタノード110は、1997年12月31日の午後10時から資源複製を開始するよう設定されている。この資源複製は、ここでは、全てのスレーブノード120を対象にしているが、該スケジュールデータとして新たな項目を設け、複製対象のノードを指定できるようにしてもよい。
【0097】
上記スケジュールデータ1の例では、スレーブノード2とスレーブノード3の作業は互いに関連するものとなっているが、同じスケジュールデータ1には、マスタノード110に対する資源複製の指示のように、他のノードと関連しない作業を共存させることもできる。
【0098】
尚、スケジュールデータ2には、マスタノード110に対する「資源切替」の指示が設定されている。この指示は、例えば、マスタノード110が、スレーブノード120に対する最新資源の複製を終了した後に、自身の運用資源を、1998年1月1日の午前0時に上記最新資源に切り替えるように指示するものである。
【0099】
図11には、前述した代理処理を実現するために必要となる情報を各ノードに設定するために用いられるノード設定画面300が示されている。ノード設定画面300は、制御用ノード130の表示部132において表示され、この画面300を介してマスタノード110、スレーブノード120を含めた複数のノードについて、上記情報の設定が行われる。
【0100】
マスタ識別310は、設定対象の実IPアドレスをマスタノード110の実IPアドレスとして運用する場合にチェックする。実IPアドレス320は、設定対象のノードの実IPアドレスを指定する。仮想IPアドレス330は、設定対象のノードの仮想IPアドレスを指定する。監視IPアドレス340は、設定対象のノードが監視すべきノードの実IPアドレスを指定する。前述したように、監視対象のノードの実IPアドレスは基本的に、実施例ではアドレス管理テーブル112Aにおいて、監視するノードの仮想IPアドレスが設定されているエントリの次のエントリに設定されている実IPアドレスであるが、監視IPアドレス340に指定することにより、特定の実IPアドレスを有するノードを監視するようにできる。
【0101】
監視サービス350は、WWW、DNS、及びMailの各機能(サービス)に対する3つのチェックボックスからなり、監視対象となる機能(サービス)を指定する。ここまで、説明を分かりやすくするために、ノード単位で監視を行うよう記載してきたが、このように、機能毎に監視対象を設定できることによって、機能毎の状態の監視が可能である。また、ここでは3つの機能(サービス)に関して設定できるようになっているが、これらは例示のためのものであり、これらに限られるものではない。
【0102】
仮想運用360は、設定対象のノードを仮想的に運用するかどうかを指定するものであり、仮想運用をする場合には「する」に、しない場合は「しない」にチェックする。代理370は、設定対象のノードが他のノードの代理処理を行うかどうかを指定するものであり、代理処理を行う場合には「する」に、しない場合には「しない」にチェックする。
【0103】
制御用ノード130において、各ノード毎に前記情報が設定され、こうした各ノードの設定情報が一括してマスタノード110に送信される。マスタノード110は、これらの設定情報を受信し、図4に関連して前述したマスタ識別情報やアドレス管理テーブル112Aの関連するエリアを作成・更新する。また、前述のように、機能毎の監視を行うように設定した場合は、アドレス管理テーブル112Aの構成、及び代理処理フローを、必要に応じて適宜変更することによって、機能毎に代理処理を行うことも可能である。
【0104】
また本実施例では、こうしたノード設定画面300を使用した設定処理は、制御用ノード130において、インターネットブラウザとJavaアプレットを用いて実現されるが、このようなソフトウエア構成に厳密に制限されるわけではない。例えば、Javaアプレットの代わりにActiveXコントロールを用いてもよい。
【0105】
更に、この制御用ノード130から、ネットワーク140上の各ノードの状態表示・制御を行うことができる。図12には、複数ノードの運用状態を1画面で確認できる、ノード状態表示・制御画面400が示されている。このシグナル表は、制御用ノード130からマスタノード110に、各ノードの運用状態を取得するよう要求し、その応答から動的に生成され、表示される。更に、この画面400において、各ノードの運用を制御することも可能であり、制御用ノード130からマスタノード110に、指定したノードに対する制御を要求することにより、その要求が該ノードに反映される。
【0106】
図12のノード状態表示・制御画面400は、ノード名410、430、ステータス420、及び状態シグナル440からなる。ノード名410と430は、マスタノードをM、スレーブノード1をS1、スレーブノード2をS2といった記号により表記する。ステータスは、ノード名410に示されたノードの状態を表示しており、正常、停止、強制停止などがある。状態シグナル440は、各ノードの機能がどのような状況で運用されているかを示すものであり、青の点灯は運用中、青の点滅は代理運用中、赤の点滅は停止中といったシグナルである。但し、図12では表記の都合上、青の点灯を+、赤の点灯を−、青の点滅を/、それ以外を○で示す。もちろん、こうしたシグナルの表現方法には多くのバリエーションが考えられ、本実施例のような表示例に制限されるものではない。
【0107】
各ノード名430と同じ列にある状態シグナル440に青の点灯または赤の点灯が含まれている場合、そのノードが本来提供すべき機能を有していることを示している。さらに、各ノード名410と同じ行にある状態シグナル440に青の点灯または青の点滅が含まれている場合、それは、そのノードが実際に提供している機能を表している。
【0108】
例えば図12に示すノード状態表示・制御画面400では、スレーブノード2(S2)が停止しており、そのノードが本来提供すべき機能をスレーブノード1(S1)が代理して処理していることが分かる。
【0109】
また、あるノードに対応するステータス420を選択し、マウス等の入力装置を介して、そのステータスを変更することにより、各ノードの状態を制御することができる。例えば、ステータスが「正常」であるとして正常に稼働しているノードのステータスを「強制停止」に変更することにより、そのノードをある理由で強制的に停止することができる。但し、不測の障害等で停止状態となっているノードのステータスを、マウス等で「正常」に変更するようなことはできないことに注意すべきである。
【0110】
図13は、本実施例とは別の態様のノード代理システム500であり、マスタノード510のみがアドレス管理テーブル512Aを有している。この場合、スレーブノード520は、メッセージ通信等によりネットワーク540を介して自身の実IPアドレスに対応する仮想IPアドレスを前記マスタノード510から取得する。スレーブノード520は、例えば、予め、自身が保持しているマスタノード510のマスタ仮想IPアドレスを使用して、マスタノード510にアクセスする。
【0111】
このシステムにおいては、図4のステップS101における、自身のノードがマスタノード510かどうかの判定は、各ノードが、前記マスタ識別情報等を有しているかを判定する事等によって行われる。
【0112】
図14は、上述したノード代理システム100、500を構築するために使用されるコンピュータ600のハードウエア構成の一例を示している。このコンピュータ600は、基本的に前記ノード代理システム100または500において、マスタノード110、510、スレーブノード120、520、及び制御用ノード130、530として機能する。
【0113】
該コンピュータ600は、それぞれバス680に接続されたCPU610、記憶部620、メモリ部630、表示部640、入力部650、印刷部660、及びネットワーク・インタフェース部670からなる。
【0114】
CPU610は、図1及び図13に示された、マスタノード110、510の処理部111、511、スレーブノード120、520の処理部121、521、及び制御用ノード130、530の処理部131、531の各機能を実行する。メモリ部620には、CPU610によって実行される前記各機能を実現するプログラムがロードされ、また必要に応じてアドレス管理テーブル112A、512A、122Aや監視アドレスリスト112B、512B、122B、522B等の内容がロードされる。
【0115】
記憶部630は、CPU610によって実行される前記各機能を実現するプログラム、及びアドレス管理テーブル112A、512A、122Aや監視アドレスリスト112B、512B、122B、522B等の内容を格納する。
【0116】
表示部640は、マスタノード110、510及びスレーブノード120、520においては、必須の構成要素ではない。前記表示部640は、制御用ノード130、530において、処理部131、531の各機能によって上述した資源複製指示画面200、ノード設定外面300及びノード状態表示・制御画面400等の画面を表示する際に必要とされ、通常はCRTやLCD等のディスプレイ装置であり、図1及び図13に示す制御用ノード130、530の表示部132、532に対応する。
【0117】
入力部650は、前記表示部640に表示された画面に沿って入力や指示を行うために使用される装置であり、通常キーボード、マウス等から成る入力装置やタッチパネル、音声入力装置等で構成される。これも、前記表示部640同様、マスタノード110、510及びスレーブノード120、520においては、必須の構成要素ではない。図1及び図13に示す制御用ノード130、530の入力部133、533に対応する。
【0118】
印刷部660は、ユーザ等の指示に従って、前記メモリ部620または記憶部630に格納されているデータ等を印刷する、レーザプリンタ等の印刷装置である。前記印刷部660は、前記ノード代理システム100、500の実施に関して必須の構成要件ではなく、マスタノード110、510、スレーブノード120、520、及び制御用ノード130、530にとっては任意の構成要素である。
【0119】
ネットワーク・インタフェース部670は、マスタノード110、510、スレーブノード120、520、制御用ノード130、530、及びその他のユーザ・コンピュータのノードを、ネットワーク140、540を介して相互に接続するよう機能する。この接続を公衆回線網又は専用回線を介して行う場合は、モデム、ターミナルアダプタ及びDSU、ルータなどのネットワーク通信装置が必要であり、この場合、ネットワーク・インタフェース部670は、これらを含む通信インタフェース装置である。また、前記ノードを接続するネットワーク140、540は、リング型、スター型、バス型、あるいはそれらの組み合わせ等の任意の形態でよく、さらにLAN、MAN、WAN、インターネット、イントラネット、エクストラネット等、その構成や規模を問わない。
【0120】
バス680は、前記各構成要素610〜670間でデータ、指令等の送受信を行うための共通伝送経路である。
前述したように、本実施例では、最初に監視対象のノードを決定する際、アドレス管理テーブル112A、122A内のデータエントリの順序に着目し、監視するノードの仮想IPアドレスが記憶されているエントリの次のエントリに記憶されている実IPアドレスを有するノードを監視対象としている。しかし、本発明は、第1のノードが、他の第2のノードを監視し、このような監視の関係を順次形成して1つの閉ループを作り、その結果該第1のノードも他のノードによって監視されるように構成される複数のノードによって実現される。従って、こうしたノード間のリンク関係を構成するために、必ずしも前記アドレス管理テーブル112Aのように、テーブル内のエントリ順を使用する必要はなく、テーブル内に監視関係を定義する情報を記憶させるテーブルではなく、リストを用いるなど、その他のデータ構造を用いた多くの方法が容易に考えられる。また、本発明は、ノードの監視関係の順序を論理的に定義できるため、システムを容易に変更可能であり、保守や拡張性などに優れている。
【0121】
【発明の効果】
本発明のノード代理システムによれば、ネットワーク上の複数のノードのうち1つがマスタノード、残りの少なくとも1つがスレーブノードとして設定され、ノードの障害の検知、またはスケジュールの発生または資源複製の依頼通知等の各種イベントの発生によるノードの停止に応答して、該停止したノードが提供していた機能を他のノードが代理し、または該停止したノードが監視していたノードを他のノードが監視するよう制御することができる。
【0122】
これにより、ネットワーク上に存在する複数のノードの運用において、それぞれのノードを運用系、待機系に分類することなく、それぞれのノードの監視や代理を、例えば、互いの仮想IPアドレスの制御により実現し、ノードの持つ機能、サービスを低費用にて分散し、システム全体としての安全性を向上させ、さらに運用面においても、制御用ノードを用いて、対象複数ノードの状態表示、運用制御が可能となり、その保守性の向上が望める。
【図面の簡単な説明】
【図1】本発明の実施例であるノード代理システムのシステム構成を示すブロック図である。
【図2】アドレス管理テーブルの例を示す図である。
【図3】実施例によるノード監視の態様を概念的に示す図である。
【図4】マスタノード及びスレーブノードの起動管理機能の処理フローを示す図である。
【図5】図4のマスタノード及びスレーブノードの仮想IPアドレス処理のフローを詳細に示す図である。
【図6】実施例による障害時の処理フローを示す図である。
【図7】マスタノードにおける資源複製処理のフローを示す図である。
【図8】スレーブノードにおける資源複製処理のフローを示す図である。
【図9】資源複製指示画面を示す図である。
【図10】スケジュールテーブルの内容の設定例を示す図である。
【図11】ノード設定画面を示す図である。
【図12】ノード状態表示・制御画面を示す図である。
【図13】本発明の別の実施例であるノード代理システムのシステム構成を示すブロック図である。
【図14】ノード代理システムを実行するコンピュータのハードウエア構成を示す図である。
【符号の説明】
100、500 ノード代理システム
110、510 マスタノード
111、511 処理部
111A、511A 起動管理機能
111B、511B 障害監視・代理機能
111C、511C 資源複製機能
112、512 マスタ用データ
112A、512A アドレス管理テーブル
112B、512B 監視アドレスリスト
112C、512C スケジュールテーブル
120、520 スレーブノード
121、521 制御部
121A、521A 起動管理機能
121B、521B 障害監視・代理機能
121C、521C 資源複製機能
122、522 スレーブ用データ
122A アドレス管理テーブル
122B、522B 監視アドレスリスト
130、530 制御用ノード
131、531 処理部
131A、531A 資源複製指示機能
131B、531B スケジュール指定機能
131C、531C ノード設定機能
131D、531D ノード状態表示・制御機能
132、532 表示部
133、533 入力部
140、540 ネットワーク
600 コンピュータ
610 CPU
620 メモリ部
630 記憶部
640 表示部
650 入力部
660 印刷部
670 ネットワーク・インタフェース部
680 バス

Claims (53)

  1. ネットワーク上の複数のノードが、他のノードが提供する機能を代理するノード代理システムにおいて、
    前記複数のノードの各ノードが、
    前記各ノードの起動を管理する起動管理手段であって、前記各ノード内に設定された情報に基づいて正常な稼働を監視する他のノードを決定し、前記各ノードが正常な稼働を監視する他のノードを決定することにより、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定され、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定され、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理手段と、
    監視対象のノードの障害を検知し、該監視対象のノードが提供していた機能及び、該監視対象のノードが監視していた他のノードの監視を代理して行う障害監視・代理手段と、
    を有することを特徴とするノード代理システム。
  2. 前記起動管理手段は、前記各ノードの監視を設定する際に、該正常な稼働の監視が該各ノードの提供する個々の機能単位に行い、
    前記障害監視・代理手段は、前記監視対象のノードが提供していた機能の代理を個々の機能単位に行うこと、
    を特徴とする請求項1記載のノード代理システム。
  3. 更に、アドレス記憶手段を有し、
    前記起動管理手段は、前記複数のノードのアドレスに関する情報として、各ノードの実アドレスと仮想アドレスを前記アドレス記憶手段内に記憶し、
    前記起動管理手段における監視の設定、前記障害監視・代理手段における障害の検知、及び前記障害監視・代理手段における監視の代理が、前記実アドレスを使用して行われ、
    前記障害監視・代理手段における前記監視対象のノードの機能の代理が、前記仮想アドレスを使用して行われること、
    を特徴とする請求項1に記載のノード代理システム。
  4. 更に、アドレス記憶手段を有し、
    前記起動管理手段は、前記複数のノードの前記アドレスに関する情報として、各ノードの実アドレスと仮想アドレスを所定のノード順に前記アドレス記憶手段内に記憶し、
    前記起動管理手段における監視の設定、前記障害監視・代理手段における障害の検知、及び前記障害監視・代理手段における監視の代理が、前記実アドレスを使用して行われ、
    前記障害監視・代理手段における前記監視対象のノードの機能の代理が、前記仮想アドレスを使用して行われること
    を特徴とする請求項1に記載のノード代理システム。
  5. 前記起動管理手段は、
    前記実アドレスと前記仮想アドレスを、それぞれ1つのエントリとして前記アドレス記憶手段内に記憶させる手段と、
    各ノードの監視対象のノードを設定する際に、
    該アドレス記憶手段内で、監視する側のノードのアドレスに関するエントリが最終エントリでない場合、該エントリより後で、かつそのエントリから最も近くにある、実アドレスを含むエントリを探し、該実アドレスを有するノードを監視対象のノードと決定し、
    該アドレス記憶手段内で、監視する側のノードのアドレスに関するエントリが最終エントリである場合、先頭のエントリの実アドレスを有するノードを監視対象のノードと決定する手段と、
    を有することを特徴とする請求項4に記載のノード代理システム。
  6. 前記障害監視・代理手段は、
    前記監視対象のノードの障害を検知したノードが、該監視対象のノードが提供していた機能及び、該監視対象のノードが監視していた他のノードの監視を代理して行っている間に、該監視対象のノードの障害が復旧したかどうかを検知する検知手段と、
    前記監視対象のノードの障害を検知したノードが、該検知手段により該監視対象のノードの復旧を検知した場合に、該監視対象のノードが提供していた機能及び、該監視対象のノードが監視していた他のノードの監視を、該監視対象のノードに再開させる制御手段と、
    を有することを特徴とする請求項1に記載のノード代理システム。
  7. 前記障害監視・代理手段によって検知される事象には、前記各ノードの休止が含まれること、
    を特徴とする請求項1に記載のノード代理システム。
  8. 前記障害監視・代理手段は、前記障害の監視または代理を、事前に定められたスケジュール情報に基づいて実行し、
    該スケジュール情報が、前記ネットワーク上に配置されたスケジュール情報記憶手段に記憶されていること、
    を特徴とする請求項1に記載のノード代理システム。
  9. ネットワーク上の複数のノードが、他のノードが提供する機能を代理するノード代理システムにおいて、
    前記複数のノードの各ノードが、
    前記各ノードの起動を管理する起動管理手段であって、前記各ノード内に設定された情報に基づいて正常な稼働を監視する他のノードを決定し、前記各ノードが正常な稼働を監視する他のノードを決定することにより、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定され、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定され、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理手段を有し
    該複数のノードのうち1つをマスタノードとし、その他のノードの少なくとも1つをスレーブノードとして設定し、
    前記マスタノードは、該マスタノードから該少なくとも1つのスレーブノードに対して資源を複製させ、該複製の間に、該マスタノードに、該スレーブノードの提供していた機能を代理して行わせる資源複製手段を有する
    ことを特徴とするノード代理システム。
  10. 前記資源複製手段は、前記マスタノードから前記スレーブノードに対して資源を複製する際に、前記マスタノードに、前記スレーブノードが監視していた他のノードの監視を代理させること、
    を特徴とする請求項9に記載のノード代理システム。
  11. 前記起動管理手段は、前記各ノードの監視を設定する際に、該正常な稼働の監視を該各ノードの提供する個々の機能単位に設定し、
    前記資源複製手段は、前記マスタノードに、前記スレーブノードが提供していた機能の代理を個々の機能単位に行わせること、
    を特徴とする請求項9に記載のノード代理システム。
  12. 更に、アドレス記憶手段を有し、
    前記起動管理手段は、前記複数のノードのアドレスに関する情報として、各ノードの実アドレスと仮想アドレスを前記アドレス記憶手段内に記憶し、
    前記資源複製手段は、前記スレーブノードの機能の代理を、前記仮想アドレスを使用して行うこと、
    を特徴とする請求項9に記載のノード代理システム。
  13. 更に、アドレス記憶手段を有し、
    前記起動管理手段は、前記複数のノードのアドレスに関する情報として、各ノードの実アドレスと仮想アドレスを、所定のノード順に前記アドレス記憶手段内に記憶し、
    前記資源複製手段は、前記スレーブノードの機能の代理を、前記仮想アドレスを使用して行うこと、
    を特徴とする請求項9に記載のノード代理システム。
  14. 前記起動管理手段は、
    前記実アドレスと前記仮想アドレスを、それぞれ1つのエントリとして前記アドレス記憶手段内に記憶させる手段と、
    各ノードの監視対象のノードを設定する際に、
    該アドレス記憶手段内で、監視する側のノードのアドレスに関するエントリが最終エントリでない場合、該エントリより後で、かつそのエントリから最も近くにある、実アドレスを含むエントリを探し、該実アドレスを有するノードを監視対象のノードと決定し、
    該アドレス記憶手段内で、監視する側のノードのアドレスに関するエントリが最終エントリである場合、先頭のエントリ、または該エントリより後で、かつそのエントリから最も近くにある、実アドレスを含むエントリを探し、該実アドレスに対応するノードを監視対象のノードと決定する手段と、
    を有することを特徴とする請求項13に記載のノード代理システム。
  15. 前記資源複製手段は、
    前記マスタノードから前記少なくとも1つのスレーブノードに対する資源の複製が終了した場合に、該マスタノードによって代理されていた、該スレーブノードの提供していた機能 を、該スレーブノードに行わせるようにすること、
    を特徴とする請求項9に記載のノード代理システム。
  16. 更に、前記資源複製手段の実行を、前記ネットワークに接続されているノードから指示する資源複製指示手段を、
    有することを特徴とする請求項9に記載のノード代理システム。
  17. 前記資源複製手段は、
    事前に定められたスケジュール情報に基づいて処理を実行し、
    該スケジュール情報が、前記ネットワーク上に配置されたスケジュール情報記憶手段に記憶されていること、
    を特徴とする請求項9に記載のノード代理システム。
  18. 更に、前記スケジュール情報を、前記ネットワークに接続されているノードからの指示によって、前記スケジュール情報記憶手段内に記憶させるスケジュール指定手段を、
    有することを特徴とする請求項17に記載のノード代理システム。
  19. 更に、前記各ノードのアドレスに関する情報を、前記ネットワークに接続されているノードからの指示によって、前記アドレス記憶手段内に記憶させるノード設定手段を、
    有することを特徴とする請求項3、4、12または13に記載のノード代理システム。
  20. 前記指示を行う前記ネットワークに接続されているノードが制御用ノードであり、該指示がマスタノードに対して行われること、
    を特徴とする請求項16、17、または19に記載のノード代理システム。
  21. 前記資源複製手段が、前記スレーブノードに対する資源の複製を、所定の数の前記スレーブノード毎に、監視方向順に行うこと、
    を特徴とする請求項9に記載のノード代理システム。
  22. 更に、前記各ノードの状態、及び前記各ノードの機能がどのノードによって代理されているかを全てのノードに関して一覧表示する表示手段を、
    有することを特徴とする請求項1または9に記載のノード代理システム。
  23. 更に、前記各ノードの状態を必要に応じて変更する制御手段を、
    有することを特徴とする請求項1または9に記載のノード代理システム。
  24. 更に、前記各ノードの状態、及び前記各ノードの機能がどのノードによって代理されているかを全てのノードに関して一覧表示する表示手段と、
    前記各ノードの状態を、該表示手段により表示された一覧表示画面を介して、必要に応じて変更する制御手段と、
    を有することを特徴とする請求項1または9に記載のノード代理システム。
  25. ネットワーク上の複数のノードが、他のノードの障害を監視するノード監視システムにおいて、
    前記複数のノードの各ノードが、
    前記各ノードの起動を管理する起動管理手段であって、前記各ノード内に設定された情報に基づいて正常な稼働を監視する他のノードを決定し、前記各ノードが正常な稼働を監視する他のノードを決定することにより、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定され、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定され、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理手段と、
    監視対象のノードの障害を検知し、該監視対象のノードが監視していた他のノードの監視を代理して行う障害監視手段と、
    を有することを特徴とするノード監視システム。
  26. 前記起動管理手段は、前記各ノードの監視を設定する際に、該正常な稼働の監視が該各ノードの提供する個々の機能単位に行い、
    前記障害監視手段は、前記監視対象のノードの障害を該機能単位に行うこと、を特徴とする請求項25に記載のノード監視システム。
  27. 更に、アドレス記憶手段を有し、
    前記起動管理手段は、前記複数のノードのアドレスに関する情報として、各ノードの実アドレスと仮想アドレスを前記アドレス記憶手段内に記憶し、
    前記起動管理手段における監視の設定、前記障害監視手段における障害の検知が、前記実アドレスを使用して行われること、
    を特徴とする請求項25に記載のノード監視システム。
  28. 更に、アドレス記憶手段を有し、
    前記起動管理手段は、前記複数のノードの前記アドレスに関する情報として、各ノードの実アドレスと仮想アドレスを所定のノード順に前記アドレス記憶手段内に記憶し、
    前記起動管理手段における監視の設定、前記障害監視手段における障害の検知が、前記実アドレスを使用して行われること、
    を特徴とする請求項25に記載のノード監視システム。
  29. 前記起動管理手段は、
    前記実アドレスと前記仮想アドレスを、それぞれ1つのエントリとして前記アドレス記憶手段内に記憶させる手段と、
    各ノードの監視対象のノードを設定する際に、
    該アドレス記憶手段内で、監視する側のノードのアドレスに関するエントリが最終エントリでない場合、該エントリより後で、かつそのエントリから最も近くにある、実アドレスを含むエントリを探し、該実アドレスを有するノードを監視対象のノードと決定し、
    該アドレス記憶手段内で、監視する側のノードのアドレスに関するエントリが最終エントリである場合、先頭のエントリの実アドレスを有するノードを監視対象のノードと決定する手段と、
    を有することを特徴とする請求項28に記載のノード監視システム。
  30. 前記障害監視手段は、前記障害の監視を、事前に定められたスケジュール情報に基づいて実行し、
    該スケジュール情報が、前記ネットワーク上に配置されたスケジュール情報記憶手段に記憶されていること、
    を特徴とする請求項25に記載のノード監視システム。
  31. 前記マスタノード
    前記スレーブノードに、該スレーブノードが提供している少なくとも1つの該機能の停止を指示し、該スレーブノードの該機能を代理する機能代理手段と、
    該機能代理手段により機能を代理した該スレーブノードに複製用の最新の資源を送信し、該スレーブノードに該最新の資源を複製する資源複製手段と、
    該資源複製手段の処理終了後に、該スレーブノードに該機能を再開させる制御手段と、
    を有することを特徴とする請求項9に記載のノード代理システム
  32. 前記スレーブノード
    該マスタノードの指示を受けて、自身の機能を該マスタノードに代理してもらう被代理手段と、
    該マスタノードに自身の機能を代理してもらっている間に、該マスタノードから受信する最新の資源を運用資源として複製する資源複製手段と、
    該資源複製手段による資源複製処理終了後に、該マスタノードによる自身の機能の代理の終了を受けて、自身の機能を再開する機能再開手段と、
    を有することを特徴とする請求項9に記載のノード代理システム
  33. 前記制御ノードが、
    スケジュールデータの入力画面を表示する表示手段と、
    該表示手段により表示される該入力画面を介して該スケジュールデータを入力するための入力手段と、
    該入力手段を介して入力された該スケジュールデータを該マスタノードに送信する手段と、
    を有することを特徴とする請求項20に記載のノード代理システム。
  34. 前記マスタノードが、
    該制御用ノードからスケジュールデータを受信する受信手段と、
    該受信手段により受信されたスケジュールデータに基づいて、自身及び該スレーブノードの運用を制御する制御手段と、
    を有することを特徴とする請求項20に記載のノード代理システム。
  35. 前記スレーブノードが、
    該マスタノードから所定の運用を指示する通知を受信する受信手段と、
    該受信手段が受信した通知により指示される運用を実行する運用手段と、
    を有することを特徴とする請求項20に記載のノード代理システム。
  36. 前記制御用ノードが、
    該マスタノードまたは該スレーブノードの運用状態を一覧表示する表示手段と、
    該表示手段により表示される該運用状態の一覧表示を介して該マスタノードまたは該スレーブノードの運用状態を変更する制御情報を入力するための制御情報入力手段と、
    該入力手段を介して入力された該制御情報を該マスタノードに送信する手段と、
    を有することを特徴とする請求項20に記載のノード代理システム。
  37. 前記制御用ノードが、
    該マスタノードから、該マスタノードまたは該スレーブノードの運用状態に関する情報を取得する取得手段と、
    該取得手段によって取得された該運用状態に関する情報に基づいて、該マスタノードまたは該スレーブノードの運用状態を一覧表示する表示手段を、
    有することを特徴とする請求項20に記載のノード代理システム。
  38. 前記マスタノードが、
    該マスタノード及び該スレーブノードのうち少なくとも1つに関する運用状態情報を収集する収集手段と、
    該収集手段によって収集された該運用状態情報を、前記制御用ノードに通知する通知手段と、
    を有することを特徴とする請求項20に記載のノード代理システム。
  39. 前記スレーブノードが、
    該マスタノードから、運用状態の報告依頼通知を受信する受信手段と、
    該受信手段が該報告依頼通知を受信した場合に、その応答として、前記マスタノードに、自身の運用状態を通知する通知手段を有することを特徴とする請求項20に記載のノード代理システム。
  40. 前記マスタノードが、
    該制御用ノードから該マスタノードまたは該スレーブノードの運用状態を変更する制御情報を受信する受信手段と、
    該制御情報に基づいて、自身及び該スレーブノードの運用を制御する制御手段と、
    を有することを特徴とする請求項20に記載のノード代理システム。
  41. 前記スレーブノードが、
    該マスタノードから所定の運用を指示する通知を受信する受信手段と、
    該受信手段が受信した通知により指示される運用を実行する運用手段と、
    を有することを特徴とする請求項20に記載のノード代理システム。
  42. 前記制御用ノードが、
    各ノードに関する情報を入力するための入力手段と、
    該入力手段によって入力された該情報を該マスタノードに送信する送信手段と、
    を有することを特徴とする請求項20に記載のノード代理システム。
  43. 前記各ノードに関する情報が、マスタ種別、該ネットワーク上のアドレス、監視対象のノードのアドレス、監視サービスの内容、または代理運用の有無のうち、少なくとも1つの情報を含むこと、
    を特徴とする請求項42に記載のノード代理システム。
  44. 前記マスタノードが、
    各ノードに関する情報を該制御用ノードから受信するための受信手段と、
    該受信手段によって受信された該情報を記憶する記憶手段と、
    を有することを特徴とする請求項20に記載のノード代理システム。
  45. 前記各ノードに関する情報が、マスタ種別、該ネットワーク上のアドレス、監視対象のノードのアドレス、監視サービスの内容、または代理運用の有無のうち、少なくとも1つの情報を含むこと、
    を特徴とする請求項44に記載のノード代理システム。
  46. 前記スレーブノードが、
    所定のタイミングで、前記各ノードに関する情報を記憶した該マスタノードの前記記憶手段から、該情報を受信するための受信手段と、
    該受信手段によって受信された該情報を記憶する記憶手段と、
    を有することを特徴とする請求項20に記載のノード代理システム。
  47. 前記各ノードに関する情報が、マスタ種別、該ネットワーク上のアドレス、監視対象のノードのアドレス、監視サービスの内容、または代理運用の有無のうち、少なくとも1つの情報を含むこと、
    を特徴とする請求項46に記載のノード代理システム。
  48. ネットワーク上の複数のノードが、他のノードが提供する機能を代理するノード代理方法において、
    前記複数のノードの各ノードが、
    前記各ノードの起動を管理する起動管理ステップであって、前記各ノード内に設定された情報に基づいて正常な稼働を監視する他のノードを決定し、前記各ノードが正常な稼働を監視する他のノードを決定することにより、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定され、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定され、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理ステップと、
    監視対象のノードの障害を検知し、該監視対象のノードが提供していた機能及び、該監視対象のノードが監視していた他のノードの監視を代理して行う障害監視・代理ステップと、
    を有することを特徴とするノード代理方法。
  49. ネットワーク上の複数のノードが、他のノードが提供する機能を代理するノード代理方法において、
    前記複数のノードの各ノードが、
    前記各ノードの起動を管理する起動管理ステップであって、前記各ノード内に設定された情報に基づいて正常な稼働を監視する他のノードを決定し、前記各ノードが正常な稼働を監視する他のノードを決定することにより、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定され、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定され、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理ステップを有し
    該複数のノードのうち1つをマスタノードとし、その他のノードの少なくとも1つをスレーブノードとして設定し、
    前記マスタノードは、該マスタノードから該少なくとも1つのスレーブノードに対して資源を複製させ、該複製の間に、該マスタノードに、該スレーブノードの提供していた機能を代理して行わせる資源複製ステップを有する
    ことを特徴とするノード代理方法。
  50. ネットワーク上の複数のノードが、他のノードの障害を監視するノード監視方法において、
    前記複数のノードの各ノードが、
    前記各ノードの起動を管理する起動管理ステップであって、前記各ノード内に設定された情報に基づいて正常な稼働を監視する他のノードを決定し、前記各ノードが正常な稼働を監視する他のノードを決定することにより、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定され、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定され、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理ステップと、
    監視対象のノードの障害を検知し、該監視対象のノードが監視していた他のノードの監視を代理して行う障害監視ステップと、
    を有することを特徴とするノード監視方法。
  51. ネットワーク上の複数のノードが、他のノードが提供する機能を代理するノード代理方法を実現するプログラムを記録した記録媒体であって、
    前記複数のノードの各ノードに、
    前記各ノードの起動を管理する起動管理ステップであって、前記各ノード内に設定された情報に基づいて正常な稼働を監視する他のノードを決定し、前記各ノードが正常な稼働を監視する他のノードを決定することにより、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定され、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定され、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理ステップ
    と、
    前記各ノードにおいて監視対象のノードの障害を検知し、該障害を検知したノードが、該監視対象のノードが提供していた機能及び、該監視対象のノードが監視していた他のノードの監視を代理して行う障害監視・代理ステップを、
    実行させるプログラムを記録した該コンピュータが読み取り可能な記録媒体。
  52. ネットワーク上の複数のノードが、他のノードが提供する機能を代理するノード代理方法を実現するプログラムを記録した記録媒体であって、
    前記複数のノードの各ノードに、
    前記各ノードの起動を管理する起動管理ステップであって、前記各ノード内に設定された情報に基づいて正常な稼働を監視する他のノードを決定し、前記各ノードが正常な稼働を監視する他のノードを決定することにより、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定され、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定され、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理ステップを実行させ、
    該複数のノードのうち1つをマスタノードとし、その他のノードの少なくとも1つをスレーブノードとして設定し、
    前記マスタノードに、該マスタノードから該少なくとも1つのスレーブノードに対して資源を複製させ、該複製の間に、該マスタノードに、該スレーブノードの提供していた機能を代理して行わせる資源複製ステップを実行させる
    プログラムを記録した該コンピュータが読み取り可能な記録媒体。
  53. ネットワーク上の複数のノードが、他のノードの障害を監視するノード監視方法を実現するプログラムを記録した記録媒体であって、
    前記複数のノードの各ノードに、
    前記各ノードの起動を管理する起動管理ステップであって、前記各ノード内に設定された情報に基づいて正常な稼働を監視する他のノードを決定し、前記各ノードが正常な稼働を監視する他のノードを決定することにより、前記複数のノードにおいて、第1のノードが他の第2のノードの正常な稼働を監視するよう設定され、該第2のノードが該第1のノードまたは更に他の第3のノードの正常な稼働を監視するよう設定され、以降このような監視の関係を順次形成して1つの閉ループ形態の論理的な監視ネットワークを構築し、その結果、該第1のノードも該第1のノード以外によって監視されるように各ノードの起動を管理する起動管理ステップと、
    監視対象のノードの障害を検知し、該監視対象のノードが監視していた他のノードの監視を代理して行う障害監視ステップを、
    実行させるプログラムを記録した該コンピュータが読み取り可能な記録媒体。
JP01922398A 1998-01-30 1998-01-30 ノード代理システム、ノード監視システム、それらの方法、及び記録媒体 Expired - Fee Related JP3609599B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP01922398A JP3609599B2 (ja) 1998-01-30 1998-01-30 ノード代理システム、ノード監視システム、それらの方法、及び記録媒体
US09/226,239 US6633538B1 (en) 1998-01-30 1999-01-07 Node representation system, node monitor system, the methods and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01922398A JP3609599B2 (ja) 1998-01-30 1998-01-30 ノード代理システム、ノード監視システム、それらの方法、及び記録媒体

Publications (2)

Publication Number Publication Date
JPH11220466A JPH11220466A (ja) 1999-08-10
JP3609599B2 true JP3609599B2 (ja) 2005-01-12

Family

ID=11993379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01922398A Expired - Fee Related JP3609599B2 (ja) 1998-01-30 1998-01-30 ノード代理システム、ノード監視システム、それらの方法、及び記録媒体

Country Status (2)

Country Link
US (1) US6633538B1 (ja)
JP (1) JP3609599B2 (ja)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7673323B1 (en) 1998-10-28 2010-03-02 Bea Systems, Inc. System and method for maintaining security in a distributed computer network
US6947376B1 (en) * 1999-10-21 2005-09-20 At&T Corp. Local information-based restoration arrangement
US7765581B1 (en) * 1999-12-10 2010-07-27 Oracle America, Inc. System and method for enabling scalable security in a virtual private network
US6658589B1 (en) * 1999-12-20 2003-12-02 Emc Corporation System and method for backup a parallel server data storage system
US7177898B2 (en) * 2000-03-17 2007-02-13 Fujitsu Limited Multiple-processor information processing system
WO2001084312A2 (en) * 2000-05-02 2001-11-08 Sun Microsystems, Inc. Method and system for managing high-availability-aware components in a networked computer system
US7188157B1 (en) * 2000-06-30 2007-03-06 Hitachi, Ltd. Continuous update of data in a data server system
US7281032B2 (en) * 2000-06-30 2007-10-09 Hitachi, Ltd. File sharing system with data mirroring by storage systems
US20020026385A1 (en) * 2000-08-31 2002-02-28 Mccloskey John M. System and methods for generating an electronic purchase order for a part using a display of computer-aided design (CAD) drawing and related article and media
US7051069B2 (en) 2000-09-28 2006-05-23 Bea Systems, Inc. System for managing logical process flow in an online environment
JP2004535608A (ja) * 2000-10-19 2004-11-25 フェザーズ カーク インターネットの関連性を動的に維持するための方法およびシステム
US20020080807A1 (en) * 2000-12-22 2002-06-27 Lind Carina Maria Systems and methods for queue-responsible node designation and queue-handling in an IP network
TW561725B (en) * 2001-02-14 2003-11-11 Matsushita Electric Ind Co Ltd Communications setting method and communications setting system for power line communications system
JP2002288050A (ja) * 2001-03-23 2002-10-04 Fujitsu Ltd コンピュータシステム状態監視制御方式
US7200646B2 (en) 2001-04-25 2007-04-03 Sun Microsystems, Inc. System and method for on-demand node creation for fabric devices
US7171474B2 (en) * 2001-04-25 2007-01-30 Sun Microsystems, Inc. Persistent repository for on-demand node creation for fabric devices
US20020194407A1 (en) * 2001-04-25 2002-12-19 Kim Hyon T. Maintaining fabric device configuration through dynamic reconfiguration
US6954884B2 (en) * 2001-06-01 2005-10-11 Lucent Technologies Inc. System and method for effecting recovery of a network
US8880709B2 (en) * 2001-09-12 2014-11-04 Ericsson Television Inc. Method and system for scheduled streaming of best effort data
JP4173447B2 (ja) * 2001-10-24 2008-10-29 ビーイーエイ システムズ, インコーポレイテッド データ同期
CA2467813C (en) * 2001-11-30 2014-01-07 Oracle International Corporation Real composite objects for providing high availability of resources on networked systems
US7421257B1 (en) 2001-11-30 2008-09-02 Stragent, Llc Receiver scheduling in ad hoc wireless networks
US7054910B1 (en) * 2001-12-20 2006-05-30 Emc Corporation Data replication facility for distributed computing environments
US7115919B2 (en) * 2002-03-21 2006-10-03 Hitachi, Ltd. Storage system for content distribution
EP1450527B1 (en) * 2002-04-19 2006-10-04 Yamaha Corporation Communication management apparatus
US7725560B2 (en) * 2002-05-01 2010-05-25 Bea Systems Inc. Web service-enabled portlet wizard
US6965951B2 (en) * 2002-05-17 2005-11-15 Sun Microsystems, Inc. Device centric discovery and configuration for fabric devices
US20040015611A1 (en) * 2002-06-25 2004-01-22 Kim Hyon T. Interfaces to multiple layers of device properties in a storage network
US7272635B1 (en) * 2002-10-04 2007-09-18 Domosys Corporation Method of configuring and managing a network
US7591000B2 (en) 2003-02-14 2009-09-15 Oracle International Corporation System and method for hierarchical role-based entitlements
US7653930B2 (en) 2003-02-14 2010-01-26 Bea Systems, Inc. Method for role and resource policy management optimization
US8831966B2 (en) 2003-02-14 2014-09-09 Oracle International Corporation Method for delegated administration
US7840614B2 (en) * 2003-02-20 2010-11-23 Bea Systems, Inc. Virtual content repository application program interface
US20040167880A1 (en) * 2003-02-20 2004-08-26 Bea Systems, Inc. System and method for searching a virtual repository content
US7293286B2 (en) 2003-02-20 2007-11-06 Bea Systems, Inc. Federated management of content repositories
US7810036B2 (en) 2003-02-28 2010-10-05 Bea Systems, Inc. Systems and methods for personalizing a portal
EP1457847A3 (de) * 2003-03-10 2010-01-13 Heidelberger Druckmaschinen Aktiengesellschaft Vorrichtung und Verfahren zur Identifizierung von Modulen in einer drucktechnischen Maschine
US7379418B2 (en) * 2003-05-12 2008-05-27 International Business Machines Corporation Method for ensuring system serialization (quiesce) in a multi-processor environment
US7065589B2 (en) 2003-06-23 2006-06-20 Hitachi, Ltd. Three data center remote copy system with journaling
US7403780B2 (en) * 2004-02-19 2008-07-22 Rockwell Collins, Inc. Hybrid open/closed loop filtering for link quality estimation
GB0407144D0 (en) 2004-03-30 2004-05-05 British Telecomm Networks
US7774601B2 (en) 2004-04-06 2010-08-10 Bea Systems, Inc. Method for delegated administration
US20060041558A1 (en) * 2004-04-13 2006-02-23 Mccauley Rodney System and method for content versioning
US7236990B2 (en) * 2004-04-13 2007-06-26 Bea Systems, Inc. System and method for information lifecycle workflow integration
TWI235299B (en) * 2004-04-22 2005-07-01 Univ Nat Cheng Kung Method for providing application cluster service with fault-detection and failure-recovery capabilities
US7991753B2 (en) * 2004-05-21 2011-08-02 International Business Machines Corporation Lock acquisition among nodes of divided cluster
US8180882B2 (en) 2004-07-22 2012-05-15 Tyco Electronics Subsea Communications Llc Distributed messaging system and method for sharing network status data
JP4491308B2 (ja) * 2004-09-24 2010-06-30 富士通株式会社 ネットワーク監視方法及びその装置
JP4569377B2 (ja) * 2005-05-13 2010-10-27 パナソニック株式会社 ルータ装置及びルータ監視方法
US20060268679A1 (en) * 2005-05-25 2006-11-30 Mei Deng Local information-based restoration arrangement
JP4107312B2 (ja) * 2005-07-04 2008-06-25 ブラザー工業株式会社 通信システム、及び通信端末
US8355408B2 (en) * 2005-09-21 2013-01-15 Imec System with distributed analogue resources
US7917537B2 (en) 2005-09-26 2011-03-29 Oracle International Corporation System and method for providing link property types for content management
US7752205B2 (en) 2005-09-26 2010-07-06 Bea Systems, Inc. Method and system for interacting with a virtual content repository
US7953734B2 (en) 2005-09-26 2011-05-31 Oracle International Corporation System and method for providing SPI extensions for content management system
US7818344B2 (en) 2005-09-26 2010-10-19 Bea Systems, Inc. System and method for providing nested types for content management
JP4645435B2 (ja) * 2005-12-19 2011-03-09 富士通株式会社 情報処理装置、通信負荷分散方法及び通信負荷分散プログラム
US8015235B1 (en) * 2006-01-03 2011-09-06 Emc Corporation Group services
US7801150B1 (en) * 2006-02-14 2010-09-21 Juniper Networks, Inc. Multiple media access control (MAC) addresses
US9922198B2 (en) * 2006-09-07 2018-03-20 Hewlett Packard Enterprise Development Lp Methods, apparatus and computer systems that enable hardware module use rights owned by one server to be claimed for use by another server in a common share group
US8463852B2 (en) 2006-10-06 2013-06-11 Oracle International Corporation Groupware portlets for integrating a portal with groupware systems
US7680993B2 (en) * 2006-12-21 2010-03-16 Tandberg Television, Inc. Local digital asset storage management technique
US8671151B2 (en) * 2007-01-24 2014-03-11 Oracle International Corporation Maintaining item-to-node mapping information in a distributed system
JP2009110218A (ja) * 2007-10-30 2009-05-21 Fujitsu Ltd 仮想化スイッチおよびそれを用いたコンピュータシステム
US20090240853A1 (en) * 2008-03-21 2009-09-24 Rochester Institute Of Technology Method and apparatus for configuring a bus network in an asset management system
JP4924574B2 (ja) 2008-08-29 2012-04-25 富士通株式会社 ストレージ装置の制御部及び制御方法
JP5200831B2 (ja) * 2008-09-30 2013-06-05 沖電気工業株式会社 無線ネットワークシステム及び制御ノード切替方法
JP5332861B2 (ja) * 2009-04-22 2013-11-06 富士通株式会社 伝送装置、伝送方法及び伝送システム
US8320282B2 (en) 2009-07-30 2012-11-27 Calix, Inc. Automatic control node selection in ring networks
US20110119369A1 (en) * 2009-11-13 2011-05-19 International Business Machines,Corporation Monitoring computer system performance
JP5581746B2 (ja) * 2010-03-10 2014-09-03 株式会社リコー 画像形成装置
US8693035B2 (en) * 2010-06-28 2014-04-08 Kabushiki Kaisha Toshiba Data processing apparatus and data processing method for performing predetermined process at a different processing node
JP5168333B2 (ja) * 2010-09-27 2013-03-21 ブラザー工業株式会社 P2p端末及びコンテンツ配信システム
JP5625998B2 (ja) * 2011-02-23 2014-11-19 日本電気株式会社 情報処理システム
US9240937B2 (en) * 2011-03-31 2016-01-19 Microsoft Technology Licensing, Llc Fault detection and recovery as a service
US8849977B2 (en) * 2012-03-09 2014-09-30 Telefonaktiebolaget Lm Ericsson (Publ) Method and a control node in an overlay network
US9131015B2 (en) * 2012-10-08 2015-09-08 Google Technology Holdings LLC High availability event log collection in a networked system
JP2014229088A (ja) * 2013-05-23 2014-12-08 ソニー株式会社 データ処理システム、データ処理装置および記憶媒体
JP6024604B2 (ja) * 2013-06-19 2016-11-16 株式会社デンソー 通信装置
KR101694298B1 (ko) * 2014-02-28 2017-01-09 한국전자통신연구원 이중화시스템에서의 마스터 선정 장치
US10733006B2 (en) 2017-12-19 2020-08-04 Nutanix, Inc. Virtual computing systems including IP address assignment using expression evaluation
JP7316779B2 (ja) * 2018-12-05 2023-07-28 アズビル株式会社 施設監視システム、および、施設監視システムにおける通信方法
CN111444062B (zh) * 2020-04-01 2023-09-19 山东汇贸电子口岸有限公司 管理云数据库的主节点和从节点的方法及装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4654654A (en) * 1983-02-07 1987-03-31 At&T Bell Laboratories Data network acknowledgement arrangement
US4914657A (en) * 1987-04-15 1990-04-03 Allied-Signal Inc. Operations controller for a fault tolerant multiple node processing system
US5220562A (en) * 1989-05-12 1993-06-15 Hitachi, Ltd. Bridge apparatus and a communication system between networks using the bridge apparatus
WO1991011766A2 (en) * 1990-01-30 1991-08-08 Johnson Service Company Networked facilities management system
US5416777A (en) * 1991-04-10 1995-05-16 California Institute Of Technology High speed polling protocol for multiple node network
JP2576762B2 (ja) * 1993-06-30 1997-01-29 日本電気株式会社 リング網のノード間情報収集方式
DE4404962C2 (de) * 1994-02-17 1999-12-16 Heidelberger Druckmasch Ag Verfahren und Anordnung zum Konfigurieren von Funktionseinheiten in einer Master-Slave-Anordnung
US5473599A (en) * 1994-04-22 1995-12-05 Cisco Systems, Incorporated Standby router protocol
EP0682431B1 (en) * 1994-05-09 2002-10-02 Europlex Research Limited A ring network system
JPH0816422A (ja) * 1994-07-04 1996-01-19 Fujitsu Ltd バス通信方法及びバス通信システム
US6243762B1 (en) * 1994-08-08 2001-06-05 Mercury Computer Systems, Inc. Methods and apparatus for data access and program generation on a multiprocessing computer
US5751220A (en) * 1995-07-14 1998-05-12 Sensormatic Electronics Corporation Synchronized network of electronic devices including back-up master units
US5835696A (en) * 1995-11-22 1998-11-10 Lucent Technologies Inc. Data router backup feature
US5914666A (en) * 1996-08-30 1999-06-22 Allen-Bradley Company, Llc Auto-configurable series communication system for power monitors and the like
US5832195A (en) * 1996-11-20 1998-11-03 Allen-Bradley Company, Llc Peer-to-peer fault identification
US6108300A (en) * 1997-05-02 2000-08-22 Cisco Technology, Inc Method and apparatus for transparently providing a failover network device
US6061600A (en) * 1997-05-09 2000-05-09 I/O Control Corporation Backup control mechanism in a distributed control network
US6324161B1 (en) * 1997-08-27 2001-11-27 Alcatel Usa Sourcing, L.P. Multiple network configuration with local and remote network redundancy by dual media redirect
US6317415B1 (en) * 1998-09-28 2001-11-13 Raytheon Company Method and system for communicating information in a network

Also Published As

Publication number Publication date
JPH11220466A (ja) 1999-08-10
US6633538B1 (en) 2003-10-14

Similar Documents

Publication Publication Date Title
JP3609599B2 (ja) ノード代理システム、ノード監視システム、それらの方法、及び記録媒体
US7409577B2 (en) Fault-tolerant networks
EP1320217B1 (en) Method of installing monitoring agents, system and computer program for monitoring objects in an IT network
EP1134658B1 (en) System and method for comprehensive availability management in a high-availability computer system
US6854069B2 (en) Method and system for achieving high availability in a networked computer system
US7818615B2 (en) Runtime failure management of redundantly deployed hosts of a supervisory process control data acquisition facility
US7146532B2 (en) Persistent session and data in transparently distributed objects
EP1190320B1 (en) System and method of monitoring a distributed fault tolerant computer system
US7480725B2 (en) Transparent relocation of an active redundant engine in supervisory process control data acquisition systems
WO2002021276A1 (en) A system and method for managing clusters containing multiple nodes
JP2005050127A (ja) プロセスデータ収集装置
JP2510696B2 (ja) 計算機システム自動運転制御方式
JPH08212095A (ja) クライアントサーバ制御システム
JPH0314161A (ja) プロセッサ監視処理方式
KR0133337B1 (ko) 타켓 시스템 이중화 운용관리 장치 및 방법
JP2000040021A (ja) 監視表示システム及び記録媒体
JPH08123747A (ja) 施設管理システムにおける分散処理方式
JP3325785B2 (ja) 計算機の故障検出・回復方式
JP2006039662A (ja) Wwwサーバ障害時の代理応答装置及び代理応答装置を備えたwwwサーバ装置
JP6394620B2 (ja) サーバ管理システム、サーバ、サーバ管理方法およびサービスプロセッサ
JP2009211279A (ja) 操業データ管理サーバシステム
JP2000122982A (ja) 多階層クライアントサーバシステム
JP4946824B2 (ja) 監視装置
Schwabe et al. Minimizing downtimes: Using dynamic reconfiguration and state management in SDN
JP2889888B2 (ja) 通信処理装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040713

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041014

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071022

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081022

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081022

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091022

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091022

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101022

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101022

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111022

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111022

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121022

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees