JPH04311251A - マルチプロセッサシステム - Google Patents

マルチプロセッサシステム

Info

Publication number
JPH04311251A
JPH04311251A JP3077571A JP7757191A JPH04311251A JP H04311251 A JPH04311251 A JP H04311251A JP 3077571 A JP3077571 A JP 3077571A JP 7757191 A JP7757191 A JP 7757191A JP H04311251 A JPH04311251 A JP H04311251A
Authority
JP
Japan
Prior art keywords
supervisor
online
operation management
instruction processing
multiprocessor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3077571A
Other languages
English (en)
Other versions
JP3118855B2 (ja
Inventor
Yukio Takaguchi
高口 幸雄
Nobuyuki Suzuki
伸幸 鈴木
Toyojiro Hayashi
林 豊治郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP03077571A priority Critical patent/JP3118855B2/ja
Priority to US07/865,330 priority patent/US5692119A/en
Publication of JPH04311251A publication Critical patent/JPH04311251A/ja
Application granted granted Critical
Publication of JP3118855B2 publication Critical patent/JP3118855B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2025Failover techniques using centralised failover control functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/26Functional testing
    • G06F11/273Tester hardware, i.e. output processing circuits
    • G06F11/2736Tester hardware, i.e. output processing circuits using a dedicated service processor for test
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Multi Processors (AREA)
  • Hardware Redundancy (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、超高速メインフレーム
に於いて、高性能を実現する為の超多重のマルチプロセ
ッサシステムに関するものである。
【0002】
【従来の技術】現在、分散処理、ワークステーションと
コンピュータのダウンサイジングが呼ばれている中で、
大規模オンラインシステムにおける大規模データベース
サーバに対する需要は依然として根強いものがある。
【0003】このような背景の中で、高速化の為の半導
体素子の高集積化、高速化の要素技術はめざましい進展
をとげているが、これらの素子を使って装置として作り
上げる為の生産技術、実装技術面の壁があり、単一プロ
セッサで命令処理速度を上げるには限界に近づいて来て
いる。従って現在と比べて飛躍的に超高速のオンライン
システムを実現する為には、マルチプロセッサ構成の道
しかないのが現状である。マルチプロセッサ構成による
高性能システムを実現する場合、従来次の方式があった
【0004】(1)中央処理装置(CPU)の台数を増
やす。
【0005】図19を用いて説明する。旧システム(1
900)は、CPU(1901)1台と、運用管理端末
(1902)1台などから構成されている。図でMSは
主記憶装置、IPは命令処理装置、IOPは入出力処理
装置を示す。これに対して、拡大システム(1910)
は、CPU2台(1911,1921)、運用管理端末
2台(1912,1922)、及び通信回線等の手段に
よるCPU間連絡装置(1913,1923)などから
構成される。本方式は要求能力に従ってこれらの台数を
増やしていくことができる。このような拡大システムで
は、1CPU内のソフトウェア構成はどのCPUも同じ
であるが、CPU台数増に伴い相互の通信オーバヘッド
、運用の煩雑さが問題になる。
【0006】(2)1台のCPU内のプロセッサ(IP
)数を増やす。
【0007】図20を用いて説明する。図に示すように
、拡大システム(2010)はいわゆる密結合のマルチ
プロセッサシステム(TCMP)である。本方式では旧
システム(2000)と拡大システム(2010)とで
、運用管理端末(2002)の数が等しいため、運用の
煩雑さは回避できる。
【0008】しかし、マルチプロセッサの多重度を増や
せば、増やす程、一般的にハード/ソフトの性能劣化が
増加し、多重度に見合った性能を引き出せない問題が内
在している。これらについて以下説明する。
【0009】図21は単一プロセッサの中央処理装置を
示す。CPUは、主記憶装置2110,システム制御装
置2120,入出力処理装置2130,キャッシユメモ
リ2140,命令処理装置2150から構成される。命
令実行の原理的な動作を述べると、主記憶装置内211
0に記憶されている命令群は、システム制御装置212
0を介して実行時に高速のキャッシュメモリ2140に
いったん転送され、命令の実行はキャッシュメモリ21
40と命令処理装置2150間で行なわれる。既に実行
しようとする命令がキャッシュメモリ2140内に存在
する場合は、命令が高速に実行される。入出力処理装置
2130は外部記憶装置のデータをシステム制御装置2
120を介して主記憶装置2110への出し入れを行う
ものである。
【0010】図22は2台の命令処理装置2251,2
252をもつマルチプロセッサ構成の中央処理装置を示
す。命令実行の原理は図21に示す場合と同じであるが
、複数命令処理装置をもつ構成の場合、次のような複数
命令処理装置(2251,2251)間で主記憶装置2
110をアクセスするための待時間が増大する。次にそ
れぞれの命令処理装置(2251,2252)が命令を
実行する際にそれぞれのキャッシュメモリ(2140)
に主記憶装置2110から当該命令群を転送してから実
行するが、同一の主記憶装置領域内の命令を実行し、そ
の主記憶装置領域内を更新しようとする場合、それぞれ
のキャッシュメモリ(2140)の内容を同一にして命
令の実行を進める必要があり、そのための時間が命令実
行速度を互いに低下させる要因になる。さらに入出力処
理装置2130をとおして主記憶装置2110へ出し入
れするデータの量が多くなると、システム制御装置21
20のスループットを阻害し、結果的に複数の命令処理
装置(2251,2252)間で主記憶装置2110を
アクセスするための待時間がさらに増大し、命令実行速
度を低下させる。これは主記憶装置2110に対するア
クセス頻度が増大すればするほど、命令処理装置の数が
増えれば増えるほど、ますます加速されることになる。
【0011】図23はオンラインシステムにおけるソフ
トウェア構成を示す。システムは、スーパバイザ237
0、オンラインコントロールプログラム2360および
アプリケーションプログラム空間2301〜2350か
ら構成される。図23ではアプリケーションプログラム
を50多重動作させるためにアプリケーションプログラ
ム空間を50空間用意した例である。
【0012】オンラインプログラムをマルチプロセッサ
構成で動作させた場合、主記憶装置内の同一テーブルを
複数命令処理装置が同時更新すると矛盾を来すような個
所は、ロック制御により同時には1台の命令処理装置し
か更新できなくすることが必要である。これは、スーパ
バイザ2370、オンラインコントロールプログラム2
360それぞれに必要であり、命令処理装置の台数が増
えれば増えるほどロック制御にかかるオーバヘッド及び
ロック解除を待つ時間が増大し、ソフトウェア性能をま
すます劣化させる。さらに命令処理装置の台数を増加さ
せ、高いシステム性能を引き出そうとすれば、自ずとシ
ステムの規模は大規模なものとなり、スーパバイザ23
70、オンラインコントロールプログラム2360内の
制御テーブルのエントリ数も増大し、制御テーブルをサ
ーチするためのオーバヘッドも増大し、ソフトウェア性
能をますます劣化させる結果となる。
【0013】なお、この種の技術として関連するものに
は、たとえば特開昭61−210470号公報などがあ
る。
【0014】
【発明が解決しようとする課題】大規模オンラインシス
テムのトランザクション処理能力を拡大したいという要
求に対応するためには、CPUのプロセッサ多重度をあ
げる方法と、CPU台数を増やす方法とがあるが、それ
ぞれ次の点で解決すべき課題がある。
【0015】(1)CPU台数を増やす方法図21に示
すとおり、CPU台数を増加させてトランザクション処
理能力の拡大を図った場合、CPU台数分だけ運用管理
端末が必要になり、運用の一元化の妨げとなるばかりで
なく、要員増によるコストアップになる。
【0016】(2)CPU内プロセッサ多重度を増加さ
せる方法 運用の一元化は保たれるが、プロセッサ数の拡大に伴い
従来技術の項で述べたとおり、ハードウェア、ソフトウ
ェア両面からシステムのボトルネックが発生し、多重度
の効果があがらなくなる。すなわち、ハードウェア面か
らは主記憶装置に対するアクセスの競合、ソフトウェア
面からは同一のリソースに対するロックの競合が発生す
る。
【0017】本発明の目的は上記課題を解決することに
ある。
【0018】
【課題を解決するための手段】本発明は、それぞれに複
数の命令処理装置が独立的に割当てられる少なくとも1
つのスーパバイザと、別の命令処理装置が独立的に割当
てられこれらスーパバイザの起動/停止と障害監視を行
なう運用管理スーパバイザと、このような運用管理スー
パバイザとスーパバイザとの間の通信を行なうために独
立した命令処理装置間を接続する伝送路とを有するマル
チプロセッサシステムを特徴とする。
【0019】
【作用】本発明によれば、マルチプロセッサシステムで
のソフトウェアの劣化を回避出来るとともに、運用の一
元化を保持できる。また、マルチプロセッサシステムで
のハードウェア劣化を回避出来るので従来技術の課題を
解決することが出来る。
【0020】
【実施例】以下本発明の実施例について図面を用いて説
明する。
【0021】図1(a),(b)の101、102は従
来技術で可能なマルチプロセッサシステムでのソフトウ
ェア構成である。命令処理装置の多重度の少ないマルチ
プロセッサシステムでは、スーパバイザ(SPV)、オ
ンラインコントロールプログラム(OCP)のロック制
御によるオーバヘッドの増加、ロック解除待時間の増加
、システムの規模の増大によるオーバヘッドの増加によ
るソフトウェア性能劣化が少なく、システム性能を極端
に低下させることはなく実用に耐え得る。しかしコント
ロールプログラムのロック制御にも限界があり、一般的
にスーパバイザよりもオンラインコントロールプログラ
ムのロック制御の限界が先にくるが、その場合には図1
の102のソフトウェア構成をとり、オンラインコント
ロールプログラムを複数立上げマルチオンライン構成と
して、オンラインコントロールプログラムのロック制御
の限界を回避することが可能である。図でON1,ON
2は2つのオンラインシステムが存在することを示す。 しかし、この構成ではスーパバイザのロック制御の限界
を回避することは不可能である。
【0022】図1(c)に本発明のソフトウェア構成を
示す。命令処理装置の多重度の多い超多重マルチプロセ
ッサシステムでは、スーパバイザも複数立上げたマルチ
オンライン構成とする。複数立上げたスーパバイザ以下
を統括的に制御し、システムの運用を一元的に制御でき
る運用管理スーパバイザを設ける。
【0023】図2(a),(b)の201、202は従
来技術で可能なマルチプロセッサシステムでの命令処理
装置とソフトウェア構成との割り付けを示す(図1の1
01、102と図2の201,202と各々対応づけら
れる)。図2の割り付け202の方式をそのままで命令
処理装置の台数を増やして行くと、オンラインコントロ
ールプログラム以下は、複数の命令処理装置群に分散し
て割り付けられる為、ハードウェア性能の劣化は一定の
値に抑えられるが、スーパバイザは全ての命令処理装置
を使用する為、命令処理装置の数が増えれば増える程ハ
ードウェア性能の劣化は加速されることになる。
【0024】図2(c)に本発明のソフトウェア構成と
命令処理装置(IP)との割り付け方式を示す。割り付
けの例として、運用管理スーパバイザにIP0〜1、通
常のスーパバイザ1〜4に各々IP2〜9,IP10〜
17,IP18〜25,IP26〜33,オンライン1
〜8に各々IP2〜5,IP6〜9,IP10〜13,
IP14〜17,IP18〜21,IP22〜25,I
P26〜29,IP30〜33のように割当て動作させ
る。このように運用管理スーパバイザと通常のスーパバ
イザとはそれぞれ別のIP群に割当てられる。
【0025】図3は4つのオンラインシステムから構成
されるマルチプロセッサについて、現用システム301
と予備システム302とを設け、現用システムから予備
システムへまたはその逆へ切替る方式の概念を示すもの
である。一点鎖線はソフトウェア構成要素に割り付ける
ハードウェア資源の大きさを示す。4つのオンラインシ
ステムに割り付けるハードウェア資源は現用から予備に
切替ると縮退する状態を示す。現用系、予備系各々にロ
ードされている運用管理スーパバイザは各々に自系複数
オンラインシステムの一括起動/終了、自系オンライン
システムの監視と他系のバックアップ機への自動切替表
示、他系オンラインシステムの監視と自系のバックアッ
プ機への自動切替指示、自系オンライン/他系オンライ
ンの状態表示、各自系オンラインのエラー表示、コマン
ド指示/表示の機能をもつ。これによりシステム運用の
一元管理が可能である。
【0026】図4および図5はそれぞれ現用系および予
備系のハードウェア構成401,501および命令処理
装置とソフトウェアのマッピング402,502を示す
。ハードウェア構成401、501の様にハードウェア
資源をグループ分けし、マッピング402、502の様
に各IPにソフトウェアをマッピングする。図5のハー
ドウェア構成501で示すマルチプロセッサシステムは
予備系として使用されるが、図4のハードウェア構成4
01で示す現用系と比べ、命令処理装置台数の少ない小
規模なマルチプロセッサシステムを構成することが可能
である。この例では、システムの最繁時間帯に於いても
処理能力を落さずに同時に2つのオンライン、すなわち
ON1およびON2またはON3およびON4のバック
アップが可能なハードウェア構成である。通常時間帯で
は、最繁時間帯と比べ一般に1/2〜1/3のデータ量
となるので、ほとんどの時間帯ではマッピング502に
示すように4つのオンラインシステムのバアックアップ
が可能となり、経済的なシステムを構築することができ
る。この時ハードウェアには、主記憶装置、命令処理装
置、入出力処理装置間のハードウェア構成制御、命令処
理装置/主記憶装置/入出力処理装置障害時の縮退処理
、一元的にシステムの運用が可能な大形システムコンソ
ール機能を具備する必要がある。
【0027】図6は、現用系および予備系のマルチプロ
セッサシステムをLAN(ローカル・エリア・ネットワ
ーク)を介して接続したハードウェア構成図である。現
用系のハードウェア構成401および予備系のハードウ
ェア構成501は超高速のLAN601を介して接続さ
れ、現用系、予備系各々の運用管理スーパバイザは自系
のオンラインシステムと疎結合される。
【0028】現用系と予備系を接続する通信媒体は、L
ANに限定されるものではなく、各要素間を流れるシス
テム運用にかかわるデ−タ量を転送できる通信媒体であ
ればよい。
【0029】図7に、図6で示したシステムを、銀行オ
ンラインシステムに適用した例を示す。銀行オンライン
システムは、営業店毎に独立している部分が大きいため
、営業店群単位にシステムを分割することが可能である
。現用のマルチプロセッサシステム(710)は、現用
の運用管理スーパバイザ(711)、現用のスーパバイ
ザ(712,714)、現用のオンライン(713,7
15)から構成される。オンライン713、715はそ
れぞれ営業店760、770で発生したトランザクショ
ンを処理する。予備マルチプロセッサシステム(730
)も同様に構成されるが、マルチプロセッサを縮少した
構成のため予備のスーパバイザ(732)1つのみ動作
する。オンライン733、734はそれぞれオンライン
713、715の予備である。マルチプロセッサシステ
ム710と730とは、LAN(601)にノード(7
21〜729,740〜741)を介して接続されてい
る。営業店760,770の端末(762,772)は
、営業店の端末制御装置(761,771)、ネットワ
ーク網(705)および通信制御装置(704)を経由
し、ノード(742)によってLAN601に接続され
ている。
【0030】図8に、ネットワーク網705を経由して
伝送されるメッセージのヘッダを示す。ネットワーク網
内メッセージ(810)中にネットワーク網内ヘッダ(
811)が設定される。ヘッダ811は通信制御装置7
04および端末制御装置761、771で各々設定され
るかあるいは削除される。このため通信制御装置704
および端末制御装置761、771内には、各々図9に
示すネットワーク網内アドレス管理テーブルが設定され
る。テーブルは、相手の装置に対応するネットワーク網
内アドレスを示しており、ヘッダ811にはこのアドレ
スが設定される。  LAN内メッセージ(820)中
にLAN内ヘッダ(821)が設定される。ヘッダ82
1は、通信制御装置704、運用管理スーパバイザ71
1、スーパバイザ712、714、運用管理スーパバイ
ザ731およびスーパバイザ732で各々設定されるか
あるいは削除される。このため、それぞれの装置内には
図10で示すLAN内アドレス管理テーブルが設定され
る。テーブルは、相手のノードに対応するLAN内アド
レスを示しており、ヘッダ821にはこのアドレスが設
定される。
【0031】通常時の営業店760から現用オンライン
713へのメッセージの流れを次に示す。図7の端末7
62から入力されたメッセージは、端末制御装置761
でまとめられ、図8に示すヘッダ811を付加され、ネ
ットワーク網705に送られる。ネットワーク網705
では、ヘッダ811に従いメッセージを通信制御装置7
04に渡す。通信制御装置704では、ヘッダ821を
付加し、LAN601に送る。LAN601では、ヘッ
ダ821に従い、スーパバイザ712にメッセージを渡
す。スーパバイザ712はさらにオンライン713まで
メッセージを送る。オンライン713から端末762に
メッセージを送る場合は上記の逆のルートを経由する。
【0032】また、現用オンライン間のメッセージは、
次の様になる。図11にオンラインアドレス管理テーブ
ルを示す。オンライン713からオンライン715にメ
ッセージ送信が必要な場合、オンライン715が、現用
のスーパバイザ712、714中に定義しているアドレ
ス15で送信要求をする。スーパバイザ712ではアド
レス管理テーブルを参照することによってアドレス15
がスーパバイザ714にあると分かるため、スーパバイ
ザ714に送信するためノード721又は722を選択
する。選択は利用率が片寄らないアルゴリズムによって
行なう。スーパバイザ712は図10に示すLANアド
レス管理テーブルに従いLANアドレス21または22
をもつヘッダ821を付加し、ノード721または72
2に送信する。ノード721または722はメッセージ
をスーパバイザ714に送り、スーパバイザ714はこ
れをオンライン715に送る。なお通信制御装置704
の台数は、必要に応じて増設可能である。
【0033】以下運用管理スーパバイザの働きを運用管
理スーパバイザ711を例に図12〜16を用いて説明
する。
【0034】図12は運用管理スーパバイザ内の管理テ
ーブルの構成を示すものである。1201は自系スーパ
バイザテーブルであり、ステータスのRは稼動中を示す
。稼動中のスーパバイザに障害を検出すると、Rをたと
えばFに変更する。アドレスはLAN内アドレスである
。1202は他系テーブルであり、ステータスおよびア
ドレスは自系スーパバイザテーブル1201と同様であ
る。1203はオンラインに関するテーブルであり、ス
テータスのRは稼動中、Bは予備用(バックアップ)と
して待機している状態を示す。バックアップチェーンは
そのオンラインが障害になったとき交代するオンライン
を示す。所属はそのオンラインが制御を受ける運用管理
スーパバイザを示す。
【0035】運用管理スーパバイザ711はシステム全
体の運用を管理するためにマルチプロセッサシステム7
10の初期設定/終了処理を司る。運用管理スーパバイ
ザ711は自系スーパバイザテーブル(1201)を参
照して初期設定コマンド投入時、スーパバイザのステー
タスを確認し、起動されていないスーパバイザの初期設
定IPLを行う。また、終了処理コマンドが投入される
と、同様にステータスを確認し、動作中のスーパバイザ
に対して停止要求を行う。
【0036】通常時の監視方式を図13及び図14〜1
6を用いて説明する。便宜上、運用管理スーパバイザ7
11、スーパバイザ712および運用管理スーパバイザ
731の間でのメッセージの送信を例にとる。図13(
a)は、運用管理スーパバイザ711がスーパバイザ7
12および運用管理スーパバイザ731との間でメッセ
ージのやりとりをするとき使用する連絡エリア1301
〜1308を示すものである。各連絡エリアはそれぞれ
のスーパバイザが直接アクセスできる主記憶装置上に確
保される。
【0037】図13(b)はLAN601を介してこれ
らスーパバイザ間で送受信されるメッセージの形式を示
すものである。1311はメッセージの発信元を示す種
別コードであり、発信元が運用管理スーパバイザである
か自系のスーパバイザであるかを示すコードである。1
312は同一送信先に対する送信メッセージの順序を示
す通番であり、1313はメッセージが指令/連絡か応
答かを示すメッセージコードであり、1314はこのメ
ッセージが伝える指令/連絡の内容である。なお図13
(b)に示すメッセージにLANヘッダ821が付され
LAN内メッセージ820としてLAN601内を伝送
される。
【0038】運用管理スーパバイザ711からの送信処
理を図14に示す。送信処理はタイマ登録(ステップ1
404)により定期的に起動される。起動後一定時間経
過してもスーパバイザ712や運用管理スーパバイザ7
31からの応答が来ていないときはタイムアウトとし(
ステップ1401)、スーパバイザ712または運用管
理スーパバイザ731の障害と判断し、タイムアウト処
理を行う(ステップ1402)。通常時は送信処理を行
い(ステップ1403)、再度次の契機のためのタイマ
登録を行う(ステップ1404)。
【0039】運用管理スーパバイザ711が運用管理ス
ーパバイザ731の障害を検出したとき、テーブル12
02上の運用管理スーパバイザ731ステータスをRか
らFに変更し、運用管理端末に障害の表示をする。運用
管理スーパバイザ731が運用管理スーパバイザ711
の障害を検出したとき、テーブル1202上の運用管理
スーパバイザ711ステータスをRからFに変更し、テ
ーブル1203上のオンライン713,715ステータ
スをRからFに変更し、スーパバイザ732を起動する
。スーパバイザ732が起動したらテーブル1201上
のスーパバイザ732ステータスをBからRに変更する
。次に運用管理スーパバイザ731は、スーパバイザ7
32に対しオンライン733および734を起動するよ
う指令を送り、オンライン733,734が起動したら
テーブル1203上のオンライン733,734ステー
タスをBからRに変更する。
【0040】スーパバイザ712での受信処理の流れを
図15に示す。メッセージ受信時は1312の通番チェ
ックを行い(1501)、エラー時はエラー処理(15
02)を行う。正常時はメッセージコード1313をチ
ェックし(1502)、特に指令がない場合は、正常応
答だけを返す(1506)。オンラインジョブを起動す
るときなど特別な指令がある場合は、それを処理する(
1503)。指令が正常に内部処理された場合(150
4Y)、正常応答(1506)を作成し、エラー時はエ
ラー応答(1505)を作成する。オンライン障害等、
連絡すべきメッセージがあれば(1508Y)、メッセ
ージを作成する(1509)。すなわち管理下にあるオ
ンラインシステム、たとえばオンライン713に障害を
検出しているときには、その旨の連絡をもつメッセージ
を作成し、運用管理スーパバイザ711に連絡する。 運用管理スーパバイザ711はテーブル1203上のオ
ンライン713ステータスをRからFに変更し、オンラ
イン713のバックアップ先であるオンライン733を
起動するため、オンライン733が所属している運用管
理スーパバイザ731にその旨連絡する。オンライン7
33が起動されたら、テーブル1203上のオンライン
733ステータスはBからRに変更される。
【0041】運用管理スーパバイザ(711)での受信
処理を図16に示す。メッセージ受信後(1601)、
種別コード(1311)のチェックを行い、運用管理ス
ーパバイザ731からのものか、自系のスーパバイザ7
12のものかを判断する(1602)。運用管理スーパ
バイザからの場合、通番(1312)のチェック(16
03)を行い、エラー時はエラー処理(1609)、正
常時はメッセジコード(1313)をチェックし(16
04)、前回送信メッセージに対して応答があれば、リ
ターンコードをチェックする(1605)。エラー時は
エラー処理をする(1606)。次に指令/連絡の有無
をチェックし(1607)、ある場合、指令/連絡の内
容(1314)を処理(1608)する。なお自系スー
パバイザ712の場合も同様の処理の流れとなる。一方
運用管理スーパバイザ731の受信処理の流れも図に示
す通りである。運用管理スーパバイザ731が他系のオ
ンラインシステム、たとえばオンライン713の障害と
いう連絡を受けたときには、テーブル1203上のオン
ライン713ステータスをRからFに変更し、オンライ
ン713のバックアップ先であるオンライン733を起
動するため、スーパバイザ732に指令を送る。以後オ
ンライン733の状態はスーパバイザ732を介して運
用管理スーパバイザ731が監視し、運用管理スーパバ
イザ711に連絡されるので、運用管理スーパバイザ7
11の運用管理端末によって一元的にすべてのオンライ
ンの状態を把握することができる。
【0042】上記のとおり、現用スーパバイザと現用オ
ンライン障害時は、運用管理スーパバイザがこれを検知
し、予備系のマルチプロセッサシステム(730)の予
備運用管理スーパバイザ(731)に報告する。運用管
理スーパバイザ731は、予備のスーパバイザ732に
指示し、必要な予備のオンラインを現用として起動する
【0043】また、運用管理スーパバイザ711、73
1は相互に監視をしており、例えば、マルチプロセッサ
システム710全体が障害時には、運用管理スーパバイ
ザ731がこれを検知してスーパバイザ732に指示を
出し、オンライン733、734を現用に切り替える。
【0044】現用のオンライン713または715が障
害により予備のオンライン733または734に切り替
わった場合、端末からのメッセージは予備系のオンライ
ンシステムに送られる必要がある。これは次のとおり実
現できる。例えば図7のオンライン713が障害の時、
オンライン733から切替メッセージが端末制御装置7
61に宛ててスーパバイザ732、LAN601、通信
制御装置704およびネットワーク網705を経由して
送信される。端末制御装置761は図17に示す現用オ
ンライン管理テーブル1701をもっており、オンライ
ン733からのメッセージにより、図17(a)の状態
から図17(b)の状態に切り替わる。これにより、以
降メッセージヘッダのアドレス部には、733が入るこ
とになり、予備系のマルチプロセッサシステム730に
送ることが可能になる。
【0045】なお、LAN601を流れるメッセージの
種類は、営業店と現用オンラインとの間、現用オンライ
ン間、運用管理スーパバイザの監視メッサージであるが
、いずれも要求側と処理側が1対1に対応しており、L
AN601内メッセージ数は極力小さくし、LAN60
1がシステムボトルネックになることを防ぐ必要がある
【0046】
【発明の効果】下記のとおり、運用の一元化を保ったま
ま、マルチプロセッサシステム性能の向上が可能である
【0047】(1)運用面 運用管理スーパバイザにより、スーパバイザ、オンライ
ンが増加しても一元的に運用管理が可能になる。
【0048】(2)性能面 図18は、従来のマルチプロセッサシステムと本発明の
マルチプロセッサシステムのシステム性能の比較例を示
す。図でMP/UP比は同じ台数の命令処理装置で構成
されたマルチプロセッサシステムのユニットプロセッサ
システムに対する性能比である。横軸に命令処理装置の
多重度、縦軸にマルチプロセッサシステム性能比を示す
。曲線1801は従来のマルチプロセッサシステムで、
命令処理装置を増加させていった場合のマルチプロセッ
サ性能比を示す。スーパバイザのロック制御の限界、マ
ルチプロセッサハード性能劣化増加により、いくら多重
度を上げても一定の値以下のシステム性能しか出ない状
態に陥ることを示している。曲線1802は本発明のマ
ルチプロセッサを適用した場合のシステム性能の向上傾
向を示している。この場合、複数オンライン間の干渉が
少なければ少ない程、高いシステム性能が得られるが、
たとえ干渉があっても、複数オンラインを互いに干渉が
少ないように業務を分けるとか、オンラインを地域別に
分ける等により従来より飛躍的にシステム性能が引き出
せるマルチプロセッサシステムの実現が可能である。
【図面の簡単な説明】
【図1】従来および本発明のソフトウェア構成例を示す
図である。
【図2】従来および本発明の命令処理装置とソフトウェ
ア構成とのマッピング例を示す図である。
【図3】現用システムと予備システムとの間の切替方式
の概念を示す図である。
【図4】現用ハードウェア構成とソフトウェアマッピン
グの例を示す図である。
【図5】予備ハードウェア構成とソフトウェアマッピン
グの例を示す図である。
【図6】現用系および予備系のマルチプロセッサシステ
ムをLANを介して接続するハードウェア構成図である
【図7】図6のシステムを銀行オンラインシステムに適
用する例を示すシステム構成図である。
【図8】ネットワーク網内メッセージとLAN内メッセ
ージの形式を示す図である。
【図9】ネットワーク網内アドレス変換テーブルの形式
を示す図である。
【図10】LAN内アドレス管理テーブルの形式を示す
図である。
【図11】オンラインアドレス管理テーブルの形式を示
す図である。
【図12】運用管理スーパバイザ内の管理テーブルの形
式を示す図である。
【図13】運用管理スーパバイザとスーパバイザ間の連
絡エリアとメッセージ構成とを示す図である。
【図14】運用管理スーパバイザ送信処理時の処理のフ
ローチャートである。
【図15】スーパバイザのメッセージ処理の流れを示す
フローチャートである。
【図16】運用管理スーパバイザ受信処理の流れを示す
フローチャートである。
【図17】端末側での現用オンライン管理テーブルの構
成例を示す図である。
【図18】本発明のシステム性能上の効果を示す図であ
る。
【図19】CPU台数増加によるオンライン処理能力向
上を示す構成図である。
【図20】CPU内マルチプロセッサ多重拡大を示す構
成図である。
【図21】単一命令処理装置をもつ中央処理装置の動作
を説明するためのブロック図である。
【図22】複数の命令処理装置をもつ中央処理装置の動
作を説明するためのブロック図である。
【図23】オンラインシステムのソフトウェア構成を示
すブロック図である。
【符号の説明】

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】それぞれに複数の命令処理装置が独立的に
    割当てられる少なくとも1つのスーパバイザと、別の命
    令処理装置が独立的に割当てられ前記スーパーバイザの
    起動/停止と障害監視を行なう運用管理スーパバイザと
    、前記運用管理スーパバイザと前記スーパバイザとの間
    の通信を行なうために独立した前記命令処理装置間を接
    続する伝送路とを有することを特徴とするマルチプロセ
    ッサシステム。
  2. 【請求項2】それぞれに前記スーパバイザと前記運用管
    理スーパバイザとを備えた第1および第2のマルチプロ
    セッサシステムを有するシステムであって、前記伝送路
    として前記通信に加えて前記運用管理スーパバイザ間の
    通信を行なうために独立した前記命令処理装置間を接続
    する共通の伝送路を有することを特徴とする請求項1記
    載のマルチプロセッサシステム。
JP03077571A 1991-04-10 1991-04-10 マルチプロセッサシステム Expired - Lifetime JP3118855B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP03077571A JP3118855B2 (ja) 1991-04-10 1991-04-10 マルチプロセッサシステム
US07/865,330 US5692119A (en) 1991-04-10 1992-04-08 Management method for a multiprocessor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03077571A JP3118855B2 (ja) 1991-04-10 1991-04-10 マルチプロセッサシステム

Publications (2)

Publication Number Publication Date
JPH04311251A true JPH04311251A (ja) 1992-11-04
JP3118855B2 JP3118855B2 (ja) 2000-12-18

Family

ID=13637698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03077571A Expired - Lifetime JP3118855B2 (ja) 1991-04-10 1991-04-10 マルチプロセッサシステム

Country Status (2)

Country Link
US (1) US5692119A (ja)
JP (1) JP3118855B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3555047B2 (ja) * 1995-12-20 2004-08-18 株式会社日立製作所 複合コンピュータシステム
US5884018A (en) * 1997-01-28 1999-03-16 Tandem Computers Incorporated Method and apparatus for distributed agreement on processor membership in a multi-processor system
US6038677A (en) * 1997-03-31 2000-03-14 International Business Machines Corporation Automatic resource group formation and maintenance in a high availability cluster configuration
US6553403B1 (en) * 1998-06-03 2003-04-22 International Business Machines Corporation System, method and computer program product for monitoring in a distributed computing environment
US6460070B1 (en) * 1998-06-03 2002-10-01 International Business Machines Corporation Mobile agents for fault diagnosis and correction in a distributed computer environment
US6549932B1 (en) * 1998-06-03 2003-04-15 International Business Machines Corporation System, method and computer program product for discovery in a distributed computing environment
US7133942B2 (en) * 2001-12-07 2006-11-07 International Business Machines Corporation Sequence-preserving multiprocessing system with multimode TDM buffer
KR101366775B1 (ko) * 2012-04-03 2014-02-24 국방과학연구소 컴퓨터 시스템의 고장방지 장치

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4149243A (en) * 1977-10-20 1979-04-10 International Business Machines Corporation Distributed control architecture with post and wait logic
US4484273A (en) * 1982-09-03 1984-11-20 Sequoia Systems, Inc. Modular computer system
US4608631A (en) * 1982-09-03 1986-08-26 Sequoia Systems, Inc. Modular computer system
US5023779A (en) * 1982-09-21 1991-06-11 Xerox Corporation Distributed processing environment fault isolation
JP2539352B2 (ja) * 1984-06-20 1996-10-02 株式会社日立製作所 階層型多重計算機システム
US4918589A (en) * 1985-10-31 1990-04-17 Allen-Bradley Company, Inc. Method and apparatus for linking processors in a hierarchical control system
US4831518A (en) * 1986-08-26 1989-05-16 Bull Hn Information Systems Inc. Multiprocessor interrupt rerouting mechanism
US4807228A (en) * 1987-03-18 1989-02-21 American Telephone And Telegraph Company, At&T Bell Laboratories Method of spare capacity use for fault detection in a multiprocessor system
US5291489A (en) * 1987-11-13 1994-03-01 Dsc Communications Corporation Interprocessor switching network
JPH0746322B2 (ja) * 1988-05-23 1995-05-17 日本電気株式会社 障害装置特定システム
US5274809A (en) * 1988-05-26 1993-12-28 Hitachi, Ltd. Task execution control method for a multiprocessor system with enhanced post/wait procedure

Also Published As

Publication number Publication date
US5692119A (en) 1997-11-25
JP3118855B2 (ja) 2000-12-18

Similar Documents

Publication Publication Date Title
EP1323037B1 (en) Method and apparatus for controlling an extensible computing system
DE69021122T2 (de) Verfahren und Gerät zur ununterbrochenen Versorgung von Anwendungen in einem Rechnernetzwerk.
US5784617A (en) Resource-capability-based method and system for handling service processor requests
JP3266481B2 (ja) クラスタ化コンピューティング・システムのディスク・アクセス・パスにおける障害から回復する方法および関連する装置
US5621884A (en) Distributed data access system including a plurality of database access processors with one-for-N redundancy
US5191651A (en) Apparatus and method for making of interconnected processors act like a single node in a multinode communication system
US6892316B2 (en) Switchable resource management in clustered computer system
US7389367B2 (en) Method of managing I/O interface modules in a computer system
JP4712279B2 (ja) 拡張可能コンピューティングシステムの制御方法および装置
US5802293A (en) Integrated plant environment utilizing an advanced program-to-program server enabling communications between programs running in different computing environments
JP2003022209A (ja) 分散サーバーシステム
CN108984320A (zh) 一种消息队列集群防脑裂方法及装置
US20020147823A1 (en) Computer network system
CN110175089A (zh) 一种具有读写分离功能的双活灾备***
JP2001509289A (ja) 分散型遠隔通信スイッチ内の通信及びプロセス管理のためのシステム及び方法
CN114338670B (zh) 一种边缘云平台和具有其的网联交通三级云控平台
JPH04311251A (ja) マルチプロセッサシステム
JP3197279B2 (ja) 業務引継システム
JPH09293059A (ja) 分散システム及びその運用管理方法
JPH0973411A (ja) アクセス負荷の分散制御システム
JPH1069467A (ja) 分散計算機システムにおけるサーバのデータアクセス方式
JP2002055840A (ja) 冗長構成切替システム
Shin et al. A distributed i/o architecture for harts
JPH07311748A (ja) 分散データベースシステムの障害回復方式
CN116107707A (zh) 一种数据基础引擎平台及使用方法

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071013

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081013

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101013

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111013

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111013

Year of fee payment: 11