JP2007133481A - 分散システム - Google Patents

分散システム Download PDF

Info

Publication number
JP2007133481A
JP2007133481A JP2005323563A JP2005323563A JP2007133481A JP 2007133481 A JP2007133481 A JP 2007133481A JP 2005323563 A JP2005323563 A JP 2005323563A JP 2005323563 A JP2005323563 A JP 2005323563A JP 2007133481 A JP2007133481 A JP 2007133481A
Authority
JP
Japan
Prior art keywords
distributed
task
importance
priority
tasks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005323563A
Other languages
English (en)
Other versions
JP5109250B2 (ja
Inventor
Takeshi Ono
毅 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokogawa Electric Corp
Original Assignee
Yokogawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokogawa Electric Corp filed Critical Yokogawa Electric Corp
Priority to JP2005323563A priority Critical patent/JP5109250B2/ja
Priority to CN2006800417032A priority patent/CN101305348B/zh
Priority to PCT/JP2006/315911 priority patent/WO2007055055A1/ja
Priority to US12/092,918 priority patent/US8296770B2/en
Publication of JP2007133481A publication Critical patent/JP2007133481A/ja
Application granted granted Critical
Publication of JP5109250B2 publication Critical patent/JP5109250B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multi Processors (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Computer And Data Communications (AREA)

Abstract

【課題】フィールド機器内にのみ有効なタスク優先度を使用せずに、分散アプリケーションへのハードウェア資源の割り当てを可能とする。
【解決手段】ネットワークNを介して相互に接続された複数台のフィールド機器に、複数の分散アプリケーション(分散AP)を並行動作させる分散システムは、分散AP毎に指定される、分散APの優先度を表す分散AP重要度と、分散APを構成するタスク毎に指定される、分散AP内でのタスクの優先度を表す分散AP内相対値に基づいて、フィールド機器内でのタスクの優先度を表す機器内相対値を算出する重要度調整部3と、重要度調整部3により算出された機器内相対値に従って、分散APを構成する各タスクに各フィールド機器のハードウェア資源を割り当てる資源割り当て部13と、を備える。
【選択図】図3

Description

本発明は、ネットワークを介して相互に接続された複数台のフィールド機器に、複数の分散アプリケーションを並行動作させる分散システムに関する。
近年、フィールド上の多種多様な機器(以下、「フィールド機器」と呼ぶ。)がネットワークを介して相互に接続された分散システムに関して様々な提案がなされている(例えば、特許文献1〜4参照。)。図15(a)に、従来の分散システム200の構成を示す。分散システム200は、フィールド機器70、80がネットワークNを介して接続されたシステムである。ネットワークNは、例えば、公衆回線、電話回線、ISDN回線、無線通信回線、専用線、CATV回線、光通信回線等のネットワークである。なお、分散システム200を構成するフィールド機器の台数は特に限定されない。
このような分散システムとしては、例えば、PA(Process Automation)システム、FA(Factory Automation)システム、広域監視・制御システム、計測システム、産業・社会システム等があり、分散システムを構成するフィールド機器としては、例えば、センサ、アクチュエータ、コントローラ、通信測定器、計測器、ICテスタ、カメラ、ルータ、スイッチ等のネットワーク機器等がある。
以下、図15(b)を参照して、分散システム200に、複数の分散アプリケーションを並行動作させる場合の流れについて説明する。分散アプリケーションとは、分散システムにおいて、分散アプリケーションを構成する機能をタスクとして各フィールド機器に配置して、タスクが協調動作して実現されるアプリケーションである。以下、分散アプリケーションを「分散AP」と略記する。
分散APを動作させる際、分散APを構成するタスクに、フィールド機器のタスク優先度を割り当てる必要がある。タスク優先度とは、OS(Operating System)がフィールド機器のCPU(Central Processing Unit)をタスクに分配するために使用する、タスク処理の優先順位を表すOS固有の指標である。タスク優先度の高いタスクが、タスク優先度の低いタスクより先に実行される。優先度が同一のタスクは、平等に時分割で処理される。ここでのタスクは、プロセスやスレッドであっても同等であり、ここでは代表してタスクと呼ぶ。
分散システム200では、まず、タスクを動作させるフィールド機器が決まる。図15(b)に示すように、2つの分散AP(分散AP1、分散AP2)がそれぞれ3つのタスクを有する場合、例えば、フィールド機器70が、分散AP1の2つのタスク、分散AP2の1つのタスクを動作させるフィールド機器として決まり、フィールド機器80が、分散AP1の残りの1つのタスク、分散AP2の残りの2つのタスクを動作させるフィールド機器として決まる。タスクを動作させるフィールド機器が決まると、そのフィールド機器のOS機能を利用して、タスクに必要なハードウェア資源が割り当てられる。処理の優先順位は、OS固有のタスク優先度が指定される。複数のタスクを同一のフィールド機器に動作させる場合には、タスク間の優先順位が決まり、OS固有のタスク優先度が割り当てられる。
特開平10−215492号公報 特開2001−51716号公報 特開2002−318702号公報 特開2004−54803号公報
しかしながら、従来の分散システムでは、以下のような問題があった。
タスク優先度がOSに依存するため、タスクを動作させるフィールド機器を決めた後で初めてタスク優先度が決まる。従って、分散APの開発や設計時には、個々のタスクのタスク優先度を決めることができない。また、タスク優先度がOSの絶対値指標のため、フィールド機器にタスクを追加する度に、そのフィールド機器で動作する全てのタスクの優先度を人手で再設計する必要がある。更に、分散APは、複数のフィールド機器上で動作する複数のタスクから構成されるため、1つのOSのタスク優先度では、分散APの優先度を確定することはできず、構成する全てのタスクのタスク優先度をOS毎に調整する必要がある。複数の分散APを複数のフィールド機器に動作させる場合は、更に共に調整するタスク優先度の範囲は広がり複雑になる。
本発明の課題は、フィールド機器内にのみ有効なタスク優先度を使用せずに、分散アプリケーションへのハードウェア資源の割り当てを可能とすることである。
上記課題を解決するため、請求項1に記載の発明は、ネットワークを介して相互に接続された複数台のフィールド機器に、複数の分散アプリケーションを並行動作させる分散システムであって、
分散アプリケーション毎に指定される、分散アプリケーションの優先度を表す分散アプリケーション重要度と、分散アプリケーションを構成するタスク毎に指定される、分散アプリケーション内でのタスクの優先度を表す分散アプリケーション内相対値に基づいて、分散システム全体における分散アプリケーション内のタスクの重要度分布を表す絶対値を、分散システム内の全ての分散アプリケーションに対して算出する重要度調整部を備えることを特徴としている。
請求項2に記載の発明は、請求項1に記載の分散システムにおいて、前記重要度調整部は、前記算出された絶対値を、分散システムを構成するフィールド機器毎に、フィールド機器で動作させるタスク全てに対して集計し、フィールド機器内でのタスク重要度の相対値を表す機器内相対値を算出することを特徴としている。
請求項3に記載の発明は、請求項2に記載の分散システムにおいて、前記重要度調整部を、分散システム全体で少なくとも1つ備え、
前記重要度調整部によりフィールド機器毎に算出された機器内相対値に従って、タスク毎にフィールド機器のハードウェア資源を割り当てる資源割り当て部を、フィールド機器毎に備えることを特徴としている。
本発明によれば、フィールド機器内にのみ有効なタスク優先度を使用せずに、分散アプリケーションへのハードウェア資源の割り当てが可能となる。
特に、分散アプリケーション重要度に従ってハードウェア資源を割り当てることにより、同一の機器群に複数の分散アプリケーションを動作させる場合に、重要度の高い分散アプリケーションに優先的にハードウェア資源を割り当てることが可能となる。また、実際に動作させる機器群の構成やその機器群へのタスクの配置に依存せず、複数の分散アプリケーションをアプリケーション単位で、資源割り当てを制御することができる。
また、分散アプリケーション内相対値に従ってハードウェア資源を割り当てることにより、フィールド機器に依存せずに、タスク間の資源割り当ての優先順位を決定することができる。また、実際に動作させる機器群の構成やその機器群へのタスクの配置に依存せず、分散アプリケーションの開発時に設計したタスク間の優先順位を維持することができる。
更に、分散アプリケーション重要度及び分散アプリケーション内相対値に基づいて機器内相対値を算出し、この機器内装置値に従ってハードウェア資源を割り当てることにより、分散アプリケーションを構成する複数のフィールド機器にまたがるタスク間の優先順位を維持したまま、分散アプリケーションの重要度をダイナミックに変更して、フィールド機器内の複数のタスクの資源割り当ての優先順位をダイナミックに変更することができる。
以下、図面を参照して、本発明の実施形態を説明する。
まず、本実施形態で使用する用語について説明する。本実施形態では、分散APの重要性を、分散APとその構成タスクの2段階で表現する指標を定義する。この指標は、フィールド機器固有のOSがタスクに割り当てるタスク優先度とは異なり、各フィールド機器共通の資源の割り当て優先度や処理優先度を示す。本実施形態では、従来の「優先度」と区別するために「重要度」という用語を用いる。
分散システム全体の全ての分散AP間で、資源割り当ての重要性の大小を示す指標(分散APの優先度)として「分散AP重要度」を定義する。また、指定された範囲の複数のタスク間で、資源割り当てにおける重要性の大小を示す指標として「タスク重要度」を定義する。更に、この「タスク重要度」の中で、システム全体の全てのタスク間の重要性の大小を示す指標として「絶対値」を定義し、同一の分散APを構成するタスク間の重要性の大小を示す指標(タスクの優先度)として「分散AP内相対値」を定義し、同一のフィールド機器で動作するタスク間の重要性の大小を示す指標として「機器内相対値」を定義する(図5及び図6参照)。
まず、本実施形態における構成について説明する。
図1に、本発明の実施形態における分散システム100の構成を示す。分散システム100は、図1に示すように、フィールド機器1、2と、各フィールド機器で動作させる各分散APのタスク重要度を調整する重要度調整部3により構成され、各機器はネットワークNを介して相互に接続される。
フィールド機器1、2は、センサ、アクチュエータ、コントローラ、通信測定器、計測器、ICテスタ、カメラ、ルータ、スイッチ等のネットワーク機器等である。また、ネットワークNは、例えば、公衆回線、電話回線、ISDN回線、無線通信回線、専用線、CATV回線、光通信回線等のネットワークである。なお、分散システム100を構成するフィールド機器の台数は特に限定されない。また、図1では、フィールド機器と重要度調整部3が別体である場合を示しているが、何れかのフィールド機器と重要度調整部3が一体となった構成であってもよい。
図2に、フィールド機器1、2に共通する主要部構成を示す。フィールド機器1、2は、図2に示すように、演算制御手段10、記憶手段11、通信手段12、資源割り当て部13により構成される。
演算制御手段10は、CPU(Central Processing Unit)等により構成され、フィールド機器1(又は2)を構成する各部を制御する。
記憶手段11は、ハードディスク、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等により構成され、分散アプリケーション(以下、「分散AP」と略記。)等のアプリケーションプログラムを格納する。通信手段12は、ネットワークNを介して外部機器と通信を行う。
資源割り当て部13は、図3に示すように、重要度調整部3により設定された、分散APのタスク重要度の機器内相対値(後述、図6参照)に従って、OSの資源割り当て機能を使用して、タスク優先度の実際のハードウェア資源を各タスクに割り当てる。
図4に、重要度調整部3の主要部構成を示す。重要度調整部3は、図4に示すように、重要度管理テーブル30を有し、正規化・更新部31、絶対値領域確保部32、絶対値マッピング部33、機器内相対値マッピング部34により構成される。
重要度管理テーブル30は、資源割り当て管理テーブル301(図5)と、資源割り当て管理テーブル302(図6)を有する。
図5に、資源割り当て管理テーブル301のデータ構成を示す。資源割り当て管理テーブル301は、図5に示すように、分散AP毎に、「分散AP識別子」、「分散AP重要度」、「構成タスク数」、分散APを構成するタスクの「タスク重要度」の項目から構成される。
「分散AP識別子」項目は、分散APを識別する識別子データを格納する。「分散AP重要度」項目は、分散APの重要度を表す順位のデータを格納する。図5では、「分散AP重要度」項目で各分散APに設定される順位を奇数としている。「分散AP重要度」項目で設定されるデータは、正規化・更新部31における処理によって変動する。
「構成タスク数」項目は、分散APを構成するタスク数のデータを格納する。「タスク重要度」項目は、「相対値領域」と「絶対値領域」の項目から構成される。「相対値領域」項目は、分散AP内相対値(同一の分散APを構成するタスク間の重要性の大小を示す指標)の領域を表すデータを格納する。「絶対値領域」項目は、絶対値(システム全体の全てのタスク間の重要性の大小を示す指標)の領域を表すデータを格納する。「絶対値領域」項目で設定されるデータは、絶対値領域確保部32における処理によって変動する。なお、図5では、「分散AP重要度」項目及び「絶対値領域」項目において、設定された数値が小さいほど重要度が高い場合を示している。
図6に、資源割り当て管理テーブル302のデータ構成を示す。資源割り当て管理テーブル302は、図6に示すように、「分散AP(識別子)」、「分散AP内タスク(識別子)」、「機器(識別子)」、「タスク重要度」の項目から構成される。
「分散AP(識別子)」項目は、分散APを識別する識別子データを格納する。「分散AP内タスク(識別子)」項目は、分散APを構成する各タスクを識別する識別子データを格納する。「機器(識別子)」項目は、該当するタスクが割り当てられるフィールド機器を識別する識別子データを格納する。「タスク重要度」項目は、「分散AP内相対値」、「絶対値」、「機器内相対値」の項目から構成される。「分散AP内相対値」項目は、分散AP別に分散AP内相対値(同一の分散APを構成するタスク間の重要性の大小を示す指標)のデータを格納する。「絶対値」項目は、各タスクの絶対値(システム全体の全てのタスク間の重要性の大小を示す指標)のデータを格納する。「絶対値」項目で設定されるデータは、絶対値領域確保部32における処理によって変動する。
「機器内相対値」項目は、フィールド機器別に、機器内相対値(同一のフィールド機器で動作するタスク間の重要性の大小を示す指標)のデータを格納する。「機器内相対値」項目で設定されるデータは、フィールド機器にタスクが追加されるたびに変動する。なお、図6では、「分散AP内相対値」、「絶対値」、「機器内相対値」の各項目において、設定された数値が小さいほど重要度が高くなる場合を示している。
以下、重要度調整部3を構成する各部の機能について簡単に説明する。各部の機能の詳細については、後に図7を参照して説明する。以下の機能説明では、分散システム100に新たに分散APを追加する場合について説明する。
正規化・更新部31は、既存の分散APの重要度の並びに対して、追加する分散APの重要度を指定して適切な位置に挿入する。
絶対値領域確保部32は、既存の分散APにおけるタスク重要度の絶対値領域の並びに対して、追加する分散APに必要な絶対値領域を確保する。
絶対値マッピング部33は、絶対値領域確保部32において確保された絶対値領域に、個々のタスクのタスク重要度の絶対値を割り当てる。
機器内相対値マッピング部34は、絶対値マッピング部33での処理で設定されたタスク重要度の絶対値から、動作させるフィールド機器毎の機器内相対値を算出する。
次に、本実施形態における動作について説明する。
図7のフローチャートを参照して、分散システム100に分散APを追加する場合に重要度調整部3において実行される処理について説明する。
まず、正規化・更新部31において、分散AP重要度の並びを正規化して重要度管理テーブル30を更新する処理が行われる(ステップS1)。具体的に、ステップS1では、まず、資源割り当て管理テーブル301から、(例えば、奇数で順位付けされた)既存の分散APの分散AP重要度の並び情報が読み込まれる。次いで、操作部(図示略)等により、追加する分散APの分散AP重要度が指定される。なお、既存の分散AP重要度の並びに対して、その間を指定する場合は、中間値(例えば偶数)が指定される。次いで、変更された分散AP重要度の並びに対して、(例えば奇数等で)正規化が施され、重要度管理テーブル30が更新される。
例えば、図5の資源割り当て管理テーブル301及び図6の資源割り当て管理テーブル302で示す分散AP−1と分散AP−2が動作している分散システム100では、既存の分散AP重要度の並びは、図8(a)に示すように、分散AP重要度の高い順に、分散AP−2(分散AP重要度=1)、分散AP−1(分散AP重要度=3)となる。この分散システム100に、新たに分散AP−3を追加するとき、この分散AP−3の分散AP重要度を、分散AP−2と分散AP−1の間に指定する場合、図8(b)に示すように、分散AP−3の分散AP重要度は“2”に指定される。次いで、図8(c)に示すように、追加された分散AP−3よりも分散AP重要度が低い分散AP−1の分散AP重要度が移動し、分散AP−2、分散AP−3、分散AP−1の分散AP重要度の並びが奇数に正規化され、それぞれ、分散AP重要度が、1、3、5となる。
次いで、絶対値領域確保部32において、既存の分散APにおけるタスク重要度の絶対値領域の並びに対して、追加する分散APに必要な絶対値領域が確保される(ステップS2)。具体的に、ステップS2では、まず、資源割り当て管理テーブル301及び302から、既存の分散APのタスク重要度の絶対値領域の並び情報が読み込まれる。次いで、追加する分散APの分散AP重要度から、その追加する分散APに必要なタスク重要度領域を確保する位置(既存の領域間のどの境界か)が決定される。追加する分散APの分散AP重要度が既存の分散APと等しい場合は、絶対値領域の何れか一方を拡大・縮小して、絶対値領域が揃えられる。またその領域に分布するタスク重要度(分散AP内相対値と絶対値)も、同じ比率で拡大・縮小して揃えられる。更に、タスク重要度の値が(例えば整数値に)正規化される。追加する分散APよりも分散AP重要度の低い全ての分散APを構成するタスクのタスク重要度の絶対値が、より低い方向に必要な分(相対値領域分)だけ移動され、重要度管理テーブル30が更新される。
例えば、図9(a)に示すように、既存の分散AP−2(分散AP重要度=1)、AP−1(分散AP重要度=5)におけるタスク重要度の絶対値領域の並びが、それぞれ、1〜3、4〜6である場合に、図9(b)に示すように、2つのタスクから構成される分散AP重要度が3の分散AP−3を追加する場合、既存の2つの分散APの中間に、タスク重要度の絶対値領域が確保される。即ち、図9(c)に示すように、タスク重要度の絶対値領域の並びに分散AP−3が割り込み、分散AP−3よりも分散AP重要度が低い分散AP−1のタスク重要度が移動される。追加された分散AP−3のタスク数が2つであるため、分散AP−1のタスク重要度の絶対値は2つ分ずれて6〜8となる。
次いで、絶対値マッピング部33において、追加された分散APのタスク重要度の絶対値へのマッピングが行われる(ステップS3)。これは、ステップS2で確保された絶対値領域に、個々のタスクのタスク重要度の絶対値を割り当てる処理である。具体的には、操作部(図示略)等により、追加する分散APを構成するタスクの分散AP内相対値が指定され、その分散AP内相対値に対応する絶対値領域内での値(絶対値)に変換され、得られた絶対値が、重要度管理テーブル30(資源割り当て管理テーブル302)に登録される。
例えば、図9(c)に示すように、分散AP−3のタスク重要度の絶対値領域が確保された場合、その確保された絶対値領域に、図9(d)に示すように、分散AP−3のタスク重要度の絶対値4、5が割り当てられる。
タスク重要度の絶対値が割り当てられると、機器内相対値マッピング部34において、タスク重要度の絶対値の機器内相対値へのマッピングが行われる(ステップS4)。これは、ステップS3の処理で得られたタスク重要度の絶対値に対して、動作させるフィールド機器毎の相対値を割り当てる処理である。具体的には、資源割り当て管理テーブル302から、該当するフィールド機器で動作させる全てのタスクのタスク重要度の絶対値が読み込まれ、その絶対値が、そのフィールド機器内で重要度の順位付けを示す機器内相対値に変換され、得られた機器内相対値が、重要度管理テーブル30(資源割り当て管理テーブル302)に登録される。
例えば、図10に示すように、追加する分散AP−3を構成する2つのタスクをタスク−3a、タスク−3bとし、タスク重要度の絶対値が、それぞれ、5、4であるものとする。また、タスク−3aがフィールド機器1、タスク−3bがフィールド機器2に割り当てられるものとする。図10に示すように、フィールド機器1に割り当てられたタスクは、タスク重要度の高い順にタスク−2a、タスク−3a、タスク−1a、タスク−1bであるので、各々のタスクのタスク重要度の絶対値を、1、2、3、4に変換することにより、フィールド機器1で動作するタスクの機器内相対値が算出される。同様に、フィールド機器2に割り当てられたタスクは、タスク重要度の高い順にタスク−2c、タスク−2b、タスク−3b、タスク−1cであるので、各々のタスクのタスク重要度の絶対値を、1、2、3、4に変換することにより、フィールド機器2で動作するタスクの機器内相対値が算出される。
各フィールド機器の機器内相対値が得られると、ステップS4で得られた各フィールド機器の機器内相対値のデータがネットワークNを介して各フィールド機器に出力され(ステップS5)、各フィールド機器の資源割り当て部13に割り当て要求が行われ、重要度調整部3における処理が終了する。
重要度調整部3から資源割り当てを要求された各フィールド機器の資源割り当て部13では、タスク重要度の機器内相対値で示された順位付けで、フィールド機器のハードウェア資源が各タスクに配分される。タスク優先度も資源の1つとして、タスク重要度の機器内相対値から変換されてOSに要求される。
以上のように、本実施形態の分散システム100によれば、分散AP毎に指定した優先度である「分散AP重要度」に従って、OSのタスク優先度等のフィールド機器の資源割り当てを行うことにより、同一の機器群に複数の分散APを動作させる場合に、重要度の高い分散APに優先的にハードウェア資源を割り当てることが可能となる。また、実際に動作させる機器群の構成やその機器群へのタスクの配置に依存せず、複数の分散APをアプリケーション単位で、資源割り当てを制御することができる。
また、分散APを構成するタスク毎に指定する優先度である「タスク重要度の分散AP内相対値」に従って、OSのタスク優先度等の機器の資源割り当てを行うことにより、フィールド機器に依存せずに、タスク間の資源割り当ての優先順位を決定することができる。また、実際に動作させる機器群の構成やその機器群へのタスクの配置に依存せず、分散APの開発時に設計したタスク間の優先順位を維持することができる。
また、「分散AP重要度」及び「タスク重要度の分散AP内相対値」を指定することにより、これらを反映してフィールド機器内に順位付けされた「タスク重要度の機器内相対値」を算出し、OSのタスク優先度等のフィールド機器の資源割り当てを行うことにより、分散APを構成する複数のフィールド機器にまたがるタスク間の優先順位を維持したまま、分散APの重要度をダイナミックに変更して、フィールド機器内の複数のタスクの資源割り当ての優先順位(例えば、タスク優先度)をダイナミックに変更することができる。
以下、本実施形態の分散システム100の変形例1及び2について説明する。
〈変形例1〉
フィールド機器に組み込まれたOSのタスク優先度の範囲が、タスク重要度の機器内相対値の領域よりも小さい場合、タスク重要度領域において重複可能な領域を指定し、タスク重要度の領域を重ねることが可能である。図11に、変形例1における資源割り当て管理テーブル303のデータ構成を示し、図12に、変形例1における資源割り当て管理テーブル304のデータ構成を示す。
資源割り当て管理テーブル303は、図5の資源割り当て管理テーブル301に示された項目に加え、「タスク重要度」項目の中に「重複領域」項目が設けられている。「重複領域」項目は、分散AP重要度が下位の隣接する分散APに対する、タスク重要度の重複領域の大きさを示すデータを格納する。図11及び図12では、分散AP重要度が下位の隣接する分散AP−1に対する分散AP−2のタスク重要度の重複領域が2(絶対値=2、3の領域)である場合を示している。
図13(a)に、既存の分散AP−2及び分散AP−1のタスク重要度の絶対値領域の並びの例を示す。図13(b)に示すように、既存の2つの分散APに、2個のタスクから構成される分散AP重要度が3の分散AP−3を追加するものとする。但し、隣接する下位重要度の分散AP−1に対する分散AP−3のタスク重要度の重複領域が1であるものとする。この場合、既存の2つの分散APの中間に、タスク重要度の絶対値領域を確保する際、図13(c)に示すように、タスク重要度の絶対値領域の並びに、分散AP−3を割り込ませ、タスク重要度の重複領域分を重複させて割り当て、下位重要度の分散AP−1のタスク重要度を移動させる。
変形例1によれば、タスク重要度の重複領域を指定することにより、分散APを構成する一部のタスクのタスク重要度を、下位の分散APと同一或いは低くして、優先させたいタスクに、より高いタスク優先度を割り当てることが可能となる。
〈変形例2〉
変形例2では、既に動作している分散APに悪影響を与えずに、新たな分散APを追加可能な例を示す。
図14に、フィールド機器で動作する主業務タスク61(具体的には、アプリケーションプログラム)と、当該主業務タスクを実行するためのOS62と、通信手段やI/O等のハードウェア資源63からなる機器固有機能6と、動作機構5と、タスク41〜43から構成される追加業務タスク4(具体的には、分散アプリケーションプログラム)との関係を示す。
動作機構5は、機器固有機能インターフェース部51、AP操作管理部52、グループ管理部53、プログラム実行部54、重要度調整部55、資源割り当て部56により構成される。
機器固有機能インターフェース部51は、OS62、ハードウェア資源63からなる機器固有機能6を利用するためのインターフェースである。AP操作管理部52は、追加業務タスク4の生成、起動、停止、削除を制御するとともに、追加業務タスク間での通信を制御する。グループ管理部53は、追加業務タスク4のグループ管理を行う。分散APの単位は、グループ管理部53のグループとして扱われる。プログラム実行部54は、追加業務タスク4のプログラムを実行する。
重要度調整部55は、上述の実施形態の重要度調整部3と同様に、フィールド機器で動作させる各分散APのタスク重要度を調整する。但し、新たに追加する分散APの「分散AP重要度」を、既存の分散APの分散AP重要度よりも低く設定する。なお、図14では、重要度調整部55がフィールド機器内に設けられた例を示しているが、重要度調整部55は、ネットワークN上に1つ(1台)設けられていればよい。
資源割り当て部56は、上述の実施形態の資源割り当て部13と同様に、重要度調整部55により設定された、分散APのタスク重要度の機器内相対値に従って、OS62の資源割り当て機能を使用して、フィールド機器のハードウェア資源63を各タスクに割り当てる。
変形例2によれば、新たに追加する分散APのタスクが、既存の分散APを構成するタスクのタスク重要度の「絶対値」より必ず低くなるため、タスク重要度の「機器内相対値」も低くなる。従って、追加するタスクに、より低いタスク優先度が割り当てられ、既に運用している分散APの動作に悪影響を与えることがない。
本発明の実施形態に係る分散システムの構成を示す図。 分散システムを構成するフィールド機器の主要部構成を示すブロック図。 各フィールド機器に割り当てられた分散APのタスクと、資源割り当て部と、OSと、ハードウェアとの関係を示す図。 重要度調整部の主要部構成を示すブロック図。 資源割り当て管理テーブル301のデータ構成を示す図。 資源割り当て管理テーブル302のデータ構成を示す図。 重要度調整部において実行される処理を示すフローチャート。 分散AP重要度並びの正規化と更新を説明するための図。 タスク重要度の絶対値領域への確保と、絶対値へのマッピングを説明するための図。 タスク重要度の機器内相対値の算出方法を説明するための図。 変形例1の資源割り当て管理テーブル303のデータ構成を示す図。 変形例1の資源割り当て管理テーブル304のデータ構成を示す図。 重複領域を指定した場合のタスク重要度の割り当てを説明するための図。 変形例2におけるフィールド機器の動作機構の構成を示す図。 従来の分散システムを説明するための図。
符号の説明
1、2 フィールド機器
3、55 重要度調整部
10 演算制御手段
11 記憶手段
12 通信手段
13、56 資源割り当て部
30 重要度管理テーブル
301〜304 資源割り当て管理テーブル
31 正規化・更新部
32 絶対値領域確保部
33 絶対値マッピング部
34 機器内相対値マッピング部
100 分散システム

Claims (3)

  1. ネットワークを介して相互に接続された複数台のフィールド機器に、複数の分散アプリケーションを並行動作させる分散システムであって、
    分散アプリケーション毎に指定される、分散アプリケーションの優先度を表す分散アプリケーション重要度と、分散アプリケーションを構成するタスク毎に指定される、分散アプリケーション内でのタスクの優先度を表す分散アプリケーション内相対値に基づいて、分散システム全体における分散アプリケーション内のタスクの重要度を表す絶対値を、分散システム内の全ての分散アプリケーションに対して算出する重要度調整部を備えることを特徴とする分散システム。
  2. 前記重要度調整部は、前記算出された絶対値を、分散システムを構成するフィールド機器毎に、フィールド機器で動作させるタスク全てに対して集計し、フィールド機器内でのタスク重要度の相対値を表す機器内相対値を算出することを特徴とする請求項1に記載の分散システム。
  3. 前記重要度調整部を、分散システム全体で少なくとも1つ備え、
    前記重要度調整部によりフィールド機器毎に算出された機器内相対値に従って、タスク毎にフィールド機器のハードウェア資源を割り当てる資源割り当て部を、フィールド機器毎に備えることを特徴とする請求項2に記載の分散システム。
JP2005323563A 2005-11-08 2005-11-08 分散システム Active JP5109250B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005323563A JP5109250B2 (ja) 2005-11-08 2005-11-08 分散システム
CN2006800417032A CN101305348B (zh) 2005-11-08 2006-08-11 分布式***
PCT/JP2006/315911 WO2007055055A1 (ja) 2005-11-08 2006-08-11 分散システム
US12/092,918 US8296770B2 (en) 2005-11-08 2006-08-11 Systems and methods for allocation of hardware resource to tasks accordance with the device-based relative value for each of the field devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005323563A JP5109250B2 (ja) 2005-11-08 2005-11-08 分散システム

Publications (2)

Publication Number Publication Date
JP2007133481A true JP2007133481A (ja) 2007-05-31
JP5109250B2 JP5109250B2 (ja) 2012-12-26

Family

ID=38023063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005323563A Active JP5109250B2 (ja) 2005-11-08 2005-11-08 分散システム

Country Status (4)

Country Link
US (1) US8296770B2 (ja)
JP (1) JP5109250B2 (ja)
CN (1) CN101305348B (ja)
WO (1) WO2007055055A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5434380B2 (ja) * 2009-08-28 2014-03-05 富士通株式会社 分散処理型シミュレータ
US9015723B2 (en) * 2009-09-23 2015-04-21 International Business Machines Corporation Resource optimization for real-time task assignment in multi-process environments
US9098333B1 (en) 2010-05-07 2015-08-04 Ziften Technologies, Inc. Monitoring computer process resource usage
CN102880779B (zh) * 2011-07-15 2015-10-28 中国辐射防护研究院 一种go法中两状态***内子***部件的重要度确定方法
US10327197B2 (en) 2014-01-31 2019-06-18 Qualcomm Incorporated Distributed clustering of wireless network nodes
US9977697B2 (en) 2016-04-15 2018-05-22 Google Llc Task management system for a modular electronic device
US10127052B2 (en) 2016-04-15 2018-11-13 Google Llc Connection device for a modular computing system
US10282233B2 (en) 2016-04-15 2019-05-07 Google Llc Modular electronic devices with prediction of future tasks and capabilities
US10025636B2 (en) 2016-04-15 2018-07-17 Google Llc Modular electronic devices with contextual task management and performance
US9990235B2 (en) 2016-04-15 2018-06-05 Google Llc Determining tasks to be performed by a modular entity
US10129085B2 (en) 2016-04-15 2018-11-13 Google Llc Determining network configurations for a modular computing entity
US10635498B2 (en) * 2017-05-05 2020-04-28 Dell Products L.P. Prioritizing managed devices for IT management

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0675786A (ja) * 1992-08-26 1994-03-18 Hitachi Ltd タスクスケジュリング方法
JPH06324888A (ja) * 1993-05-10 1994-11-25 Hitachi Ltd スケジューリングシステム
JPH07253893A (ja) * 1994-03-15 1995-10-03 Toshiba Corp タスク優先度管理方式
JPH07282013A (ja) * 1994-04-14 1995-10-27 Hitachi Ltd 分散処理システム
JP2000181884A (ja) * 1998-12-17 2000-06-30 Oki Electric Ind Co Ltd 分散処理システム
JP2001325041A (ja) * 2000-05-12 2001-11-22 Toyo Eng Corp 計算機資源活用方法及びシステム
JP2004206692A (ja) * 2002-12-20 2004-07-22 Internatl Business Mach Corp <Ibm> マルチスレッド化プロセッサ・システム上での実行のために、スレッドについての優先順位値を決定する方法および装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3444159B2 (ja) 1996-11-29 2003-09-08 松下電工株式会社 ビル管理システム
GB2334116A (en) 1998-02-04 1999-08-11 Ibm Scheduling and dispatching queued client requests within a server computer
JP4072271B2 (ja) 1999-02-19 2008-04-09 株式会社日立製作所 複数のオペレーティングシステムを実行する計算機
JP2001051716A (ja) 1999-08-12 2001-02-23 Toshiba Corp 監視制御システム
JP2002318702A (ja) 2001-04-19 2002-10-31 Mitsubishi Electric Corp 車載情報システム
JP4374832B2 (ja) 2002-07-24 2009-12-02 日本電気株式会社 監視サーバ装置、ネットワーク監視システム及びそれらに用いる機能変更方法並びにそのプログラム
US7827283B2 (en) * 2003-02-19 2010-11-02 International Business Machines Corporation System for managing and controlling storage access requirements

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0675786A (ja) * 1992-08-26 1994-03-18 Hitachi Ltd タスクスケジュリング方法
JPH06324888A (ja) * 1993-05-10 1994-11-25 Hitachi Ltd スケジューリングシステム
JPH07253893A (ja) * 1994-03-15 1995-10-03 Toshiba Corp タスク優先度管理方式
JPH07282013A (ja) * 1994-04-14 1995-10-27 Hitachi Ltd 分散処理システム
JP2000181884A (ja) * 1998-12-17 2000-06-30 Oki Electric Ind Co Ltd 分散処理システム
JP2001325041A (ja) * 2000-05-12 2001-11-22 Toyo Eng Corp 計算機資源活用方法及びシステム
JP2004206692A (ja) * 2002-12-20 2004-07-22 Internatl Business Mach Corp <Ibm> マルチスレッド化プロセッサ・システム上での実行のために、スレッドについての優先順位値を決定する方法および装置

Also Published As

Publication number Publication date
US20090235264A1 (en) 2009-09-17
WO2007055055A1 (ja) 2007-05-18
CN101305348B (zh) 2013-03-27
CN101305348A (zh) 2008-11-12
US8296770B2 (en) 2012-10-23
JP5109250B2 (ja) 2012-12-26

Similar Documents

Publication Publication Date Title
JP5109250B2 (ja) 分散システム
KR101733117B1 (ko) 멀티코어 시스템의 태스크 분배 방법 및 장치
US8782657B2 (en) Dynamic creation and destruction of IO resources based on actual load and resource availability
US10664278B2 (en) Method and apparatus for hardware acceleration in heterogeneous distributed computing
JP2006244479A (ja) 実行可能プログラムをスケジューリングするためのシステム及び方法
CN113110914A (zh) 一种基于微服务架构的物联网平台构建方法
KR20200091789A (ko) Gpu 연산의 동시 실행을 위한 플랫폼
JP7197776B2 (ja) スケジューリングプログラム、スケジューリング方法、およびスケジューリング装置
WO2019056771A1 (zh) 分布式存储***升级管理的方法、装置及分布式存储***
JP2014191594A (ja) 分散処理システム
CN103856548A (zh) 动态资源调度方法和动态资源调度器
JPWO2014045549A1 (ja) マシン配置計画を生成する情報処理装置及びマシン配置計画生成方法
WO2020189086A1 (ja) 制御システム、設定装置、および設定プログラム
JP4875525B2 (ja) 仮想計算機システム及びプログラム
US9467336B2 (en) Information processing system and management method thereof
JP2017146895A (ja) オペレーティングシステム、プログラミングシステム及びメモリ割り当て方法
JP2007200346A (ja) 仮想計算機システム及びプログラム
US20050086665A1 (en) Autonomous device driver
CN115061811A (zh) 一种资源调度方法、装置、设备及存储介质
CN113127289B (zh) 一种基于yarn集群的资源管理方法、计算机设备和存储介质
JP2017228223A (ja) 信号処理装置
JP6984087B2 (ja) サービス開発システム、リソース予測方法及びサービス開発プログラム
JP6304153B2 (ja) ライセンス管理システムおよびライセンス管理方法
JP2020016910A (ja) リソース割当装置、リソース管理システム、および、リソース割当プログラム
JP6932755B2 (ja) オペレーティングシステム及びメモリ割り当て方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5109250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250