JP2011257847A - Communication system and communication system update method - Google Patents

Communication system and communication system update method Download PDF

Info

Publication number
JP2011257847A
JP2011257847A JP2010130030A JP2010130030A JP2011257847A JP 2011257847 A JP2011257847 A JP 2011257847A JP 2010130030 A JP2010130030 A JP 2010130030A JP 2010130030 A JP2010130030 A JP 2010130030A JP 2011257847 A JP2011257847 A JP 2011257847A
Authority
JP
Japan
Prior art keywords
node
updated
server cluster
application file
update
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010130030A
Other languages
Japanese (ja)
Other versions
JP5513997B2 (en
Inventor
Yasutoshi Miyagi
安敏 宮城
Reiko Sakurada
玲子 櫻田
Mikio Maeda
幹夫 前田
Takaaki Moriya
高明 森谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010130030A priority Critical patent/JP5513997B2/en
Publication of JP2011257847A publication Critical patent/JP2011257847A/en
Application granted granted Critical
Publication of JP5513997B2 publication Critical patent/JP5513997B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To update a file without interrupting existing services when scale-out is performed for a communication network and a communication service using a general-purpose server.SOLUTION: A communication system 1 comprises a node 2 where multiple server clusters 9, which are clustered by obtaining necessary resources from a resource pool 6, are arranged with application files to realize individual services. The communication system 1 includes a node 2a arranged with an old version application file 21 and a node 2b arranged with the same kind file 22. When a new function is added, the node 2a transfers data D used for processing the old version file 21 to the node 2b (S11) and updates to a new version file 23 (S12a). While the node 2a is updating, the node 2b executes processing to be performed by the node 2a in place of the node 2a and provides services (S13). After the update completes, the node 2a takes over the data D during update from the node 2b (S14).

Description

本発明は、通信システムおよび通信システム更新方法に関し、特にネットワーク中の制御ノードからなる通信システム、および制御ノードのファイル更新による通信システム更新方法に関する。   The present invention relates to a communication system and a communication system update method, and more particularly, to a communication system composed of control nodes in a network, and a communication system update method by updating files of the control node.

近年、ネットワークサービスの多様化が顕著である。通常、サービス提供事業者は、新サービスを立ち上げる際は、その新サービスの利用者数を事前に明確に把握することが困難であるため、まずは小規模のサーバを用いてサービス提供を開始し、利用者の増加に応じてサーバを増強していくことがコスト面で有効である。このようなサービス提供開始形態をスモールスタートという。   In recent years, diversification of network services has been remarkable. Normally, when a service provider launches a new service, it is difficult to clearly identify the number of users of the new service in advance. In terms of cost, it is effective to increase the number of servers as the number of users increases. Such a service provision start form is called small start.

サーバを増強する方法として、性能強化、すなわち、ハードウェアをより性能の高いものに交換する方法(スケールアップという)が従来から行われている。しかし、スケールアップでは、ハードウェアの性能が、ある一定の性能を超える場合にコストが指数関数的に増加してしまう。そのため、近年では、サーバを増強する方法として、性能が高すぎず安価なサーバを追加し(スケールアウトし)、複数のサーバが並列動作すること(これをクラスタという)によって処理を行うことが一般的となりつつある。   As a method for augmenting servers, performance enhancement, that is, a method of replacing hardware with a higher performance (called scale-up) has been conventionally performed. However, in scale-up, the cost increases exponentially when the performance of the hardware exceeds a certain level. Therefore, in recent years, as a method for increasing the number of servers, it is common to add servers that are not too high in performance and are inexpensive (scale out), and perform processing by operating multiple servers in parallel (this is called a cluster). It is becoming the target.

ただし、サービスの利用者数の増加時に、速やかにスケールアウトを行うためには、稼働していない予備のサーバを常に待機させておく必要がある。そのような常には使用していない待機サーバを、個々のサービス提供事業者が用意するには高いコストがかかる。
そこで、近年では、データセンタのようなサーバ管理事業者が、一括してサーバを管理し、サービス提供事業者をホスティングするIaaS(Infrastructure as a Service)などと呼ばれる形態が一般化している(非特許文献1参照)。
IaaSでは、個々のサービス提供事業者にとって、サーバのハードウェアメンテナンスが不要であるというメリットがあるだけでなく、複数のサービス提供事業者が待機サーバを共有することにより、サーバ設備維持費の低減が期待できる。
However, in order to quickly scale out when the number of service users increases, it is necessary to always keep a standby server that is not in operation waiting. It is costly for individual service providers to prepare such standby servers that are not always used.
Therefore, in recent years, a form called IaaS (Infrastructure as a Service) or the like in which a server management company such as a data center manages servers in a batch and hosts service providers has become common (non-patented). Reference 1).
In IaaS, not only is there a merit that hardware maintenance of the server is unnecessary for each service provider, but also server service maintenance costs can be reduced by sharing standby servers among multiple service providers. I can expect.

一方、近年では、通信ネットワークにおいて、設備維持費のコスト低減を目的として通信網のIP(Internet Protocol)化が進んでいる。このため、従来の交換機のような専用ハードウェアではなく、汎用サーバを用いて通信ネットワークおよび通信サービスを実現することが一般化している。また、通信サービスにおいても、サービスは多様化しているため、新サービスをスモールスタートし、利用者の拡大に応じてサーバ数をスケールアウトすることにより、設備コストを低減したいという要求がある。   On the other hand, in recent years, in communication networks, IP (Internet Protocol) of communication networks has been promoted for the purpose of reducing the cost of equipment maintenance costs. For this reason, it is common to implement a communication network and a communication service using a general-purpose server instead of dedicated hardware such as a conventional exchange. In addition, since communication services are also diversified, there is a demand to reduce facility costs by starting a new service in a small manner and scaling out the number of servers as the number of users increases.

そのような要求に対して、各サービスをスモールスタートし、あるサービスの利用者拡大時に、余剰待機資源が集約されたセンタ(リソースプールという)から必要なサーバを獲得し、スケールアウトを行う構成の適用が考えられる。   In response to such a request, each service is small-started, and when expanding the number of users of a certain service, a necessary server is acquired from the center (called a resource pool) where surplus standby resources are aggregated and scaled out. Applicable.

Amazon Elastic Compute Cloud (Amazon EC2)、[平成22年4月6日検索]、インターネット<URL:http://aws.amazon.com/ec2/>Amazon Elastic Compute Cloud (Amazon EC2), [Search April 6, 2010], Internet <URL: http: //aws.amazon.com/ec2/>

しかしながら、例えばIP網を用いた通信ネットワークおよび通信サービスにおいて、複数の汎用的なサーバで、サービス(アプリケーション)を実行する構成、すなわち、汎用的なサーバを用いたスケールアウト構成を、新方式として単純に採用することは困難である。例えば、新方式の通信ネットワークおよび通信サービスにおいて、サービス機能の追加などが発生した場合、従来の設備構成と全く異なるため、従来の設備構成で用いている、プログラムファイルの追加手法や更新手法をそのまま使用することができない。そのため、新たなファイル更新手法が必要である。   However, for example, in a communication network and communication service using an IP network, a configuration in which a service (application) is executed by a plurality of general-purpose servers, that is, a scale-out configuration using a general-purpose server is simplified as a new method. It is difficult to adopt. For example, when a service function is added in a new communication network and communication service, it is completely different from the conventional equipment configuration. Therefore, the program file addition and update methods used in the conventional equipment configuration remain unchanged. Cannot be used. Therefore, a new file update method is necessary.

また、例えばIP網を用いた通信ネットワークおよび通信サービスを提供する通信事業者には、既存の電話網等の通信ネットワークと同様な高い信頼性が求められており、サービス機能を追加する際には、それまでに提供している既存サービスを中断することなく新規サービスの追加を行うことが望まれている。   In addition, for example, a communication network that uses an IP network and a communication provider that provides a communication service are required to have high reliability similar to that of a communication network such as an existing telephone network. It is desired to add a new service without interrupting the existing service provided so far.

本発明は、前記した問題を解決するために成されたものであり、通信ネットワークおよび通信サービスを汎用サーバを用いてスケールアウトした際に既存サービスを無中断でファイル更新できる通信システムおよび通信システム更新方法を提供することを課題とする。   The present invention has been made to solve the above-described problems, and a communication system and communication system update capable of updating a file of an existing service without interruption when the communication network and the communication service are scaled out using a general-purpose server. It is an object to provide a method.

前記目的を達成するために、本発明に係る通信システムは、サーバリソースコンポーネントと、ブートイメージとを、予め余剰にプールしたリソースプールから、必要な資源を予め獲得してクラスタリングされた複数のサーバクラスタに、個々のサービスを実現するアプリケーションファイルを配備することで構成されたノードを備え、各ノードはユーザサービスネットワークを介してユーザ端末にサービスを提供する通信システムであって、所定のサービスを実現する旧バージョンのアプリケーションファイルが配備された第1のノードと、前記所定のサービスを提供できる同種のアプリケーションファイルが配備された第2のノードとを備え、前記第1のノードが、前記所定のサービスへの新機能追加時に、前記旧バージョンのアプリケーションファイルの処理に用いていたデータを前記第2のノードに移動し、前記旧バージョンのアプリケーションファイルを、前記所定のサービスへの新機能を実現する新バージョンのアプリケーションファイルへ更新し、前記アプリケーションファイルの更新終了後に、前記第2のノードから更新中のデータを引き継ぎ、前記第2のノードが、前記第1のノードがアプリケーションファイルを更新している間、前記第1のノードが行うべき処理を代わりに実行して前記所定のサービスを提供することを特徴とする。   In order to achieve the above object, a communication system according to the present invention includes a plurality of server clusters in which necessary resources are acquired in advance from a resource pool in which server resource components and boot images are previously pooled in excess. In addition, each node is a communication system that provides a service to a user terminal via a user service network, and includes nodes configured by deploying application files that implement individual services. A first node in which an application file of an old version is deployed; and a second node in which an application file of the same type capable of providing the predetermined service is provided, and the first node is connected to the predetermined service. When a new function is added, the previous version of the application The data used for processing the application file is moved to the second node, the old version application file is updated to a new version application file that realizes a new function for the predetermined service, and the application file is updated. After the update is completed, the data to be updated is taken over from the second node, and the second node performs processing to be performed by the first node while the first node is updating the application file. It executes instead to provide the predetermined service.

また、前記目的を達成するために、本発明に係る通信システム更新方法は、サーバリソースコンポーネントと、ブートイメージとを、予め余剰にプールしたリソースプールから、必要な資源を予め獲得してクラスタリングされた複数のサーバクラスタに、個々のサービスを実現するアプリケーションファイルを配備することで構成されたノードを備え、各ノードはユーザサービスネットワークを介してユーザ端末にサービスを提供する通信システムにおける通信システム更新方法であって、前記通信システムは、所定のサービスを実現する旧バージョンのアプリケーションファイルが配備された第1のノードと、前記所定のサービスを提供できる同種のアプリケーションファイルが配備された第2のノードとを備え、前記第1のノードが、前記所定のサービスへの新機能追加時に、前記旧バージョンのアプリケーションファイルの処理に用いていたデータを前記第2のノードに移動する移動ステップと、前記旧バージョンのアプリケーションファイルを、前記所定のサービスへの新機能を実現する新バージョンのアプリケーションファイルへ更新する更新ステップとを実行し、前記第2のノードが、前記第1のノードがアプリケーションファイルを更新している間、前記第1のノードが行うべき処理を代わりに実行して前記所定のサービスを提供するサービス提供ステップを実行し、前記第1のノードが、前記アプリケーションファイルの更新終了後に、前記第2のノードから更新中のデータを引き継ぐ引継ステップを実行することを特徴とする。   In order to achieve the above object, the communication system update method according to the present invention is obtained by clustering a server resource component and a boot image obtained in advance from a resource pool obtained by excessively pooling a server resource component and a boot image. A communication system updating method in a communication system that includes nodes configured by deploying application files for realizing individual services in a plurality of server clusters, and each node provides services to user terminals via a user service network. The communication system includes a first node on which an old version application file that realizes a predetermined service is deployed, and a second node on which a similar application file that can provide the predetermined service is deployed. The first node comprises a previous When a new function is added to a predetermined service, a moving step of moving data used for processing the old version application file to the second node, and the old version application file to the predetermined service An update step for updating to a new version of the application file that implements a new function, and the second node should be performed by the first node while the first node is updating the application file. A step of providing a predetermined service by executing a process instead, and the first node takes over the data being updated from the second node after the update of the application file is completed It is characterized by performing.

かかる構成の通信システム、または、かかる手順の通信システム更新方法によれば、通信システムは、各ノードが、リソースプールから獲得された余剰資源をクラスタ構成したサーバクラスタにアプリケーションファイルをデプロイ(配備)することで構成されているので、スモールスタートしたノードにおいて、その提供するサービスの需要増加に伴って、サーバクラスタを追加することで、容易にスケールアウトすることができる。
そして、通信システムは、複数のノードに同種のアプリケーションファイルをデプロイしており、各ノードでサービスを実行する。
そのため、アプリケーションファイル更新によってアプリケーションへ機能を追加する際には、更新対象である第1のノードが、同種のアプリケーションを実行する第2のノードにデータを移動させてから更新処理を行い、かつ、この更新中に第2のノードが第1のノードの肩代わりをして同種のアプリケーションによって既存のサービスを提供するので、追加機能のためのファイル更新をサービス無中断で実現することができる。
According to the communication system having such a configuration or the communication system updating method according to such a procedure, the communication system deploys an application file to a server cluster in which each node has clustered surplus resources acquired from the resource pool. Therefore, in a small-started node, it is possible to easily scale out by adding a server cluster as the demand for the service to be provided increases.
The communication system deploys the same type of application file to a plurality of nodes, and executes services on each node.
Therefore, when adding a function to an application by updating an application file, the first node to be updated performs the update process after moving the data to the second node that executes the same type of application, and During this update, the second node takes over the first node and provides the existing service by the same kind of application, so that the file update for the additional function can be realized without service interruption.

また、本発明に係る通信システムは、前記ノードが、当該ノードを管理統括する管理機能を備え、前記通信システムが、前記ノードを構成する複数のサーバクラスタに対するタスクの振分およびトラフィックの振分を行う振分機能部を備え、前記ノードの管理機能が、更新されたブートイメージを利用した新たなサービス追加時に、当該ノードにおいて既に保持している未更新のサーバクラスタにて処理に用いていたデータを、当該未更新のサーバクラスタと同種のサービスを提供できる同種の外部にある前記ノードまたは当該ノード内部にある他のサーバクラスタに移動し、前記更新されたブートイメージを利用して新たな前記サーバクラスタを組成し、組成された更新済みのサーバクラスタを当該ノードに追加し、当該ノードにおいて前記追加された更新済みのサーバクラスタと、既に保持している未更新のサーバクラスタとを共存させ、前記更新済みのサーバクラスタの安定動作を確認した後で、前記未更新のサーバクラスタを解体して前記リソースプールに戻し、前記振分機能部が、当該ノードの管理機能からの指示に基づいて、当該ノードへのトラフィックを、前記更新済みのサーバクラスタと、前記未更新のサーバクラスタとに振り分けることが好ましい。   In the communication system according to the present invention, the node includes a management function for managing and managing the node, and the communication system distributes tasks and traffic to a plurality of server clusters constituting the node. Data that was used for processing in an unupdated server cluster already held in the node when a new service was added using the updated boot image by the node management function. To the server outside the same kind that can provide the same kind of service as the unupdated server cluster or another server cluster inside the node, and using the updated boot image, the new server Create a cluster and add the configured updated server cluster to the node and After the added updated server cluster coexists with the unupdated server cluster already held, and confirming the stable operation of the updated server cluster, the unupdated server cluster is disassembled. Returning to the resource pool, the distribution function unit distributes traffic to the node to the updated server cluster and the unupdated server cluster based on an instruction from the management function of the node. Is preferred.

また、本発明に係る通信システム更新方法は、前記ノードが、当該ノードを管理統括する管理機能を備え、前記通信システムが、前記ノードを構成する複数のサーバクラスタに対するタスクの振分およびトラフィックの振分を行う振分機能部を備え、前記ノードの管理機能が、更新されたブートイメージを利用した新たなサービス追加時に、当該ノードにおいて既に保持している未更新のサーバクラスタにて処理に用いていたデータを、当該未更新のサーバクラスタと同種のサービスを提供できる同種の外部にある前記ノードまたは当該ノード内部にある他のサーバクラスタに移動する移動ステップと、前記更新されたブートイメージを利用して新たな前記サーバクラスタを組成し、組成された更新済みのサーバクラスタを当該ノードに追加する追加ステップと、当該ノードにおいて前記追加された更新済みのサーバクラスタと、既に保持している未更新のサーバクラスタとを共存させる共存ステップと、前記更新済みのサーバクラスタの安定動作を確認する動作確認ステップと、前記更新済みのサーバクラスタの安定動作を確認した後で、前記未更新のサーバクラスタを解体する解体ステップと、前記解体したコンポーネントを前記リソースプールに戻す返却ステップと、を実行し、前記振分機能部が、前記共存ステップにて、当該ノードの管理機能からの指示に基づいて、当該ノードへのトラフィックを、前記更新済みのサーバクラスタと、前記未更新のサーバクラスタとに振り分けるステップを実行することが好ましい。   In the communication system update method according to the present invention, the node includes a management function for managing and managing the node, and the communication system distributes tasks and traffic to a plurality of server clusters constituting the node. The node management function is used for processing in an unupdated server cluster already held in the node when a new service is added using the updated boot image. Moving the data to the node outside the same kind that can provide the same kind of service as the unupdated server cluster or another server cluster inside the node, and using the updated boot image. Create a new server cluster and add the updated server cluster to the node An adding step, a coexistence step in which the added updated server cluster and an unupdated server cluster already held in the node coexist, and an operation for confirming the stable operation of the updated server cluster After confirming the stable operation of the updated server cluster, performing a confirmation step, disassembling the unupdated server cluster, and returning the disassembled component to the resource pool, The distribution function unit distributes traffic to the node to the updated server cluster and the non-updated server cluster based on an instruction from the management function of the node in the coexistence step. Is preferably performed.

かかる構成の通信システム、または、かかる手順の通信システム更新方法によれば、通信システムは、ブートイメージ更新によってノードに新規サービスを追加する際には、ノードの管理機能が、サーバクラスタ毎に更新を行う。このようにサーバクラスタ毎に更新を行うので、更新前に移動させる未更新のサーバクラスタのデータの移動先は、外部のノードの他に、当該ノードの内部の別の未更新のサーバクラスタであってもよい。
また、ブートイメージ更新のファイル更新処理においては、更新済みのサーバクラスタと、未更新のサーバクラスタとを共存させているので、デプロイされているアプリケーションファイルは、ブートイメージ更新中に動作し続けることができる。
また、更新済みのサーバクラスタと、未更新のサーバクラスタとを共存させているので、ファイル更新状態に合わせて、当該ノードへのトラフィックを各サーバクラスタへ柔軟に振り分けることができる。
さらに、すべてのサーバクラスタを一括して更新することなく、更新をサーバクラスタ毎に行うので、新規サービス用のファイル更新をサービス無中断で実現することができる。
According to the communication system configured as described above or the communication system update method according to such a procedure, when a communication system adds a new service to a node by updating a boot image, the node management function updates each server cluster. Do. Since the update is performed for each server cluster in this way, the destination of the data of the unupdated server cluster to be moved before the update is not only the external node but another unupdated server cluster inside the node. May be.
In addition, since the updated server cluster and the unupdated server cluster coexist in the boot image update file update process, the deployed application file may continue to operate during the boot image update. it can.
In addition, since the updated server cluster and the non-updated server cluster coexist, traffic to the node can be flexibly distributed to each server cluster in accordance with the file update state.
Furthermore, since the update is performed for each server cluster without updating all the server clusters at once, file update for a new service can be realized without interruption of the service.

また、本発明に係る通信システムは、前記ノードの管理機能が、前記新たなサービス追加時に、ファイル更新開始時点から当該ノードの運転監視を開始し、各サーバクラスタにおけるファイル更新状態を把握し、前記更新済みのクラスタの安定動作が予め定められた所定時間に亘って確認できた後に、前記運転監視を解除することが好ましい。   Further, in the communication system according to the present invention, the node management function starts the operation monitoring of the node from the file update start time when the new service is added, grasps the file update state in each server cluster, It is preferable to cancel the operation monitoring after the stable operation of the updated cluster can be confirmed over a predetermined time.

また、本発明に係る通信システム更新方法は、前記ノードの管理機能が、前記新たなサービス追加時に、前記解体ステップの前において、ファイル更新開始時に、当該ノードの運転監視を開始する監視開始ステップと、各サーバクラスタにおけるファイル更新状態を把握する更新状態管理ステップと、前記更新済みのクラスタの安定動作が予め定められた所定時間に亘って確認できた後に、前記運転監視を解除する監視解除ステップとを実行することが好ましい。   Further, the communication system update method according to the present invention includes a monitoring start step in which the node management function starts operation monitoring of the node at the start of file update before the disassembly step when the new service is added. An update state management step for grasping a file update state in each server cluster, and a monitoring release step for releasing the operation monitoring after the stable operation of the updated cluster has been confirmed over a predetermined time, Is preferably performed.

かかる構成の通信システム、または、かかる手順の通信システム更新方法によれば、通信システムは、ノードの運転状態を監視し、更新処理の開始時点から、各サーバクラスタにおけるファイル更新状態を把握し、さらに、更新後所定時間の間に、通信システムに何らかの不具合が発生したか確認し続ける。そのため、更新後所定時間の間に不具合が発生しても、対処することが可能であり、サービス無中断を実現することができる。   According to the communication system configured as described above or the communication system update method according to such a procedure, the communication system monitors the operation state of the node, grasps the file update state in each server cluster from the start of the update process, and Then, during a predetermined time after the update, it continues to check whether any trouble has occurred in the communication system. For this reason, even if a problem occurs during a predetermined time after the update, it is possible to cope with it and to realize non-interruption of service.

また、本発明に係る通信システムは、前記ノードの管理機能が、当該ノードの運転監視中に、前記サーバクラスタ内で不具合が発生した場合、当該ノードから、前記更新済みのクラスタを全て切り離し、前記更新前の未更新のクラスタだけで動作させることが好ましい。   Further, in the communication system according to the present invention, when a failure occurs in the server cluster during the operation monitoring of the node, the node management function disconnects all the updated clusters from the node, It is preferable to operate only on an unupdated cluster before update.

また、本発明に係る通信システム更新方法は、前記ノードの管理機能が、当該ノードの運転監視中に、前記サーバクラスタ内で不具合が発生した場合、当該ノードから、前記更新済みのクラスタを全て切り離すステップと、前記更新前の未更新のクラスタだけで動作させるステップとを実行することが好ましい。   Further, the communication system update method according to the present invention detaches all the updated clusters from the node when the management function of the node causes a failure in the server cluster during operation monitoring of the node. It is preferable to execute the step and the step of operating only on the unupdated cluster before the update.

かかる構成の通信システム、または、かかる手順の通信システム更新方法によれば、通信システムは、ブートイメージ更新のファイル更新処理において、更新済みのサーバクラスタと、未更新のサーバクラスタとを共存させているので、更新後所定時間の間に、更新済みのサーバクラスタ内で不具合が発生したとしても、ノードの管理機能が、更新済みのサーバクラスタから、未更新のクラスタにタスクを移すことで、サービス無中断を実現することができる。   According to the communication system configured as described above or the communication system update method according to such a procedure, the communication system coexists the updated server cluster and the unupdated server cluster in the file update process of the boot image update. Therefore, even if a problem occurs in the updated server cluster within a predetermined time after the update, the node management function moves the task from the updated server cluster to the non-updated cluster. An interruption can be realized.

また、本発明に係る通信システムは、前記第1のノードが、前記旧バージョンのアプリケーションファイルを、前記新バージョンのアプリケーションファイルへ更新して、前記新バージョンのアプリケーションファイルの安定動作が予め定められた所定時間に亘って確認できた場合に、前記第2のノードから更新中のデータを引き継ぎ、前記所定時間の間に前記新バージョンのアプリケーションファイルの安定動作が確認できない場合に、前記新バージョンのアプリケーションファイルを配備しなおし、再配備後に、前記新バージョンのアプリケーションファイルの安定動作が確認できた場合に、前記第2のノードから更新中のデータを引き継ぐことが好ましい。   In the communication system according to the present invention, the first node updates the old version application file to the new version application file, and the stable operation of the new version application file is predetermined. If it is confirmed over a predetermined time, the data being updated is taken over from the second node, and if the stable operation of the application file of the new version cannot be confirmed during the predetermined time, the application of the new version If the stable operation of the new version of the application file is confirmed after the file is redeployed and redeployed, it is preferable to take over the data being updated from the second node.

また、本発明に係る通信システム更新方法は、前記第1のノードが、前記旧バージョンのアプリケーションファイルを、前記新バージョンのアプリケーションファイルへ更新する更新ステップを実行し、前記新バージョンのアプリケーションファイルの安定動作が予め定められた所定時間に亘って確認できた場合に、前記第2のノードから更新中のデータを引き継ぎ、前記所定時間の間に前記新バージョンのアプリケーションファイルの安定動作が確認できない場合に、前記新バージョンのアプリケーションファイルを配備しなおすステップと、再配備後に、前記新バージョンのアプリケーションファイルの安定動作が確認できた場合に、前記第2のノードから更新中のデータを引き継ぐステップとを実行することが好ましい。   In the communication system update method according to the present invention, the first node executes an update step of updating the old version of the application file to the new version of the application file, thereby stabilizing the new version of the application file. When the operation can be confirmed over a predetermined time, the data being updated is taken over from the second node, and the stable operation of the new version of the application file cannot be confirmed during the predetermined time. Re-deploying the new version of the application file, and taking over the data being updated from the second node when the stable operation of the new version of the application file is confirmed after redeployment. It is preferable to do.

かかる構成の通信システム、または、かかる手順の通信システム更新方法によれば、通信システムは、アプリケーションファイル更新において、更新前に、データを同種のノードに移動させ、更新中には、このデータ移動先のノードで処理を肩代わりしているので、アプリケーションファイル更新中に不具合が生じたとしても、サービスとして無中断の処理(以下、サービス無中断という)が継続可能である。また、このサービス無中断の処理の間に、更新対象のノードは、ファイル更新状態のステータスを変更してデプロイしなおす処理をすることができるので、安定動作が確認でき次第、データを引き継ぐことができる。   According to the communication system configured as described above or the communication system update method according to the procedure, the communication system moves data to the same type of node before updating in the application file update, and during the update, the data movement destination Therefore, even if a problem occurs during application file update, uninterrupted processing (hereinafter referred to as service uninterrupted) can be continued as a service. In addition, during this service uninterrupted process, the update target node can change the status of the file update status and redeploy, so it can take over data as soon as stable operation can be confirmed. it can.

本発明によれば、既存の電話網等の通信ネットワークに求められる高い信頼性や、サービス無中断を維持したまま、新規サービスの追加を行うことができる。
また、本発明によれば、更新対象のノードに所定時間の運転監視状態を持たせることで、新規サービスを追加した直後に不安定な状態になったとしてもサービス無中断を実現することができる。
According to the present invention, it is possible to add a new service while maintaining high reliability required for a communication network such as an existing telephone network and no service interruption.
Further, according to the present invention, it is possible to realize non-interruption of service even if the node to be updated has an operation monitoring state for a predetermined time, even if it becomes unstable immediately after adding a new service. .

さらに、本発明によれば、ブートイメージ更新のファイル更新処理において、更新済みのサーバクラスタと、未更新のサーバクラスタとを共存させることで、運転監視期間中に、更新または追加を行っているファイルに不具合を発見した際に、更新または追加前の状態に即座に戻すことが可能である。また、この場合、新サービス追加時に、新旧サービスに対するデータの参照や追加が発生した際には、それぞれ新旧サービスに対して、その要求を振り分けることが可能である。   Furthermore, according to the present invention, in a file update process for boot image update, a file that is updated or added during the operation monitoring period by coexisting an updated server cluster and an unupdated server cluster. It is possible to immediately return to the state before the update or addition when a defect is found. Also, in this case, when new data is added or new data is referenced or added, the request can be distributed to the old and new services.

本発明の実施形態に係る通信システムの一例を示す構成図である。It is a block diagram which shows an example of the communication system which concerns on embodiment of this invention. 図1に示すノードの構成例を模式的に示す概念図である。FIG. 2 is a conceptual diagram schematically illustrating a configuration example of a node illustrated in FIG. 1. 図2に示すサーバクラスタの冗長構成例を模式的に示す概念図である。FIG. 3 is a conceptual diagram schematically illustrating a redundant configuration example of a server cluster illustrated in FIG. 2. 本発明の実施形態に係る通信システムにおいてアプリケーションファイルの更新方法の概要を示す概念図である。It is a conceptual diagram which shows the outline | summary of the update method of an application file in the communication system which concerns on embodiment of this invention. 本発明の実施形態に係る通信システムの更新時の動作を示す概念図である。It is a conceptual diagram which shows the operation | movement at the time of the update of the communication system which concerns on embodiment of this invention. 本発明の実施形態に係る通信システムにおいてブートイメージの更新方法の概要の一例を示す概念図である。It is a conceptual diagram which shows an example of the outline | summary of the update method of a boot image in the communication system which concerns on embodiment of this invention. 本発明の実施形態に係る通信システムにおいてブートイメージの更新方法の概要の他の例を示す概念図である。It is a conceptual diagram which shows the other example of the outline | summary of the update method of a boot image in the communication system which concerns on embodiment of this invention. 本発明の実施形態に係る通信システムにおいてサーバクラスタの更新手順の概要を示す概念図である。It is a conceptual diagram which shows the outline | summary of the update procedure of a server cluster in the communication system which concerns on embodiment of this invention. 図8に示すサーバクラスタの更新中のトラフィックを示す概念図である。FIG. 9 is a conceptual diagram illustrating traffic during update of the server cluster illustrated in FIG. 8. 図8に示すサーバクラスタの更新中の管理機能の処理を示す概念図である。It is a conceptual diagram which shows the process of the management function during the update of the server cluster shown in FIG. 図10に示す管理機能による運転監視状態中の処理の一例を示す概念図である。It is a conceptual diagram which shows an example of the process in the driving | running monitoring state by the management function shown in FIG. 図10に示す管理機能による運転監視状態中の処理の他の例を示す概念図である。It is a conceptual diagram which shows the other example of the process in the driving | running monitoring state by the management function shown in FIG.

図面を参照して本発明の通信システム及びその更新方法を実施するための形態について詳細に説明する。   DESCRIPTION OF EMBODIMENTS A communication system and an updating method thereof according to the present invention will be described in detail with reference to the drawings.

(第1実施形態)
[通信システムの構成]
図1に示すように、通信システム1は、ユーザに通信サービスを提供するクラスタ構成の複数の制御ノード(以下、単にノードという)2を備えている。ノード2の個数は任意であるが、同じサービスを1つ以上のノード2により提供するものとする。つまり、通信システム1は、スモールスタートした後に、同じ処理を行うノードを追加(スケールアウト)することができるシステムである。この通信システム1は、例えば通信事業者によって運用される。通信サービスの種類は特に限定されないが、例えば、通話等の呼処理のサービスが挙げられる。
(First embodiment)
[Configuration of communication system]
As shown in FIG. 1, the communication system 1 includes a plurality of control nodes (hereinafter simply referred to as nodes) 2 having a cluster configuration that provides communication services to users. The number of nodes 2 is arbitrary, but the same service is provided by one or more nodes 2. That is, the communication system 1 is a system that can add (scale out) a node that performs the same processing after a small start. The communication system 1 is operated by, for example, a telecommunications carrier. The type of communication service is not particularly limited, and examples thereof include a call processing service such as a telephone call.

ノード2は、ユーザサービスネットワークN1を介してユーザ端末3と接続される。ユーザ端末3は、通信サービスを享受するユーザが使用する端末であって、例えば、有線または無線のネットワーク接続可能な一般的なパーソナルコンピュータ(PC)や携帯情報端末等から構成される。ユーザサービスネットワークN1は、特に限定するものではないが、例えばIPネットワークとすることができる。 The node 2 is connected to the user terminal 3 via the user service network N 1 . The user terminal 3 is a terminal used by a user who enjoys a communication service, and includes, for example, a general personal computer (PC) or a portable information terminal that can be connected to a wired or wireless network. The user service network N 1 is not particularly limited, but may be an IP network, for example.

ノード2と、ユーザサービスネットワークN1との間には、ロードバランサ(load balancer:LB、振分機能部)4が設けられている。ロードバランサ4は、ユーザサービスネットワークN1からノード2へのトラフィックやタスクをノード2内のサーバクラスタ9のいずれかに振り分けるものであって、例えば、一般的な負荷分散機能を有した装置である。 A load balancer (LB, distribution function unit) 4 is provided between the node 2 and the user service network N 1 . Load balancer 4, there is for distributing traffic or task from a user service network N 1 to the node 2 to one of the server cluster 9 in the node 2, for example, it is a device having a common load balancing .

ユーザサービスネットワークN1には、ノード2以外の制御ノード5も接続されている。制御ノード5は、例えば、ユーザサービスネットワークN1におけるルーティング処理、トラフィック監視処理、障害検出時処理等を行うものである。制御ノード5は、例えば、一般的なサーバやルータ等から構成される。 A control node 5 other than the node 2 is also connected to the user service network N 1 . The control node 5 performs, for example, routing processing, traffic monitoring processing, failure detection processing, etc. in the user service network N 1 . The control node 5 is composed of, for example, a general server or router.

ノード2は、例えば通信事業者の保守ネットワークN2を介して、リソースプール6と、リソースプールマネージャ7と、オペレータ端末8と接続されている。
リソースプール6は、ある程度余剰にリソース(資源)が集約されたネットワーク空間を示している。リソースプールに集約されたリソースは、余剰待機資源として活用される。本実施形態では、一例として、日本全国を、九州および沖縄地方、中国および四国地方、近畿地方、北陸および東海地方、関東地方、東北地方、北海道地方の合計7つの地方に区分し、各区分に対応して7つのリソースプール6(6a〜6g)が用意されていることとする(図5参照)。
The node 2 is connected to the resource pool 6, the resource pool manager 7, and the operator terminal 8 via, for example, a maintenance network N 2 of a communication carrier.
The resource pool 6 indicates a network space in which resources (resources) are aggregated to some extent. Resources aggregated in the resource pool are used as surplus standby resources. In this embodiment, as an example, the whole of Japan is divided into seven regions in total: Kyushu and Okinawa, China and Shikoku, Kinki, Hokuriku and Tokai, Kanto, Tohoku, and Hokkaido. Correspondingly, it is assumed that seven resource pools 6 (6a to 6g) are prepared (see FIG. 5).

リソースプールマネージャ7は、全国各地に点在したリソースプール6を管理するものであって、例えば、一般的なサーバ等から構成される。
オペレータ端末8は、リソースプールマネージャ7にコマンドを投入するために、例えば通信事業者のオペレータが使用する端末であって、例えば、一般的なPC等から構成される。なお、ユーザ端末3、制御ノード5、リソースプールマネージャ7およびオペレータ端末8の台数は任意である。
The resource pool manager 7 manages the resource pools 6 scattered throughout the country, and includes, for example, a general server.
The operator terminal 8 is a terminal used by, for example, an operator of a telecommunications carrier in order to input a command to the resource pool manager 7, and is composed of, for example, a general PC. The number of user terminals 3, control nodes 5, resource pool managers 7, and operator terminals 8 is arbitrary.

図1に示すように、ノード2は、リソースプール6から、必要な資源を予め獲得してクラスタリングされた冗長構成のサーバクラスタ9に、個々のサービスを実現するアプリケーションファイルを配備することで構成されており、複数のサーバクラスタ9と、管理機能10とを備えている。   As shown in FIG. 1, the node 2 is configured by deploying application files for realizing individual services from a resource pool 6 to a redundant server cluster 9 obtained by acquiring necessary resources in advance and clustered. A plurality of server clusters 9 and a management function 10.

図2に示すように、リソースプール6は、サーバリソースコンポーネント30を備えている。サーバリソースコンポーネント30は余剰にプールされている。
サーバリソースコンポーネント30とは、ノード2を物理的に組成するものであって、ここでは、CPU(Central Processing Unit)、メモリ、NIC(Network Interface Card)等がアセンブルされた物理的なサーバのことを示している。図2では、サーバリソースコンポーネント30の一例として、個別のサーバ31,32,33を図示し、こられを一括してサーバリソースコンポーネント30と呼称している。
As shown in FIG. 2, the resource pool 6 includes a server resource component 30. The server resource component 30 is pooled excessively.
The server resource component 30 is a physical composition of the node 2 and is a physical server in which a CPU (Central Processing Unit), a memory, a NIC (Network Interface Card) and the like are assembled. Show. In FIG. 2, individual servers 31, 32, and 33 are illustrated as an example of the server resource component 30, and these are collectively referred to as the server resource component 30.

また、本実施形態では、リソースプール6は、ブートイメージ40も備えている。ブートイメージ40は余剰にプールされている。ブートイメージ40とは、ノード2の機能を実現するためのソフトウェアコンポーネントであって、例えば、OS(Operating System)、ミドルウェア、ライブラリ等を示している。   In the present embodiment, the resource pool 6 also includes a boot image 40. The boot image 40 is pooled excessively. The boot image 40 is a software component for realizing the function of the node 2 and indicates, for example, an OS (Operating System), middleware, a library, and the like.

なお、図2に示したブートイメージ40の例は、リソースプール6にてプールされた状態を模式的に表したものであり、サーバクラスタ9に対しては、図4に示すようにソフトウェアコンポーネント50として表される。この場合、サーバクラスタ9は、ソフトウェアコンポーネント50として、例えば、OS51と、ミドルウェア52と、ライブラリ53とを備えている。   The example of the boot image 40 shown in FIG. 2 schematically represents the state pooled in the resource pool 6, and for the server cluster 9, the software component 50 as shown in FIG. Represented as: In this case, the server cluster 9 includes, as the software component 50, for example, an OS 51, middleware 52, and a library 53.

図2では、ブートイメージ40の一例として、クラスタサーバ41と、クラスタLB(load balancer)42と、クラスタ管理機能43とを図示した。
クラスタサーバ41は、サービスを提供するサーバクラスタ9に用いられるソフトウェアコンポーネントをサーバ毎にアセンブルされたイメージファイルである。
クラスタLB42は、ロードバランサ4に用いられるソフトウェアコンポーネントをロードバランサ毎にアセンブルされたイメージファイルである。
クラスタ管理機能43は、ノードを管理統括する管理機能10に用いられるソフトウェアコンポーネントを管理機能毎にアセンブルされたイメージファイルである。
In FIG. 2, as an example of the boot image 40, a cluster server 41, a cluster LB (load balancer) 42, and a cluster management function 43 are illustrated.
The cluster server 41 is an image file in which software components used in the server cluster 9 that provides services are assembled for each server.
The cluster LB42 is an image file in which software components used for the load balancer 4 are assembled for each load balancer.
The cluster management function 43 is an image file in which software components used for the management function 10 for managing and managing nodes are assembled for each management function.

また、図5では、ブートイメージ40の一例として、クラスタEMS44も図示した。このクラスタEMS44は、ノードの動作状態を監視して不具合を検知する図示しない監視検知機能に用いられるソフトウェアコンポーネントをEMS(Event Monitoring Service)毎にアセンブルされたイメージファイルである。   In FIG. 5, the cluster EMS 44 is also illustrated as an example of the boot image 40. The cluster EMS 44 is an image file in which software components used for a monitoring detection function (not shown) for monitoring a node operation state to detect a failure are assembled for each EMS (Event Monitoring Service).

なお、リソースプール6を、サーバリソースプールと、ブートイメージプールとに分けてもよい。この場合、サーバリソースプールは、サーバリソースコンポーネント30のみを備え、ブートイメージプールは、ブートイメージ40のみを備える。   The resource pool 6 may be divided into a server resource pool and a boot image pool. In this case, the server resource pool includes only the server resource component 30, and the boot image pool includes only the boot image 40.

図2に示すように、サーバリソースコンポーネント30と、ブートイメージ40とをクラスタリングしたものがサーバクラスタ9に相当する。このサーバクラスタ9は、N重化構成で実現することができる(Nは2以上の整数)。さらに、個々のサービスを実現するアプリケーションファイル20を、サーバクラスタ9にデプロイ(配備)することで、ノード2を構成している。つまり、図2は、ノード2の階層構造を模式的に示している。   As shown in FIG. 2, a cluster of the server resource component 30 and the boot image 40 corresponds to the server cluster 9. This server cluster 9 can be realized in an N-layer configuration (N is an integer of 2 or more). Further, the node 2 is configured by deploying application files 20 for realizing individual services in the server cluster 9. That is, FIG. 2 schematically shows the hierarchical structure of the node 2.

図2に示すサーバクラスタの冗長構成例を図3に示す。
図3(a)に示す2重化クラスタ9Aは、アクティブ側のサーバクラスタ(ACT)と、スタンバイ側のサーバクラスタ(SBY)とが共に2つのサーバを備えている。
図3(b)に示す3重化クラスタ9Bは、アクティブ側のサーバクラスタ(ACT)と、スタンバイ側のサーバクラスタ(SBY)とが共に3つのサーバを備えている。
以下では、サーバクラスタ9は、2重化クラスタであるものとして、アクティブ側のサーバのみを図示することとする。
FIG. 3 shows a redundant configuration example of the server cluster shown in FIG.
In the duplex cluster 9A shown in FIG. 3A, the active server cluster (ACT) and the standby server cluster (SBY) both include two servers.
In the triple cluster 9B shown in FIG. 3B, the active server cluster (ACT) and the standby server cluster (SBY) both include three servers.
In the following, it is assumed that the server cluster 9 is a double cluster, and only the active server is illustrated.

[新規サービスを追加する際のファイル更新手法]
既存サービスを提供しているときに、新規サービスを追加する際には、アプリケーションファイル20を更新する第1のケースと、ブートイメージ40を更新する第2のケースと、双方を更新する第3のケースとが想定される。このうち、第3のケースは、第1のケースの処理と、第2のケースの処理とをこの順番で行うか、逆の順序で行うことでファイル更新を行うことができる。以下では、サービス追加時の更新対象箇所として、アプリケーションファイル20と、ブートイメージ40との2箇所をそれぞれ独立に説明する。
[File update method when adding a new service]
When a new service is added when an existing service is provided, a first case of updating the application file 20, a second case of updating the boot image 40, and a third case of updating both. A case is assumed. Among these, in the third case, the file update can be performed by performing the processing of the first case and the processing of the second case in this order or in the reverse order. In the following, two locations of the application file 20 and the boot image 40 will be described independently as update target locations when adding a service.

[新規サービス追加時の第1のケース]
まず、サービス追加時の1つ目の更新対象箇所として、アプリケーションファイル更新時の動作について、図4を参照(適宜図1参照)して説明する。
前提として、ユーザサービスネットワークN1(図1参照)には、ノード2aと、ノード2bとが接続されているものとする。
また、ノード2aは、例えば、呼処理のサービスを提供するアプリケーションファイル21「APL ver1.0」のためにデータDを使用しているものとする。また、ノード2bは、アプリケーションファイル22「APL verx.x」を用いて、ノード2aと同じサービス(同一アプリケーション)を提供しているノードであるとする。なお、アプリケーションファイル22「APL verx.x」は、アプリケーションファイル21「APL ver1.0」でもよいし、それを更新したアプリケーションファイル23「APL ver2.0」でもよい。以下では、ノード2aのアプリケーションファイル21「APL ver1.0」を更新する例を示す。このようにバージョンが同一または異なるアプリケーションを提供するノードのことを、以下では同種のノードと呼ぶ。
[First case when adding a new service]
First, the operation at the time of updating the application file as the first update target portion at the time of adding a service will be described with reference to FIG.
As a premise, it is assumed that the node 2a and the node 2b are connected to the user service network N 1 (see FIG. 1).
Further, it is assumed that the node 2a uses the data D for the application file 21 “APL ver1.0” that provides a call processing service, for example. Further, it is assumed that the node 2b is a node that provides the same service (same application) as the node 2a by using the application file 22 “APL verx.x”. The application file 22 “APL verx.x” may be the application file 21 “APL ver1.0” or an updated application file 23 “APL ver2.0”. In the following, an example of updating the application file 21 “APL ver1.0” of the node 2a is shown. Nodes that provide applications having the same or different versions as described above are hereinafter referred to as the same type of nodes.

アプリケーション更新時に、更新対象のノードであるノード2aは、それまでに使用していたデータDを、外部に掃き出す。ここでは、ノード2aは、それまでに使用していたデータDを他の同種のノード2bに移動する(ステップS11)。これにより、アプリケーションファイル20の更新時に無中断でサービスの更新を行うことができる。   At the time of application update, the node 2a, which is a node to be updated, sweeps out the data D used so far to the outside. Here, the node 2a moves the data D used so far to another node 2b of the same kind (step S11). Thus, the service can be updated without interruption when the application file 20 is updated.

ノード2aは、データDを移動した後、アプリケーションファイルの更新を行う(ステップS12a)。なお、ノード2aは、サーバクラスタ9において、OS51、ミドルウェア52、ライブラリ53等のソフトウェアコンポーネント50に関しては更新がないため、これらのソフトウェアコンポーネント50に関しては既存のノードをそのまま利用することができる(ステップS12b)。   After moving the data D, the node 2a updates the application file (step S12a). Since the node 2a does not update the software components 50 such as the OS 51, middleware 52, and library 53 in the server cluster 9, the existing nodes can be used as they are for these software components 50 (step S12b). ).

ノード2aがアプリケーションファイルを更新している間、データ移動先であるノード2bは、トラフィックを肩代わりし、処理を行う(ステップS13)。その後、ノード2aは、アプリケーションファイル21「APL ver1.0」を、アプリケーションファイル23「APL ver2.0」に更新すると、更新終了報告をノード2bに通知する。通知を受けたノード2bは、更新済みのノード2aに対して、肩代わりしていたデータを引き継ぐ(ステップS14)。以上の一連の動作により、アプリケーションファイル20の更新時には、無中断でサービスの更新を行うことができる。   While the node 2a is updating the application file, the node 2b, which is the data movement destination, takes over the traffic and performs processing (step S13). After that, when the application file 21 “APL ver1.0” is updated to the application file 23 “APL ver2.0”, the node 2a notifies the update completion report to the node 2b. The node 2b that has received the notification takes over the data taken over from the updated node 2a (step S14). Through the series of operations described above, the service can be updated without interruption when the application file 20 is updated.

[新規サービス追加時の第2のケース]
次に、サービス追加時の2つ目の更新対象箇所として、ブートイメージ更新時の動作について図5〜図10を参照して説明する。ブートイメージに係る更新処理の概要は、更新対象のブートイメージ40が更新された後、更新されたブートイメージ40を利用してサーバクラスタ9を組成し、ノード2に対してクラスタ毎にブートイメージ40の更新を行う。つまり、ブートイメージ更新時には、大別して、次の3段階の処理がある。第1の段階は、更新対象のブートイメージ40を更新する段階である(図5参照)。第2の段階は、更新されたブートイメージ40を利用してサーバクラスタ9を組成する段階である(図6〜7参照)。第3の段階は、更新済みのサーバクラスタと未更新のサーバクラスタとを共存させる段階である(図8〜10参照)。以下、各段階について説明する。
[Second case when adding a new service]
Next, the operation at the time of updating the boot image will be described with reference to FIGS. The outline of the update processing related to the boot image is as follows. After the boot image 40 to be updated is updated, the server cluster 9 is formed using the updated boot image 40, and the boot image 40 for each cluster with respect to the node 2. Update. In other words, when updating the boot image, there are roughly the following three stages of processing. The first stage is a stage in which the boot image 40 to be updated is updated (see FIG. 5). The second stage is a stage in which the server cluster 9 is formed using the updated boot image 40 (see FIGS. 6 to 7). The third stage is a stage in which an updated server cluster and an unupdated server cluster coexist (see FIGS. 8 to 10). Hereinafter, each step will be described.

<第1の段階:ブートイメージ更新>
第1の段階では、例えば、図5に示すように全国を複数の地域に区分して、リソースプール6別にブートイメージ40をサービス無中断で部分的に更新することができる。
なお、本実施形態の場合、ブートイメージ40の更新は、リソースプール6にて行うので、リソースプール6において、必要に応じてサーバリソースコンポーネント30の更新も適宜行い、サーバリソースコンポーネント30をサービス無中断で部分的に更新することができる。
<First stage: Boot image update>
In the first stage, for example, as shown in FIG. 5, the whole country is divided into a plurality of regions, and the boot image 40 can be partially updated without service interruption for each resource pool 6.
In the case of the present embodiment, the boot image 40 is updated in the resource pool 6. Therefore, in the resource pool 6, the server resource component 30 is appropriately updated as necessary, and the server resource component 30 is not interrupted without service. Can be partially updated.

具体的には、第1の段階では、図5に示すように、オペレータは、リソースプールマネージャ7に対して、指定のノード2のアップデートスケジュール等を指示する(ステップS1)。そして、リソースプールマネージャ7は、オペレータからの指示をもとに、リソースプール6に対してコマンドを投入する(ステップS2)。なお、複雑な指示の場合は、オペレータがリソースプール6に対してコマンドを直接投入する。これにより、各リソースプール6内のブートイメージ40やサーバリソースコンポーネント30が更新される。引き続いて、以下に示すように、サーバクラスタ9を更新することでノード2を更新し、その結果として通信システム1を更新する。なお、ブートイメージ40の更新とは、ソフトウェアコンポーネント50の更新を含む。   Specifically, in the first stage, as shown in FIG. 5, the operator instructs the resource pool manager 7 about the update schedule of the designated node 2 (step S1). Then, the resource pool manager 7 inputs a command to the resource pool 6 based on an instruction from the operator (step S2). In the case of complicated instructions, the operator directly inputs commands to the resource pool 6. Thereby, the boot image 40 and the server resource component 30 in each resource pool 6 are updated. Subsequently, as shown below, the node 2 is updated by updating the server cluster 9, and as a result, the communication system 1 is updated. Note that the update of the boot image 40 includes an update of the software component 50.

<第2の段階:サーバクラスタ組成>
第2の段階において、サーバクラスタ組成のために2つの異なる方法でデータを移動することができる。
≪第1の移動手法:外部のノードにデータ移動≫
更新されたブートイメージを用いて更新対象のサーバクラスタ9を更新する際の第1の移動手法の概念図を図6に示す。図6では、ノード2aが有するサーバクラスタの一部を更新する例を示している。ノード2aのサーバクラスタ9は、例えば、呼処理データや保守運用処理のためのデータ(以下、単にデータDと表記する)を使用しているものとする。また、ノード2a,2bにおいて、アプリケーションファイル20は、ブートイメージを用いた更新とは独立に、動作中であるものとする。
<Second stage: Server cluster composition>
In the second stage, data can be moved in two different ways for server cluster composition.
≪First movement method: Data movement to external node≫
FIG. 6 shows a conceptual diagram of the first movement method when updating the server cluster 9 to be updated using the updated boot image. FIG. 6 shows an example in which a part of the server cluster included in the node 2a is updated. It is assumed that the server cluster 9 of the node 2a uses, for example, call processing data and data for maintenance operation processing (hereinafter simply referred to as data D). In the nodes 2a and 2b, it is assumed that the application file 20 is operating independently of the update using the boot image.

これらの前提のもと、ノード2aの更新対象のサーバクラスタ201は、ファイル更新を開始する(ステップS21)。ノード2aの更新対象のサーバクラスタ201は、それまでに使用していたデータDを他の同種のノード2bに移動する(ステップS22)。これにより、移動先のノード2bのサーバクラスタ202で処理を肩代わりしてもらう。   Under these assumptions, the update target server cluster 201 of the node 2a starts file update (step S21). The server cluster 201 to be updated of the node 2a moves the data D that has been used so far to another node 2b of the same type (step S22). As a result, the server cluster 202 of the destination node 2b takes over the processing.

≪第2の移動手法:内部のサーバクラスタにデータ移動≫
更新されたブートイメージを用いて更新対象のサーバクラスタ9を更新する際の第2の移動手法の概念図を図7に示す。図7では、ノード2aが有するサーバクラスタの一部を更新する例を示している。ノード2aのサーバクラスタ9は、データDを使用しているものとする。ノード2aの更新対象のサーバクラスタ201は、ファイル更新を開始する(ステップS21)。ノード2aの更新対象のサーバクラスタ201は、それまでに使用していたデータDを、ノード2a内の他のサーバクラスタ203に移動する(ステップS23)。これにより、移動先のサーバクラスタ203で処理を肩代わりしてもらう。
«Second migration method: Data migration to internal server cluster»
FIG. 7 shows a conceptual diagram of the second migration method when updating the server cluster 9 to be updated using the updated boot image. FIG. 7 shows an example in which a part of the server cluster included in the node 2a is updated. It is assumed that the server cluster 9 of the node 2a uses data D. The update target server cluster 201 of the node 2a starts file update (step S21). The server cluster 201 to be updated of the node 2a moves the data D used so far to another server cluster 203 in the node 2a (step S23). As a result, the server cluster 203 at the movement destination takes over the processing.

<第3の段階:更新クラスタおよび未更新クラスタの共存段階>
≪サーバクラスタ共存の概要≫
ブートイメージ40の更新時には、サーバクラスタ9を組成し直すことでサービスを更新できる。しかしながら、ノード2を構成する既存のすべてのサーバクラスタ9を新たに組成したサーバクラスタ9に単純に一度に置き換えると、サービスを一旦停止しなければならず、動作中のサービスを無停止および無中断にてファイル更新を行うことができない。そこで、本実施形態では、このような問題の対策として、全サーバクラスタ9を同時に切り替えることはせずに、図8に示すように、更新済みサーバクラスタと未更新サーバクラスタとが混在した状態でアプリケーションを動作させることとした。図8は、ファイル更新を行っている最中から更新終了後のサーバクラスタ解体までの流れを示す。
<Third stage: Coexistence stage of updated cluster and non-updated cluster>
≪Overview of server cluster coexistence≫
When the boot image 40 is updated, the service can be updated by reconfiguring the server cluster 9. However, if all the existing server clusters 9 constituting the node 2 are simply replaced at once with the newly formed server cluster 9, the service must be stopped once, and the service in operation is not stopped or interrupted. Cannot update the file. Therefore, in the present embodiment, as a countermeasure against such a problem, the server cluster 9 is not switched at the same time, and an updated server cluster and an unupdated server cluster are mixed as shown in FIG. It was decided to run the application. FIG. 8 shows the flow from the middle of the file update to the server cluster disassembly after the update.

この場合、図8に示すように、まず、ノード2aは、サーバクラスタ301を追加する(ステップS31)。すなわち、更新されたブートイメージ40のソフトウェアコンポーネント50を用いて新たにサーバクラスタを組成する。なお、サーバリソースコンポーネント30が更新されたときには、必要に応じて、更新されたサーバリソースコンポーネント30を用いてクラスタリングする。   In this case, as shown in FIG. 8, first, the node 2a adds a server cluster 301 (step S31). That is, a new server cluster is formed using the software component 50 of the updated boot image 40. When the server resource component 30 is updated, clustering is performed using the updated server resource component 30 as necessary.

続いて、ノード2aは、サーバクラスタ301に加えて、リソースの許す範囲内でサーバクラスタ302,303を順次追加組成する(ステップS32)。ここで、新しくノード2aが処理を行うタスクは、更新済みのサーバクラスタ(以下、更新済みのサーバクラスタ9bと表記する)で順次行うようにする。ノード2aは、更新済みのサーバクラスタ9bのすべて(サーバクラスタ301〜303)の安定動作を確認すると(ステップS33)、古いサーバクラスタ(未更新のサーバクラスタ9a)を解体する(ステップS34)。つまり、サーバクラスタ9aは、それぞれクラスタ構成が解除され、コンポーネントである各サーバ(サーバリソースコンポーネント)へ分離され、ソフトウェアコンポーネントは消去される。そして、ノード2aは、サーバリソースコンポーネントをそれぞれのリソースプール6に戻す(ステップS35)。これにより、リソースプール6に返却された各サーバ(サーバリソースコンポーネント)は、組成可能な余剰資源として待機することとなる。   Subsequently, in addition to the server cluster 301, the node 2a sequentially forms additional server clusters 302 and 303 within the range allowed by the resources (step S32). Here, the tasks newly processed by the node 2a are sequentially performed in the updated server cluster (hereinafter referred to as the updated server cluster 9b). When the node 2a confirms the stable operation of all the updated server clusters 9b (server clusters 301 to 303) (step S33), the node 2a disassembles the old server cluster (unupdated server cluster 9a) (step S34). That is, the server cluster 9a is released from the cluster configuration, is separated into each server (server resource component) as a component, and the software component is deleted. Then, the node 2a returns the server resource component to each resource pool 6 (step S35). Thereby, each server (server resource component) returned to the resource pool 6 waits as a surplus resource that can be configured.

これにより、全サーバクラスタ9のブートイメージ40を同時に切り替えず、サーバクラスタ9を順次追加組成し、新しくノード2aが処理を行うタスクは、更新済みのサーバクラスタ9bで行うようにし、更新済みのサーバクラスタ9の安定動作を確認後に古いサーバクラスタ(未更新のサーバクラスタ)9aを解体、サーバリソースの返却をすることでサービス無中断のファイル更新を行うことが可能になる。なお、ノード2aは、更新済みのサーバクラスタ301〜303の安定動作を確認できない場合、その旨をオペレータ等に通知するようにしてもよい。   As a result, the server cluster 9 is sequentially added and the task that is newly processed by the node 2a is performed in the updated server cluster 9b without switching the boot images 40 of all the server clusters 9 simultaneously, and the updated server After confirming the stable operation of the cluster 9, the old server cluster (unupdated server cluster) 9a is disassembled and the server resource is returned, so that the file update without interruption can be performed. Note that, when the stable operation of the updated server clusters 301 to 303 cannot be confirmed, the node 2a may notify the operator or the like to that effect.

≪更新中のトラフィックの概要≫
更新済みサーバクラスタと、未更新サーバクラスタとが混在した状態でアプリケーションを動作させているときのトラフィックについて図9を参照して説明する。ユーザサービスネットワークN1に対して、ノード2aの手前に設置されたロードバランサ4は、ノード2aから、サーバクラスタの更新状況に応じた振分のための制御指示を受け取り(ステップS41)、OK応答を返す(ステップS42)。これにより、サーバクラスタ9に対するタスク、トラフィックの振分を行うことができる。
≪Overview of traffic being updated≫
The traffic when the application is operated in a state where the updated server cluster and the non-updated server cluster are mixed will be described with reference to FIG. The user service network N 1, the load balancer 4 disposed in front of the node 2a from node 2a, receive a control instruction for the distribution in accordance with the update status of the server cluster (step S41), OK response Is returned (step S42). Thereby, tasks and traffic can be allocated to the server cluster 9.

図9に示す例では、当初は、ロードバランサ4は、ユーザサービスネットワークN1からノード2aへのトラフィックを、未更新のサーバクラスタ9aにだけ振り分ける。その後、最初に追加されたサーバクラスタが更新済みとなり、更新済みサーバクラスタ9bになって動作し始めると、ロードバランサ4は、ノード2aへのトラフィックのうちの一部であるトラフィック402を未更新のサーバクラスタ9aに振り分けると共に、他の一部のトラフィック403を、動作中の更新済みサーバクラスタ9bに振り分ける。なお、ロードバランサ4は、組成中のサーバクラスタ401に対してはトラフィックを振り分けない。 In the example shown in FIG. 9, initially, the load balancer 4, the traffic from the user service network N 1 to the node 2a, distributed to the server cluster 9a unupdated only. After that, when the first added server cluster is updated and becomes an updated server cluster 9b and starts to operate, the load balancer 4 has not updated the traffic 402 which is a part of the traffic to the node 2a. While distributing to the server cluster 9a, another part of the traffic 403 is allocated to the updated server cluster 9b in operation. Note that the load balancer 4 does not distribute traffic to the server cluster 401 in the composition.

また、これにより、古いサーバクラスタ(未更新のサーバクラスタ)9aを解体する前においては、更新済みのサーバクラスタ9bと未更新のサーバクラスタ9aとを共存させているので、新サービス追加時に、新旧サービスに対するデータの参照や追加が発生した際には、それぞれ新旧サービスに対して、ロードバランサ4が、その要求を振り分けることができる。   In addition, this allows the updated server cluster 9b and the unupdated server cluster 9a to coexist before dismantling the old server cluster (unupdated server cluster) 9a. When data is referenced or added to a service, the load balancer 4 can distribute the request to the new and old services.

第1実施形態に係る通信システム1によれば、システム利用者は、新サービスを始める際に、余剰待機資源が集約されたリソースプール6から必要なサーバを獲得し、クラスタ構成としてスケールアウトを行うスモールスタートの構成を取ることで、設備コストを低減できる。   According to the communication system 1 according to the first embodiment, when starting a new service, the system user acquires necessary servers from the resource pool 6 in which surplus standby resources are aggregated, and scales out as a cluster configuration. By taking a small start configuration, the equipment cost can be reduced.

また、第1実施形態に係る通信システム更新方法によれば、通信システム1を構成するノード2の追加機能として新規サービスを追加する際に、既存の通信サービスを無中断でファイル更新することができる。   Moreover, according to the communication system update method according to the first embodiment, when adding a new service as an additional function of the node 2 constituting the communication system 1, the existing communication service can be updated without interruption. .

(第2実施形態)
新規サービスを追加する際のファイル更新手法を用いて、第1実施形態にて説明した第2のケースのようにブートイメージ40等を更新した直後には、通信システムに何らかの不具合が発生することが想定される。このような場合であっても、サービス無中断を実現する通信システムを第2実施形態として説明する。第2実施形態の通信システムの構成は、第1実施形態と同様なので、構成図を省略し、同じ構成には同じ符号を付して説明を適宜省略する。
(Second Embodiment)
Immediately after updating the boot image 40 or the like as in the second case described in the first embodiment by using the file update method when adding a new service, some trouble may occur in the communication system. is assumed. Even in such a case, a communication system that realizes no service interruption will be described as a second embodiment. Since the configuration of the communication system of the second embodiment is the same as that of the first embodiment, the configuration diagram is omitted, the same reference numerals are given to the same components, and the description is appropriately omitted.

ノード2の管理機能10(図1参照)は、ブートイメージ40等のファイルの更新開始時点から、ノード2の運転監視状態に入り、ノード2の各サーバクラスタ9におけるファイル更新状態を把握する。ここで、管理機能10が把握するファイル更新状態とは、ファイル更新において更新対象のサーバクラスタの現在状態が、「クラスタ組成中」、「未更新」および「更新済み」のいずれの状態であるかを示す情報のことである。ここで、「クラスタ組成中は、更新処理を開始してから完了するまでの状態を示し、「更新済み」は更新が完了した状態を示す。また、「未更新」は、更新処理を開始する前のリセット状態、または、ステータス「更新済み」が、安定動作が確認されないことに起因して変動してリセットされた状態を意味する。管理機能10は、ファイル更新状態をサーバクラスタ毎に記録したデータベースを図示しない記憶手段に格納し、順次更新する。   The management function 10 (see FIG. 1) of the node 2 enters the operation monitoring state of the node 2 from the start of update of the file such as the boot image 40, and grasps the file update state in each server cluster 9 of the node 2. Here, the file update status ascertained by the management function 10 indicates whether the current status of the server cluster to be updated in the file update is “cluster in progress”, “not updated”, or “updated”. It is the information which shows. Here, “during cluster composition” indicates a state from the start of update processing to completion, and “updated” indicates a state where update is completed. Further, “unupdated” means a reset state before starting the update process or a state in which the status “updated” fluctuates and is reset because stable operation is not confirmed. The management function 10 stores a database in which the file update status is recorded for each server cluster in a storage unit (not shown) and sequentially updates it.

管理機能10は、ノード2の運転監視により、更新済みのサーバクラスタの安定動作が成功したと判定した場合に運転監視状態を解除する。具体的には、管理機能10は、ファイル更新状態が「更新済み」の状態として把握されているサーバクラスタの安定動作が、予め定められた所定時間Tの間、継続して確認できた場合に運転監視状態を解除する。   The management function 10 releases the operation monitoring state when it is determined by the operation monitoring of the node 2 that the stable operation of the updated server cluster is successful. Specifically, the management function 10 determines that the stable operation of the server cluster whose file update status is recognized as “updated” can be continuously confirmed for a predetermined time T. Cancel the operation monitoring state.

一方、管理機能10は、ノード2の運転監視により、更新済みのサーバクラスタの安定動作が失敗したと判定した場合に、すなわち、サーバクラスタの安定動作が継続して確認できた時間が所定時間Tに満たなかった場合に、運転監視状態を解除すると共に、更新済みサーバクラスタがこれまで行っていたタスクを、未更新の古いサーバクラスタに戻す。ここで、このような管理機能10における追加機能には、クラスタEMS44(図5参照)としてイメージファイルにアセンブルされたソフトウェアコンポーネントを用いることができる。なお、これまでの運転監視状態を解除したときに、古いサーバクラスタのタスク処理に係るノード2の運転監視状態に入るようにしてもよい。   On the other hand, when the management function 10 determines by the operation monitoring of the node 2 that the stable operation of the updated server cluster has failed, that is, the time when the stable operation of the server cluster can be continuously confirmed is the predetermined time T When the condition is not satisfied, the operation monitoring state is canceled, and the task that has been performed by the updated server cluster is returned to the unupdated old server cluster. Here, for such an additional function in the management function 10, a software component assembled into an image file as the cluster EMS 44 (see FIG. 5) can be used. Note that when the operation monitoring state so far is cancelled, the operation monitoring state of the node 2 related to the task processing of the old server cluster may be entered.

具体例として、第2のケースのようにブートイメージ40等を更新し、更新済みのサーバクラスタおよび未更新のサーバクラスタが共存した第3の段階について図10を参照して説明する。図10は、図8と同様にファイル更新を行っている最中から更新終了後のサーバクラスタ解体までの流れを示している。なお、図10において、図8と同じ動作については同じ処理番号を付して説明を省略する。   As a specific example, a third stage in which the boot image 40 and the like are updated as in the second case and the updated server cluster and the unupdated server cluster coexist will be described with reference to FIG. FIG. 10 shows the flow from the middle of the file update to the disassembly of the server cluster after the end of the update as in FIG. In FIG. 10, the same operations as those in FIG.

この場合、図10に示すように、ノード2aは、ステップS31にてサーバクラスタ301を追加して組成を始めると、ファイルの更新開始時点から、ノード2aの管理機能10が、ノード2aの運転監視状態に入る(ステップS51)。そして、管理機能10は、ノード2aの各サーバクラスタ9におけるファイル更新状態を把握し始める。具体的には、ファイルの更新開始時点では、既存の未更新のサーバクラスタ9aのファイル更新状態が「未更新」であり、追加されたサーバクラスタ301のファイル更新状態が「クラスタ組成中」であることとして把握される。そして、ノード2aが順次追加したサーバクラスタ301〜303における更新が終了すると、これら更新済みのサーバクラスタ9bのファイル更新状態が「更新済み」であることとして把握される。   In this case, as shown in FIG. 10, when the node 2a starts the composition by adding the server cluster 301 in step S31, the management function 10 of the node 2a monitors the operation of the node 2a from the start of the file update. The state is entered (step S51). Then, the management function 10 starts to grasp the file update state in each server cluster 9 of the node 2a. Specifically, at the start of file update, the file update state of the existing unupdated server cluster 9a is “not updated” and the file update state of the added server cluster 301 is “cluster composition”. To be understood. When the update in the server clusters 301 to 303 sequentially added by the node 2a is completed, it is recognized that the file update state of the updated server cluster 9b is “updated”.

そして、管理機能10は、ノード2aの運転監視により、更新済みのサーバクラスタ9bの安定動作が所定時間Tの間確認でき、安定動作が成功したと判定した場合に運転監視状態を解除する(ステップS53)。その後、管理機能10は、古いサーバクラスタ(未更新のサーバクラスタ9a)を解体し(ステップS34)、それぞれのリソースプール6にコンポーネントを戻す(ステップS35)。一方、管理機能10は、ノード2aの運転監視により、更新済みのサーバクラスタ9bの安定動作が継続して確認できた時間が所定時間Tに満たずに、安定動作が失敗したと判定した場合に、即座に元のサービスに戻すと共に、ファイル更新状態「更新済み」を「未更新」にリセットして運転監視状態を解除する。   Then, the management function 10 can confirm the stable operation of the updated server cluster 9b for a predetermined time T by the operation monitoring of the node 2a, and cancels the operation monitoring state when it is determined that the stable operation is successful (step S53). Thereafter, the management function 10 disassembles the old server cluster (unupdated server cluster 9a) (step S34), and returns the component to each resource pool 6 (step S35). On the other hand, when the management function 10 determines that the stable operation has failed after the time during which the stable operation of the updated server cluster 9b can be confirmed continuously does not reach the predetermined time T by the operation monitoring of the node 2a. In addition to immediately returning to the original service, the file update state “updated” is reset to “not updated” to release the operation monitoring state.

ブートイメージ40のファイル更新失敗の具体例として、管理機能10がノード2aの運転監視状態中に、更新済みのサーバクラスタ9b内のソフトウェアやハードウェアで不具合が発生した場合の処理について図11を参照して説明する。なお、図11において、図10と同様の構成には同じ符号を付して説明を省略する。図11に示すように、例えば、ノード2aの更新済みサーバクラスタ9bにて、更新ファイルの不具合が発生したとする(ステップS61)。この場合、ノード2aの管理機能10は、ノード2aから、更新済みのサーバクラスタ9bを全て切り離す(ステップS62)。なお、図11において符号9b1の破線は、更新済みサーバクラスタ9bを切り離したことを示している。
そして、ノード2aの管理機能10は、ファイル更新前の状態と同じように、未更新のサーバクラスタ9aのみで動作させる(ステップS63)。これにより、サービス無中断を実現することができる。
As a specific example of the file update failure of the boot image 40, refer to FIG. 11 for processing when a problem occurs in software or hardware in the updated server cluster 9b while the management function 10 is in the operation monitoring state of the node 2a. To explain. In FIG. 11, the same components as those in FIG. As shown in FIG. 11, for example, it is assumed that a defect of the update file has occurred in the updated server cluster 9b of the node 2a (step S61). In this case, the management function 10 of the node 2a disconnects all the updated server clusters 9b from the node 2a (step S62). In FIG. 11, the broken line 9b1 indicates that the updated server cluster 9b is disconnected.
Then, the management function 10 of the node 2a is operated only by the unupdated server cluster 9a as in the state before the file update (step S63). Thereby, service non-interruption is realizable.

第2実施形態の通信システムによれば、ノード2aの管理機能10は、ブートイメージ40の更新後の所定時間Tの間に通信システムに何らかの不具合が発生した場合に、即座に元のサービスに戻すことができるので、このような場合であってもサービス無中断を実現することができる。   According to the communication system of the second embodiment, the management function 10 of the node 2a immediately returns to the original service when any trouble occurs in the communication system during the predetermined time T after the update of the boot image 40. Therefore, even in such a case, service interruption can be realized.

(第3実施形態)
新規サービスを追加する際のファイル更新手法を用いて、第1実施形態にて説明した第2のケースのようにブートイメージ40等を更新した後の不具合発生時だけではなく、それに加えて、第1のケースのようにアプリケーションファイル20の更新を行った後の不具合発生時においても、サービス無中断を実現する通信システムを第3実施形態として説明する。第3実施形態の通信システムの構成は、第2実施形態と同様なので、構成図を省略し、同じ構成には同じ符号を付して説明を適宜省略する。
(Third embodiment)
Using the file update method when adding a new service, not only when a failure occurs after updating the boot image 40 etc. as in the second case described in the first embodiment, A communication system that realizes non-disruption of service even when a problem occurs after updating the application file 20 as in the case 1 will be described as a third embodiment. Since the configuration of the communication system of the third embodiment is the same as that of the second embodiment, the configuration diagram is omitted, and the same components are denoted by the same reference numerals and the description thereof is omitted as appropriate.

第3実施形態に係るノード2の管理機能10(図1参照)は、第2実施形態に係るノード2の管理機能10と同様であるが、それに加えて、アプリケーションファイル20に関して以下のように新たな機能が追加されている点が異なる。   The management function 10 (see FIG. 1) of the node 2 according to the third embodiment is the same as the management function 10 of the node 2 according to the second embodiment. The difference is that various functions have been added.

管理機能10は、アプリケーションファイル20の更新処理を開始した時点から、ノード2の運転監視状態に入り、ノード2におけるアプリケーションファイル20についてのファイル更新状態を把握する。このファイル更新状態とは、ファイル更新において更新対象のアプリケーションファイルの現在状態が、「未更新」、「更新済み」、「更新中」のいずれの状態であるかを示す情報のことである。ここで、「未更新」は、更新処理を開始する前の状態を示し、「更新済み」は更新が完了した状態を示す。また、「更新中」は、ステータス「更新済み」が、安定動作が確認されないことに起因して変動して一旦リセットされて、更新を再度行う必要があるという状態を意味する。なお、管理機能10は、アプリケーションファイル20についてのファイル更新状態を記録したデータベースを図示しない記憶手段に格納し、順次更新する。   The management function 10 enters the operation monitoring state of the node 2 from the time when the update process of the application file 20 is started, and grasps the file update state of the application file 20 in the node 2. The file update status is information indicating whether the current status of the application file to be updated in the file update is “not updated”, “updated”, or “updated”. Here, “unupdated” indicates a state before the update process is started, and “updated” indicates a state where the update is completed. “Updating” means that the status “updated” fluctuates due to the fact that the stable operation is not confirmed, and is reset once, and it is necessary to update again. The management function 10 stores a database in which the file update status for the application file 20 is recorded in a storage unit (not shown) and sequentially updates it.

管理機能10は、ノード2の運転監視により、更新済みのアプリケーションファイル20の安定動作が成功したと判定した場合に運転監視状態を解除する。具体的には、管理機能10は、更新状態が「更新済み」の状態として把握されているアプリケーションファイル20の安定動作が、予め定められた所定時間Tの間、継続して確認できた場合に運転監視状態を解除し、アプリケーションファイルの更新終了報告を、データ移動先のノード2に通知する。   The management function 10 cancels the operation monitoring state when it is determined by the operation monitoring of the node 2 that the stable operation of the updated application file 20 is successful. Specifically, the management function 10 determines that the stable operation of the application file 20 whose update state is recognized as “updated” can be continuously confirmed for a predetermined time T. The operation monitoring state is canceled, and the update completion report of the application file is notified to the data movement destination node 2.

一方、管理機能10は、ノード2の運転監視により、更新済みのアプリケーションファイル20の安定動作が失敗したと判定した場合に、すなわち、アプリケーションファイル20の安定動作が継続して確認できた時間が所定時間Tに満たなかった場合には、アプリケーションファイルの更新終了報告を、データ移動先のノード2に通知せずに、運転監視状態を継続する。ここで、運転監視状態の継続とは、例えば、所定時間Tや、所定時間Tとは異なる予め定められた所定時間T0に亘って当該ノード2の運転状態をあらためて監視すると共に、アプリケーションファイル20の更新状態を「更新済み」から「更新中」に変更することを意味する。 On the other hand, when the management function 10 determines by the operation monitoring of the node 2 that the stable operation of the updated application file 20 has failed, that is, the time when the stable operation of the application file 20 can be continuously confirmed is predetermined. If the time T has not been reached, the operation monitoring state is continued without notifying the data migration destination node 2 of the update completion report of the application file. Here, the continuation of the operation monitoring state means, for example, that the operation state of the node 2 is newly monitored over a predetermined time T or a predetermined time T 0 different from the predetermined time T, and the application file 20 This means that the update state of “Updated” is changed from “Updated” to “Updating”.

アプリケーションファイル20のファイル更新失敗の具体例として、管理機能10がノード2の運転監視状態中(所定時間T経過以前)に、更新済みのアプリケーションファイル20で不具合が発生した場合の処理について図12を参照して説明する。なお、図12において、図4と同様の構成には同じ符号を付すと共に、図4と同じ動作については同じ処理番号を付して説明を省略する。なお、ノード2a,2bにおいて管理機能10の図示を省略する。また、ノード2a,2bは、同じアプリケーションファイル21をデプロイされているものとした。   As a specific example of the file update failure of the application file 20, FIG. 12 shows processing when a failure occurs in the updated application file 20 while the management function 10 is in the operation monitoring state of the node 2 (before the predetermined time T has elapsed). The description will be given with reference. In FIG. 12, the same components as those in FIG. 4 are denoted by the same reference numerals, and the same operations as those in FIG. The management function 10 is not shown in the nodes 2a and 2b. The nodes 2a and 2b are assumed to have the same application file 21 deployed.

図12に示すように、例えば、ノード2aは、アプリケーションファイル21「APL ver1.0」を、アプリケーションファイル23「APL ver2.0」に更新した後、所定時間Tの間に、更新済みのアプリケーションファイル23にて不具合が発生したとする(ステップS71)。この場合、アプリケーションファイル23「APL ver2.0」は、ファイルの更新状態が、「更新済み」から「更新中」に変更される。このようにアプリケーションファイルの現在状態がリセットされて「更新中」の状態になったファイルは、未更新アプリケーションファイルとして扱われる。   As shown in FIG. 12, for example, the node 2a updates the application file 21 “APL ver1.0” to the application file 23 “APL ver2.0” and then updates the application file for a predetermined time T. It is assumed that a problem occurs at 23 (step S71). In this case, the update state of the application file 23 “APL ver2.0” is changed from “Updated” to “Updating”. In this way, a file in which the current state of the application file is reset and becomes “updating” is treated as an unupdated application file.

そして、ノード2aの管理機能10は、この未更新アプリケーションファイル(アプリケーションファイル23「APL ver2.0」)をデプロイしなおし(ステップS72)、ステップS12aに戻る。なお、ノード2aにおいて、アプリケーションファイルをデプロイしなおしている間、データ移動先であるノード2bは、更新終了報告を受けていないので、ノード2aのトラフィックを肩代わりしたまま、引き続き処理を行う(ステップS13)。   Then, the management function 10 of the node 2a redeploys the unupdated application file (application file 23 “APL ver2.0”) (step S72), and returns to step S12a. Note that while the application file is being redeployed in the node 2a, the node 2b that is the data movement destination has not received the update completion report, and thus continues the processing while taking over the traffic of the node 2a (step S13). ).

そして、ノード2aの管理機能10は、アプリケーションファイルをデプロイしなおした後、運転監視状態の継続によって、更新済みのアプリケーションファイル23「APL ver2.0」の安定動作が成功したと判定した場合に、運転監視状態を解除すると共に、アプリケーションファイルの更新終了報告を、データ移動先のノード2bに通知する。ノード2bは、通知を受けて安定動作が確認できたら、更新対象のノード2aに対して、肩代わりしていたデータを引き継ぐ(ステップS73)。   Then, when the management function 10 of the node 2a redeploys the application file and determines that the stable operation of the updated application file 23 “APL ver2.0” has succeeded due to the continuation of the operation monitoring state, The operation monitoring state is canceled, and the update completion report of the application file is notified to the data movement destination node 2b. When the node 2b receives the notification and confirms the stable operation, the node 2b takes over the data taken over by the node 2a to be updated (step S73).

第3実施形態の通信システムによれば、ノード2aの管理機能10が、更新済みのアプリケーションファイル20の所定時間Tの監視状態にある場合に、このアプリケーションファイル20に何らかの不具合が発生したとしても、トラフィックを他のノード2bで肩代わりしているため、サービスとして無中断の処理が継続可能である。また、このサービス無中断の間に、更新対象のノード2aは、ファイル更新状態のステータスを変更してデプロイし直す処理をすることができるので、安定動作が確認でき次第、データを引き継ぐことができる。   According to the communication system of the third embodiment, when the management function 10 of the node 2a is in the monitoring state of the updated application file 20 for a predetermined time T, even if some trouble occurs in the application file 20, Since the traffic is taken over by the other node 2b, uninterrupted processing can be continued as a service. In addition, during the service uninterrupted, the update target node 2a can change the status of the file update state and redeploy, so that the data can be taken over as soon as stable operation can be confirmed. .

以上、本発明の各実施形態について説明したが、本発明はこれらに限定されるものではなく、その趣旨を変えない範囲で実施することができる。例えば、第1実施形態の通信システム1は、アプリケーションファイル20を更新する機能と、ブートイメージ40等を更新する機能との双方を有したベストモードとしたが、アプリケーションファイル20の更新機能だけを備えるようにしてもよい。この場合、ノード2の前段にロードバランサ4を必ずしも設ける必要はない。このような構成としても、アプリケーションファイル20の更新により既存サービスを提供しているときに、サービス無中断で新規サービスを追加することができる。   As mentioned above, although each embodiment of this invention was described, this invention is not limited to these, It can implement in the range which does not change the meaning. For example, the communication system 1 according to the first embodiment is the best mode having both the function of updating the application file 20 and the function of updating the boot image 40 and the like, but includes only the function of updating the application file 20. You may do it. In this case, it is not always necessary to provide the load balancer 4 before the node 2. Even with such a configuration, when an existing service is provided by updating the application file 20, a new service can be added without interruption.

1 通信システム
2 ノード(制御ノード)
2a ノード(第1のノード)
2b ノード(第2のノード)
3 ユーザ端末
4 ロードバランサ(振分機能部)
5 制御ノード
6(6a〜6g) リソースプール
7 リソースプールマネージャ
8 オペレータ端末
9 サーバクラスタ
10 管理機能
20,21,22,23 アプリケーションファイル
30 サーバリソースコンポーネント
31,32,33 サーバ
40 ブートイメージ
41 クラスタサーバ
42 クラスタLB
43 クラスタ管理機能
44 クラスタEMS
50 ソフトウェアコンポーネント
51 OS
52 ミドルウェア
53 ライブラリ
1 Communication system 2 Node (control node)
2a node (first node)
2b node (second node)
3 User terminal 4 Load balancer (distribution function part)
5 Control node 6 (6a to 6g) Resource pool 7 Resource pool manager 8 Operator terminal 9 Server cluster 10 Management function 20, 21, 22, 23 Application file 30 Server resource component 31, 32, 33 Server 40 Boot image 41 Cluster server 42 Cluster LB
43 Cluster management function 44 Cluster EMS
50 software components 51 OS
52 Middleware 53 Library

Claims (10)

サーバリソースコンポーネントと、ブートイメージとを、予め余剰にプールしたリソースプールから、必要な資源を予め獲得してクラスタリングされた複数のサーバクラスタに、個々のサービスを実現するアプリケーションファイルを配備することで構成されたノードを備え、各ノードはユーザサービスネットワークを介してユーザ端末にサービスを提供する通信システムであって、
所定のサービスを実現する旧バージョンのアプリケーションファイルが配備された第1のノードと、前記所定のサービスを提供できる同種のアプリケーションファイルが配備された第2のノードとを備え、
前記第1のノードは、
前記所定のサービスへの新機能追加時に、前記旧バージョンのアプリケーションファイルの処理に用いていたデータを前記第2のノードに移動し、
前記旧バージョンのアプリケーションファイルを、前記所定のサービスへの新機能を実現する新バージョンのアプリケーションファイルへ更新し、
前記アプリケーションファイルの更新終了後に、前記第2のノードから更新中のデータを引き継ぎ、
前記第2のノードは、前記第1のノードがアプリケーションファイルを更新している間、前記第1のノードが行うべき処理を代わりに実行して前記所定のサービスを提供する
ことを特徴とする通信システム。
Configured by deploying application files that realize individual services to multiple server clusters that have been clustered by acquiring necessary resources in advance from a resource pool in which server resource components and boot images are pooled in advance. Each node is a communication system that provides services to user terminals via a user service network,
A first node on which an old version of an application file that realizes a predetermined service is deployed; and a second node on which a similar application file that can provide the predetermined service is deployed;
The first node is:
When adding a new function to the predetermined service, the data used for processing the application file of the old version is moved to the second node,
Updating the old version of the application file to a new version of the application file that implements a new function for the predetermined service,
After the update of the application file is completed, the data being updated is taken over from the second node,
The second node provides the predetermined service by executing processing to be performed by the first node instead while the first node is updating the application file. system.
前記ノードは、当該ノードを管理統括する管理機能を備え、
前記通信システムは、前記ノードを構成する複数のサーバクラスタに対するタスクの振分およびトラフィックの振分を行う振分機能部を備え、
前記ノードの管理機能は、
更新されたブートイメージを利用した新たなサービス追加時に、当該ノードにおいて既に保持している未更新のサーバクラスタにて処理に用いていたデータを、当該未更新のサーバクラスタと同種のサービスを提供できる同種の外部にある前記ノードまたは当該ノード内部にある他のサーバクラスタに移動し、前記更新されたブートイメージを利用して新たな前記サーバクラスタを組成し、組成された更新済みのサーバクラスタを当該ノードに追加し、当該ノードにおいて前記追加された更新済みのサーバクラスタと、既に保持している未更新のサーバクラスタとを共存させ、前記更新済みのサーバクラスタの安定動作を確認した後で、前記未更新のサーバクラスタを解体して前記リソースプールに戻し、
前記振分機能部は、当該ノードの管理機能からの指示に基づいて、当該ノードへのトラフィックを、前記更新済みのサーバクラスタと、前記未更新のサーバクラスタとに振り分ける
ことを特徴とする請求項1に記載の通信システム。
The node has a management function for managing and managing the node,
The communication system includes a distribution function unit that distributes tasks and traffic to a plurality of server clusters constituting the node,
The node management function is:
When a new service is added using the updated boot image, the same type of service as the unupdated server cluster can be provided using the data used for processing in the unupdated server cluster already held in the node. Move to the same external node or another server cluster inside the node, use the updated boot image to form a new server cluster, and configure the updated server cluster After adding to the node, coexisting the updated server cluster added in the node and the unupdated server cluster already held, and confirming the stable operation of the updated server cluster, Dismantle the unupdated server cluster and return it to the resource pool,
The distribution function unit distributes traffic to the node to the updated server cluster and the unupdated server cluster based on an instruction from the management function of the node. The communication system according to 1.
前記ノードの管理機能は、
前記新たなサービス追加時に、ファイル更新開始時点から当該ノードの運転監視を開始し、各サーバクラスタにおけるファイル更新状態を把握し、前記更新済みのクラスタの安定動作が予め定められた所定時間に亘って確認できた後に、前記運転監視を解除する
ことを特徴とする請求項2に記載の通信システム。
The node management function is:
When the new service is added, operation monitoring of the node is started from the file update start point, the file update state in each server cluster is grasped, and the stable operation of the updated cluster is performed over a predetermined time. The communication system according to claim 2, wherein the operation monitoring is canceled after confirmation.
前記ノードの管理機能は、
当該ノードの運転監視中に、前記サーバクラスタ内で不具合が発生した場合、当該ノードから、前記更新済みのクラスタを全て切り離し、前記更新前の未更新のクラスタだけで動作させる
ことを特徴とする請求項3に記載の通信システム。
The node management function is:
When a failure occurs in the server cluster during operation monitoring of the node, all the updated clusters are disconnected from the node, and only the unupdated cluster before the update is operated. Item 4. The communication system according to Item 3.
前記第1のノードは、
前記旧バージョンのアプリケーションファイルを、前記新バージョンのアプリケーションファイルへ更新して、前記新バージョンのアプリケーションファイルの安定動作が予め定められた所定時間に亘って確認できた場合に、前記第2のノードから更新中のデータを引き継ぎ、
前記所定時間の間に前記新バージョンのアプリケーションファイルの安定動作が確認できない場合に、前記新バージョンのアプリケーションファイルを配備しなおし、再配備後に、前記新バージョンのアプリケーションファイルの安定動作が確認できた場合に、前記第2のノードから更新中のデータを引き継ぐ
ことを特徴とする請求項1ないし請求項4のいずれか一項に記載の通信システム。
The first node is:
When the old version of the application file is updated to the new version of the application file and the stable operation of the new version of the application file has been confirmed over a predetermined time, the second node Take over the data being updated,
When the stable operation of the new version of the application file cannot be confirmed during the predetermined time, and when the new version of the application file is redeployed and after the redeployment, the stable operation of the new version of the application file can be confirmed The communication system according to any one of claims 1 to 4, wherein the data being updated is taken over from the second node.
サーバリソースコンポーネントと、ブートイメージとを、予め余剰にプールしたリソースプールから、必要な資源を予め獲得してクラスタリングされた複数のサーバクラスタに、個々のサービスを実現するアプリケーションファイルを配備することで構成されたノードを備え、各ノードはユーザサービスネットワークを介してユーザ端末にサービスを提供する通信システムにおける通信システム更新方法であって、
前記通信システムは、所定のサービスを実現する旧バージョンのアプリケーションファイルが配備された第1のノードと、前記所定のサービスを提供できる同種のアプリケーションファイルが配備された第2のノードとを備え、
前記第1のノードは、
前記所定のサービスへの新機能追加時に、前記旧バージョンのアプリケーションファイルの処理に用いていたデータを前記第2のノードに移動する移動ステップと、
前記旧バージョンのアプリケーションファイルを、前記所定のサービスへの新機能を実現する新バージョンのアプリケーションファイルへ更新する更新ステップとを実行し、
前記第2のノードは、
前記第1のノードがアプリケーションファイルを更新している間、前記第1のノードが行うべき処理を代わりに実行して前記所定のサービスを提供するサービス提供ステップを実行し、
前記第1のノードは、
前記アプリケーションファイルの更新終了後に、前記第2のノードから更新中のデータを引き継ぐ引継ステップを実行する
ことを特徴とする通信システム更新方法。
Configured by deploying application files that realize individual services to multiple server clusters that have been clustered by acquiring necessary resources in advance from a resource pool in which server resource components and boot images are pooled in advance. A communication system update method in a communication system for providing a service to a user terminal via a user service network.
The communication system includes a first node in which an application file of an old version that realizes a predetermined service is deployed, and a second node in which the same type of application file that can provide the predetermined service is deployed,
The first node is:
A moving step of moving data used for processing the application file of the old version to the second node when a new function is added to the predetermined service;
Updating the old version of the application file to a new version of the application file that implements a new function for the predetermined service; and
The second node is
While the first node is updating the application file, a service providing step of providing the predetermined service by executing processing to be performed by the first node instead is executed.
The first node is:
A communication system update method, wherein after the update of the application file is completed, a takeover step of taking over data being updated from the second node is executed.
前記ノードは、当該ノードを管理統括する管理機能を備え、
前記通信システムは、前記ノードを構成する複数のサーバクラスタに対するタスクの振分およびトラフィックの振分を行う振分機能部を備え、
前記ノードの管理機能は、
更新されたブートイメージを利用した新たなサービス追加時に、当該ノードにおいて既に保持している未更新のサーバクラスタにて処理に用いていたデータを、当該未更新のサーバクラスタと同種のサービスを提供できる同種の外部にある前記ノードまたは当該ノード内部にある他のサーバクラスタに移動する移動ステップと、
前記更新されたブートイメージを利用して新たな前記サーバクラスタを組成し、組成された更新済みのサーバクラスタを当該ノードに追加する追加ステップと、
当該ノードにおいて前記追加された更新済みのサーバクラスタと、既に保持している未更新のサーバクラスタとを共存させる共存ステップと、
前記更新済みのサーバクラスタの安定動作を確認する動作確認ステップと、
前記更新済みのサーバクラスタの安定動作を確認した後で、前記未更新のサーバクラスタを解体する解体ステップと、
前記解体したコンポーネントを前記リソースプールに戻す返却ステップと、を実行し、
前記振分機能部は、
前記共存ステップにて、当該ノードの管理機能からの指示に基づいて、当該ノードへのトラフィックを、前記更新済みのサーバクラスタと、前記未更新のサーバクラスタとに振り分けるステップを実行する
ことを特徴とする請求項6に記載の通信システム更新方法。
The node has a management function for managing and managing the node,
The communication system includes a distribution function unit that distributes tasks and traffic to a plurality of server clusters constituting the node,
The node management function is:
When a new service is added using the updated boot image, the same type of service as the unupdated server cluster can be provided using the data used for processing in the unupdated server cluster already held in the node. A move step of moving to the node outside the same kind or another server cluster inside the node;
Adding the new server cluster using the updated boot image and adding the updated server cluster to the node;
A coexistence step in which the added updated server cluster and an unupdated server cluster already held in the node coexist,
An operation confirmation step for confirming a stable operation of the updated server cluster;
Dismantling the unupdated server cluster after confirming the stable operation of the updated server cluster;
Returning the disassembled component to the resource pool; and
The distribution function unit
In the coexistence step, based on an instruction from the management function of the node, the step of allocating traffic to the node to the updated server cluster and the unupdated server cluster is performed. The communication system update method according to claim 6.
前記ノードの管理機能は、
前記新たなサービス追加時に、前記解体ステップの前において、
ファイル更新開始時に、当該ノードの運転監視を開始する監視開始ステップと、
各サーバクラスタにおけるファイル更新状態を把握する更新状態管理ステップと、
前記更新済みのクラスタの安定動作が予め定められた所定時間に亘って確認できた後に、前記運転監視を解除する監視解除ステップとを実行する
ことを特徴とする請求項7に記載の通信システム更新方法。
The node management function is:
Before adding the new service, before the dismantling step,
A monitoring start step for starting operation monitoring of the node at the start of file update;
An update status management step for grasping the file update status in each server cluster;
The communication system update according to claim 7, wherein after the stable operation of the updated cluster has been confirmed over a predetermined time, a monitoring cancellation step of canceling the operation monitoring is executed. Method.
前記ノードの管理機能は、
当該ノードの運転監視中に、前記サーバクラスタ内で不具合が発生した場合、当該ノードから、前記更新済みのクラスタを全て切り離すステップと、
前記更新前の未更新のクラスタだけで動作させるステップとを実行することを特徴とする請求項8に記載の通信システム更新方法。
The node management function is:
During the operation monitoring of the node, if a failure occurs in the server cluster, detaching all the updated clusters from the node;
The communication system updating method according to claim 8, wherein the operation is performed only on the unupdated cluster before the update.
前記第1のノードは、
前記旧バージョンのアプリケーションファイルを、前記新バージョンのアプリケーションファイルへ更新する更新ステップを実行し、
前記新バージョンのアプリケーションファイルの安定動作が予め定められた所定時間に亘って確認できた場合に、前記第2のノードから更新中のデータを引き継ぎ、
前記所定時間の間に前記新バージョンのアプリケーションファイルの安定動作が確認できない場合に、前記新バージョンのアプリケーションファイルを配備しなおすステップと、
再配備後に、前記新バージョンのアプリケーションファイルの安定動作が確認できた場合に、前記第2のノードから更新中のデータを引き継ぐステップとを実行することを特徴とする請求項6ないし請求項9のいずれか一項に記載の通信システム更新方法。
The first node is:
Performing an update step of updating the old version of the application file to the new version of the application file;
When the stable operation of the application file of the new version can be confirmed over a predetermined time, the data being updated is taken over from the second node,
Re-deploying the new version of the application file if stable operation of the new version of the application file cannot be confirmed during the predetermined time;
10. The step of taking over the data being updated from the second node when the stable operation of the new version of the application file can be confirmed after redeployment. The communication system update method as described in any one of Claims.
JP2010130030A 2010-06-07 2010-06-07 Communication system and communication system update method Active JP5513997B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010130030A JP5513997B2 (en) 2010-06-07 2010-06-07 Communication system and communication system update method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010130030A JP5513997B2 (en) 2010-06-07 2010-06-07 Communication system and communication system update method

Publications (2)

Publication Number Publication Date
JP2011257847A true JP2011257847A (en) 2011-12-22
JP5513997B2 JP5513997B2 (en) 2014-06-04

Family

ID=45473994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010130030A Active JP5513997B2 (en) 2010-06-07 2010-06-07 Communication system and communication system update method

Country Status (1)

Country Link
JP (1) JP5513997B2 (en)

Cited By (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130585A (en) * 2012-12-27 2014-07-10 General Electric Co <Ge> Firmware upgrade error detection and automatic rollback
JP2017529628A (en) * 2014-09-24 2017-10-05 オラクル・インターナショナル・コーポレイション System and method for supporting patching in a multi-tenant application server environment
JP2017534107A (en) * 2014-09-30 2017-11-16 アマゾン テクノロジーズ インコーポレイテッド Dynamic code deployment and versioning
US10102040B2 (en) 2016-06-29 2018-10-16 Amazon Technologies, Inc Adjusting variable limit on concurrent code executions
US10140137B2 (en) 2014-09-30 2018-11-27 Amazon Technologies, Inc. Threading as a service
US10162688B2 (en) 2014-09-30 2018-12-25 Amazon Technologies, Inc. Processing event messages for user requests to execute program code
US10203990B2 (en) 2016-06-30 2019-02-12 Amazon Technologies, Inc. On-demand network code execution with cross-account aliases
US10277708B2 (en) 2016-06-30 2019-04-30 Amazon Technologies, Inc. On-demand network code execution with cross-account aliases
US10282229B2 (en) 2016-06-28 2019-05-07 Amazon Technologies, Inc. Asynchronous task management in an on-demand network code execution environment
US10353746B2 (en) 2014-12-05 2019-07-16 Amazon Technologies, Inc. Automatic determination of resource sizing
US10353678B1 (en) 2018-02-05 2019-07-16 Amazon Technologies, Inc. Detecting code characteristic alterations due to cross-service calls
US10365985B2 (en) 2015-12-16 2019-07-30 Amazon Technologies, Inc. Predictive management of on-demand code execution
US10387177B2 (en) 2015-02-04 2019-08-20 Amazon Technologies, Inc. Stateful virtual compute system
US10437629B2 (en) 2015-12-16 2019-10-08 Amazon Technologies, Inc. Pre-triggers for code execution environments
US10528390B2 (en) 2016-09-23 2020-01-07 Amazon Technologies, Inc. Idempotent task execution in on-demand network code execution systems
US10552193B2 (en) 2015-02-04 2020-02-04 Amazon Technologies, Inc. Security protocols for low latency execution of program code
US10564946B1 (en) 2017-12-13 2020-02-18 Amazon Technologies, Inc. Dependency handling in an on-demand network code execution system
US10623476B2 (en) 2015-04-08 2020-04-14 Amazon Technologies, Inc. Endpoint management system providing an application programming interface proxy service
US10691498B2 (en) 2015-12-21 2020-06-23 Amazon Technologies, Inc. Acquisition and maintenance of compute capacity
US10725752B1 (en) 2018-02-13 2020-07-28 Amazon Technologies, Inc. Dependency handling in an on-demand network code execution system
US10733085B1 (en) 2018-02-05 2020-08-04 Amazon Technologies, Inc. Detecting impedance mismatches due to cross-service calls
US10742568B2 (en) 2014-01-21 2020-08-11 Oracle International Corporation System and method for supporting multi-tenancy in an application server, cloud, or other environment
US10754701B1 (en) 2015-12-16 2020-08-25 Amazon Technologies, Inc. Executing user-defined code in response to determining that resources expected to be utilized comply with resource restrictions
US10776091B1 (en) 2018-02-26 2020-09-15 Amazon Technologies, Inc. Logging endpoint in an on-demand code execution system
US10776171B2 (en) 2015-04-08 2020-09-15 Amazon Technologies, Inc. Endpoint management system and virtual compute system
US10824484B2 (en) 2014-09-30 2020-11-03 Amazon Technologies, Inc. Event-driven computing
US10831898B1 (en) 2018-02-05 2020-11-10 Amazon Technologies, Inc. Detecting privilege escalations in code including cross-service calls
US10853055B2 (en) 2014-09-24 2020-12-01 Oracle International Corporation System and method for supporting patching in a multitenant application server environment
US10884722B2 (en) 2018-06-26 2021-01-05 Amazon Technologies, Inc. Cross-environment application of tracing information for improved code execution
US10884787B1 (en) 2016-09-23 2021-01-05 Amazon Technologies, Inc. Execution guarantees in an on-demand network code execution system
US10884802B2 (en) 2014-09-30 2021-01-05 Amazon Technologies, Inc. Message-based computation request scheduling
US10884812B2 (en) 2018-12-13 2021-01-05 Amazon Technologies, Inc. Performance-based hardware emulation in an on-demand network code execution system
US10891145B2 (en) 2016-03-30 2021-01-12 Amazon Technologies, Inc. Processing pre-existing data sets at an on demand code execution environment
US10908927B1 (en) 2019-09-27 2021-02-02 Amazon Technologies, Inc. On-demand execution of object filter code in output path of object storage service
US10915371B2 (en) 2014-09-30 2021-02-09 Amazon Technologies, Inc. Automatic management of low latency computational capacity
US10942795B1 (en) 2019-11-27 2021-03-09 Amazon Technologies, Inc. Serverless call distribution to utilize reserved capacity without inhibiting scaling
US10949237B2 (en) 2018-06-29 2021-03-16 Amazon Technologies, Inc. Operating system customization in an on-demand network code execution system
US10996961B2 (en) 2019-09-27 2021-05-04 Amazon Technologies, Inc. On-demand indexing of data in input path of object storage service
US11010188B1 (en) 2019-02-05 2021-05-18 Amazon Technologies, Inc. Simulated data object storage using on-demand computation of data objects
US11016815B2 (en) 2015-12-21 2021-05-25 Amazon Technologies, Inc. Code execution request routing
US11023416B2 (en) 2019-09-27 2021-06-01 Amazon Technologies, Inc. Data access control system for object storage service based on owner-defined code
US11023311B2 (en) 2019-09-27 2021-06-01 Amazon Technologies, Inc. On-demand code execution in input path of data uploaded to storage service in multiple data portions
US11055112B2 (en) 2019-09-27 2021-07-06 Amazon Technologies, Inc. Inserting executions of owner-specified code into input/output path of object storage service
US11099917B2 (en) 2018-09-27 2021-08-24 Amazon Technologies, Inc. Efficient state maintenance for execution environments in an on-demand code execution system
US11099870B1 (en) 2018-07-25 2021-08-24 Amazon Technologies, Inc. Reducing execution times in an on-demand network code execution system using saved machine states
US11106477B2 (en) 2019-09-27 2021-08-31 Amazon Technologies, Inc. Execution of owner-specified code during input/output path to object storage service
US11115404B2 (en) 2019-06-28 2021-09-07 Amazon Technologies, Inc. Facilitating service connections in serverless code executions
US11119826B2 (en) 2019-11-27 2021-09-14 Amazon Technologies, Inc. Serverless call distribution to implement spillover while avoiding cold starts
US11119809B1 (en) 2019-06-20 2021-09-14 Amazon Technologies, Inc. Virtualization-based transaction handling in an on-demand network code execution system
US11119813B1 (en) 2016-09-30 2021-09-14 Amazon Technologies, Inc. Mapreduce implementation using an on-demand network code execution system
US11132213B1 (en) 2016-03-30 2021-09-28 Amazon Technologies, Inc. Dependency-based process of pre-existing data sets at an on demand code execution environment
US11146569B1 (en) 2018-06-28 2021-10-12 Amazon Technologies, Inc. Escalation-resistant secure network services using request-scoped authentication information
US11159528B2 (en) 2019-06-28 2021-10-26 Amazon Technologies, Inc. Authentication to network-services using hosted authentication information
US11190609B2 (en) 2019-06-28 2021-11-30 Amazon Technologies, Inc. Connection pooling for scalable network services
US11188391B1 (en) 2020-03-11 2021-11-30 Amazon Technologies, Inc. Allocating resources to on-demand code executions under scarcity conditions
US11237814B2 (en) 2017-08-17 2022-02-01 Oracle International Corporation System and method for supporting custom hooks during patching in an application server environment
US11243953B2 (en) 2018-09-27 2022-02-08 Amazon Technologies, Inc. Mapreduce implementation in an on-demand network code execution system and stream data processing system
US11250007B1 (en) 2019-09-27 2022-02-15 Amazon Technologies, Inc. On-demand execution of object combination code in output path of object storage service
US11263034B2 (en) 2014-09-30 2022-03-01 Amazon Technologies, Inc. Low latency computational capacity provisioning
US11263220B2 (en) 2019-09-27 2022-03-01 Amazon Technologies, Inc. On-demand execution of object transformation code in output path of object storage service
JP2022069497A (en) * 2016-04-28 2022-05-11 スノーフレーク インク. Multi-cluster warehouse
US11360948B2 (en) 2019-09-27 2022-06-14 Amazon Technologies, Inc. Inserting owner-specified data processing pipelines into input/output path of object storage service
US11386230B2 (en) 2019-09-27 2022-07-12 Amazon Technologies, Inc. On-demand code obfuscation of data in input path of object storage service
US11388210B1 (en) 2021-06-30 2022-07-12 Amazon Technologies, Inc. Streaming analytics using a serverless compute system
US11394761B1 (en) 2019-09-27 2022-07-19 Amazon Technologies, Inc. Execution of user-submitted code on a stream of data
US11416628B2 (en) 2019-09-27 2022-08-16 Amazon Technologies, Inc. User-specific data manipulation system for object storage service based on user-submitted code
US11550944B2 (en) 2019-09-27 2023-01-10 Amazon Technologies, Inc. Code execution environment customization system for object storage service
US11550713B1 (en) 2020-11-25 2023-01-10 Amazon Technologies, Inc. Garbage collection in distributed systems using life cycled storage roots
US11593270B1 (en) 2020-11-25 2023-02-28 Amazon Technologies, Inc. Fast distributed caching using erasure coded object parts
US11656892B1 (en) 2019-09-27 2023-05-23 Amazon Technologies, Inc. Sequential execution of user-submitted code and native functions
US11714682B1 (en) 2020-03-03 2023-08-01 Amazon Technologies, Inc. Reclaiming computing resources in an on-demand code execution system
US11775640B1 (en) 2020-03-30 2023-10-03 Amazon Technologies, Inc. Resource utilization-based malicious task detection in an on-demand code execution system
US11861386B1 (en) 2019-03-22 2024-01-02 Amazon Technologies, Inc. Application gateways in an on-demand network code execution system
US11875173B2 (en) 2018-06-25 2024-01-16 Amazon Technologies, Inc. Execution of auxiliary functions in an on-demand network code execution system
US11943093B1 (en) 2018-11-20 2024-03-26 Amazon Technologies, Inc. Network connection recovery after virtual machine transition in an on-demand network code execution system
US11968280B1 (en) 2021-11-24 2024-04-23 Amazon Technologies, Inc. Controlling ingestion of streaming data to serverless function executions

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206453A (en) * 2002-12-25 2004-07-22 Fujitsu Ltd Shared data access system for multiprocessor
JP2006031312A (en) * 2004-07-15 2006-02-02 Hitachi Ltd Storage device
WO2006040810A1 (en) * 2004-10-12 2006-04-20 Fujitsu Limited Software update program, software update device, and software update method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206453A (en) * 2002-12-25 2004-07-22 Fujitsu Ltd Shared data access system for multiprocessor
JP2006031312A (en) * 2004-07-15 2006-02-02 Hitachi Ltd Storage device
WO2006040810A1 (en) * 2004-10-12 2006-04-20 Fujitsu Limited Software update program, software update device, and software update method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200900603002; 金子 雅志,入江 道生,四七 秀貴,飯尾 政美: '高可用サーバクラスタにおけるシステム更新方式の検討' 電子情報通信学会技術研究報告 Vol.109,No.279, 20091105, pp.5-10, 社団法人電子情報通信学会 *
JPN6013044468; 金子 雅志,入江 道生,四七 秀貴,飯尾 政美: '高可用サーバクラスタにおけるシステム更新方式の検討' 電子情報通信学会技術研究報告 Vol.109,No.279, 20091105, pp.5-10, 社団法人電子情報通信学会 *

Cited By (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130585A (en) * 2012-12-27 2014-07-10 General Electric Co <Ge> Firmware upgrade error detection and automatic rollback
US10742568B2 (en) 2014-01-21 2020-08-11 Oracle International Corporation System and method for supporting multi-tenancy in an application server, cloud, or other environment
US11683274B2 (en) 2014-01-21 2023-06-20 Oracle International Corporation System and method for supporting multi-tenancy in an application server, cloud, or other environment
US11343200B2 (en) 2014-01-21 2022-05-24 Oracle International Corporation System and method for supporting multi-tenancy in an application server, cloud, or other environment
US11449330B2 (en) 2014-09-24 2022-09-20 Oracle International Corporation System and method for supporting patching in a multitenant application server environment
JP2017529628A (en) * 2014-09-24 2017-10-05 オラクル・インターナショナル・コーポレイション System and method for supporting patching in a multi-tenant application server environment
US10853056B2 (en) 2014-09-24 2020-12-01 Oracle International Corporation System and method for supporting patching in a multitenant application server environment
US10853055B2 (en) 2014-09-24 2020-12-01 Oracle International Corporation System and method for supporting patching in a multitenant application server environment
US11880679B2 (en) 2014-09-24 2024-01-23 Oracle International Corporation System and method for supporting patching in a multitenant application server environment
US10162688B2 (en) 2014-09-30 2018-12-25 Amazon Technologies, Inc. Processing event messages for user requests to execute program code
US11467890B2 (en) 2014-09-30 2022-10-11 Amazon Technologies, Inc. Processing event messages for user requests to execute program code
US11561811B2 (en) 2014-09-30 2023-01-24 Amazon Technologies, Inc. Threading as a service
US10956185B2 (en) 2014-09-30 2021-03-23 Amazon Technologies, Inc. Threading as a service
US10915371B2 (en) 2014-09-30 2021-02-09 Amazon Technologies, Inc. Automatic management of low latency computational capacity
US10140137B2 (en) 2014-09-30 2018-11-27 Amazon Technologies, Inc. Threading as a service
US10884802B2 (en) 2014-09-30 2021-01-05 Amazon Technologies, Inc. Message-based computation request scheduling
US10592269B2 (en) 2014-09-30 2020-03-17 Amazon Technologies, Inc. Dynamic code deployment and versioning
US11263034B2 (en) 2014-09-30 2022-03-01 Amazon Technologies, Inc. Low latency computational capacity provisioning
JP2017534107A (en) * 2014-09-30 2017-11-16 アマゾン テクノロジーズ インコーポレイテッド Dynamic code deployment and versioning
US10824484B2 (en) 2014-09-30 2020-11-03 Amazon Technologies, Inc. Event-driven computing
US10353746B2 (en) 2014-12-05 2019-07-16 Amazon Technologies, Inc. Automatic determination of resource sizing
US11126469B2 (en) 2014-12-05 2021-09-21 Amazon Technologies, Inc. Automatic determination of resource sizing
US11461124B2 (en) 2015-02-04 2022-10-04 Amazon Technologies, Inc. Security protocols for low latency execution of program code
US11360793B2 (en) 2015-02-04 2022-06-14 Amazon Technologies, Inc. Stateful virtual compute system
US10387177B2 (en) 2015-02-04 2019-08-20 Amazon Technologies, Inc. Stateful virtual compute system
US10552193B2 (en) 2015-02-04 2020-02-04 Amazon Technologies, Inc. Security protocols for low latency execution of program code
US10853112B2 (en) 2015-02-04 2020-12-01 Amazon Technologies, Inc. Stateful virtual compute system
US10623476B2 (en) 2015-04-08 2020-04-14 Amazon Technologies, Inc. Endpoint management system providing an application programming interface proxy service
US10776171B2 (en) 2015-04-08 2020-09-15 Amazon Technologies, Inc. Endpoint management system and virtual compute system
US10437629B2 (en) 2015-12-16 2019-10-08 Amazon Technologies, Inc. Pre-triggers for code execution environments
US10754701B1 (en) 2015-12-16 2020-08-25 Amazon Technologies, Inc. Executing user-defined code in response to determining that resources expected to be utilized comply with resource restrictions
US10365985B2 (en) 2015-12-16 2019-07-30 Amazon Technologies, Inc. Predictive management of on-demand code execution
US11016815B2 (en) 2015-12-21 2021-05-25 Amazon Technologies, Inc. Code execution request routing
US11243819B1 (en) 2015-12-21 2022-02-08 Amazon Technologies, Inc. Acquisition and maintenance of compute capacity
US10691498B2 (en) 2015-12-21 2020-06-23 Amazon Technologies, Inc. Acquisition and maintenance of compute capacity
US11132213B1 (en) 2016-03-30 2021-09-28 Amazon Technologies, Inc. Dependency-based process of pre-existing data sets at an on demand code execution environment
US10891145B2 (en) 2016-03-30 2021-01-12 Amazon Technologies, Inc. Processing pre-existing data sets at an on demand code execution environment
JP2022069497A (en) * 2016-04-28 2022-05-11 スノーフレーク インク. Multi-cluster warehouse
US10282229B2 (en) 2016-06-28 2019-05-07 Amazon Technologies, Inc. Asynchronous task management in an on-demand network code execution environment
US11354169B2 (en) 2016-06-29 2022-06-07 Amazon Technologies, Inc. Adjusting variable limit on concurrent code executions
US10102040B2 (en) 2016-06-29 2018-10-16 Amazon Technologies, Inc Adjusting variable limit on concurrent code executions
US10402231B2 (en) 2016-06-29 2019-09-03 Amazon Technologies, Inc. Adjusting variable limit on concurrent code executions
US10277708B2 (en) 2016-06-30 2019-04-30 Amazon Technologies, Inc. On-demand network code execution with cross-account aliases
US10203990B2 (en) 2016-06-30 2019-02-12 Amazon Technologies, Inc. On-demand network code execution with cross-account aliases
US10528390B2 (en) 2016-09-23 2020-01-07 Amazon Technologies, Inc. Idempotent task execution in on-demand network code execution systems
US10884787B1 (en) 2016-09-23 2021-01-05 Amazon Technologies, Inc. Execution guarantees in an on-demand network code execution system
US11119813B1 (en) 2016-09-30 2021-09-14 Amazon Technologies, Inc. Mapreduce implementation using an on-demand network code execution system
US11237814B2 (en) 2017-08-17 2022-02-01 Oracle International Corporation System and method for supporting custom hooks during patching in an application server environment
US10564946B1 (en) 2017-12-13 2020-02-18 Amazon Technologies, Inc. Dependency handling in an on-demand network code execution system
US10353678B1 (en) 2018-02-05 2019-07-16 Amazon Technologies, Inc. Detecting code characteristic alterations due to cross-service calls
US10733085B1 (en) 2018-02-05 2020-08-04 Amazon Technologies, Inc. Detecting impedance mismatches due to cross-service calls
US10831898B1 (en) 2018-02-05 2020-11-10 Amazon Technologies, Inc. Detecting privilege escalations in code including cross-service calls
US10725752B1 (en) 2018-02-13 2020-07-28 Amazon Technologies, Inc. Dependency handling in an on-demand network code execution system
US10776091B1 (en) 2018-02-26 2020-09-15 Amazon Technologies, Inc. Logging endpoint in an on-demand code execution system
US11875173B2 (en) 2018-06-25 2024-01-16 Amazon Technologies, Inc. Execution of auxiliary functions in an on-demand network code execution system
US10884722B2 (en) 2018-06-26 2021-01-05 Amazon Technologies, Inc. Cross-environment application of tracing information for improved code execution
US11146569B1 (en) 2018-06-28 2021-10-12 Amazon Technologies, Inc. Escalation-resistant secure network services using request-scoped authentication information
US10949237B2 (en) 2018-06-29 2021-03-16 Amazon Technologies, Inc. Operating system customization in an on-demand network code execution system
US11099870B1 (en) 2018-07-25 2021-08-24 Amazon Technologies, Inc. Reducing execution times in an on-demand network code execution system using saved machine states
US11836516B2 (en) 2018-07-25 2023-12-05 Amazon Technologies, Inc. Reducing execution times in an on-demand network code execution system using saved machine states
US11099917B2 (en) 2018-09-27 2021-08-24 Amazon Technologies, Inc. Efficient state maintenance for execution environments in an on-demand code execution system
US11243953B2 (en) 2018-09-27 2022-02-08 Amazon Technologies, Inc. Mapreduce implementation in an on-demand network code execution system and stream data processing system
US11943093B1 (en) 2018-11-20 2024-03-26 Amazon Technologies, Inc. Network connection recovery after virtual machine transition in an on-demand network code execution system
US10884812B2 (en) 2018-12-13 2021-01-05 Amazon Technologies, Inc. Performance-based hardware emulation in an on-demand network code execution system
US11010188B1 (en) 2019-02-05 2021-05-18 Amazon Technologies, Inc. Simulated data object storage using on-demand computation of data objects
US11861386B1 (en) 2019-03-22 2024-01-02 Amazon Technologies, Inc. Application gateways in an on-demand network code execution system
US11119809B1 (en) 2019-06-20 2021-09-14 Amazon Technologies, Inc. Virtualization-based transaction handling in an on-demand network code execution system
US11714675B2 (en) 2019-06-20 2023-08-01 Amazon Technologies, Inc. Virtualization-based transaction handling in an on-demand network code execution system
US11190609B2 (en) 2019-06-28 2021-11-30 Amazon Technologies, Inc. Connection pooling for scalable network services
US11159528B2 (en) 2019-06-28 2021-10-26 Amazon Technologies, Inc. Authentication to network-services using hosted authentication information
US11115404B2 (en) 2019-06-28 2021-09-07 Amazon Technologies, Inc. Facilitating service connections in serverless code executions
US11023311B2 (en) 2019-09-27 2021-06-01 Amazon Technologies, Inc. On-demand code execution in input path of data uploaded to storage service in multiple data portions
US10996961B2 (en) 2019-09-27 2021-05-04 Amazon Technologies, Inc. On-demand indexing of data in input path of object storage service
US11250007B1 (en) 2019-09-27 2022-02-15 Amazon Technologies, Inc. On-demand execution of object combination code in output path of object storage service
US11394761B1 (en) 2019-09-27 2022-07-19 Amazon Technologies, Inc. Execution of user-submitted code on a stream of data
US11416628B2 (en) 2019-09-27 2022-08-16 Amazon Technologies, Inc. User-specific data manipulation system for object storage service based on user-submitted code
US11055112B2 (en) 2019-09-27 2021-07-06 Amazon Technologies, Inc. Inserting executions of owner-specified code into input/output path of object storage service
US11263220B2 (en) 2019-09-27 2022-03-01 Amazon Technologies, Inc. On-demand execution of object transformation code in output path of object storage service
US11023416B2 (en) 2019-09-27 2021-06-01 Amazon Technologies, Inc. Data access control system for object storage service based on owner-defined code
US11550944B2 (en) 2019-09-27 2023-01-10 Amazon Technologies, Inc. Code execution environment customization system for object storage service
US10908927B1 (en) 2019-09-27 2021-02-02 Amazon Technologies, Inc. On-demand execution of object filter code in output path of object storage service
US11106477B2 (en) 2019-09-27 2021-08-31 Amazon Technologies, Inc. Execution of owner-specified code during input/output path to object storage service
US11860879B2 (en) 2019-09-27 2024-01-02 Amazon Technologies, Inc. On-demand execution of object transformation code in output path of object storage service
US11656892B1 (en) 2019-09-27 2023-05-23 Amazon Technologies, Inc. Sequential execution of user-submitted code and native functions
US11386230B2 (en) 2019-09-27 2022-07-12 Amazon Technologies, Inc. On-demand code obfuscation of data in input path of object storage service
US11360948B2 (en) 2019-09-27 2022-06-14 Amazon Technologies, Inc. Inserting owner-specified data processing pipelines into input/output path of object storage service
US10942795B1 (en) 2019-11-27 2021-03-09 Amazon Technologies, Inc. Serverless call distribution to utilize reserved capacity without inhibiting scaling
US11119826B2 (en) 2019-11-27 2021-09-14 Amazon Technologies, Inc. Serverless call distribution to implement spillover while avoiding cold starts
US11714682B1 (en) 2020-03-03 2023-08-01 Amazon Technologies, Inc. Reclaiming computing resources in an on-demand code execution system
US11188391B1 (en) 2020-03-11 2021-11-30 Amazon Technologies, Inc. Allocating resources to on-demand code executions under scarcity conditions
US11775640B1 (en) 2020-03-30 2023-10-03 Amazon Technologies, Inc. Resource utilization-based malicious task detection in an on-demand code execution system
US11593270B1 (en) 2020-11-25 2023-02-28 Amazon Technologies, Inc. Fast distributed caching using erasure coded object parts
US11550713B1 (en) 2020-11-25 2023-01-10 Amazon Technologies, Inc. Garbage collection in distributed systems using life cycled storage roots
US11388210B1 (en) 2021-06-30 2022-07-12 Amazon Technologies, Inc. Streaming analytics using a serverless compute system
US11968280B1 (en) 2021-11-24 2024-04-23 Amazon Technologies, Inc. Controlling ingestion of streaming data to serverless function executions
US11983198B2 (en) 2023-04-26 2024-05-14 Snowflake Inc. Multi-cluster warehouse

Also Published As

Publication number Publication date
JP5513997B2 (en) 2014-06-04

Similar Documents

Publication Publication Date Title
JP5513997B2 (en) Communication system and communication system update method
KR102430869B1 (en) Live migration of clusters in containerized environments
CN108475251B (en) Virtual network, hot swapping, hot scaling and disaster recovery for containers
US9529582B2 (en) Modular architecture for distributed system management
CN109313577B (en) Data plane API in a distributed computing network
WO2019160030A1 (en) Service provision system, resource allocation method, and resource allocation program
CN113382077B (en) Micro-service scheduling method, micro-service scheduling device, computer equipment and storage medium
JP2019032686A (en) Managing device, control method for managing device, and program
JP2011028547A (en) Virtual machine starting terminal and virtual machine starting program
CN102724104B (en) Apparatus and method for automatically configuring Java EE application cluster
CN111683139A (en) Method and apparatus for balancing load
CN111752180A (en) Controlling paths in a network via a centralized controller or network device
KR20140061534A (en) Scalable distributed multicluster device management server architecture and method of operation thereof
JP5667506B2 (en) Cluster system and software update method
JP2006127001A (en) Operating method, operation management system, and operation program for business system
CN115391058B (en) SDN-based resource event processing method, resource creation method and system
CN111338647B (en) Big data cluster management method and device
JP2013152513A (en) Task management system, task management server, task management method and task management program
JP4034201B2 (en) Computer resource utilization method and computer resource utilization method
JP2013003982A (en) Load distribution system, load distribution device and server device
JP2018073099A (en) Scale-in processing program, scale-in processing method, and information processing system
JP7135489B2 (en) Server device, distributed processing method, and program used for distributed processing system
CN115309400B (en) Task deployment method, service platform, deployment platform, device and storage medium
WO2023032106A1 (en) Job management system and control method therefor
WO2023148872A1 (en) Network management device, network management method, and network management system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120828

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140328

R150 Certificate of patent or registration of utility model

Ref document number: 5513997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150