KR20150016820A - 가상 노드 배치 관리 시스템 및 방법 - Google Patents

가상 노드 배치 관리 시스템 및 방법 Download PDF

Info

Publication number
KR20150016820A
KR20150016820A KR1020130092741A KR20130092741A KR20150016820A KR 20150016820 A KR20150016820 A KR 20150016820A KR 1020130092741 A KR1020130092741 A KR 1020130092741A KR 20130092741 A KR20130092741 A KR 20130092741A KR 20150016820 A KR20150016820 A KR 20150016820A
Authority
KR
South Korea
Prior art keywords
virtual node
node
group
virtual
management unit
Prior art date
Application number
KR1020130092741A
Other languages
English (en)
Other versions
KR101694518B1 (ko
Inventor
박춘서
이미영
허성진
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020130092741A priority Critical patent/KR101694518B1/ko
Priority to US14/079,234 priority patent/US20150040129A1/en
Publication of KR20150016820A publication Critical patent/KR20150016820A/ko
Application granted granted Critical
Publication of KR101694518B1 publication Critical patent/KR101694518B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/301Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is a virtual computing platform, e.g. logically partitioned systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45504Abstract machines for programme code execution, e.g. Java virtual machine [JVM], interpreters, emulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/485Task life-cycle, e.g. stopping, restarting, resuming execution
    • G06F9/4856Task life-cycle, e.g. stopping, restarting, resuming execution resumption being on a different machine, e.g. task migration, virtual machine migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/505Clust
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Hardware Redundancy (AREA)

Abstract

가상 노드 배치 관리 시스템은 서브 그룹에 운용되는 물리적 노드 및 가상 노드의 상태 정보를 모니터링하고, 상기 서브 그룹에 운용되는 물리적 노드의 상태 정보 및 상기 가상 노드의 배치 정책에 따라서 서브 그룹에 운용되는 가상 노드를 재배치한다.

Description

가상 노드 배치 관리 시스템 및 방법{SYSTEM AND METHOD FOR VIRTUAL MACHINE PLACEMENT AND MANAGEMENT ON CLUSTER SYSTEM}
본 발명은 가상 노드 배치 관리 시스템 및 방법에 관한 것으로, 클라우드와 같은 클러스터 노드 시스템에서 가상 노드(Virtual Machine, VM)를 배치하고 운용 관리하는 기술에 관한 것이다.
최근에 클라우드와 같은 클러스터 시스템에서 가상 노드의 배치 관리가 상당한 주목을 받고 있다. 클라우드와 같은 클러스터 시스템을 효율적으로 구성하여 사용자에게 안정적으로 지원하기 위해서는 가상 노드를 효율적으로 배치하고 효율적인 관리 기능을 필요로 하게 되었다. 특히, 가상 노드를 설치할 적절한 물리적 노드(Physical Machine)를 선택하고 효율적으로 관리해야 하는 필요성이 증가 되었다.
최근에 이러한 가상 노드의 배치 방법에 대한 여러 연구가 진행되어 왔다. 기존 연구된 대표적인 가상 노드 배치 방법은 에너지 절약형(Power Based) 방법과 서비스 성능 보장형(QoS Based) 방법으로 주로 연구되어 왔다.
요즘, 클러스터 시스템의 규모가 증가함에 따라 클러스터 시스템을 운영하기 위해 들어가는 전기 에너지 비용과 사용자에게 가상 노드의 성능을 사용자가 원하는 수준으로 보장해주는 문제가 크게 이슈화되고 있다.
기존의 대다수의 에너지 절약형 배치 방법들은 가상 노드를 처음 물리적 노드에 배치할 때에만 물리적 노드의 수를 줄이기 위한 방법을 제시하고 있으나, 가상 노드의 운용에 변화가 발생할 때, 즉 가상 노드의 중지나 삭제 등의 변화가 발생할 때 능동적으로 대처하지 못하는 단점이 존재하여 에너지 절약 효율성이 떨어지는 문제점이 있다.
반면 성능 보장형 배치 방법은 사용자가 원하는 가상 노드의 성능을 보장하기 위해 가상 노드를 물리적 노드의 가용 자원(resource)이 많은 노드에 가상 노드을 배치함으로써 성능을 보장하나, 운용되는 가상 노드가 증가하는 경우에 운용되는 물리적 노드의 수도 같이 증가함으로써 에너지 비용이 많이 발생하는 문제점이 있다.
또한 기존의 가상 노드 배치 방법은 사용자가 한번에 벌크로 다수의 가상 노드를 생성하여 설치할 때 가상 노드의 사용 목적을 고려하지 않고 가상 노드를 물리적 노드에 배치하는 등 다수의 가상 노드의 배치에 대한 고려가 부족하다.
본 발명이 해결하고자 하는 기술적 과제는 클러스터 노드 시스템에서 가상 노드의 운용에 변화가 발생할 때 능동적으로 대처할 수 있고, 가상 노드의 사용 목적을 고려하여 물리적 노드를 선택할 수 있는 가상 노드 배치 관리 시스템 및 방법을 제공하는 것이다.
본 발명의 한 실시 예에 따르면, 가상 노드 배치 관리 시스템에서 가상 노드를 배치 관리하는 방법이 제공된다. 가상 노드 배치 관리 방법은 그룹에 운용되는 물리적 노드 및 가상 노드의 상태 정보를 모니터링하는 단계, 그리고 상기 그룹에 운용되는 물리적 노드의 상태 정보 및 상기 가상 노드의 배치 정책에 따라서 상기 그룹에 운용되는 가상 노드를 재배치하는 단계를 포함한다.
상기 상태 정보는 자원 상태 정보를 포함할 수 있다.
상기 재배치하는 단계는 재배치할 가상 노드를 선정하는 단계, 그리고 상기 가상 노드의 배치 정책이 에너지 절약형인 경우, 상기 그룹에 운용되는 물리적 노드의 수를 증가시키지 않고 상기 그룹 내에서 상기 재배치할 가상 노드의 물리적 노드를 선정하는 단계를 포함할 수 있다.
상기 가상 노드 배치 관리 방법은 상기 그룹에 운용되는 물리적 노드 및 가상 노드의 상태 정보에 따라서 이주할 가상 노드를 결정하는 단계, 상기 이주할 가상 노드의 물리적 노드를 선정하는 단계, 그리고 상기 이주할 가상 노드를 상기 선정된 물리적 노드에 이주시키는 단계를 더 포함할 수 있다.
상기 선정하는 단계는 상기 이주할 가상 노드가 운용 중인 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드를 선정하는 단계, 그리고 상기 이주할 가상 노드가 운용 중인 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드가 존재하지 않는 경우 동일한 그룹 내 다른 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드를 선정하는 단계를 포함할 수 있다.
상기 이주할 가상 노드가 운용 중인 서브 그룹과 상기 다른 서브 그룹은 동일한 그룹을 형성할 수 있다.
상기 결정하는 단계는 상기 가상 노드의 상태 정보에 따라서 장애가 발생한 가상 노드를 상기 이주할 가상 노드로 결정하는 단계를 포함할 수 있다.
상기 가상 노드 배치 관리 방법은 사용자로부터 가상 노드의 생성 요청을 수신하는 단계, 상기 가상 노드의 사용 목적에 따라서 생성할 가상 노드의 물리적 노드를 선정하는 단계, 그리고 상기 가상 노드를 상기 선정된 물리적 노드에 생성하는 단계를 더 포함할 수 있다.
상기 선정하는 단계는 상기 생성할 가상 노드의 배치 정책을 결정하는 단계, 상기 결정된 배치 정책과 상기 가상 노드의 사용 목적에 따라서 상기 가상 노드가 배치될 그룹을 선정하는 단계, 상기 가상 노드가 배치될 상기 그룹 내 서브 그룹을 선정하는 단계, 그리고 상기 선정된 서브 그룹 내에서 상기 생성할 가상 노드를 배치할 물리적 노드를 선정하는 단계를 포함할 수 있다.
상기 물리적 노드를 선정하는 단계는 상기 생성할 가상 노드의 개수가 복수 개인 경우 동일한 그룹 내에서 상기 복수의 가상 노드를 배치할 물리적 노드를 선정하는 단계를 포함할 수 있다.
본 발명의 한 실시 예에 따르면, 클러스터 노드 시스템에서 가상 노드를 배치 관리하는 시스템이 제공된다. 가상 노드 배치 관리 시스템은 가상 노드 배치 정책 관리부, 가상 노드 배치 관리부, 전역 가상 노드 그룹 관리부, 그리고 적어도 하나의 지역 가상 노드 그룹 관리부를 포함한다.
상기 가상 노드 배치 정책 관리부는 사용자로부터의 가상 노드 생성 요청에 따라서 생성할 가상 노드의 배치 정책을 결정한다. 상기 가상 노드 배치 관리부는 상기 결정된 배치 정책과 상기 가상 노드의 생성 목적에 따라서 상기 가상 노드가 배치될 그룹을 선정한다. 상기 전역 가상 노드 그룹 관리부는 상기 그룹에 운용되는 물리적 노드 및 가상 노드를 관리하며, 상기 가상 노드가 배치될 상기 그룹 내 서브 그룹을 선정한다. 그리고 상기 적어도 하나의 지역 가상 노드 그룹 관리부는 상기 그룹의 적어도 하나의 서브 그룹에 운용되는 물리적 노드 및 가상 노드를 각각 관리한다. 상기 적어도 하나의 지역 가상 노드 그룹 관리부 중 상기 선정된 서브 그룹을 관리하는 지역 가상 노드 그룹 관리부는 상기 가상 노드를 생성하고, 상기 가상 노드가 배치될 물리적 노드를 선정하고 상기 가상 노드를 배치한다.
상기 적어도 하나의 지역 가상 노드 그룹 관리부는 각각 서브 그룹에 운용되는 물리적 노드의 자원 상태 정보에 따라서 운용 중인 가상 노드를 재배치할 수 있다.
상기 가상 노드 배치 관리 시스템은 가상 노드 이주 관리부를 더 포함할 수 있다. 상기 가상 노드 이주 관리부는 상기 적어도 하나의 서브 그룹에 운용되는 물리적 노드 및 가상 노드의 상태 정보에 따라서 가상 노드의 이주를 결정할 수 있다. 이때 상기 전역 가상 노드 그룹 관리부 또는 적어도 하나의 지역 가상 노드 그룹 관리부는 상기 가상 노드를 이주시킬 수 있다.
상기 이주할 가상 노드가 운용 중인 서브 그룹을 관리하는 지역 가상 노드 그룹 관리부는 해당 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드를 선정할 수 있다.
상기 전역 가상 노드 그룹 관리부는 상기 해당 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드가 존재하지 않는 경우에 다른 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드를 선정할 수 있다.
상기 가상 노드 이주 관리부는 운용 중인 물리적 노드의 수를 줄일 수 있는 경우에 가상 노드의 이주를 결정할 수 있다.
상기 가상 노드 이주 관리부는 장애가 발생한 가상 노드를 상기 이주할 가상 노드로 결정할 수 있다.
상기 가상 노드 배치 관리부는 상기 생성할 가상 노드의 개수가 복수 개인 경우, 상기 복수 개의 가상 노드를 배치할 그룹으로 동일한 그룹을 선정할 수 있다.
본 발명의 실시 예에 의하면, 운용중인 가상 노드의 변화로 인하여 물리적 노드의 낭비 자원이 발생하는 경우 이주(migration)나 가상 노드의 재배치 방법을 수행하여 성능을 유지하면서 에너지 효율을 높이는 효과를 가져오는 이점이 있다. 또한 사용자가 다수의 가상 노드를 요청할 때 가상 노드의 사용 목적을 고려하고 또한 네트워크 상황이나 물리적 노드들의 성향을 고려하여 가상 노드를 배치함으로써 가상 노드를 효율적으로 운용할 수 있는 이점이 있다.
도 1은 본 발명의 실시 예에 따른 가상 노드 배치 관리 시스템을 나타낸 도면이다.
도 2는 도 1에 도시된 클러스터 노드 시스템의 세부적인 구성도이다.
도 3은 도 2에 도시된 클러스터 노드 시스템에서 가상 노드의 배치 관리 방법을 개략적으로 나타낸 도면이다.
도 4는 본 발명의 실시 예에 따른 가상 노드의 재배치 방법을 나타낸 도면이다.
도 5는 본 발명의 실시 예에 따른 가상 노드 배치 관리 시스템에서 가상 노드를 처음 생성하는 방법을 나타낸 도면이다.
도 6은 본 발명의 실시 예에 따른 가상 노드 배치 관리 시스템에서 장애가 감지된 가상 노드의 배치 관리 방법을 나타낸 도면이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
이제 본 발명의 실시 예에 따른 가상 노드 배치 관리 시스템 및 방법에 대하여 도면을 참고로 하여 상세하게 설명한다.
도 1은 본 발명의 실시 예에 따른 가상 노드 배치 관리 시스템을 나타낸 도면이다.
도 1을 참고하면, 가상 노드 배치 관리 시스템은 클러스터 마스터 그룹(100) 및 클러스터 노드 시스템(200)을 포함한다.
클러스터 마스터 그룹(100)은 가상 노드(Virtual Machine, VM) 배치 마스터 서버(110), VM 배치 정책 관리부(120), VM 배치 관리부(130), VM 이주(migration) 관리부(140) 및 모니터링 관리부(150)를 포함한다. 또한 클러스터 마스터 그룹(100)은 마스터 서버군(160)을 더 포함할 수 있다.
클러스터 노드 시스템(200)은 복수의 랙(rack 1, …, rack n) 및 복수의 VM 그룹 관리부(210)을 포함한다.
클러스터 마스터 그룹(100)에서, VM 배치 마스터 서버(110)는 사용자로부터 VM 생성 요청을 수신하면, VM 생성 요청으로부터 VM 생성 관련 정보, VM 배치 정책 및 VM의 이주 가능 여부 정보를 확인하고, VM 생성 관련 정보와 VM 배치 정책과 VM의 이주 가능 여부 정보를 VM 배치 정책 관리부(120)에 전달한다. VM 생성 관련 정보는 VM 사양(spec) 정보를 포함하며, VM 사양 정보는 CPU 용량, 메모리, 디스크 용량, 네트워크 용량 등을 포함할 수 있다. VM 배치 정책에는 에너지 절약형, 서비스 성능 보장형 및 다른 배치 정책이 있을 수 있다.
VM 배치 정책 관리부(120)는 VM의 배치 정책을 결정하는 기능을 수행한다. VM 배치 정책 관리부(120)는 사용자로부터의 VM 생성 요청에 포함된 사용자의 VM 배치 정책에 따라서 VM의 배치 정책을 결정할 수 있다. VM 배치 정책 관리부(120)는 VM 생성 요청에 VM 배치 정책이 포함되어 있지 않은 경우, VM 배치 정책 관리부(120)에 기 설정된 배치 정책에 의하여 VM의 배치 정책을 결정할 수 있다.
VM 배치 관리부(130)는 VM 생성 요청에 포함된 VM 사양 정보와 VM 배치 정책에 따라 VM이 설치될 최적의 그룹을 선정하여 해당 VM 그룹 관리부(210)로 VM 생성을 요청한다.
VM 이주 관리부(140)는 VM의 이동 배치 가능 여부를 판단하며, PM 혹은 VM의 상태 정보와 클러스터 노드 시스템의 운용 정보 등에 따라서 VM의 이동 이벤트 발생 시 실제 이동 가능 여부를 결정하여 해당 VM 그룹 관리부(210)에 전달한다. 여기서, PM 혹은 VM의 상태 정보는 PM이나 VM의 장애 정보, 각 PM에 운용중인 VM의 사용 자원 정보(CPU 정보, 메모리 정보, 디스크 사용량 정보, 네트워크 정보 등)를 포함할 수 있다. 클러스터 노드 시스템의 운용 정보는 모니터링 관리부(150)에서 관리하는 모니터링 정보를 포함할 수 있다.
VM 이주 관리부(140)는 이주 가능한 VM에 대해서만 이주를 결정하여 해당 VM 그룹 관리부(210)에게 이주 실행을 전달하며, 실제 해당 VM 그룹 관리부(210)가 이주를 수행한다.
또한 관리자가 특정한 이유로 특정 VM 이주를 수행하려고 할 때 관리자는 VM 배치 마스터 서버(110)에 요청하고 VM 배치 마스터 서버(110)는 VM 이주 관리부(140)로 특정 VM 이주를 요청하게 된다. VM 이주 관리부(140)는 이주할 VM이 속한 VM 그룹 관리부(210)를 찾아 이주 명령을 전달하여 해당 VM 그룹 관리부(210)가 이주를 최종 수행 하게 한다.
모니터링 관리부(150)는 PM의 상태 정보와 PM의 기본 사양 정보, 클러스터 노드 시스템(200)의 구성에 필요한 랙이나 스위치 등의 기본 정보, VM의 상태 정보와 VM의 사양 정보 등을 모니터링하고 관리한다. PM의 기본 사양 정보는 CPU, 메모리, 네트워크, 디스크 등의 물리적 사양 정보를 포함하며, 랙이나 스위치 등의 기본 정보는 랙에 부여된 식별자, 랙에 포함된 PM의 수, 각 PM의 랙 식별자, 스위치 정보, 연결된 스위치 식별자 등을 포함할 수 있다.
마스터 서버군(160)은 VM 배치 마스터 서버(110)나 VM 배치 정책 관리부(120), VM 배치 관리부(130), VM 이주(migration) 관리부(140) 및 모니터링 관리부(150)의 장애 발생 시 복구하는 기능을 수행한다.
클러스터 노드 시스템(200)에서, 복수의 랙(rank 1, …, rank n)은 각각 VM이 설치 운용될 적어도 하나의 PM을 포함한다. 복수의 랙(rank 1, …, rank n)은 복수의 그룹으로 나뉘어진다. 즉, 하나 이상의 랙은 하나의 그룹을 형성할 수 있다. 예를 들어, 랙(rack 1, rack 2)이 하나의 그룹을 형성할 수 있고, 랙(rank n)이 하나의 그룹을 형성할 수 있다. 또한 각 그룹은 복수의 서브 그룹으로 나뉘어질 수 있다.
각 VM 그룹 관리부(210)는 지역 VM 그룹 관리부(도시하지 않음) 및 전역 VM 그룹 관리부(도시하지 않음)를 포함할 수 있다. 전역 VM 그룹 관리부는 그룹에 운용되는 VM을 관리하는 마스터 서버이고, 지역 VM 그룹 관리부는 서브 그룹에 운용되는 VM을 관리하는 마스터 서버이다.
클러스터 마스터 그룹(100)의 VM 배치 마스터 서버(110), VM 배치 정책 관리부(120), VM 배치 관리부(130), VM 이주 관리부(140), 모니터링 관리부(150) 및 마스터 서버군(160)은 별도로 관리될 수 있다.
각 VM 그룹 관리부(210)는 해당 그룹의 일반 노드 중에 하나일 수 있으며, 별도로 구성될 수도 있다.
클러스터 노드 시스템(200)은 각 VM 그룹 관리부(210)의 가용성을 지원하기 위하여 백업 서버(도시하지 않음)를 더 포함할 수 있다.
또한 하나의 그룹에서 지역 VM 그룹 관리부나 전역 VM 그룹 관리부는 별도로 구성될 수도 있고, 규모가 작은 그룹에서는 전역 VM 그룹 관리부와 지역 VM 관리부가 별도로 구성되지 않을 수 있다.
도 2는 도 1에 도시된 클러스터 노드 시스템의 세부적인 구성도이다.
도 2를 참고하면, 클러스터 노드 시스템(200)에서 복수의 랙(rank 1, …, rank n)은 적어도 하나의 그룹(R1, …, Rk)으로 나뉘어져 운용될 수 있다. 또한 그룹(R1, …, Rk)은 적어도 하나의 서브 그룹으로 나뉘어져 운용될 수 있다.
예를 들어, 도 2에 도시한 바와 같이 랙[Rack 1, Rack 2, Rack (n-1), Rack n]이 하나의 그룹(R1)을 형성할 수 있고, 랙[Rack 5, Rack (n-4)]이 하나의 그룹(Rk)을 형성할 수 있다. 이때 그룹(R1)은 2개의 서브 그룹(SR1, SR2)을 포함할 수 있다. 서브 그룹(SR1)은 랙(Rack 1, Rack n)을 포함하고, 서브 그룹(SR2)은 랙[Rack 2, Rack (n-1)]을 포함한다. 또한 랙[Rack 5, Rack (n-4)]이 하나의 그룹(Rk)을 형성할 수 있다. 그리고 그룹(Rk)은 하나의 서브 그룹(R1)을 포함할 수 있다.
또한 하나의 랙의 규모가 큰 경우에는 하나의 랙이 여러 개의 서브 그룹이나 그룹으로 분리되어 운용 될 수 있다.
복수의 랙(rank 1, …, rank n)은 관리자에 의해 그룹으로 나뉘어질 수 있다. 예를 들어, 관리자가 랙에 포함되는 PM들의 사양 정보, 성향, PM의 규모, VM 예상 생성 규모와 여러 기타 시스템 구성에 필요하다고 생각되는 정보 등을 토대로 판단하여 복수의 랙(rank 1, …, rank n)을 그룹 및 서브 그룹으로 나눌 수 있다. 또는 클러스터 노드 시스템(200)에서 정한 기준에 의해 그룹 및 서브 그룹으로 나뉘어질 수 있다.
이와 같이, 그룹이 적어도 하나의 서브 그룹으로 나누어 운용되는 경우, 해당 그룹을 관리하는 VM 그룹 관리부(210)는 전역 VM 그룹 관리부(212) 및 적어도 하나의 지역 VM 그룹 관리부(214)를 포함할 수 있다.
한편, 그룹(Rk)과 같이 규모가 크지 않은 그룹의 경우, 전역 VM 그룹 관리부(212)와 지역 VM 그룹 관리부(214)가 별도로 구성되지 않고, 해당 VM 그룹 관리부(210)에서 전역 VM 그룹 관리부(212)와 지역 VM 그룹 관리부(214)의 통합 기능을 수행할 수 있다.
지역 VM 그룹 관리부(214)는 해당 서브 그룹을 관리한다. 특히 지역 VM 그룹 관리부(214)는 해당 서브 그룹에서 VM의 생성, 중지, 종료, 이주 등의 작업을 관리하고 서브 그룹에 속해 있는 PM과 VM의 상태 정보, 사양 정보 등의 모니터링 정보를 수집하여 해당 그룹의 전역 VM 그룹 관리부(212)에 전달한다.
전역 VM 그룹 관리부(212)는 지역 VM 그룹 관리부(212)의 모니터링 정보를 취합하여 모니터링 정보의 양을 줄여서 클러스터 마스터 그룹(100)의 모니터링 관리부(150)에 전달하고, VM의 생성, 중지, 종료, 이주 등 운영 관리를 총괄한다.
도 3은 도 2에 도시된 클러스터 노드 시스템에서 가상 노드의 배치 관리 방법을 개략적으로 나타낸 도면이다.
도 3에서는 하나의 그룹(R1)의 하나의 서브 그룹(SR1)만을 도시하였으며, 서브 그룹(SR1)은 PM의 사양이나 상태, 또는 네트워크 상황이 비슷한 PM들로 이루어진 것으로 가정하였다.
도 3을 참고하면, 랙(Rack 1, Rack n)은 각각 네트워크를 지원하기 위한 스위치(S1) 및 n개의 PM 즉, PM1 내지 PMn을 포함한다.
PM1 내지 PMn에는 적어도 하나의 VM이 운용될 수 있다. VM은 VM 배치 정책에 따라서 적절한 PM에 배치된다.
예를 들어, VM이 PM1에서 운용되다가 특정 상황이 되면, VM이 다른 PM으로 이주가 발생할 수 있다. 지역 VM 그룹 관리부(214)는 VM의 상태 정보와 PM의 상태 정보를 모니터링하고, VM 및 PM의 상태 정보를 전역 VM 그룹 관리부(212)로 전달한다. 전역 VM 그룹 관리부(212)는 VM 및 PM의 상태 정보를 모니터링 관리부(150)로 전달한다. 그리고 VM 이주 관리부(140)는 VM 및 PM의 상태 정보에 따라서 VM의 이동 여부를 결정한다.
VM의 이동 여부에 따른 VM의 이주 이벤트는 지역 VM 그룹 관리부(214)나 전역 VM 그룹 관리부(212)에 의해서 이루어진다. 특히, VM의 배치 정책이 에너지 절약형 정책인 경우 VM의 이주는 더욱 빈번하게 나타날 수 있다. VM 이주 관리부(140)는 특정 VM을 다른 PM으로 이주하여 운용 중인 PM의 수를 줄일 수 있다면 VM의 이주를 결정할 수 있다. 예를 들어, VM 이주 관리부(140)는 PMn에 운용 중인 VM(300)의 이주를 결정하여 운용 중인 PM의 수를 줄일 수 있다.
VM 이주 관리부(140)에 의해서 VM(300)의 이주가 결정되면, 지역 VM 그룹 관리부(214)는 같은 서브 그룹 내의 랙(Rack 1, Rack n)에서 운용 중인 PM들의 가용 자원 상태 정보를 확인한다. 예를 들어, 랙(Rack 1)의 PM2가 VM(300)을 이주할 수 있는 가용 PM이면 지역 VM 그룹 관리부(214)는 PM2를 VM(300)의 이주할 PM으로 PM2를 선정하고, VM(300)을 PM2로 이주시킨다.
다음으로, PMn에 운용 중인 VM이 존재하지 않으면 PMn은 전원을 제거하여 에너지를 절약한다. 이와 같이 지역 VM 그룹 관리부(214)는 VM들의 상태 정보 등을 주기적으로 확인하다가 가용 PM으로 VM을 이주시켜 운용되는 PM의 수를 최소화하여 에너지를 절약할 수 있다.
한편, 지역 VM 그룹 관리부(214)는 같은 서브 그룹 내 이주 가능한 PM이 존재하지 않는다면, 상위의 그룹 내에서 이주 가능한 PM을 선정하며, 이는 전역 VM 그룹 관리부(212)에서 수행된다. 즉, 전역 VM 그룹 관리부(212)는 같은 서브 그룹 내 이주 가능한 PM이 존재하지 않는다면 동일한 그룹 내의 다른 서브 그룹에서 이주 가능한 PM을 선정할 수 있다.
도 4는 본 발명의 실시 예에 따른 가상 노드의 재배치 방법을 나타낸 도면이다. 도 4에서는 VM의 배치 정책이 에너지 절약형인 경우 에너지 절약하기 위하여 운용 중인 VM을 재배치하는 과정을 도시하였다.
도 4의 (a)에 도시한 바와 같이, PM1에는 VM0 및 VM1이 운용되고 있고, PM2에는 VM5 및 VM2가 운용되고 있으며, PM3에는 VM3가 운용되고 있을 때, 지역 VM 그룹 관리부(214)는 PM1, PM2 및 PM3의 상태 정보와 VM0, VM1, VM2, VM3 및 VM5의 상태 정보를 모니터링하다가 VM의 재배치 가능한 상황이 발생하면 VM의 재 배치를 결정하고 수행한다.
예를 들어 VM0와 VM1이 PM1의 자원 중 대표적인 자원인 CPU 용량과 메모리 용량을 사용하고 있고, VM0와 VM1이 PM1의 CPU 자원을 약 90%를 사용하여 PM1의 CPU는 약 10%의 가용 자원이 있으며, VM0와 VM1이 PM1의 메모리를 약 50%를 사용하여 PM1의 메모리는 50%의 가용 자원이 있다고 가정한다. 이와 같은 경우, PM1의 CPU는 거의 사용하여 낭비 되고 있는 자원이 별로 없으나 PM1의 메모리는 50%의 자원이 낭비된다. 따라서 PM1의 자원을 효율적으로 사용하고 있다고 할 수 없다.
또한 PM2의 메모리는 약 10%의 가용 자원이 있고, PM2의 CPU는 약 60%의 가용 자원이 있다고 가정한다. 그러면, PM2의 메모리는 거의 사용하여 낭비 되고 있는 자원이 별로 없으나 PM2의 CPU는 약 60%의 자원이 낭비된다.
PM1은 메모리의 약 50%의 자원이 남아서 낭비를 하고 있고 PM2는 CPU의 약 60%의 자원이 남아서 낭비하고 있으면, 랙(Rack1) 내의 전체 PM들의 자원을 효율적으로 사용하고 있다고 할 수 없다. 특히, 에너지 절약형인 경우 비효율적인 PM 활용으로 인하여 운용되는 PM의 수가 증가될 수 있고 이로 인해 에너지가 낭비될 수 있다. 이러한 문제점을 해결하기 위해서 지역 VM 그룹 관리부(214)는 운용 중인 VM을 재배치하여 PM의 자원의 낭비를 줄일 수 있다.
지역 VM 그룹 관리부(214)는 서브 그룹 내 PM들의 자원 상태를 모니터링 하고 있다가 자원 낭비가 심해지면 VM의 재배치를 결정하고 재 배치 이벤트를 발생시킨다. 지역 VM 그룹 관리부(214)는 재배치 가능한 VM의 리스트를 선정하고 최적의 PM에 재배치해야 할 VM들을 재배치할 수 있다.
도 4의 (a)와 같이, PM1에는 VM0 및 VM1이 운용되고 있고, PM2에는 VM5 및 VM2가 운용되고 있으며, PM3에는 VM3가 운용되고 있을 때, 지역 VM 그룹 관리부(214)는 PM1, PM2 및 PM3의 자원 상태 정보를 토대로 VM의 재배치를 결정할 수 있다.
도 4의 (b)에서와 같이, 지역 VM 그룹 관리부(214)는 PM1의 VM1을 PM2로 이동시키고 PM2의 VM2과 PM3의 VM3을 PM1으로 이동시킴으로써, VM들을 재배치할 수 있다.
이와 같이 VM들의 재배치가 이루어지고 나면 도 4의 (c)와 같다. 도 4의 (c)를 보면, 실제 운용되고 있는 PM은 PM1과 PM2이고 PM3은 운용되고 있는 VM이 존재하지 않게 되어 PM3의 전원을 제거할 수 있게 된다. 이렇게 VM의 재 배치를 통하여 낭비되는 PM의 자원을 줄이고 운용되는 PM의 수를 줄임으로써 에너지를 절약할 수 있게 된다.
VM의 재배치 정책은 같은 서브 그룹 내 이동을 우선으로 하고 같은 서브 그룹 내 이동 가능한 PM가 없는 경우에는 상위의 그룹에서 이동 가능한 PM을 선정하며, 이는 전역 VM 그룹 관리부(212)에서 수행될 수 있다. 이때 관리자의 선택에 따라서 PM의 선정 범위가 한정될 수 있으며, 이때 VM 배치 정책에 따라 같은 정책을 사용하는 그룹으로 PM의 선정 범위가 한정될 수 있다. 즉, 에너지 절약형 배치 정책을 사용하는 서브 그룹끼리 VM 재배치가 이루어질 수 있다.
도 5는 본 발명의 실시 예에 따른 가상 노드 배치 관리 시스템에서 가상 노드를 처음 생성하는 방법을 나타낸 도면이다.
도 5를 참고하면, VM 배치 마스터 서버(110)는 사용자로부터 설치할 VM의 사양 정보, 생성하고자 하는 VM의 수, VM의 이주 가능 여부 정보 및 VM 배치 정책 등을 포함한 VM 생성 요청을 수신한다(S510).
VM 배치 마스터 서버(110)는 사용자로부터의 VM 생성 요청을 분석하고(S520), VM 생성 요청 정보를 VM 배치 정책 관리부(120)로 전달한다.
VM 배치 정책 관리부(120)는 VM 생성 요청에 포함된 VM 배치 정책에 따라서 VM의 배치 정책을 결정한다(S530). VM 배치 정책 관리부(120)는 VM 생성 요청에 VM 배치 정책이 포함되어 있지 않은 경우, VM 배치 정책 관리부(120)에 기 설정된 배치 정책에 의하여 VM의 배치 정책을 결정할 수 있다
VM 배치 관리부(130)는 결정된 VM의 배치 정책에 따라 VM이 배치될 최적의 그룹을 선정한다(S540). VM 배치 관리부(130)는 다수의 VM을 벌크로 생성하는 경우 같은 그룹을 선정하는 것을 우선으로 하여 벌크로 생성된 VM들은 같은 그룹에서 관리함으로써 성능과 관리를 용이하게 한다. 특히, VM 배치 관리부(130)는 VM의 배치 정책이 에너지 절약형이면서 VM이 벌크로 생성될 경우 전체 그룹의 운용 상태를 확인하여 에너지 절약형의 그룹 중에서 다수의 VM을 수용 가능한 그룹을 찾고, 다수의 VM을 수용 가능한 그룹들 중에서 새로 운용되어야 할 PM의 수가 가장 작은 그룹을 우선적으로 선정한다. 즉, VM 배치 관리부(130)는 운용되는 PM들 중에서 자원 사용에 여유 있는 PM을 우선적으로 사용함으로써, 낭비되는 PM의 자원을 줄이고 운용되는 PM의 수를 줄일 수 있다. 또한 VM 배치 관리부(130)는 VM의 배치 정책이 서비스 성능 보장형으로 생성될 경우 가용한 PM의 자원이 많은 그룹 순으로 선정할 수 있다.
또한 VM 배치 관리부(130)는 사용자가 다수의 VM을 생성 요청하고 VM의 생성 목적이 VM간의 데이터 통신을 많이 하기 위한 경우 우선적으로 생성 요청한 다수의 VM을 같은 그룹에 배치하여 VM들간의 통신을 원활하게 할 수 있다.
전역 VM 그룹 관리부(212)는 VM 배치 관리부(130)에 의해 선정된 그룹 내에서 VM을 배치할 PM을 선택하고(S560), VM를 선택한 PM에 설치하고 운용한다(S570).
이때 규모가 큰 그룹의 경우 전역 VM 그룹 관리부(212)는 VM 배치 관리부(130)에 의해 선정된 그룹 내에서 VM을 배치할 최적의 서브 그룹을 선정할 수 있으며(S550), 선정된 서브 그룹을 관리하는 지역 VM 그룹 관리부(214)에 VM 생성 요청 정보를 전달한다. 그러면, 지역 VM 그룹 관리부(214)에서 VM을 배치할 PM을 선택할 수 있고(S560), VM를 선택한 PM에 설치하고 운용할 수 있다(S570).
도 6은 본 발명의 실시 예에 따른 가상 노드 배치 관리 시스템에서 장애가 감지된 가상 노드의 배치 관리 방법을 나타낸 도면이다. 도 6에서는 VM의 배치 정책이 에너지 절약형일 때 VM에 장애가 발생하였을 경우 복구 방법을 도시하였다. 또한 도 6에서는 서브 그룹(SR1) 내 하나의 랙(Rack1)과 서브 그룹(SR2) 내 하나의 랙(Rack2)을 도시하였다. 이때 서브 그룹(SR1, SR2)은 동일한 그룹(R1) 내 서브 그룹이다.
도 6을 참고하면, 전역 VM 그룹 관리부(212)와 지역 VM 그룹 관리부(214)는 VM의 상태 정보를 모니터링하고, VM의 상태 정보를 모니터링 관리부(150)로 전달한다. 그리고 VM 이주 관리부(140)는 VM 및 PM의 상태 정보에 토대로 VM에 장애가 감지되면, VM의 이주를 결정한다. 이때 전역 VM 그룹 관리부(212)나 지역 VM 그룹 관리부(214)에서 VM에 장애를 감지할 수 있으며, VM에 장애를 감지한 경우에, 해당 VM의 이주를 결정할 수도 있다. 즉, 장애로 인한 이주 결정은 장애를 먼저 감지한 구성 요소에서 이루어질 수 있다. 도 6에 도시한 바와 같이, 랙(Rack1)의 PM2에 운용 중인 VM(600)에 장애가 발생되면, VM(600)의 이주가 결정된다.
VM(600)의 이주가 결정되면, 지역 VM 그룹 관리부(214)에 의해서 이주 작업이 수행된다.
지역 VM 그룹 관리부(214)는 장애가 발생한 VM(600)의 이주할 PM을 선정한다. 전역 VM 그룹 관리부(214)는 우선 같은 서브 그룹(SR1) 내 운용되는 PM의 수를 증가 시키지 않고 VM(600)의 이주할 PM을 선정한다. 예를 들어, 서브 그룹(SR1) 내에서 가용 PM이 PM1과 PM3이 있다면, 지역 VM 그룹 관리부(214)는 PM1을 VM(600)의 이주할 PM으로 선정할 수 있다. 즉, VM(600)을 PM3에 이주하게 되면 운용되는 PM의 수가 증가하게 되어 운용되는 에너지가 증가한다. 따라서 에너지 증가를 줄이기 위해서 전역 VM 그룹 관리부(214)는 VM(600)의 이주할 PM으로 PM1을 선정할 수 있다.
만약, 지역 VM 그룹 관리부(214)는 가용 PM이 PM3에만 존재하는 경우 전역 VM 그룹 관리부(212)로 PM 선정을 요청할 수 있다.
전역 VM 그룹 관리부(212)는 서브 그룹(SR1)과 동일한 그룹(R1) 내 다른 서브 그룹(SR2) 내에서 가용 PM을 선정할 수 있다. 만약 서브 그룹(SR2)의 PM2가 가용하다면, 전역 VM 그룹 관리부(212)는 VM(600)의 이주할 PM으로 PM2를 선정하고 VM(6300)을 PM2로 이주시킬 수 있다.
이렇게 함으로써 운용 중인 PM의 수를 최소화 하여 에너지를 줄이고 장애가 발생한 VM의 회복을 빠르게 지원하여 VM의 가용성을 높일 수 있다.
한편, 서브 그룹(SR1)을 관리하는 지역 VM 그룹 관리부(214)는 VM의 배치 정책이 서비스 성능 보장형 배치 정책일 경우 장애가 발생한 VM(600)의 이주할 PM으로 가용 자원이 충분히 남아 있는 PM을 우선적으로 선정한다. 예를 들어 VM들이 동작중인 PM1과 PM2가 존재할 때 PM1은 사용할 수 있는 자원이 CPU 용량이 60% 남아 있고 메모리 용량이 70%이 남아 있으며, PM2는 CPU와 메모리가 각각 50% 남아 있다고 가정할 때, 장애가 발생한 VM(600)을 PM1와 PM2 모두 이주시킬 수 있으나, PM1에 이주시키면 더 여유 있게 사용하여 성능을 최대한 보장할 수 있기 때문에 장애가 발생한 VM(600)의 이주할 PM으로 PM1을 선정한다.
만약 PM의 가용 자원이 충분하지 않다면 VM(600)의 이주할 PM으로 VM이 운용되지 않는 PM3을 선정할 수 있다. 그리고 같은 서브 그룹(SR1) 내 이주할 PM이 없는 경우 다른 서브 그룹 내에서 가용 PM이 선정될 수 있다.
한편, VM이 아닌 PM에 장애가 발생하였을 경우 해당 PM이 운용 중인 서브 그룹을 관리하는 지역 VM 그룹 관리부(214)는 장애가 발생한 PM에서 운용되던 모든 VM을 다른 PM에 이주시킬 수 있다. PM의 이주 방법은 VM의 이주 방법과 유사하게 수행될 수 있다.
본 발명의 실시 예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시 예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시 예의 기재로부터 본 발명이 속하는 기술 분야의 전문가라면 쉽게 구현할 수 있는 것이다.
이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다.

Claims (20)

  1. 가상 노드 배치 관리 시스템에서 가상 노드를 배치 관리하는 방법으로서,
    그룹에 운용되는 물리적 노드 및 가상 노드의 상태 정보를 모니터링하는 단계, 그리고
    상기 그룹에 운용되는 물리적 노드의 상태 정보 및 상기 가상 노드의 배치 정책에 따라서 상기 그룹에 운용되는 가상 노드를 재배치하는 단계
    를 포함하는 가상 노드 배치 관리 방법.
  2. 제1항에서,
    상기 상태 정보는 자원 상태 정보를 포함하는 가상 노드 배치 관리 방법.
  3. 제1항에서,
    상기 재배치하는 단계는
    재배치할 가상 노드를 선정하는 단계, 그리고
    상기 가상 노드의 배치 정책이 에너지 절약형인 경우, 상기 그룹에 운용되는 물리적 노드의 수를 증가시키지 않고 상기 그룹 내에서 상기 재배치할 가상 노드의 물리적 노드를 선정하는 단계를 포함하는 가상 노드 배치 관리 방법.
  4. 제1항에서,
    상기 그룹에 운용되는 물리적 노드 및 가상 노드의 상태 정보에 따라서 이주할 가상 노드를 결정하는 단계,
    상기 이주할 가상 노드의 물리적 노드를 선정하는 단계, 그리고
    상기 이주할 가상 노드를 상기 선정된 물리적 노드에 이주시키는 단계
    를 더 포함하는 가상 노드 배치 관리 방법.
  5. 제4항에서,
    상기 선정하는 단계는
    상기 이주할 가상 노드가 운용 중인 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드를 선정하는 단계, 그리고
    상기 이주할 가상 노드가 운용 중인 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드가 존재하지 않는 경우 동일한 그룹 내 다른 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드를 선정하는 단계를 포함하는 가상 노드 배치 관리 방법.
  6. 제5항에서,
    상기 이주할 가상 노드가 운용 중인 서브 그룹과 상기 다른 서브 그룹은 동일한 그룹을 형성하는 가상 노드 배치 관리 방법.
  7. 제4항에서,
    상기 결정하는 단계는 상기 가상 노드의 상태 정보에 따라서 장애가 발생한 가상 노드를 상기 이주할 가상 노드로 결정하는 단계를 포함하는 가상 노드 배치 관리 방법.
  8. 제1항에서,
    사용자로부터 가상 노드의 생성 요청을 수신하는 단계,
    상기 가상 노드의 사용 목적에 따라서 생성할 가상 노드의 물리적 노드를 선정하는 단계, 그리고
    상기 가상 노드를 상기 선정된 물리적 노드에 생성하는 단계
    를 더 포함하는 가상 노드 배치 관리 방법.
  9. 제8항에서,
    상기 선정하는 단계는
    상기 생성할 가상 노드의 배치 정책을 결정하는 단계,
    상기 결정된 배치 정책과 상기 가상 노드의 사용 목적에 따라서 상기 가상 노드가 배치될 그룹을 선정하는 단계,
    상기 가상 노드가 배치될 상기 그룹 내 서브 그룹을 선정하는 단계, 그리고
    상기 선정된 서브 그룹 내에서 상기 생성할 가상 노드를 배치할 물리적 노드를 선정하는 단계를 포함하는 가상 노드 배치 관리 방법.
  10. 제9항에서,
    상기 물리적 노드를 선정하는 단계는 상기 생성할 가상 노드의 개수가 복수 개인 경우 동일한 그룹 내에서 상기 복수의 가상 노드를 배치할 물리적 노드를 선정하는 단계를 포함하는 가상 노드 배치 관리 방법.
  11. 클러스터 노드 시스템에서 가상 노드를 배치 관리하는 시스템으로서,
    사용자로부터의 가상 노드 생성 요청에 따라서 생성할 가상 노드의 배치 정책을 결정하는 가상 노드 배치 정책 관리부,
    상기 결정된 배치 정책과 상기 가상 노드의 생성 목적에 따라서 상기 가상 노드가 배치될 그룹을 선정하는 가상 노드 배치 관리부,
    상기 그룹에 운용되는 물리적 노드 및 가상 노드를 관리하며, 상기 가상 노드가 배치될 상기 그룹 내 서브 그룹을 선정하는 전역 가상 노드 그룹 관리부, 그리고
    상기 그룹의 적어도 하나의 서브 그룹에 운용되는 물리적 노드 및 가상 노드를 각각 관리하는 적어도 하나의 지역 가상 노드 그룹 관리부
    를 포함하고,
    상기 적어도 하나의 지역 가상 노드 그룹 관리부 중 상기 선정된 서브 그룹을 관리하는 지역 가상 노드 그룹 관리부는 상기 가상 노드를 생성하고, 상기 가상 노드가 배치될 물리적 노드를 선정하고 상기 가상 노드를 배치하는 가상 노드 배치 관리 시스템.
  12. 제11항에서,
    상기 적어도 하나의 지역 가상 노드 그룹 관리부는 각각 서브 그룹에 운용되는 물리적 노드의 자원 상태 정보에 따라서 운용 중인 가상 노드를 재배치하는 가상 노드 배치 관리 시스템.
  13. 제12항에서,
    상기 적어도 하나의 지역 가상 노드 그룹 관리부는 각각 상기 서브 그룹에 운용되는 물리적 노드의 수를 줄이는 방향으로 상기 운용 중인 가상 노드를 재배치하는 가상 노드 배치 관리 시스템.
  14. 제11항에서,
    상기 적어도 하나의 서브 그룹에 운용되는 물리적 노드 및 가상 노드의 상태 정보에 따라서 가상 노드의 이주를 결정하는 가상 노드 이주 관리부
    를 더 포함하고,
    상기 전역 가상 노드 그룹 관리부 또는 적어도 하나의 지역 가상 노드 그룹 관리부는 상기 가상 노드를 이주시키는 가상 노드 배치 관리 시스템.
  15. 제14항에서,
    상기 이주할 가상 노드가 운용 중인 서브 그룹을 관리하는 지역 가상 노드 그룹 관리부는 해당 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드를 선정하는 가상 노드 배치 관리 시스템.
  16. 제15항에서,
    상기 전역 가상 노드 그룹 관리부는 상기 해당 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드가 존재하지 않는 경우에 다른 서브 그룹 내에서 상기 이주할 가상 노드의 물리적 노드를 선정하는 가상 노드 배치 관리 시스템.
  17. 제14항에서,
    상기 가상 노드 이주 관리부는 운용 중인 물리적 노드의 수를 줄일 수 있는 경우에 가상 노드의 이주를 결정하는 가상 노드 배치 관리 시스템.
  18. 제14항에서,
    상기 가상 노드 이주 관리부는 장애가 발생한 가상 노드를 상기 이주할 가상 노드로 결정하는 가상 노드 배치 관리 시스템.
  19. 제11항에서,
    상기 가상 노드 배치 관리부는 상기 생성할 가상 노드의 개수가 복수 개인 경우, 상기 복수 개의 가상 노드를 배치할 그룹으로 동일한 그룹을 선정하는 가상 노드 배치 관리 시스템.
  20. 제11항에서,
    상기 가상 노드 배치 관리부는 상기 배치 정책이 서비스 성능 보장형인 경우 가용한 물리적 노드의 자원이 많은 그룹을 선정하는 가상 노드 배치 관리 시스템.
KR1020130092741A 2013-08-05 2013-08-05 가상 노드 배치 관리 시스템 및 방법 KR101694518B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130092741A KR101694518B1 (ko) 2013-08-05 2013-08-05 가상 노드 배치 관리 시스템 및 방법
US14/079,234 US20150040129A1 (en) 2013-08-05 2013-11-13 System and method for virtual machine placement and management in cluster system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130092741A KR101694518B1 (ko) 2013-08-05 2013-08-05 가상 노드 배치 관리 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20150016820A true KR20150016820A (ko) 2015-02-13
KR101694518B1 KR101694518B1 (ko) 2017-01-23

Family

ID=52428920

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130092741A KR101694518B1 (ko) 2013-08-05 2013-08-05 가상 노드 배치 관리 시스템 및 방법

Country Status (2)

Country Link
US (1) US20150040129A1 (ko)
KR (1) KR101694518B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210058401A (ko) * 2019-11-14 2021-05-24 대구대학교 산학협력단 클라우드 컴퓨팅 환경에서의 컨테이너 배치 장치 및 방법
KR102571782B1 (ko) * 2022-12-16 2023-08-29 스트라토 주식회사 리소스 관리 풀을 이용한 가상 머신 재배치를 위한 장치 및 방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103797462B (zh) * 2013-10-23 2016-06-29 华为技术有限公司 一种创建虚拟机的方法和装置
US10097372B2 (en) * 2014-01-09 2018-10-09 Ciena Corporation Method for resource optimized network virtualization overlay transport in virtualized data center environments
JP6287274B2 (ja) * 2014-01-31 2018-03-07 富士通株式会社 監視装置、監視方法及び監視プログラム
US9823941B2 (en) 2015-04-30 2017-11-21 International Business Machines Corporation Optimized placement of virtual machines on physical hosts based on user configured placement policies
US9760398B1 (en) * 2015-06-29 2017-09-12 Amazon Technologies, Inc. Automatic placement of virtual machine instances
US20180032361A1 (en) * 2016-07-29 2018-02-01 Hewlett Packard Enterprise Development Lp Virtual Machines Deployment in a Cloud
MX2019011257A (es) * 2017-03-28 2019-11-01 Cloudjumper Corp Metodos y sistemas para proporcionar acceso de activacion por demanda a los servidores de sesiones.
US11178014B1 (en) * 2017-09-28 2021-11-16 Amazon Technologies, Inc. Establishment and control of grouped autonomous device networks
US10552188B2 (en) * 2017-11-01 2020-02-04 Alibaba Group Holding Limited Virtual private cloud services with physical machine servers and virtual machines
US11048538B2 (en) * 2018-02-26 2021-06-29 Amazon Technologies, Inc. Autonomous cell-based control plane for scalable virtualized computing
KR102591315B1 (ko) * 2021-03-22 2023-10-20 한국전자통신연구원 클러스터 시스템의 메모리 통합 관리 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033292A (ja) * 2008-07-28 2010-02-12 Nippon Telegraph & Telephone West Corp 仮想サーバリソース調整システム、リソース調整装置、仮想サーバリソース調整方法、及び、コンピュータプログラム
KR20100073959A (ko) * 2008-12-22 2010-07-01 한국전자통신연구원 가상화 기반 자원 관리 장치 및 방법과 가상화 기반 자원 관리가 가능한 컴퓨팅 시스템
KR20130074953A (ko) * 2011-12-27 2013-07-05 한국과학기술정보연구원 동적 가상 머신 배치 장치 및 방법
KR20130083032A (ko) * 2011-12-28 2013-07-22 대전대학교 산학협력단 클라우드 환경에서 서비스품질 보장을 위한 서비스수준협약 관리방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7607129B2 (en) * 2005-04-07 2009-10-20 International Business Machines Corporation Method and apparatus for using virtual machine technology for managing parallel communicating applications
US8732699B1 (en) * 2006-10-27 2014-05-20 Hewlett-Packard Development Company, L.P. Migrating virtual machines between physical machines in a define group
US8185893B2 (en) * 2006-10-27 2012-05-22 Hewlett-Packard Development Company, L.P. Starting up at least one virtual machine in a physical machine by a load balancer
US9842004B2 (en) * 2008-08-22 2017-12-12 Red Hat, Inc. Adjusting resource usage for cloud-based networks
TW201314433A (zh) * 2011-09-28 2013-04-01 Inventec Corp 伺服器系統及其電源管理方法
JP2013250775A (ja) * 2012-05-31 2013-12-12 Fujitsu Ltd 仮想マシン管理装置、仮想マシン管理プログラム、仮想マシン管理方法及びネットワークシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033292A (ja) * 2008-07-28 2010-02-12 Nippon Telegraph & Telephone West Corp 仮想サーバリソース調整システム、リソース調整装置、仮想サーバリソース調整方法、及び、コンピュータプログラム
KR20100073959A (ko) * 2008-12-22 2010-07-01 한국전자통신연구원 가상화 기반 자원 관리 장치 및 방법과 가상화 기반 자원 관리가 가능한 컴퓨팅 시스템
KR20130074953A (ko) * 2011-12-27 2013-07-05 한국과학기술정보연구원 동적 가상 머신 배치 장치 및 방법
KR20130083032A (ko) * 2011-12-28 2013-07-22 대전대학교 산학협력단 클라우드 환경에서 서비스품질 보장을 위한 서비스수준협약 관리방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210058401A (ko) * 2019-11-14 2021-05-24 대구대학교 산학협력단 클라우드 컴퓨팅 환경에서의 컨테이너 배치 장치 및 방법
KR102571782B1 (ko) * 2022-12-16 2023-08-29 스트라토 주식회사 리소스 관리 풀을 이용한 가상 머신 재배치를 위한 장치 및 방법

Also Published As

Publication number Publication date
KR101694518B1 (ko) 2017-01-23
US20150040129A1 (en) 2015-02-05

Similar Documents

Publication Publication Date Title
KR101694518B1 (ko) 가상 노드 배치 관리 시스템 및 방법
JP5840548B2 (ja) データセンタ内のリソースの使用効率を改善するための方法及び装置
US9348724B2 (en) Method and apparatus for maintaining a workload service level on a converged platform
US20170220287A1 (en) Storage Management Method, Storage Management Apparatus, and Storage Device
US8914513B2 (en) Hierarchical defragmentation of resources in data centers
JP4462969B2 (ja) フェイルオーバクラスタシステム及びフェイルオーバ方法
US11137940B2 (en) Storage system and control method thereof
JP4620722B2 (ja) データ配置制御プログラム、データ配置制御装置、データ配置制御方法、およびマルチノードストレージシステム
JP6079226B2 (ja) 情報処理装置、サーバ管理方法およびサーバ管理プログラム
CN110677305B (zh) 一种云计算环境下的自动伸缩方法和***
CN103631633B (zh) 虚拟机全***在线迁移方法、装置与***
CN102035662A (zh) 一种虚拟服务器管理***、方法及装置
JP6190969B2 (ja) マルチテナントリソース調停方法
JP2009252204A (ja) 計算機の運用管理システム及び運用管理方法
CN105187512A (zh) 一种虚拟机集群负载均衡方法及***
CN103210379A (zh) 服务器***、管理方法及设备
Loveland et al. Leveraging virtualization to optimize high-availability system configurations
KR20130019698A (ko) 사용자 스케줄러와 마이그레이션(Migration)을 통한 자원 최적화 방법 및 시스템
US10831525B2 (en) Intelligent assignment of virtual machines to compute only or hyper converged nodes
JP2008217575A (ja) ストレージ装置及びその構成最適化方法
US11144341B2 (en) Management apparatus and management method
CN102096606A (zh) 虚拟机迁移方法、装置和***
US9465549B1 (en) Dynamic allocation of a high-speed memory pool between a cluster file system and a burst buffer appliance
CN105208111A (zh) 一种信息处理的方法及物理机
CN115225642B (zh) 超融合***的弹性负载均衡方法及***

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant