KR20230055638A - 생성적 적대 네트워크 기반 영상 생성 모델 생성 방법 - Google Patents

생성적 적대 네트워크 기반 영상 생성 모델 생성 방법 Download PDF

Info

Publication number
KR20230055638A
KR20230055638A KR1020210139246A KR20210139246A KR20230055638A KR 20230055638 A KR20230055638 A KR 20230055638A KR 1020210139246 A KR1020210139246 A KR 1020210139246A KR 20210139246 A KR20210139246 A KR 20210139246A KR 20230055638 A KR20230055638 A KR 20230055638A
Authority
KR
South Korea
Prior art keywords
image
generation model
sub
image generation
generators
Prior art date
Application number
KR1020210139246A
Other languages
English (en)
Inventor
이의진
레황장
Original Assignee
서울과학기술대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울과학기술대학교 산학협력단 filed Critical 서울과학기술대학교 산학협력단
Priority to KR1020210139246A priority Critical patent/KR20230055638A/ko
Priority to PCT/KR2021/014996 priority patent/WO2023068413A1/ko
Publication of KR20230055638A publication Critical patent/KR20230055638A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

생성적 적대 네트워크 기반 영상 생성 모델 생성 방법이 개시된다. 일 실시예에 따른 고해상도 영상을 출력하는 영상 생성 모델을 생성하는 방법은, 노이즈 벡터를 획득하는 동작과 상기 노이즈 벡터를 가공하여 복수의 특징 벡터를 획득하는 동작과 상기 복수의 특징 벡터에 기초하여 전체 영상의 일부 영역 각각을 생성하고 생성된 일부 영역 각각을 합성하여 상기 전체 영상을 출력하는 영상 생성 모델을 생성하는 동작을 포함할 수 있다.

Description

생성적 적대 네트워크 기반 영상 생성 모델 생성 방법{MEHTOD FOR CREATING A GENERATIVE ADVERSARIAL NETWORK-BASED IMAGE GENERATION MODEL}
아래 개시는 생성적 적대 네트워크 기반 영상 생성 모델 생성 방법에 관한 것이다.
생성적 적대 네트워크(Generative Adversarial Network)는 생성기와 판별기가 경쟁하면서 실제와 가까운 이미지, 동영상, 음성 등을 자동으로 만들어 내는 기계학습 방식으로서, 차세대 딥러닝 알고리즘이다.
생성적 적대 네트워크는 기존에 인간이 제시한 데이터를 바탕으로 학습하는 지도 학습 방식에서 벗어나 스스로 답을 찾는 비지도학습 방식을 사용해 인공지능 연구의 새로운 장을 열었다는 평가를 받는다.
생성적 적대 네트워크는 진짜 같은 가짜를 생성하는 생성기과 이에 대한 진위를 판별하는 판별기의 경쟁을 통해 진짜 같은 가짜 이미지를 만들 수 있다. 생성기는 작은 해상도의 영상을 생성한 뒤 큰 해상도의 영상을 생성하는 방식으로 영상을 생성한다. 즉, 생성기는 영상의 해상도를 단계적으로 증가하는 방식으로 영상을 생성한다.
실시예에 따르면 전체 영상의 일부 영역을 각각 생성하여 합성함으로써 효율적으로 고해상도 영상을 출력하는 영상 생성 모델을 생성하는 기술을 제공할 수 있다.
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.
일 실시예에 따른 고해상도 영상을 출력하는 영상 생성 모델을 생성하는 방법은, 노이즈 벡터를 획득하는 동작과 상기 노이즈 벡터를 가공하여 복수의 특징 벡터를 획득하는 동작과 상기 복수의 특징 벡터에 기초하여 전체 영상의 일부 영역 각각을 생성하고 생성된 일부 영역 각각을 합성하여 상기 전체 영상을 출력하는 영상 생성 모델을 생성하는 동작을 포함할 수 있다.
상기 영상 생성 모델을 생성하는 동작은, 상기 복수의 특징 벡터를 상기 영상 생성 모델 생성 장치에 포함된 복수의 서브 생성기에 입력하여 상기 전체 영상의 일부 영역 각각을 생성하는 상기 복수의 서브 생성기를 학습시키는 동작과 상기 영상 생성 모델 생성 장치에 포함된 합성기에 상기 전체 영상의 일부 영역 각각을 입력하여 합성된 상기 전체 영상 및 실제 영상을 상기 영상 생성 모델 생성 장치에 포함된 판별기에 입력하여 상기 판별기를 학습시키는 동작을 포함할 수 있다.
상기 복수의 서브 생성기를 학습시키는 동작은, 상기 복수의 서브 생성기가 각각 생성한 전체 영상의 일부 영역이 실제 영상의 일부 영역에 가깝도록 상기 복수의 서브 생성기를 학습시키는 동작을 포함할 수 있다.
상기 복수의 서브 생성기는, 학습에 따른 가중치를 상호 공유할 수 있다.
상기 판별기를 학습시키는 동작은, 상기 복수의 서브 생성기가 각각 생성한 전체 영상의 일부 영역이 가짜 영상의 일부 영역임을 판별하도록 상기 판별기를 학습시키는 동작을 포함할 수 있다.
일 실시예에 따른 영상 생성 방법은, 노이즈 벡터를 획득하는 동작과 상기 노이즈 벡터를 가공하여 복수의 특징 벡터를 획득하는 동작과 상기 복수의 특징 벡터를 학습된 영상 생성 모델에 입력하여 전체 영상을 출력하는 동작을 포함할 수 있다.
상기 학습된 영상 생성 모델은, 상기 복수의 특징 벡터에 기초하여 상기 전체 영상의 일부 영역 각각을 생성하는 복수의 서브 생성기와 생성된 일부 영역 각각을 합성하여 상기 전체 영상을 출력하는 합성기를 포함할 수 있다.
상기 복수의 서브 생성기는, 상기 복수의 서브 생성기가 각각 생성한 전체 영상의 일부 영역이 실제 영상의 일부 영역에 가깝도록 생성적 적대 네트워크에 포함된 판별기와 공동으로 학습된 것일 수 있다.
상기 복수의 서브 생성기는, 학습에 따른 가중치를 상호 공유할 수 있다.
도 1은 일 실시예에 따른 영상 생성 모델 생성 장치의 간략한 블록도를 나타낸다.
도 2는 일 실시예에 따른 영상 생성 모델 생성 방법의 흐름도를 나타낸다.
도 3은 도 1에 도시된 영상 생성 모델 생성 장치의 생성적 적대 네트워크를 나타낸다.
도 4는 도 1에 도시된 영상 생성 모델 생성 장치의 동작을 설명하기 위한 도면이다.
도 5는 영상 생성 모델을 포함하는 영상 생성 장치의 일 예를 나타낸다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 영상 생성 모델 생성 장치의 간략한 블록도를 나타내고, 도 2는 일 실시예에 따른 영상 생성 모델 생성 방법의 흐름도를 나타낸다.
영상 생성 모델 생성 장치(100)는 전체 영상의 일부 영역을 각각 생성하여 합성함으로써 효율적으로 고해상도 영상을 출력하는 영상 생성 모델을 생성할 수 있다.
영상 생성 모델 생성 장치(100)는 메모리(110) 및 프로세서(130)을 포함할 수 있다.
메모리(110)는 프로세서(130)에 의해 실행가능한 인스트럭션들(예: 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서(130)의 동작 및/또는 프로세서(130)의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.
프로세서(130)는 메모리(110)에 저장된 데이터를 처리할 수 있다. 프로세서(130)는 메모리(110)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(130)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.
프로세서(130)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.
예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
동작 210에서, 프로세서(130)는 노이즈 벡터를 획득할 수 있다. 노이즈 벡터는 인간이 정제한 데이터가 아닐 수 있다.
동작 230에서, 프로세서(130)는 노이즈 벡터를 가공하여 복수의 특징 벡터를 획득할 수 있다. 특징 벡터는 전체 영상의 일부 영역을 각각 생성하기 위한 것일 수 있다. 즉, 특징 벡터는 전체 영상의 일부 영역의 특징을 추출하기 위한 것일 수 있다.
동작 250에서, 프로세서(130)는 복수의 특징 벡터에 기초하여 전체 영상의 일부 영역 각각을 생성하고 생성된 일부 영역 각각을 합성하여 상기 전체 영상을 출력하는 영상 생성 모델을 생성할 수 있다. 즉, 프로세서(130)는 영상 생성 모델을 학습시킬 수 있다.
프로세서(130)는 복수의 특징 벡터를 영상 생성 모델 생성 장치(100)에 포함된 복수의 서브 생성기에 입력하여 전체 영상의 일부 영역 각각을 생성하는 상기 복수의 서브 생성기를 학습시킬 수 있다. 프로세서(130)는 복수의 서브 생성기가 각각 생성한 전체 영상의 일부 영역이 실제 영상의 일부 영역에 가깝도록 상기 복수의 서브 생성기를 학습시킬 수 있다. 복수의 서브 생성기는 학습에 따른 가중치를 상호 공유할 수 있고, 효율적으로 영상의 일부를 각각 생성할 수 있다.
프로세서(130)는 영상 생성 모델 생성 장치(100)에 포함된 합성기에 전체 영상의 일부 영역 각각을 입력하여 합성된 전체 영상 및 실제 영상을 영상 생성 모델 생성 장치(100)에 포함된 판별기에 입력하여 판별기를 학습시킬 수 있다. 프로세서(130)는 복수의 서브 생성기가 각각 생성한 전체 영상의 일부 영역이 가짜 영상의 일부 영역임을 판별하고, 입력된 실제 영상이 실제 영상임을 판별하도록 판별기를 학습시킬 수 있다.
영상 생성 모델 생성 장치(100)는 전체 영상의 일부 영역을 각각 생성하여 합성함으로써 효율적으로 고해상도 영상을 출력하는 영상 생성 모델을 생성할 수 있다. 전체 영상의 일부 영역을 각각 생성하는 복수의 서브 생성기는 가중치를 공유하고, 판별기는 전체 영상의 일부 영역 각각이 가짜 영상의 일부 영역인지를 판별함으로써, 영상 생성 모델 생성 장치(100)는 고해상도 영상을 효율적으로 출력하는 영상 생성 모델을 생성할 수 있다.
도 3은 도 1에 도시된 영상 생성 모델 생성 장치의 생성적 적대 네트워크를 나타낸다.
영상 생성 모델 생성 장치(도 1의 영상 생성 모델 생성 장치(100))는 생성적 적대 네트워크(generative adversarial network(GAN))(300)를 통해 구현될 수 있다.
생성적 적대 네트워크(300)는 진짜 같은 가짜를 생성하는 생성기(310)와 이에 대한 진위를 판별하는 판별기(340)의 경쟁을 통해 진짜 같은 가짜 영상을 만들 수 있다
생성적 적대 네트워크(300)는 복수의 서브 생성기(310)(예: 제1 서브 생성기(310-1), 제2 서브 생성기(310-2), 제n-1 서브 생성기(310-n-1), 제n 서브 생성기(310-n)), 합성기(320), 콘볼루션 신경망(Convolutional Neural Network(CNN))(330), 및 판별기(340)를 포함할 수 있다.
영상 생성 모델 생성 장치(100)는 노이즈 벡터 z를 가공하여 복수의 특징 벡터(예: 제1 특징 벡터, 제2 특징 벡터, 제n-1 특징 벡터, 제n 특징 벡터)를 획득할 수 있다. 특징 벡터는 전체 영상의 일부 영역을 각각 생성하기 위한 것일 수 있다. 즉, 특징 벡터는 전체 영상의 일부 영역의 특징을 추출하기 위한 것일 수 있다.
복수의 서브 생성기(310)는 복수의 특징 벡터를 수신하여 전체 영상의 일부 영역을 각각 생성할 수 있다. 예를 들어, 제1 서브 생성기(310-1)는 제1 특징 벡터를 수신하여 전체 영상의 첫 번째 영역을 생성할 수 있다. 마찬가지로, 제2 서브 생성기(310-2)는 제2 특징 벡터를 수신하여 전체 영상의 두 번째 영역을 생성할 수 있고, 제n 서브 생성기(310-n)는 제n 특징 벡터를 수신하여 전체 영상의 n 번째 영역을 생성할 수 있다. 서브 생성기의 개수는 제한되지 않는다.
영상 생성 모델 생성 장치(100)는 복수의 서브 생성기(310)가 각각 생성한 전체 영상의 일부 영역이 실제 영상의 일부 영역에 가깝도록 복수의 서브 생성기(310)를 학습시킬 수 있다. 복수의 서브 생성기(310)는 학습에 따른 가중치를 서로 공유하여 효율적으로 영상의 일부를 생성할 수 있다.
합성기(320)는 복수의 서브 생성기(310)가 각각 생성한 전체 영상의 일부 영역을 수신하여 전체 영상으로 합성할 수 있다.
콘볼루션 신경망(330)은 합성기(320)로부터 수신한 전체 영상의 품질을 향상시킬 수 있다.
콘볼루션 신경망(330)은 기계학습과 인지과학에서 생물학의 신경을 모방한 통계학적 학습 알고리즘을 포함할 수 있다. 콘볼루션 신경망(330)은 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다.
콘볼루션 신경망(330)의 뉴런은 가중치 또는 바이어스의 조합을 포함할 수 있다. 콘볼루션 신경망(330)은 하나 이상의 뉴런 또는 노드로 구성된 하나 이상의 레이어(layer)를 포함할 수 있다. 콘볼루션 신경망(330)은 뉴런의 가중치를 학습을 통해 변화시킴으로써 임의의 입력으로부터 예측하고자 하는 결과를 추론할 수 있다.
영상 생성 모델 생성 장치(100)는 콘볼루션 신경망(330)을 학습시킬 수 있다.
판별기(340)는 콘볼루션 신경망(330)이 출력한 전체 영상 또는 실제 영상을 수신하여 실제 영상인지, 가짜 영상인지를 판별할 수 있다. 판별기(340)는 복수의 서브 생성기(310)가 각각 생성한 전체 영상의 일부 영역이 가짜 영상의 일부 영역임을 판별할 수 있다.
영상 생성 모델 생성 장치(100)는 복수의 서브 생성기(310)가 각각 생성한 전체 영상의 일부 영역이 가짜 영상의 일부 영역임을 판별하도록 판별기(340)를 학습시킬 수 있다.
도 4는 도 1에 도시된 영상 생성 모델 생성 장치의 동작을 설명하기 위한 도면이다.
4 개의 서브 생성기(410)(예: 제1 서브 생성기(410-1), 제2 서브 생성기(410-2), 제3 서브 생성기(410-3), 제4 서브 생성기(410-4))는 전체 영상(412)의 일부 영역(예: 제1 영역(411-1), 제2 영역(411-2), 제3 영역(411-3), 제4 영역(411-4))을 생성할 수 있다. 4 개의 서브 생성기(410)(제1 서브 생성기(410-1), 제2 서브 생성기(410-2), 제3 서브 생성기(410-3), 제4 서브 생성기(410-4))는 각각 생성한 제1 영역(411-1), 제2 영역(411-2), 제3 영역(411-3), 제4 영역(411-4))이 실제 영상의 일부 영역에 가깝도록 학습될 수 있다.
합성기(도 3의 합성기(320))는 제1 영역(411-1), 제2 영역(411-2), 제3 영역(411-3) 및 제4 영역(411-4)을 합성하여 전체 영상(412)를 생성할 수 있다.
판별기(420)는 생성된 전체 영상(412) 및 실제 영상(413)을 수신하여 실제 영상인지, 가짜 영상인지를 판별할 수 있다. 판별기(420)는 생성된 전체 영상(412)를 수신한 경우 가짜 영상이라고 판별할 수 있고, 실제 영상(413)을 수신한 경우 실제 영상이라고 판별할 수 있도록 학습될 수 있다. 판별기(420)는 생성된 전체 영상(412)의 일부 영역(예: 제1 영역(411-1), 제2 영역(411-2), 제3 영역(411-3), 제4 영역(411-4))이 가짜 영상의 일부 영역임을 판별하도록 학습될 수 있다.
도 5는 영상 생성 모델을 포함하는 영상 생성 장치의 일 예를 나타낸다.
영상 생성 장치(500)는 노이즈 벡터로부터 고해상도 영상을 생성할 수 있다. 영상 생성 장치(500)는 메모리(510) 및 프로세서(530)를 포함할 수 있다.
메모리(510)는 영상 생성 모델을 포함할 수 있다.
메모리(510)는 프로세서(530)에 의해 실행가능한 인스트럭션들(예: 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서(530)의 동작 및/또는 프로세서(530)의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.
프로세서(130)는 메모리(510)에 저장된 데이터를 처리할 수 있다. 프로세서(530)는 메모리(510)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(530)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.
프로세서(530)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.
예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(530)는 전체 영상의 일부 영역을 각각 생성하여 합성함으로써 효율적으로 고해상도 영상을 출력할 수 있다.
영상 생성 장치(500)에 포함된 영상 생성 모델은 영상 생성 모델 생성 장치(도1의 영상 생성 모델 생성 장치(100))에 의해 생성된 것일 수 있다.
프로세서(530)는 노이즈 벡터를 획득하고, 노이즈 벡터를 가공하여 복수의 특징 벡터를 획득할 수 있다. 프로세서(530)는 복수의 특징 벡터를 학습된 영상 생성 모델에 입력하여 전체 영상을 출력할 수 있다.
학습된 영상 생성 모델은, 상기 복수의 특징 벡터에 기초하여 상기 전체 영상의 일부 영역 각각을 생성하는 복수의 서브 생성기와 생성된 일부 영역 각각을 합성하여 상기 전체 영상을 출력하는 합성기를 포함할 수 있다.
복수의 서브 생성기는, 복수의 서브 생성기가 각각 생성한 전체 영상의 일부 영역이 실제 영상의 일부 영역에 가깝도록 생성적 적대 네트워크에 포함된 판별기와 공동으로 학습될 수 있다. 즉, 복수의 서브 생성기는 학습에 따른 가중치를 상호 공유함으로써 효율적으로 전체 영상의 일부를 생성할 수 있다.
영상 생성 장치(500)는 전체 영상의 일부 영역을 각각 생성하여 합성함으로써 효율적으로 고해상도 영상을 생성할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (10)

  1. 고해상도 영상을 출력하는 영상 생성 모델을 생성하는 방법에 있어서,
    노이즈 벡터를 획득하는 동작;
    상기 노이즈 벡터를 가공하여 복수의 특징 벡터를 획득하는 동작; 및
    상기 복수의 특징 벡터에 기초하여 전체 영상의 일부 영역 각각을 생성하고 생성된 일부 영역 각각을 합성하여 상기 전체 영상을 출력하는 영상 생성 모델을 생성하는 동작
    을 포함하는, 영상 생성 모델 생성 방법.
  2. 제1항에 있어서,
    상기 영상 생성 모델을 생성하는 동작은,
    상기 복수의 특징 벡터를 상기 영상 생성 모델 생성 장치에 포함된 복수의 서브 생성기에 입력하여 상기 전체 영상의 일부 영역 각각을 생성하는 상기 복수의 서브 생성기를 학습시키는 동작; 및
    상기 영상 생성 모델 생성 장치에 포함된 합성기에 상기 전체 영상의 일부 영역 각각을 입력하여 합성된 상기 전체 영상 및 실제 영상을 상기 영상 생성 모델 생성 장치에 포함된 판별기에 입력하여 상기 판별기를 학습시키는 동작
    을 포함하는, 영상 생성 모델 생성 방법.
  3. 제2항에 있어서,
    상기 복수의 서브 생성기를 학습시키는 동작은,
    상기 복수의 서브 생성기가 각각 생성한 전체 영상의 일부 영역이 실제 영상의 일부 영역에 가깝도록 상기 복수의 서브 생성기를 학습시키는 동작
    을 포함하는, 영상 생성 모델 생성 방법.
  4. 제3항에 있어서,
    상기 복수의 서브 생성기는,
    학습에 따른 가중치를 상호 공유하는,
    영상 생성 모델 생성 방법.
  5. 제2항에 있어서,
    상기 판별기를 학습시키는 동작은,
    상기 복수의 서브 생성기가 각각 생성한 전체 영상의 일부 영역이 가짜 영상의 일부 영역임을 판별하도록 상기 판별기를 학습시키는 동작
    영상 생성 모델 생성 방법.
  6. 노이즈 벡터를 획득하는 동작;
    상기 노이즈 벡터를 가공하여 복수의 특징 벡터를 획득하는 동작; 및
    상기 복수의 특징 벡터를 학습된 영상 생성 모델에 입력하여 전체 영상을 출력하는 동작
    을 포함하는, 영상 생성 방법.
  7. 제6항에 있어서,
    학습된 영상 생성 모델은,
    상기 복수의 특징 벡터에 기초하여 상기 전체 영상의 일부 영역 각각을 생성하는 복수의 서브 생성기; 및
    생성된 일부 영역 각각을 합성하여 상기 전체 영상을 출력하는 합성기
    를 포함하는, 영상 생성 방법.
  8. 제7항에 있어서,
    상기 복수의 서브 생성기는,
    상기 복수의 서브 생성기가 각각 생성한 전체 영상의 일부 영역이 실제 영상의 일부 영역에 가깝도록 생성적 적대 네트워크에 포함된 판별기와 공동으로 학습된,
    영상 생성 방법.
  9. 제8항에 있어서,
    상기 복수의 서브 생성기는,
    학습에 따른 가중치를 상호 공유하는,
    영상 생성 방법.
  10. 하드웨어와 결합되어 제6항 내지 제9항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.


KR1020210139246A 2021-10-19 2021-10-19 생성적 적대 네트워크 기반 영상 생성 모델 생성 방법 KR20230055638A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210139246A KR20230055638A (ko) 2021-10-19 2021-10-19 생성적 적대 네트워크 기반 영상 생성 모델 생성 방법
PCT/KR2021/014996 WO2023068413A1 (ko) 2021-10-19 2021-10-25 생성적 적대 네트워크 기반 영상 생성 모델 생성 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210139246A KR20230055638A (ko) 2021-10-19 2021-10-19 생성적 적대 네트워크 기반 영상 생성 모델 생성 방법

Publications (1)

Publication Number Publication Date
KR20230055638A true KR20230055638A (ko) 2023-04-26

Family

ID=86058174

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210139246A KR20230055638A (ko) 2021-10-19 2021-10-19 생성적 적대 네트워크 기반 영상 생성 모델 생성 방법

Country Status (2)

Country Link
KR (1) KR20230055638A (ko)
WO (1) WO2023068413A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210021887A (ko) * 2019-08-19 2021-03-02 고려대학교 산학협력단 영상 촬영 장치 및 방법
KR20210034462A (ko) * 2019-09-20 2021-03-30 삼성전자주식회사 픽셀 별 주석을 생성하는 생성적 적대 신경망(gan)을 학습시키는 방법
KR20190119548A (ko) * 2019-10-02 2019-10-22 엘지전자 주식회사 이미지 노이즈 처리방법 및 처리장치
KR20210045229A (ko) * 2019-10-16 2021-04-26 삼성전자주식회사 컴퓨팅 장치 및 그 동작 방법
CN111709878B (zh) * 2020-06-17 2023-06-23 北京百度网讯科技有限公司 人脸超分辨率实现方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2023068413A1 (ko) 2023-04-27

Similar Documents

Publication Publication Date Title
US11521043B2 (en) Information processing apparatus for embedding watermark information, method, and computer readable storage medium
Sahoo et al. Online deep learning: Learning deep neural networks on the fly
US20210287097A1 (en) Execution of a genetic algorithm having variable epoch size with selective execution of a training algorithm
Rere et al. Metaheuristic algorithms for convolution neural network
JP6605259B2 (ja) ニューラルネットワーク構造拡張方法、次元縮小方法、及びその方法を用いた装置
Noh et al. Training recurrent answering units with joint loss minimization for vqa
US20190303742A1 (en) Extension of the capsule network
KR20180045635A (ko) 뉴럴 네트워크 간소화 방법 및 장치
Le A tutorial on deep learning part 1: Nonlinear classifiers and the backpropagation algorithm
KR20200048032A (ko) 이미지 생성 장치 및 방법과 생성 모델을 트레이닝시키는 장치 및 방법
US20180129930A1 (en) Learning method based on deep learning model having non-consecutive stochastic neuron and knowledge transfer, and system thereof
JP2017033385A (ja) 機械学習装置
US20180314963A1 (en) Domain-independent and scalable automated planning system using deep neural networks
Neumann et al. Machine learning in the quantum era
Milutinovic et al. End-to-end training of differentiable pipelines across machine learning frameworks
KR102333730B1 (ko) 학습 모델 생성 장치 및 방법
Han et al. Backdooring multimodal learning
Xing et al. Automated symbolic law discovery: A computer vision approach
KR20230055638A (ko) 생성적 적대 네트워크 기반 영상 생성 모델 생성 방법
KR20220058189A (ko) 뉴럴 네트워크를 이용한 분류 방법 및 장치
Luciw et al. Where-what network-4: The effect of multiple internal areas
Probst et al. Deep Boltzmann machines in estimation of distribution algorithms for combinatorial optimization
Fallas-Moya et al. Object recognition using hierarchical temporal memory
KR102090109B1 (ko) 학습 및 추론 장치 및 그 방법
Stewart et al. One-shot federated learning with neuromorphic processors