KR20190136833A - 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법 - Google Patents
안면 특화 초 고화질 심층 신경망 학습 장치 및 방법 Download PDFInfo
- Publication number
- KR20190136833A KR20190136833A KR1020180063015A KR20180063015A KR20190136833A KR 20190136833 A KR20190136833 A KR 20190136833A KR 1020180063015 A KR1020180063015 A KR 1020180063015A KR 20180063015 A KR20180063015 A KR 20180063015A KR 20190136833 A KR20190136833 A KR 20190136833A
- Authority
- KR
- South Korea
- Prior art keywords
- loss
- image
- facial
- definition
- neural network
- Prior art date
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 61
- 238000012549 training Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims description 25
- 230000001815 facial effect Effects 0.000 claims abstract description 65
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 238000011176 pooling Methods 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
본 발명은 안면 특화 초 고화질 심층 신경망 학습 장치로, 저화질 영상을 입력받아 원본 고화질 영상과 유사한 위조 고화질 영상으로 변환하는 생성부와, 생성부로부터 출력된 위조 고화질 영상과 원본 고화질 영상을 비교하여 진위 여부를 판별하는 판별부와, 판별부로부터 출력된 진위 여부에 따라 손실(Loss)을 산출하여 생성부에 입력하는 안면 특화 손실 계산부를 포함하되, 생성부는 손실(Loss)을 최소화시키도록 가중치를 조정하면서 학습하는 인공 신경망 학습 모델이고, 안면 특화 손실 계산부는 안면의 특징 영역에 대한 화소 정보를 반영하여 생성부의 손실을 산출한다.
Description
본 발명은 심층 학습(Deep Learning) 기술에 관한 것으로, 특히 GAN(Generative Adversarial Network)을 이용한 영상 변환을 하는 심층 신경망 학습 장치 및 방법에 관한 것이다.
최근 심층 학습(Deep Learning)은 영상 분류, 음성 인식 등 인공 지능의 다양한 분야에서 사용되고 있다. 이러한 발전은 심층 신경망(deep neural Network)이 역전파(backpropagation)을 통하여 효과적으로 복잡한 확률 분포를 학습할 수 있기 때문이다.
특히 생성적 적대 신경망(Generative Adversarial Network: GAN)의 등장으로 인해 좀 더 효과적으로 학습 데이터의 확률 분포를 정교하게 학습할 수 있게 되었다. 즉, 생성 모델(Generative model)들로 인해 좀 더 고차원의 데이터 분포들을 모방 및 재생산이 가능해졌고, 이는 영상, 인조 음성, 복원(inpainting) 등 여러 분야에 널리 응용되고 있다. 그에 따라 낮은 화질의 영상을 고화질의 영상으로 변환시켜주는 영상 초 고화질(Single-Image Super-Resolution)를 가능하게 하는 딥 러닝 모델에 대한 연구가 이루어져 왔다.
하지만, 많은 학술적 논문들의 연구 결과는 유명 연예인들의 영상을 모아둔 유명한 데이터 셋인 CelebA, 60,000장의 32x32 이미지 데이터셋인 CIFAR-10, CIFAR-100을 대상으로 학습시킨 것이 대부분이다. 따라서, 생성된 학습 모델 또한 일반성(regularization)이 떨어지고, 학습 데이터의 화소 수가 감소되어 그 성능 또한 현저히 저하된다.
본 발명은 사람들이 주로 영상을 찍는 안면에 대해 특화되어 고성능의 결과를 출력할 수 있는 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법을 제공한다.
본 발명은 안면 특화 초 고화질 심층 신경망 학습 장치로, 저화질 영상을 입력 받아 원본 고화질 영상과 유사한 위조 고화질 영상으로 변환하는 생성부와, 생성부로부터 출력된 위조 고화질 영상과 원본 고화질 영상을 비교하여 진위 여부를 판별하는 판별부와, 판별부로부터 출력된 진위 여부에 따라 생성부가 최소화시킬 손실(Loss)을 산출하여 생성부에 입력하는 안면 특화 손실 계산부를 포함하되, 생성부는 손실(Loss)을 최소화시키도록 가중치를 조정하면서 학습하는 인공 신경망 학습 모델이고, 안면 특화 손실 계산부는 안면의 특징 영역에 대한 화소 정보를 반영하여 생성부의 손실을 산출한다.
본 발명은 안면 특화 초 고화질 심층 신경망 학습 방법으로, 합성 저화질 영상을 입력받아 원본 고화질 영상과 유사한 위조 고화질 영상으로 변환하는 단계와, 위조 고화질 영상과 원본 고화질 영상을 비교하여 진위 여부를 판별하는 단계와, 진위 여부에 따라 변환하는 단계에서 최소화해야 하는 손실(Loss)을 산출하는 단계를 포함하되, 변환하는 단계는 손실(Loss)을 최소화시키도록 인공 신경망 모델의 가중치를 조정하면서 학습하고, 산출하는 단계는 안면의 특징 영역에 대한 화소 정보를 반영하여 손실을 산출한다.
발명에 따른 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법은 종래 기술에 비해 다음과 같은 이점이 있다.
우선, 초 고화질(Super-Resolution)화가 대폭 향상된다. 즉, 종래에도 다양한 초 고화질 모델(Super-Resolution model)들이 존재하였으나, 특화된 영상이 아닌 일반적인 영상 전체를 대상으로 하였다. 반면, 본 발명에서는 안면, 특히 눈, 코, 입과 같은 특징 영역을 집중적으로 학습시킨 모델을 통해 안면에 특화된 고화질의 출력을 얻어낼 수 있다. 즉, 마치 DSLR 카메라로 촬영한 듯 4K 수준의 굉장히 높은 정교함을 가진 사람 안면 복원이 가능하다.
이로써, 종래의 초 고화질 모델들은 대체로 특정 데이터셋(dataset)에 머물러 있어, 일반적인 소비자의 사용 가능성을 가지지 못한 것과 달리, 본 발명은 안면에 특화하여 고해상화하는데 있어서 범용성을 갖추었고, 또한 높은 수준을 만족함으로써 일반 소비자 또는 기업들로 하여금 다양한 활용을 꾀할 수 있을 것이다.
또한, 일반적인 GAN과는 다르게 단계 손실항(Stage Loss Term)을 사용하여 좀 더 안정적이고 효과적인 학습 과정을 제공한다.
도 1은 본 발명의 일 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 장치의 블록 구성도이다.
도 2는 본 발명에 따른 저화질 영상, 출력 영상 및 원본 영상의 일 예를 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 안면 특화 손실 계산부의 상세 블록 구성도이다.
도 4는 본 발명에 따른 안면 특화 맵의 일 예를 도시한 도면이다.
도 5는 본 발명의 다른 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 장치의 블록 구성도이다.
도 6은 본 발명의 다른 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 장치의 훈련 데이터 생성부의 블록 구성도이다.
도 7은 본 발명의 일 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 다른 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 방법을 설명하기 위한 순서도이다.
도 2는 본 발명에 따른 저화질 영상, 출력 영상 및 원본 영상의 일 예를 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 안면 특화 손실 계산부의 상세 블록 구성도이다.
도 4는 본 발명에 따른 안면 특화 맵의 일 예를 도시한 도면이다.
도 5는 본 발명의 다른 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 장치의 블록 구성도이다.
도 6은 본 발명의 다른 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 장치의 훈련 데이터 생성부의 블록 구성도이다.
도 7은 본 발명의 일 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 다른 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 방법을 설명하기 위한 순서도이다.
이하 첨부된 도면을 참조하여, 바람직한 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 장치에 대해 상세히 설명하면 다음과 같다. 여기서, 동일한 구성에 대해서는 동일부호를 사용하며, 반복되는 설명, 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다. 발명의 실시형태는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.
그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.
이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.
도 1은 본 발명의 일 실시 예에 따른 생성적 적대 신경망(Generative Adversarial Network : GAN)을 이용한 안면 특화 초 고화질 심층 신경망 학습 장치의 블록 구성도이고, 도 2는 본 발명에 따른 저화질 영상, 출력 영상 및 원본 영상의 일 예를 도시한 도면이다.
도 1을 참조하면, 안면 특화 초 고화질 심층 신경망 학습 장치는 크게 생성부(Generator)(100), 판별부(Discriminator)(200) 및 안면 특화 손실 계산부(Facial Locality Loss Term)(300)를 포함하는 적대적 생성망(Generative Adversarial Network : GAN)을 사용한다.
GAN에서 생성부(100) 및 판단부(200)는 번갈아 훈련되는데, 그 역할이 위조 지폐 제작자와 경찰의 역할과 유사하다. 즉, 범죄자들은 위조지폐를 제작하고 경찰들은 위조 여부를 구분해내는데, 범죄자들은 경찰들이 판별하지 못하도록 더욱 정교하게 지폐를 위조하게 되며 경찰들은 더욱 정밀하게 위조지폐를 판별하게 된다. 그 결과, 범죄자들은 일반인들은 결코 구분하지 못할 위조 지폐를 만들어내게 된다.
이처럼, 생성부(100)는 원본 고화질 영상와 위조 고화질 영상과의 차이를 최소화하도록 학습하게 되고, 판별부(200)는 위조 고화질 영상과 고화질 원본 영상을 구별하도록 학습된다. 그 결과, 생성부(100)는 판별부(200)가 판별하지 못하도록 더욱 정교하게 고화질 영상을 위조하도록 학습하게 되는 것이다.
생성부(100)는 입력된 도 2의 (a)에 도시된 바와 같은 합성 저화질 영상(Synthetic Low Resolution Image)을 복원하여, 도 2의 (c)에 도시된 바와 같은 원본 고화질 영상(Original High Resolution Image)과 가까운 도 2의 (b)에 도시된 바와 같은 위조 고화질 영상을 생성하는 인공 신경망 학습 모델이다. 즉, 생성부(100)는 판별부(200)를 속일 수 있는 위조 고화질 영상을 만들기 위해 학습된다.
판별부(200)는 생성부(100)가 생성한 결과물인 도 2의 (b)에 도시된 바와 같은 위조 고화질 영상과 도 2의 (c)에 도시된 바와 같은 원본 고화질 영상을 비교하여 진위(Real/Fake) 여부를 판별하여 출력한다. 판별부(200)는 원본 고화질 영상과 생성부(100)가 생성한 위조 고화질 영상을 올바로 된 라벨(label)로 예측하도록 재훈련된다.
이러한 학습과정을 통해서 판별부(200)는 위조 고화질 영상에 대한 위조 식별 성능이 향상되며, 그에 따라 생성부(100)는 판별부(200)에 의해 식별되지 않기 위해 원본 고화질 영상과 더욱 비슷한 위조 고화질 영상은 구현 성능이 향상된다.
안면 특화 손실 계산부(300)는 판별부(200)로부터 출력된 진위 여부에 따라 손실(Loss)을 산출하여 생성부(100)에 전달한다. 그러면, 생성부(100)는 손실(Loss)을 최소화하도록 인공 신경망의 가중치를 역전파(backpropagation) 방식으로 업데이트하면서 학습된다. 이때, 본 발명의 실시 예에 따라, 안면 특화 손실 계산부(300)는 안면의 눈, 코, 입, 눈썹, 턱과 같은 특징 영역에 대한 화소 정보를 미리 저장하고, 해당 특징 영역이 다른 영역에 비해 더 정교하게 묘사되도록 손실(Loss) 산출시 반영한다.
도 3은 본 발명의 일 실시 예에 따른 안면 특화 손실 계산부의 상세 블록 구성도이고, 도 4는 본 발명에 따른 안면 특화 맵의 일 예를 도시한 도면이다.
도 3을 참조하면, 안면 특화 손실 계산부(300)는 안면 특징 정보 저장부(310), 콘텐츠 손실 계산부(320) 및 역손실 산출부(330)을 포함한다.
<수학식 1>에서 란 해당 영상이 갖고 있는 항목 콘텐츠가 가지고 있는 지각적 요소를 최대한 유사하게 생성되도록 하는 것으로 콘텐츠 손실 계산부(320)에 의해 산출된다. 란 해당 영상들이 갖고 있는 픽셀 단위 확률 분포도 자체를 학습하여 그 확률 분포를 갖게 하여 좀 더 그럴듯한 고화질 영상을 복원하는 효과를 위한 것으로 역손실 산출부(330)에 의해 산출된다.
콘텐츠 손실 계산부(320)는 다음의 <수학식 2> 내지 <수학식 5>를 사용하여 콘텐츠 손실을 계산하고, 역손실 산출부(330)는 <수학식 6> 내지 <수학식 7>을 사용하여 역 손실 을 계산한다.
<수학식 2>를 참조하면, 는 고 화질 영상(High Resolution Image: HR)과 저 화질 영상(Low Resolution Image: LR)으로부터 생성부(100)가 생성한 영상의 픽셀 간 값 차이의 제곱근(Root Mean Square: RMS)인데, 이는 고전 방법에서도 많이 쓰이는 항목으로써 두 영상 간 차이를 비교하는 가장 단순한 항목으로 다음의 <수학식 3>과 같이 산출된다.
본 발명의 일 실시 예에 따라, 콘텐츠 손실 계산부(320)는 지각적 텍스처 반영부(321)를 포함할 수 있다. 즉, 지각적 텍스처 반영부(321)는 다음의 <수학식 4>와 같이 산출되는 지각적 텍스처(perceptual texture)인 vgg Loss 항목들 를 산출한다.
<수학식 2>에서 의 vgg 뒤에 붙는 22, 44, 54의 숫자는 VGG 네트워크(Network)에서의 i번째 블록(block) j번째 레이어(layer)를 의미한다. 즉, vgg22는 vgg Network의 2번째 블록의 2번째 레이어의 결과 값을 사용한다는 의미이다. 논문(Gatys, Leon, Alexander S. Ecker, and Matthias Bethge. "Texture synthesis using convolutional neural networks." Advances in Neural Information Processing Systems. 2015)에 따르면, vgg Network의 각 블록의 레이어들의 중간 결과값은 특정 크기의 지각적 텍스쳐(perceptual texture)의 특징을 잘 보여준다. 따라서, 본 발명에서는 지각적 텍스처 반영부(321)를 통해 고화질 영상과 같은 세밀하고 정교한 정도를 이 지각적 텍스쳐들에 의해 인지되도록 할 수 있다.
또한, 본 발명의 일 실시 예에 따라, 콘텐츠 손실 계산부(320)는 선명도 조정부(322)를 더 포함할 수 있다. 즉, 선명도 조정부(322)는 다음의 <수학식 5>와 같이 산출되는 그래디언트 로스(gradient loss) 를 산출하여 영상이 각 픽셀에서 갖는 순간 변화도가 유사하도록 생성해주는 것으로, 위조 고화질 영상과 원본 고화질 영상의 선명도(Sharpness)를 비슷하게 맞춰주는 역할을 한다.
<수학식 5>에서 는 각 픽셀에서 양 옆, 대각선 방향, 위 아래 픽셀간 차이를 평균(norm)을 취한 값으로써 각 픽셀에서 갖는 순간 그래디언트(Gradient) 값을 전체적으로 제곱 평균(Root Mean Square: RMS)을 취한 값이다. 또한, Lw(weight decaying)는 심층 학습망(deep learning Network)에서 많이 쓰이는 손실(Loss)로 모델(model)들이 갖는 가중치 파라미터(weight parameter)들의 변화를 최소화시키는 방향으로 학습하게 만들어 모델의 학습을 안정적으로 만들어준다.
<수학식 6>에서 산출된 역손실값 을 통해, 판별부(200)는 더욱 더 원본 고화질 영상을 '1'로, 위조 고화질 영상을 '0'으로 잘 판별하도록 가중치가 업데이트되고, 생성부(100)는 판별부(200)에게 판별당하지 않도록 위조 고화질 영상을 원본 고화질 영상와 비슷한 형태로 닮아가게 학습된다.
본 발명의 일 실시 예에 따라, 역손실 산출부(330)는 특징 영역 손실 반영부(333)을 더 포함하여, 안면 특징 정보 저장부(310)에 저장된 안면 맵을 통해 눈, 코, 입, 턱 등의 특징 영역에 해당하는 픽셀(x,y 좌표)값들의 집합 정보를 역손실값에 반영한다. 안면 특화(Facial Locality)를 사용한 손실(Loss) 항목 을 다음의 <수학식 7>과 같이 생성하여 합산한다.
즉, 역손실 산출부(330)는 안면 전체 영역에 대한 역손실값에 특징 영역의 화소들의 역 손실을 부가하므로, 눈, 코 입 등의 특징 영역들의 특성을 더욱 잘 살려 위조 고화질 영상을 생성할 수 있도록 한다.
도 5는 본 발명의 다른 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 장치의 블록 구성도이다.
도 5를 참조하면, 안면 특화 초 고화질 심층 신경망 학습 장치는 다수의 서브 안면 특화 초 고화질 심층 신경망 학습 장치들(1, 2,...,m)이 캐스케이드(cascade)된 형태로 stage 1, stage 2,...stage m의 단계(stage)를 형성할 수 있다.
서브 안면 특화 초 고화질 심층 신경망 학습 장치들(1, 2,...,m)의 상세 구성은 도 1에 도시된 것과 동일하므로 상세한 설명을 생략하기로 한다.
다만, 생성부 1(100-1), 생성부 2(100-2), ..., 생성부(100-m)은 2배 화질 향상시킬 수 있다.
또한, 안면 특화 초 고화질 심층 신경망 학습 장치는 훈련 데이터 생성부(400)를 더 포함하고, 각 생성부(100-1) 및 판별부(200-1, 200-2, ...200-m)에 각각 훈련 데이터를 분배한다.
도 6은 본 발명의 다른 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 장치의 훈련 데이터 생성부의 블록 구성도이다.
도 6을 참조하면, 훈련 데이터 생성부(400)는 훈련 데이터 저장부(410), 다운 샘플링부(420) 및 훈련 데이터 분배부(430)을 포함한다.
다운 샘플링부(420)는 원본 고화질 영상(HR)을 1/2n 배(n은 1에서 m까지의 정수)로 다운 샘플링(Down sampling)된 훈련 영상들을 생성하여 훈련 데이터 저장부(410)에 저장한다. 여기서, 평균 풀링(average pooling) 및 랜덤 시그마 가우시안 필터(random sigma Gaussian filter)를 사용하여 다운 샘플링될 수 있다. 예컨대, 서브 안면 특화 초 고화질 심층 신경망 학습 장치들(1, 2,...,m)의 갯수 m이 3일 경우, 1/2, 1/4, 1/8배 다운 샘플링한 HR/2, HR/4, HR/8의 영상을 생성한다.
도 5를 참조하면, 훈련 데이터 생성부(400)의 훈련 데이터 분배부(430)는 생성부 1(100-1)에 1/2m 배로 다운 샘플링된 훈련 영상을 저화질 영상으로 입력시키고, 제n 판별부(200-1, 200-2,...200-m)에 1/2m-n 배로 다운 샘플링된 훈련 영상을 고화질 영상으로 입력시킨다.
예컨대, 서브 안면 특화 초 고화질 심층 신경망 학습 장치들(1, 2,...,m)의 갯수 m이 3일 경우, 생성부 1(100-1)에는 HR/8의 영상이 저화질 영상(LR)으로 입력된다. 그러면, 생성부 1(100-1)는 LR의 2배 해상도를 높인 위조 고화질 영상, 즉 HR/4에 상응하는 영상을 출력하게 된다. 그러면, 판별부 1(200-1)은 HR/4인 훈련 데이터가 원본 고화질 영상으로 입력되고, 생성부 1(100-1)가 출력한 LR*2의 위조 고화질 영상을 입력받아 두 영상 간의 동일성 여부를 판별하게 된다.
다음으로, 생성부 2(100-2)에는 생성부 1(100-1)가 출력한 LR*2의 위조 고화질 영상이 저화질 영상으로 입력된다. 그러면, 생성부 2(100-2)는 LR*2의 2배 해상도를 높인 위조 고화질 영상, 즉 HR/2에 상응하는 영상을 출력하게 된다. 그러면, 판별부 2(200-2)은 HR/2인 훈련 데이터가 원본 고화질 영상으로 입력되고, 생성부 2(100-2)가 출력한 LR*4의 위조 고화질 영상을 입력 받아 두 영상 간의 동일성 여부를 판별하게 된다.
마지막으로, 생성부 3(100-3)에는 생성부 2(100-2)가 출력한 LR*4의 위조 고화질 영상이 저화질 영상으로 입력된다. 그러면, 생성부 3(100-3)는 LR*4의 2배 해상도를 높인 위조 고화질 영상, 즉 HR에 상응하는 영상을 출력하게 된다. 그러면, 판별부 3(200-3)은 HR인 원본 고화질 영상을 입력 받아, 생성부 3(100-3)가 출력한 LR*8의 위조 고화질 영상을 입력 받아 두 영상 간의 동일성 여부를 판별하게 된다.
결론적으로, 전술한 바와 같은 단계별로 안면 특화 초 고화질 영상 변환 학습 모델을 통해 생성부 3(100-3)는 위조 고화질 영상(LR*8)을 생성하고, 판별부 3(200-3)은 위조 고화질 영상(LR*8)을 원본 고화질 영상(HR)의 진위 여부를 판별할 수 있게 되었다.
현재 주로 사용되는 생성부는 8배 초 해상도(Super Resolution) 향상키는 것으로, 한번에 8배 고화질화할 경우 학습량이 학습 모델로 하여금 복잡도를 크게 증가시킬 수 있어, 학습의 안정성 및 속도 면에서 한계를 지닐 수 있다.
그런데, 전술한 바와 같이 학습 데이터를 다운 샘플링하고, 다운 샘플링된 학습 데이터를 이용하여 2배 고화질화하는 생성부를 통해 단계적(Stage)으로 학습시키면, 학습의 안정성과 속도가 보장될 뿐만 아니라 그 성능이 크게 향상된다.
도 7은 본 발명의 일 실시 예에 따른 생성적 적대 신경망(Generative Adversarial Network : GAN)을 이용한 안면 특화 초 고화질 심층 신경망 학습 방법을 설명하기 위한 순서도이다.
도 7을 참조하면, 안면 특화 초 고화질 심층 신경망 학습 방법은 크게 합성 저화질 영상을 입력받아 원본 고화질 영상과 유사한 위조 고화질 영상으로 변환하는 단계(S610)와, 위조 고화질 영상과 원본 고화질 영상을 비교하여 진위 여부를 판별하는 단계(S620)와, 판"瀕? 진위 여부에 따라 변환하는 단계에서 최소화해야 하는 손실(Loss)을 산출하는 단계(S630)를 포함한다.
여기서, 변환하는 단계(S610) 및 판별하는 단계(S620)는 도 1에 도시된 생성망(100) 및 판별망(200)인 인공 신경망 학습 모델에 의해 수행되는데, S630에 의해 산출된 손실에 따라, 변환하는 단계(S610)는 손실(Loss)을 최소화시키도록 인공 신경망 모델의 가중치를 역전파 방식으로 업데이트하면서 학습하고, 판별하는 단계(S620)는 생성한 위조 고화질 영상을 올바로 된 라벨(label)로 예측하도록 재훈련된다(S640).
이러한 학습과정을 통해서 판별하는 단계(S620)에서 위조 고화질 영상에 대한 위조 식별 성능이 향상되며, 그에 따라 변환하는 단계(S610)에서는 판별하는 단계(S620)는 판별하는 단계(S620)에 의해 식별되지 않기 위해 원본 고화질 영상과 더욱 비슷한 위조 고화질 영상은 구현 성능이 향상된다.
또한, 본 발명의 실시 예에 따라, 안면 특화 손실 산출부(300)에 의해 수행되는 산출하는 단계(S630)는 전술한 <수학식 1> 내지 <수학식 7>에 의해 산출되는데, 특히 안면의 눈, 코, 입, 눈썹, 턱과 같은 특징 영역에 대한 화소 정보를 미리 저장하고, 해당 특징 영역이 다른 영역에 비해 더 정교하게 묘사되도록 손실(Loss) 산출시 반영한다.
도 8은 본 발명의 다른 실시 예에 따른 안면 특화 초 고화질 심층 신경망 학습 방법을 설명하기 위한 순서도이다.
도 8을 참조하면, 안면 특화 초 고화질 심층 신경망 학습 방법은 도 7에 도시된 안면 특화 초 고화질 심층 신경망 학습 방법을 다단계로 수 회 수행하는 것일 수 있다. 즉, 도 5에 도시된 안면 특화 초 고화질 심층 신경망 학습 장치에 구비된 단계별 서브 안면 특화 초 고화질 심층 신경망 학습 장치들에 의해 수행되는 것일 수 있다.
도 8을 참조하면, 안면 특화 초 고화질 심층 신경망 학습 장치는 원본 고화질 영상(HR)을 1/2n 배(n은 1에서 m까지의 정수, m은 안면 특화 초 고화질 심층 신경망 학습 방법의 단계들의 갯수)로 다운 샘플링(Down sampling)된 훈련 영상들을 생성한다(S710). 여기서, 평균 풀링(average pooling) 및 랜덤 시그마 가우시안 필터(random sigma Gaussian filter)를 사용하여 다운 샘플링될 수 있다. 예컨대, 서브 안면 특화 초 고화질 심층 신경망 학습 방법 단계들(1, 2,...,m)의 갯수 m이 3일 경우, 1/2, 1/4, 1/8배 다운 샘플링한 HR/2, HR/4, HR/8의 영상을 생성한다.
그런 후, 안면 특화 초 고화질 심층 신경망 학습 장치는 현재 단계(n)를 1로 하고(S720), 1/2m 배로 다운 샘플링된 훈련 영상을 저화질 영상으로 변환하여 1번째 위조 고화질 영상을 생성한다(S730).
그런 후, 안면 특화 초 고화질 심층 신경망 학습 장치는 1/2m-n 배로 다운 샘플링된 훈련 영상을 고화질 영상과 n번째 위조 고화질 영상을 판별하여 진위 여부를 판별한다(S740).
그런 후, 안면 특화 초 고화질 심층 신경망 학습 장치는 S740의 진위 판별 결과에 따라, 손실(Loss)을 산출한다(S750). 이때, 본 발명의 실시 예에 따라, 전술한 <수학식 1> 내지 <수학식 7>에 의해 산출되는데, 특히 안면의 눈, 코, 입, 눈썹, 턱과 같은 특징 영역에 대한 화소 정보를 미리 저장하고, 해당 특징 영역이 다른 영역에 비해 더 정교하게 묘사되도록 손실(Loss) 산출시 반영한다.
그런 후, 안면 특화 초 고화질 심층 신경망 학습 장치는 산출된 손실에 따라, S730에서 사용되는 인공 신경망 학습 모델의 손실(Loss)을 최소화시키도록 가중치를 역전파 방식으로 업데이트하면서 학습하고, S740에서 사용되는 인공 신경망 학습 모델에서 생성한 위조 고화질 영상을 올바로 된 라벨(label)로 예측하도록 재훈련된다(S760).
그와 동시에, 안면 특화 초 고화질 심층 신경망 학습 장치는 현재 단계 n이 전체 단계들의 개수 m과 동일한지를 판단한다(S770).
S770의 판단 결과, n이 m과 동일하지 않을 경우, 즉 수행해야 할 단계들이 더 남아있을 경우, 안면 특화 초 고화질 심층 신경망 학습 장치는 n을 n+1로 업데이트(S780)하고, n-1 단계에서 생성된 위조 고화질 영상을 변환하여 n 단계의 위조 고화질 영상을 생성한다(S780). 그런 후, S740 내지 S770을 반복한다.
한편, S770의 판단 결과, n이 m과 동일할 경우, 즉 수행해야 할 단계들이 모두 수행되었을 경우, 안면 특화 초 고화질 심층 신경망 학습 장치는 학습 방법을 종료한다.
Claims (8)
- 합성 저화질 영상을 입력받아 원본 고화질 영상과 유사한 위조 고화질 영상으로 변환하는 생성부와,
생성부로부터 출력된 위조 고화질 영상과 원본 고화질 영상을 비교하여 진위 여부를 판별하는 판별부와,
판별부로부터 출력된 진위 여부에 따라 생성부가 최소화해야 하는 손실(Loss)을 산출하여 생성부에 입력하는 안면 특화 손실 계산부를 포함하되,
생성부는
손실(Loss)을 최소화시키도록 가중치를 조정하면서 학습하는 인공 신경망 학습 모델이고,
안면 특화 손실 계산부는
안면의 특징 영역에 대한 화소 정보를 반영하여 생성부의 손실을 산출하는 안면 특화 초 고화질 심층 신경망 학습 장치.
- 제 1항에 있어서,
안면 특화 초 고화질 심층 신경망 학습 장치는 복수 개(m 개)가 캐스케이드(cascade)되고,
원본 고화질 영상을 1/2n 배(n은 1에서 m까지의 정수)로 다운 샘플링(Down sampling)된 훈련 영상들을 생성하는 훈련 데이터 생성부를 더 포함하고,
훈련 데이터 생성부는
제1 생성부에 1/2m 배로 다운 샘플링된 훈련 영상을 저화질 영상으로 입력시키고, 제n 판별부에 1/2m-n 배로 다운 샘플링된 훈련 영상을 고화질 영상으로 입력시키는 안면 특화 초 고화질 심층 신경망 학습 장치.
- 제 2항에 있어서, 훈련 데이터 생성부는
평균 풀링(average pooling) 및 랜덤 시그마 가우시안 필터(random sigma Gaussian filter)를 사용함을 특징으로 하는 안면 특화 초 고화질 심층 신경망 학습 장치.
- 제1 항 또는 제2 항에 있어서, 안면 특화 손실 계산부는
영상의 각 픽셀에서 좌우, 대각선 방향, 상하 픽셀 간 차이의 평균(norm)을 취한 값으로써 각 픽셀에서 갖는 순간 그래디언트(Gradient) 값을 전체적으로 제곱 평균(Root Mean Square : RMS)을 취한 값인 그래디언트 손실(gradient loss)를 산출하여 생성부의 손실에 반영하는 안면 특화 초 고화질 심층 신경망 학습 장치.
- 합성 저화질 영상을 입력받아 원본 고화질 영상과 유사한 위조 고화질 영상으로 변환하는 단계와,
위조 고화질 영상과 원본 고화질 영상을 비교하여 진위 여부를 판별하는 단계와,
진위 여부에 따라 변환하는 단계에서 최소화해야 하는 손실(Loss)을 산출하는 단계를 포함하되,
변환하는 단계는
손실(Loss)을 최소화시키도록 인공 신경망 모델의 가중치를 조정하면서 학습하고,
산출하는 단계는
안면의 특징 영역에 대한 화소 정보를 반영하여 손실을 산출하는 안면 특화 초 고화질 심층 신경망 학습 방법.
- 원본 고화질 영상을 1/2n 배(n은 1에서 m까지의 정수)로 다운 샘플링(Down sampling)된 훈련 영상들을 생성하는 단계와,
현재 단계(n)를 1로 하고, 1/2m 배로 다운 샘플링된 훈련 영상을 저화질 영상으로 변환하여 1번째 위조 고화질 영상을 생성하는 단계와,
1/2m-n 배로 다운 샘플링된 훈련 영상을 고화질 영상과 n번째 위조 고화질 영상을 판별하여 진위 여부를 판별하는 단계와,
진위 판별 결과에 따라, 손실(Loss)을 산출하는 단계와,
산출된 손실에 따라, 생성하는 단계에서 사용되는 인공 신경망 학습 모델의 손실(Loss)을 최소화시키도록 가중치를 역전파 방식으로 업데이트하면서 재학습하는 단계와,
현재 단계(n)이 m과 동일한지를 판단하는 단계와,
현재 단계(n)이 m과 동일하지 않을 경우, n을 n+1로 업데이트하고 n-1 단계에서 생성된 위조 고화질 영상을 변환하여 n 단계의 위조 고화질 영상을 생성하는 단계를 수행한 후, 판별하는 단계, 산출하는 단계, 재학습하는 단계 및 판단하는 단계를 순차적으로 반복함을 특징으로 하는 영상 변환 학습 모델 생성 방법.
- 제 7항에 있어서, 산출하는 단계는
안면의 특징 영역에 대한 화소 정보를 반영하여 손실을 산출하는 안면 특화 초 고화질 심층 신경망 학습 방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180063015A KR102184755B1 (ko) | 2018-05-31 | 2018-05-31 | 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법 |
US16/427,358 US11288546B2 (en) | 2018-05-31 | 2019-05-31 | Apparatus and method for training facial locality super resolution deep neural network |
EP19177701.0A EP3588388A1 (en) | 2018-05-31 | 2019-05-31 | Apparatus and method for training facial locality super resolution deep neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180063015A KR102184755B1 (ko) | 2018-05-31 | 2018-05-31 | 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190136833A true KR20190136833A (ko) | 2019-12-10 |
KR102184755B1 KR102184755B1 (ko) | 2020-11-30 |
Family
ID=66685461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180063015A KR102184755B1 (ko) | 2018-05-31 | 2018-05-31 | 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11288546B2 (ko) |
EP (1) | EP3588388A1 (ko) |
KR (1) | KR102184755B1 (ko) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112733625A (zh) * | 2020-12-28 | 2021-04-30 | 华南理工大学 | 基于时域自注意力机制的假脸视频篡改检测方法及*** |
KR20210107259A (ko) * | 2020-02-24 | 2021-09-01 | 서울시립대학교 산학협력단 | 인공 신경망을 이용한 이미지 화질 개선 장치 |
WO2021172744A1 (ko) * | 2020-02-25 | 2021-09-02 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR102298175B1 (ko) * | 2020-05-28 | 2021-09-03 | 건양대학교 산학협력단 | 딥러닝기반의 영상 아웃페인팅 장치 및 그 방법 |
CN113689527A (zh) * | 2020-05-15 | 2021-11-23 | 武汉Tcl集团工业研究院有限公司 | 一种人脸转换模型的训练方法、人脸图像转换方法 |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10762337B2 (en) * | 2018-04-27 | 2020-09-01 | Apple Inc. | Face synthesis using generative adversarial networks |
KR102184755B1 (ko) * | 2018-05-31 | 2020-11-30 | 서울대학교 산학협력단 | 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법 |
MX2020013580A (es) * | 2018-09-30 | 2021-02-26 | Boe Technology Group Co Ltd | Aparato y metodo para procesamiento de imagenes y sistema para entrenamiento de red neuronal. |
CN110120024B (zh) * | 2019-05-20 | 2021-08-17 | 百度在线网络技术(北京)有限公司 | 图像处理的方法、装置、设备和存储介质 |
CN114127777A (zh) * | 2019-06-10 | 2022-03-01 | 谷歌有限责任公司 | 使用生成式对抗模型修改传感器数据 |
CN111080522B (zh) * | 2019-12-13 | 2022-03-25 | 福州大学 | 一种基于双向对抗网络的图像超分辨率重建方法 |
DE102019220456A1 (de) * | 2019-12-20 | 2021-06-24 | Siemens Healthcare Gmbh | Medizinische Bilddaten für longitudinale Studien |
CN111163338B (zh) * | 2019-12-27 | 2022-08-12 | 广州市百果园网络科技有限公司 | 视频清晰度评估模型训练方法、视频推荐方法及相关装置 |
CN111210007A (zh) * | 2020-01-02 | 2020-05-29 | 国家电网有限公司 | 基于改进srgan模型的超分辨率螺栓图像生成方法 |
CN111182254B (zh) | 2020-01-03 | 2022-06-24 | 北京百度网讯科技有限公司 | 一种视频处理方法、装置、设备及存储介质 |
CN111260552B (zh) * | 2020-01-09 | 2023-05-30 | 复旦大学 | 一种基于递进学习的图像超分辨率方法 |
CN111369440B (zh) * | 2020-03-03 | 2024-01-30 | 网易(杭州)网络有限公司 | 模型训练、图像超分辨处理方法、装置、终端及存储介质 |
CN111429355A (zh) * | 2020-03-30 | 2020-07-17 | 新疆大学 | 一种基于生成对抗网络的图像超分辨率重建方法 |
CN111414888A (zh) * | 2020-03-31 | 2020-07-14 | 杭州博雅鸿图视频技术有限公司 | 低分辨率人脸识别方法、***、装置及存储介质 |
US11790489B2 (en) | 2020-04-07 | 2023-10-17 | Samsung Electronics Co., Ltd. | Systems and method of training networks for real-world super resolution with unknown degradations |
CN111696033B (zh) * | 2020-05-07 | 2023-04-28 | 中山大学 | 基于角点引导级联沙漏网络结构学习的真实图像超分辨率模型及方法 |
CN111899166A (zh) * | 2020-06-19 | 2020-11-06 | 北京理工大学 | 一种基于深度学习的医学高光谱显微图像超分辨重构方法 |
US11941913B2 (en) * | 2020-07-14 | 2024-03-26 | Corsight.Ai. Ltd. | High resolution face matching |
CN111882556B (zh) * | 2020-08-11 | 2023-11-21 | 北京小米松果电子有限公司 | 一种对抗网络的训练方法、装置和图像处理方法 |
CN112132181B (zh) * | 2020-08-20 | 2023-05-05 | 黑龙江大学 | 一种基于生成式对抗网络的图像真伪识别方法 |
CN112001847A (zh) * | 2020-08-28 | 2020-11-27 | 徐州工程学院 | 相对生成对抗超分辨率重建模型生成高质量图像的方法 |
US11455811B2 (en) * | 2020-08-28 | 2022-09-27 | Check it out Co., Ltd. | System and method for verifying authenticity of an anti-counterfeiting element, and method for building a machine learning model used to verify authenticity of an anti-counterfeiting element |
KR20220043764A (ko) | 2020-09-29 | 2022-04-05 | 삼성전자주식회사 | 비디오 품질 평가 방법 및 장치 |
WO2022087941A1 (zh) * | 2020-10-29 | 2022-05-05 | 京东方科技集团股份有限公司 | 人脸重建模型的训练方法及装置、人脸重建方法及装置、电子设备和可读存储介质 |
US11941086B2 (en) * | 2020-11-16 | 2024-03-26 | Salesforce, Inc. | Systems and methods for contrastive attention-supervised tuning |
CN112419159B (zh) * | 2020-12-07 | 2024-06-04 | 上海互联网软件集团有限公司 | 文字图像超分辨率重建***及方法 |
CN112686822B (zh) * | 2020-12-30 | 2021-09-07 | 成都信息工程大学 | 一种基于堆叠生成对抗网络的图像补全方法 |
CN113591675A (zh) * | 2021-07-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 图像识别模型的构建方法、装置、设备以及存储介质 |
CN114500948A (zh) * | 2022-01-25 | 2022-05-13 | 重庆卡佐科技有限公司 | 车辆监控方法、监控***及车载终端 |
CN117094888B (zh) * | 2023-07-31 | 2024-06-28 | 西北工业大学深圳研究院 | 图像超分辨方法、图像超分辨装置、电子设备及存储介质 |
CN116894884B (zh) * | 2023-09-06 | 2023-12-05 | 山东科技大学 | 基于加权损失函数彩色图像处理方法、***、设备及介质 |
CN117291803B (zh) * | 2023-09-28 | 2024-02-27 | 太原理工大学 | Pamgan轻量化面部超分辨率重建方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160131848A (ko) * | 2015-05-08 | 2016-11-16 | 삼성전자주식회사 | 객체 인식 장치 및 방법 |
KR20180004208A (ko) * | 2015-06-05 | 2018-01-10 | 소니 주식회사 | 컨볼루션 신경망 기반의 완전 기준 이미지 품질 평가 |
US20180075581A1 (en) * | 2016-09-15 | 2018-03-15 | Twitter, Inc. | Super resolution using a generative adversarial network |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9940539B2 (en) | 2015-05-08 | 2018-04-10 | Samsung Electronics Co., Ltd. | Object recognition apparatus and method |
US9734567B2 (en) * | 2015-06-24 | 2017-08-15 | Samsung Electronics Co., Ltd. | Label-free non-reference image quality assessment via deep neural network |
EP3380859A4 (en) | 2015-11-29 | 2019-07-31 | Arterys Inc. | AUTOMATED SEGMENTATION OF CARDIAC VOLUME |
US9785855B2 (en) * | 2015-12-17 | 2017-10-10 | Conduent Business Services, Llc | Coarse-to-fine cascade adaptations for license plate recognition with convolutional neural networks |
US10410322B2 (en) * | 2017-04-05 | 2019-09-10 | Here Global B.V. | Deep convolutional image up-sampling |
US10592779B2 (en) * | 2017-12-21 | 2020-03-17 | International Business Machines Corporation | Generative adversarial network medical image generation for training of a classifier |
US10825219B2 (en) * | 2018-03-22 | 2020-11-03 | Northeastern University | Segmentation guided image generation with adversarial networks |
KR102184755B1 (ko) * | 2018-05-31 | 2020-11-30 | 서울대학교 산학협력단 | 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법 |
US10887640B2 (en) * | 2018-07-11 | 2021-01-05 | Adobe Inc. | Utilizing artificial intelligence to generate enhanced digital content and improve digital content campaign design |
US11151334B2 (en) * | 2018-09-26 | 2021-10-19 | Huawei Technologies Co., Ltd. | Systems and methods for multilingual text generation field |
US11157816B2 (en) * | 2018-10-17 | 2021-10-26 | Capital One Services, Llc | Systems and methods for selecting and generating log parsers using neural networks |
-
2018
- 2018-05-31 KR KR1020180063015A patent/KR102184755B1/ko active IP Right Grant
-
2019
- 2019-05-31 US US16/427,358 patent/US11288546B2/en active Active
- 2019-05-31 EP EP19177701.0A patent/EP3588388A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160131848A (ko) * | 2015-05-08 | 2016-11-16 | 삼성전자주식회사 | 객체 인식 장치 및 방법 |
KR20180004208A (ko) * | 2015-06-05 | 2018-01-10 | 소니 주식회사 | 컨볼루션 신경망 기반의 완전 기준 이미지 품질 평가 |
US20180075581A1 (en) * | 2016-09-15 | 2018-03-15 | Twitter, Inc. | Super resolution using a generative adversarial network |
Non-Patent Citations (1)
Title |
---|
Ledig, Christian, et al. Photo-realistic single image super-resolution using a generative adversarial network. Proceedings of the IEEE conference on computer vision and pattern recognition. 2017.* * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210107259A (ko) * | 2020-02-24 | 2021-09-01 | 서울시립대학교 산학협력단 | 인공 신경망을 이용한 이미지 화질 개선 장치 |
WO2021172744A1 (ko) * | 2020-02-25 | 2021-09-02 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN113689527A (zh) * | 2020-05-15 | 2021-11-23 | 武汉Tcl集团工业研究院有限公司 | 一种人脸转换模型的训练方法、人脸图像转换方法 |
CN113689527B (zh) * | 2020-05-15 | 2024-02-20 | 武汉Tcl集团工业研究院有限公司 | 一种人脸转换模型的训练方法、人脸图像转换方法 |
KR102298175B1 (ko) * | 2020-05-28 | 2021-09-03 | 건양대학교 산학협력단 | 딥러닝기반의 영상 아웃페인팅 장치 및 그 방법 |
CN112733625A (zh) * | 2020-12-28 | 2021-04-30 | 华南理工大学 | 基于时域自注意力机制的假脸视频篡改检测方法及*** |
CN112733625B (zh) * | 2020-12-28 | 2022-06-14 | 华南理工大学 | 基于时域自注意力机制的假脸视频篡改检测方法及*** |
Also Published As
Publication number | Publication date |
---|---|
US20190370608A1 (en) | 2019-12-05 |
US11288546B2 (en) | 2022-03-29 |
EP3588388A1 (en) | 2020-01-01 |
KR102184755B1 (ko) | 2020-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102184755B1 (ko) | 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법 | |
Zangeneh et al. | Low resolution face recognition using a two-branch deep convolutional neural network architecture | |
Denton et al. | Semi-supervised learning with context-conditional generative adversarial networks | |
CN110084108A (zh) | 基于gan神经网络的行人重识别***及方法 | |
CN113642634A (zh) | 一种基于混合注意力的阴影检测方法 | |
CN106503661B (zh) | 基于烟花深度信念网络的人脸性别识别方法 | |
Duffner | Face image analysis with convolutional neural networks | |
Hu et al. | LDF-Net: Learning a displacement field network for face recognition across pose | |
Lei et al. | NITES: A non-parametric interpretable texture synthesis method | |
CN113378949A (zh) | 一种基于胶囊网络和混合注意力的双重生成对抗学习方法 | |
CN110472457A (zh) | 低分辨率人脸图像识别、还原方法、设备及存储介质 | |
WO2015180055A1 (zh) | 一种基于分类字典库的超分辨率图像重构方法及装置 | |
CN116664435A (zh) | 一种基于多尺度人脸解析图融入的人脸复原方法 | |
Wu et al. | Learning resolution-adaptive representations for cross-resolution person re-identification | |
CN117576402B (zh) | 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法 | |
Lalitha et al. | Deepfake detection through key video frame extraction using gan | |
Liu et al. | Facial image inpainting using multi-level generative network | |
KumarSingh et al. | An Enhanced Image Colorization using Modified Generative Adversarial Networks with Pix2Pix Method | |
Althbaity et al. | Colorization Of Grayscale Images Using Deep Learning | |
Weligampola et al. | A retinex based gan pipeline to utilize paired and unpaired datasets for enhancing low light images | |
CN112907692B (zh) | 一种基于sfrc-gan的从素描到人脸重建方法 | |
CN115273089A (zh) | 一种基于条件生成对抗网络的光学字符复原方法 | |
Gomes et al. | A Deep Learning Approach for Reconstruction of Color Images in Different Lighting Conditions Based on Autoencoder Technique | |
Funde et al. | Cataract detection by leveraging VGG-19 classification model on retinal images | |
Reis et al. | Dense crowd counting with capsule networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |