KR20210128605A - 영상 변환장치 및 방법 - Google Patents

영상 변환장치 및 방법 Download PDF

Info

Publication number
KR20210128605A
KR20210128605A KR1020200046435A KR20200046435A KR20210128605A KR 20210128605 A KR20210128605 A KR 20210128605A KR 1020200046435 A KR1020200046435 A KR 1020200046435A KR 20200046435 A KR20200046435 A KR 20200046435A KR 20210128605 A KR20210128605 A KR 20210128605A
Authority
KR
South Korea
Prior art keywords
image
resolution
resolution image
low
convolutional layer
Prior art date
Application number
KR1020200046435A
Other languages
English (en)
Inventor
전진
나태영
김재일
배주한
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020200046435A priority Critical patent/KR20210128605A/ko
Publication of KR20210128605A publication Critical patent/KR20210128605A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06T3/0012
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

저해상도 영상으로부터 고해상도 영상을 생성하는 영상 변환장치 및 방법을 개시한다.
본 실시예는, 해상도, 종횡비(aspect ratio), 및 정렬과 같은 특성을 동일하게 일치시킨 학습용 저해상도 영상 및 고해상도 영상 페어(image pair)를 기반으로 사전에 트레이닝된 추론 모델(inference model)을 이용하여, 저해상도 영상으로부터 고해상도(high resolution) 영상을 생성하는 영상 변환장치 및 방법을 제공한다.

Description

영상 변환장치 및 방법{Method and Apparatus for Image Transform}
본 발명은 저해상도 영상으로부터 고해상도 영상을 생성하는 영상 변환장치 및 방법에 관한 것이다. 더욱 상세하게는, 학습용 저해상도 영상 및 고해상도 영상 페어를 이용하여 사전에 트레이닝된 심층신경망 기반의 추론 모델이 저해상도 영상으로부터 고해상도 영상을 생성하는 영상 변환장치 및 방법에 관한 것이다.
이하에 기술되는 내용은 단순히 본 발명과 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.
근래에 딥러닝(deep learning) 기반 심층신경망(deep neural network)에 기초하는 초해상도(Super Resolution, SR) 기술이 활발히 개발되고 있으며, 이전의 다른 기술과 비교하여 SR의 성능이 크게 향상되고 있다. 하지만 심층신경망 기반의 기존 SR 연구에서 신경망의 트레이닝에 이용하는 데이터는, 실제 방송용 영상과는 품질 측면에서 차이가 존재하는, 왜곡이 없는 영상이 대부분이다. 따라서, 기존 연구에 따른 SR 구현의 결과물을 방송용 콘텐츠에 적용하는 경우, 목표 수준의 고품질 영상을 획득하기 어렵다는 한계가 있다.
초해상도 심층신경망의 대표적인 기술로는 EDSR(Enhanced Deep Super Resolution network)이 있는데(비특허문헌 1 참조), EDSR은 영상 변환에 널리 이용되는 ResNet(비특허문헌 2 참조)을 개선한 신경망이다. 초해상도 기술을 구현하기 위해 EDSR은 32 개의 잔차블록(Residual Block, RB), 콘볼루션 레이어(convolution layer) 및 업샘플러(up-sampler) 등을 포함한다.
ResNet의 RB(Residual Block)와 비교하여, EDSR의 RB는 BN(Batch Normalization) 레이어를 제거하고 ReLU(Rectified Linear Unit) 레이어 하나를 갖는다. 이러한 구조 변경을 이용하는 EDSR이 발표되었을 때, 초해상도 구현 분야에서 EDSR은 SOTA(State of the Art) 성능을 달성하였다. 하지만 SR 구현 시 일반적으로 64 개의 특성맵 채널(feature map channel)이 사용되는 것과 비교하여, EDSR은 256 개의 채널을 사용하기 때문에, 43×106 개의 방대한 파라미터를 포함하므로 연산 속도가 느리다는 단점이 있다.
다른 초해상도 심층신경망으로는, 초해상도 구현을 위해 신경망(neural network)의 깊이(depth)가 월등히 증가된 RCAN(Residual Channel Attention Network) 모델이 있다(비특허문헌 3 참조). 초해상도를 구현하기 위해 기존에 연구된 신경망 구조로는 깊은 네트워크(deep network)에 대한 트레이닝이 어려웠기 때문에, RCAN 모델은 깊은 네트워크를 트레이닝시키기 위한 구조를 포함하였다.
RCAN 모델은, 긴 스킵 커넥션(long skip connection)을 사용하는 RIR(Residual In Residual); RIR 내부에 포함되고 짧은 스킵 커넥션(short skip connection)을 사용하는 RG(Residual Group); 및 채널 간 상호 의존성을 기반으로 채널 단위의 특징을 재조정하기 위한 CA(Channel Attention)를 이용하는, RG 내부의 RCAB(Residual Channel Attention Block) 등을 포함한다. RCAN 모델에서는 RIR, RG, RCAB 및 CA로 특징지어지는 구조를 구현하기 위해 대략 800 개 정도의 컨볼루션 레이어가 이용되었다. 기존 방법과의 비교 실험 결과를 이용하여 RCAN 모델은 더 개선된 SR 구현 결과를 보였다. 하지만 EDSR과 비교하여 파라미터 개수가 16×106 개로 감소되었음에도, 800 개 정도의 컨볼루션 레이어를 사용하기 때문에 RCAN 모델도 연산 속도가 느리다는 단점이 존재한다.
따라서, 왜곡을 많이 포함하는 방송용 저해상도 영상으로부터 목표 수준의 고품질 영상을 획득할 수 있는 SR을 구현하면서도, 그 구조가 간단하여 연산 속도는 향상된 영상 변환장치를 필요로 한다.
비특허문헌 1: B. Lim, S. Son, H. Kim, S. Nah, K. Lee. Enhanced Deep Residual Networks for Single Image Super Resolution, In CVPR workshop, 2017. 비특허문헌 2: K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In CVPR 2016. 비특허문헌 3: Y. Zhang, K. Li, K. Li, L. Wang, B. Zhong, Y. Fu. Image Super-Resolution Using Very Deep Residual Channel Attention Networks, In ECCV, 2018.
본 개시는, 해상도, 종횡비(aspect ratio), 및 정렬과 같은 특성을 동일하게 일치시킨 학습용 저해상도 영상 및 고해상도 영상 페어(image pair)를 기반으로 사전에 트레이닝된 심층신경망 기반의 추론 모델(inference model)을 이용하여, 저해상도 영상으로부터 고해상도(high resolution) 영상을 생성하는 영상 변환장치 및 방법을 제공하는 데 주된 목적이 있다.
본 발명의 실시예에 따르면, 비디오 콘텐츠로부터 저해상도(low resolution) 영상을 획득하는 입력부; 및 심층신경망(deep neural network) 기반의 추론 모델(inference model)을 이용하여, 상기 저해상도 영상으로부터 상기 비디오 콘텐츠에 대한 고해상도(high resolution) 영상을 생성하는 영상변환부를 포함하되, 상기 추론 모델은 제1 콘볼루션 레이어(convolution layer), 복수의 LRB(Long Residual Block), 제2 콘볼루션 레이어, 제1 스킵 연결(skip connection), 및 제3 콘볼루션 레이어를 포함하여, 상기 저해상도 영상을 상기 제1 콘볼루션 레이어, 상기 복수의 LRB, 상기 제2 콘볼루션 레이어, 및 상기 제3 콘볼루션 레이어의 순서대로 처리하여 상기 고해상도 영상을 생성하는 것을 특징으로 하는 영상 변환장치를 제공한다.
본 발명의 다른 실시예에 따르면, 영상 변환장치가 이용하는 영상 변환방법에 있어서, 비디오 콘텐츠로부터 저해상도(low resolution) 영상을 획득하는 과정; 및 심층신경망(deep neural network) 기반으로 구현되고, 제1 콘볼루션 레이어(convolution layer), 복수의 LRB(Long Residual Block), 제2 콘볼루션 레이어, 제1 스킵 연결(skip connection), 및 제3 콘볼루션 레이어를 포함하고, 동일한 비디오 콘텐츠에 기초하는 학습용 저해상도 영상 및 학습용 고해상도 영상 페어(image pair)를 기반으로 사전에 트레이닝되며, 상기 저해상도 영상을 상기 제1 콘볼루션 레이어, 상기 복수의 LRB, 상기 제2 콘볼루션 레이어, 및 상기 제3 콘볼루션 레이어의 순서대로 처리하는 추론 모델(inference model)을 이용하여, 상기 저해상도 영상으로부터 상기 비디오 콘텐츠에 대한 고해상도(high resolution) 영상을 생성하는 과정을 포함하는 것을 특징으로 하는 영상 변환방법을 제공한다.
본 발명의 다른 실시예에 따르면, 영상 변환방법이 포함하는 각 단계를 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터프로그램을 제공한다.
이상에서 설명한 바와 같이 본 실시예에 따르면, 학습용 저해상도 영상 및 고해상도 영상 페어(image pair)를 기반으로 사전에 트레이닝된 심층신경망 기반의 추론 모델(inference model)을 이용하여, 저해상도 영상으로부터 고해상도(high resolution) 영상을 생성하는 영상 변환장치 및 방법을 제공함으로써, 왜곡을 많이 포함하는 방송용 저해상도 영상으로부터 고품질의 고해상도 영상을 획득하는 SR 구현이 가능해지는 효과가 있다.
또한 본 실시예에 따르면, 해상도, 종횡비(aspect ratio), 및 정렬과 같은 특성을 동일하게 일치시킨 학습용 저해상도 영상 및 고해상도 영상 페어를 기반으로 사전에 트레이닝된 심층신경망 기반의 추론 모델(inference model)을 이용하는 영상 변환장치 및 방법을 제공함으로써, 추론 모델의 복잡도 감소 및 트레이닝 효율 향상이 가능해지는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 영상 변환장치의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 추론 모델의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 추론 모델에 포함된 LRB의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 추론 모델에 포함된 SRB의 블록도이다.
도 5는 본 발명의 일 실시예에 따른 영상 변환방법의 순서도이다.
도 6은 본 발명의 일 실시예에 따른 영상 변환장치의 학습 모델에 대한 블록도이다.
도 7은 본 발명의 일 실시예에 따른 영상 페어 생성과정에 대한 순서도이다.
이하, 본 발명의 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 실시예들의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 본 실시예들의 구성요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성요소를 다른 구성요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.
본 실시예는 저해상도 영상으로부터 고해상도 영상을 생성하는 영상 변환장치 및 방법에 대한 내용을 개시한다. 보다 자세하게는, 해상도, 종횡비(aspect ratio), 및 정렬과 같은 특성을 동일하게 일치시킨 학습용 저해상도 영상 및 고해상도 영상 페어를 기반으로 사전에 트레이닝된 심층신경망 기반의 추론 모델(inference model)을 이용하여, 저해상도 영상으로부터 고해상도 영상을 생성하는 영상 변환장치 및 방법을 제공한다.
도 1은 본 발명의 일 실시예에 따른 영상 변환장치의 블록도이다.
본 발명의 실시예에 있어서, 영상 변환장치(100)는 사전에 트레이닝된 추론 모델(inference model)을 이용하여, 저해상도(low resolution) 영상으로부터 고해상도(high resolution) 영상을 생성한다. 영상 변환장치(100)는 입력부(102), 영상변환부(104) 및 출력부(106)의 전부 또는 일부를 포함한다. 또한, 영상변환부(104)는 추론 모델(inference model, 110)을 포함한다. 여기서, 본 실시예에 따른 영상 변환장치(100)에 포함되는 구성요소가 반드시 이에 한정되는 것은 아니다. 예컨대, 영상 변환장치(100)는 추론 모델의 트레이닝을 위한 트레이닝부(미도시)를 추가로 구비하거나, 외부의 트레이닝부와 연동되는 형태로 구현될 수 있다.
여기서 영상 변환(image transform)은 열화된(degraded) 영상을 적절한 필터(filter)로 처리하여 고품질의 선명한 영상을 생성하는 방법을 의미한다. 따라서, 본 실시예에 따른 영상 변환장치(100)는 추론 모델을 필터로 이용하여 저품질의 영상으로부터 고품질의 영상을 추론하는 영상 변환을 수행한다.
도 1의 도시는 본 실시예에 따른 예시적인 구성이며, 입력과 출력의 형태, 추론 모델의 형태, 및 추론 모델의 트레이닝 방법에 따라 다른 구성요소 또는 구성요소 간의 다른 연결을 포함하는 다양한 구현이 가능하다.
본 실시예에 따른 입력부(102)는 저해상도 영상을 획득한다. 여기서 저해상도 영상은 저장장치(미도시)에 보관되어 있는 방송용 비디오 콘텐츠(video content)로부터 획득된 SD(Standard Definition) 영상일 수 있으나 반드시 이에 한정하는 것은 아니며, 해상도 및 품질 개선을 필요로 하는 어느 형태의 영상이든 될 수 있다. 방송용 비디오 콘텐츠로부터 획득된 저해상도 영상은 왜곡(distortion)을 포함할 수 있다.
본 실시예에 따른 영상변환부(104)는 심층신경망(deep neural network) 기반의 추론 모델(110)을 이용하여, 저해상도 영상으로부터 동일한 비디오 콘텐츠에 대한 고해상도 영상을 생성한다.
또한, 고해상도 영상은 FHD(Full High-Definition) 영상일 수 있으나 반드시 이에 한정되는 것은 아니며, 입력 영상보다 해상도 및 품질이 향상된 어느 형태의 영상이든 될 수 있다.
본 실시예에 따른 출력부(106)는 고해상도 영상을 출력한다. 출력부(106)는 고해상도 영상을 시각 및/또는 청각적인 형태로 사용자에게 제공하거나, 저장장치에 보관할 수 있다.
이하 도 2 내지 도 4를 이용하여 추론 모델(110)의 구조 및 동작에 대하여 기술한다.
도 2는 본 발명의 일 실시예에 따른 추론 모델의 블록도이다.
본 실시예에 따른 추론 모델(110)은 저해상도 영상으로부터 고해상도 영상을 자동으로 생성한다. 추론 모델(110)은 복수의 LRB(Long Residual Block, 202), 복수의 콘볼루션 레이어(convolution layer, 206, 208, 210), 및 제1 스킵 연결(skip connection, 204)의 전부 또는 일부를 포함한다.
본 실시예에 따른 추론 모델(110)은 다수의 콘볼루션 레이어를 기반으로 하는 심층신경망으로 구현된다. 추론 모델(110)은 딥러닝(deep learning) 기반 학습 모델을 이용하여 사전에 트레이닝될 수 있다. 학습 모델의 구조 및 학습 모델의 트레이닝 과정은 추후 설명하기로 한다.
도 2에 도시된 바와 같이, 추론 모델(110)은 저해상도 영상을 제1 콘볼루션 레이어(206), 복수의 LRB, 제2 콘볼루션 레이어(208), 및 제3 콘볼루션 레이어(210)의 순서대로 처리하여 고해상도 영상을 생성할 수 있다.
추론 모델(110)의 입력 측에 위치한 제1 콘볼루션 레이어(206)는 저해상도 영상으로부터 복수의 특성맵(feature map)을 추출한다. 추론 모델(110)의 연산 속도와 고해상도 영상의 품질을 절충하여 제1 콘볼루션 레이어(206)가 추출하는 특성맵 채널의 적절한 개수가 설정될 수 있다. 도 2 내지 도 4에서 c(c는 자연수)는 특성맵 채널의 개수를 나타내는데, 예를 들어, c는 64일 수 있다.
도 2에 도시된 바와 같이, 본 실시예에 따른 추론 모델(110)은 8 개의 LRB를 포함하나, 반드시 이에 한정하는 것은 아니며, 추론 모델(110)의 연산 속도와 고해상도 영상의 품질을 절충하여 LRB의 적절한 개수가 설정될 수 있다. 추론 모델(110)에 포함된 LRB 각각은 동일한 구조로 구현되어, 동일한 기능을 수행한다. 따라서, 이하 하나의 LRB(202)의 구조 및 동작에 대하여 설명한다.
도 3은 본 발명의 일 실시예에 따른 추론 모델에 포함된 LRB의 블록도이다.
본 실시예에 따른 LRB(202)는 2 개의 SRB(Short Residual Block, 302), 제2 스킵 연결(304) 및 제4 콘볼루션 레이어(306)의 전부 또는 일부를 포함한다. LRB(202)는 입력을 2 개의 SRB, 및 제4 콘볼루션 레이어(306)의 순서대로 처리한다.
LRB(202)에 포함된 SRB 각각은 동일한 구조로 구현되어, 동일한 기능을 수행한다. 따라서, 이하 하나의 SRB(302)의 구조 및 동작에 대하여 설명한다.
도 4는 본 발명의 일 실시예에 따른 추론 모델에 포함된 SRB의 블록도이다.
본 실시예에 따른 SRB(302)는 제3 스킵 연결(402), 제1 콘볼루션 그룹(convolution group, 404), 연쇄 레이어(concatenation layer, 406), 및 제2 콘볼루션 그룹(408)의 전부 또는 일부를 포함한다. 제1 콘볼루션 그룹(404) 및 제2 콘볼루션 그룹(408) 각각은 두 개의 콘볼루션 레이어 및 하나의 ReLU(Rectified Linear Unit)를 포함한다. 여기서, ReLU는 출력의 범위를 한정하는 활성 함수(activation function)이다.
SRB(302)는 입력을 제1 콘볼루션 그룹(404), 연쇄 레이어(406) 및 제2 콘볼루션 그룹(408)의 순서대로 처리한다.
제1 콘볼루션 그룹(404)은 SRB(302) 입력에 대한 잔차(residue) 출력을 생성한다. 연쇄 레이어(406)는 SRB(302)의 입력과 제1 콘볼루션 그룹(404)의 잔차 출력을 연쇄하여 제2 콘볼루션 그룹(408) 측으로 전달한다. 제2 콘볼루션 그룹(408)은 연쇄 레이어(406) 결과로부터 잔차 출력을 생성한다. 제3 스킵 연결(402)은 SRB(302)의 입력과 제2 콘볼루션 그룹(408)의 잔차 출력을 가산한다.
LRB(202)에 포함된 제4 콘볼루션 레이어(306)는 두 번째 SRB의 출력(SRB의 입력과 제2 콘볼루션 그룹의 잔차 출력이 가산된 결과)으로부터 잔차 출력을 생성한다. 또한 제2 스킵 연결(304)은 LRB(202)의 입력과 제4 콘볼루션 레이어(306)의 잔차 출력을 가산한다.
추론 모델(110)에 포함된 제2 콘볼루션 레이어(208)는 마지막 LRB 내부의 출력(LRB의 입력과 제4 콘볼루션 레이어의 잔차 출력이 가산된 결과)으로부터 잔차 출력을 생성한다. 제1 스킵 연결(204)은 제1 콘볼루션 레이어(206)의 출력과 제2 콘볼루션 레이어(208)의 잔차 출력을 가산함으로써 저해상도 영상의 특성을 추론 모델(110)의 출력 측으로 전달할 수 있다.
추론 모델(110)은 제3 콘볼루션 레이어(210)를 이용하여 제1 콘볼루션 레이어(206)의 출력(저해상도 영상의 특성)과 제2 콘볼루션 레이어(208)의 잔차 출력에 대한 가산 결과로부터 고해상도 영상을 생성할 수 있다.
도 2 내지 도 4에 도시된 바와 같이 추론 모델(110)은 SRB(302), LRB(202), 추론 모델(110)로 확장되면서 레이어의 개수가 증가하여 신경망의 깊이가 깊어진다. 그럼에도 추론 모델(110)의 각 구성요소마다 스킵 연결(204, 304 및 402)을 포함하여, 이후 기술되는 학습 모델에 대한 트레이닝이 효과적으로 진행될 수 있도록 한다.
ResNet(비특허문헌 2 참조)의 RB(Residual Block)는 2 개의 콘볼루션 레이어, 2 개의 BN(Batch Normalization) 레이어, 및 2 개의 ReLU 레이어를 포함한다. 또한, ResNet과 비교하여 EDSR(비특허문헌 1 참조)의 RB는 BN 레이어가 모두 제거되고 ReLU 레이어를 하나만 포함한다. 이에 대하여 본 실시예에 따른 SRB(302)는 4 개의 콘볼루션 레이어, 및 연쇄 레이어를 포함한다.
ResNet에서 이용하는 BN 레이어는 영상 클래스의 분류에는 효과가 있으나 픽셀 단위로 영상을 변환하는 초해상도의 구현에는 효과가 작은 것으로 알려져 있기 때문에 본 실시예에 따른 SRB(302)에서는 사용되지 않는다. 또한, 기존 방법들과 비교하여 영상의 고주파 영역의 변환에 중점을 두기 위하여 SRB(302)는 연쇄 레이어(406)를 이용한다.
도 5는 본 발명의 일 실시예에 따른 영상 변환방법의 순서도이다.
본 실시예에 따른 영상 변환장치(100)는 저해상도(low resolution) 영상을 획득한다(S500). 여기서 저해상도 영상은 방송용 비디오 콘텐츠로부터 획득된 SD 영상일 수 있으나 반드시 이에 한정하는 것은 아니며, 해상도 및 품질 개선을 필요로 하는 어느 형태의 영상이든 될 수 있다.
영상 변환장치(100)는 사전에 트레이닝된 추론 모델을 이용하여 저해상도 영상으로부터 고해상도(high resolution) 영상을 생성한다(S502).
추론 모델(110)은 심층신경망으로 구현되고, 복수의 LRB, 복수의 콘볼루션 레이어, 및 스킵 연결의 전부 또는 일부를 포함한다. 추론 모델(110)은 학습용 저해상도 영상 및 학습용 고해상도 영상 페어를 기반으로 사전에 트레이닝될 수 있다.
영상 변환장치(100)가 생성하는 고해상도 영상은 FHD 영상일 수 있으나 반드시 이에 한정되는 것은 아니며, 입력 영상보다 해상도 및 품질이 향상된 어느 형태의 영상이든 될 수 있다.
영상 변환장치(100)는 고해상도 영상을 출력한다(S504). 고해상도 영상은 시각 및/또는 청각적인 형태로 사용자에게 제공되거나, 저장장치에 보관될 수 있다.
전술한 바와 같이 본 실시예에 따른 영상 변환장치(100)는 딥러닝 기반 학습 모델을 구비하고, 구비된 학습 모델을 이용하여 추론 모델에 대한 트레이닝 과정을 수행할 수 있다. 이러한 학습 모델은 동일한 대상에 대하여 상이한 해상도를 갖는 영상을 기반으로, 저해상도 영상을 고해상도 영상으로 생성하는 것이 가능하도록 사전에 트레이닝된 모델일 수 있다.
도 6은 본 발명의 일 실시예에 따른 영상 변환장치의 학습 모델에 대한 블록도이다.
본 실시예에 따른 학습 모델은, 동일한 비디오 콘텐츠로부터 획득된 SD 영상과 FHD 영상으로부터 학습용 영상 페어(image pair)를 생성하고, 생성된 영상 페어를 이용하여 추론 모델(110)을 트레이닝시킨다. 학습 모델은 입력부(602), 영상페어 생성기(604) 및 추론 모델(110)의 전부 또는 일부를 포함한다. 전술한 바와 같이, 학습 모델은 추론 모델(110)의 트레이닝을 위한 트레이닝부(미도시)를 추가로 구비하거나, 외부의 트레이닝부와 연동되는 형태로 구현될 수 있다.
입력부(602)는 저해상도 영상인 SD 영상과 고해상도 영상인 FHD 영상을 획득한다. 여기서 SD 영상과 FHD 영상은 동일한 방송용 비디오 콘텐츠로부터 획득된 것이다. SD 영상의 해상도는 720×480이고, 4:3(횡:종, 이하 동일함) 비율을 사용하며, FHD 영상의 해상도는 1920×1080이고 16:9 비율을 사용하므로, 두 영상은 해상도, 종횡비(aspect ratio), 및 정렬 측면에서 상호 동일한 특성을 갖지 않는다. 또한 방송용 비디오 콘텐츠로부터 획득된 저해상도 영상은 왜곡을 포함할 수 있다.
영상페어 생성기(604)는 입력된 두 영상 간의 해상도, 종횡비 및 정렬을 보정함으로써 동일한 특성을 갖는 학습용 영상 페어, 즉 학습용 SD 영상 및 학습용 FHD 영상을 생성하기 위한 전처리과정(pre-processing)을 수행한다. 여기서, 학습용 SD 영상은 추론 모델(110)의 입력으로 이용되고, 학습용 FHD 영상은 추론 모델(110)의 트레이닝을 위한 타겟(target) 영상으로 이용될 수 있다.
두 영상이 상호 동일한 특성을 갖지 않은 경우, 두 영상 간의 차는 강한 에지(edge) 특성을 보일 수 있다. 두 영상 간의 특성이 일치될수록, 이러한 강한 에지 특성이 완화될 수 있다. 딥러닝 기반 학습에서는 타겟 영상을 이용하여 신경망에 대한 트레이닝이 수행되므로, 추론 모델(110)의 사이즈 감소 및 트레이닝 효율의 향상 측면에서, 학습용 영상 간에 동일한 특성을 갖는 것이 매우 중요하다.
도 7은 본 발명의 일 실시예에 따른 영상 페어 생성과정에 대한 순서도이다.
영상페어 생성기(604)는 SD 비디오 영상과 FHD 비디오 영상의 시작 프레임을 일치시킨다(S700). 동일 비디오 콘텐츠에 대한 SD 비디오 영상과 FHD 비디오 영상의 프레임(frame) 개수가 일치하지 않는 경우, 영상페어 생성기(604)는 두 비디오 영상의 시작 프레임을 일치시킬 수 있다. 반면 두 영상 간 프레임 개수가 일치하는 경우, 영상페어 생성기(604)는 첫 번째 프레임부터 이후의 단계를 진행할 수 있다.
영상페어 생성기(604)는 SD 비디오 영상과 FHD 비디오 영상 간의 프레임 번호를 일치시킨 후 학습에 사용하기 위한 프레임의 리스트를 생성한다(S702). 이때, 두 비디오 영상의 모든 프레임이 사용되지 않고, N-스텝(N은 자연수) 간격으로 프레임이 선택될 수 있다. 또한, 압축 영상이 이용되는 경우, 상대적으로 화질 저하가 작은 I-프레임(intra frame) 페어가 우선적으로 선택되어 리스트가 생성될 수 있다.
영상페어 생성기(604)는 SD 영상과 FHD 영상 간의 종횡비를 일치시키다(S704). 리스트에 포함된 영상 페어에 대하여 영상페어 생성기(604)는 SD 영상과 FHD 영상의 종횡비를 일치시킬 수 있다. 예를 들어, SD 영상이 4:3 비율인 경우, 영상페어 생성기(604)는 16:9 비율인 FHD 영상의 가로 해상도를 SD 영상에 맞게 자른다. 또는, SD 영상이 16:9 비율이기 때문에 검은 영역을 포함한 경우, 영상페어 생성기(604)는 검은 영역을 제외한 영상을 FHD 영상 콘텐츠에 맞게 자른다.
영상페어 생성기(604)는 SD 영상과 FHD 영상 간의 해상도를 일치시킨다(S706). SD 영상의 해상도를 정수배하여 FHD 영상의 해상도를 생성할 수 없기 때문에, 영상페어 생성기(604)는 SD 영상의 종횡 해상도 각각을 다르게 조절하여 두 영상 간의 해상도를 일치시킬 수 있다.
영상페어 생성기(604)는 영상 정렬 알고리즘을 이용하여 동일 위치로 정렬된 영상 페어, 즉 학습용 SD 영상 및 학습용 FHD 영상을 생성한다(S708). 종횡비 및 해상도를 일치시킨 두 영상 간의 정렬을 위하여, 영상의 밝기인 휘도(luminance) 정보 또는 영상 내부의 경계선(edge line) 정보 등에 기반하는 영상 정렬 알고리즘이 이용될 수 있다.
심층신경망 기반 추론 모델(110)의 구조 및 동작은 이미 자세히 기술되었으므로, 더 이상의 자세한 설명은 생략한다.
본 실시예에 따른 트레이닝부는 영상페어 생성기(604)가 생성한 영상 페어 중, 학습용 SD 영상을 추론 모델(110)의 입력으로 이용하고, 학습용 FHD 영상을 추론 모델(110)의 트레이닝을 위한 타겟(target) 영상으로 이용한다.
학습용 SD 영상을 이용하여 추론 모델(110)이 생성한 추론 영상과 타겟 영상 간의 거리 메트릭(distance metric)에 기반하여, 트레이닝부는 추론 모델(110)의 파라미터를 업데이트함으로써, 추론 모델(110)에 대한 트레이닝을 진행한다. 여기서 거리 메트릭은 크로스 엔트로피(cross entropy), L1 또는 L2 메트릭 등, 두 비교 대상 간의 메트릭 차이를 표현할 수 있는 것이면 어느 것이든 이용이 가능하다.
이하 본 실시예에 따른 영상 변환장치(100)의 성능을 제시하기 위한 실험례에 대하여 설명한다.
실험을 위한 학습용 영상 페어로는 방송용 드라마 콘텐츠를 이용하였으며, 이들에 대한 해상도는 표 1에 나타낸 바와 같다.
Figure pat00001
비교 대상으로는 종래의 기술 중 가장 양호한 성능을 보이는 RCAN 모델을 이용하였다. 본 실시예에 따른 영상 변환장치(100)는 도 6에 도시된 학습 모델을 이용하여 트레이닝된 추론 모델(110)을 포함한다. 추론 모델(110)은 75 개의 콘볼루션 레이어로 구성되고, 3×106 개 정도의 파라미터를 포함한다. 800 개 이상의 콘볼루션 레이어 및 16×106 개 정도의 파라미터를 포함하는 RCAN 모델과 비교하여, 본 실시예에 따른 추론 모델(110)은 감소된 복잡도를 갖는다.
성능 비교를 위하여, 표 1에 나타낸 콘텐츠로부터 획득된 SD 영상을 FHD 영상으로 변환 시의 장당 평균 소요시간, 및 변환된 FHD 영상의 PSNR(Peak Signal to Noise Ratio)이 측정되었다. 먼저 평균 소요시간의 경우, 본 실시예에 따른 영상 변환장치(100)는 장당 0.51 초를 사용하여, RCAN 모델의 장당 1.79 초와 비교하여 탁월한 연산 속도의 증가를 보였다. 또한 변환된 FHD 영상에 대하여, 본 실시예가 보인 PSNR은 33.31 dB로서 RCAN 모델의 33.35 dB와 비교하여 거의 차이를 보이지 않음으로써, 영상 품질의 유사함이 확인되었다.
RCAN 모델과 대비하여, 영상 변환장치(100)에 포함된 추론 모델(110)은 LRB, SRB 등에 기초하는 간단한 구성요소와 효과적인 트레이닝을 위한 다수의 스킵 연결을 포함한다. 이러한 간단하면서도 효과적인 구조로 인하여 본 실시예에 따른 영상 변환장치(100)는 연산 속도를 증가시키면서도 변환 영상의 품질 저하를 억제하는 것이 가능하다.
이상에서 설명한 바와 같이 본 실시예에 따르면, 학습용 저해상도 영상 및 고해상도 영상 페어(image pair)를 기반으로 사전에 트레이닝된 추론 모델(inference model)을 이용하여, 저해상도 영상으로부터 고해상도(high resolution) 영상을 생성하는 영상 변환장치 및 방법을 제공함으로써, 왜곡을 많이 포함하는 방송용 저해상도 영상으로부터 목표 수준의 고품질 영상을 획득하는 SR 구현이 가능해지는 효과가 있다.
또한 본 실시예에 따르면, 해상도, 종횡비(aspect ratio), 및 정렬과 같은 특성을 동일하게 일치시킨 학습용 저해상도 영상 및 고해상도 영상 페어를 기반으로 사전에 트레이닝된 추론 모델(inference model)을 이용하는 영상 변환장치 및 방법을 제공함으로써, 추론 모델의 복잡도 감소 및 트레이닝 효율 향상이 가능해지는 효과가 있다.
본 실시예에 따른 각 순서도에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 순서도에 기재된 과정을 변경하여 실행하거나 하나 이상의 과정을 병렬적으로 실행하는 것이 적용 가능할 것이므로, 순서도는 시계열적인 순서로 한정되는 것은 아니다.
본 명세서에 설명되는 시스템들 및 기법들의 다양한 구현예들은, 디지털 전자 회로, 집적 회로, FPGA(field programmable gate array), ASIC(application specific integrated circuit), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합으로 실현될 수 있다. 이러한 다양한 구현예들은 프로그래밍가능 시스템 상에서 실행가능한 하나 이상의 컴퓨터 프로그램들로 구현되는 것을 포함할 수 있다. 프로그래밍가능 시스템은, 저장 시스템, 적어도 하나의 입력 디바이스, 그리고 적어도 하나의 출력 디바이스로부터 데이터 및 명령들을 수신하고 이들에게 데이터 및 명령들을 전송하도록 결합되는 적어도 하나의 프로그래밍가능 프로세서(이것은 특수 목적 프로세서일 수 있거나 혹은 범용 프로세서일 수 있음)를 포함한다. 컴퓨터 프로그램들(이것은 또한 프로그램들, 소프트웨어, 소프트웨어 애플리케이션들 혹은 코드로서 알려져 있음)은 프로그래밍가능 프로세서에 대한 명령어들을 포함하며 "컴퓨터가 읽을 수 있는 기록매체"에 저장된다.
컴퓨터가 읽을 수 있는 기록매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 이러한 컴퓨터가 읽을 수 있는 기록매체는 ROM, CD-ROM, 자기 테이프, 플로피디스크, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등의 비휘발성(non-volatile) 또는 비일시적인(non-transitory) 매체일 수 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송) 및 데이터 전송 매체(data transmission medium)와 같은 일시적인(transitory) 매체를 더 포함할 수도 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다.
본 명세서에 설명되는 시스템들 및 기법들의 다양한 구현예들은, 프로그램가능 컴퓨터에 의하여 구현될 수 있다. 여기서, 컴퓨터는 프로그램가능 프로세서, 데이터 저장 시스템(휘발성 메모리, 비휘발성 메모리, 또는 다른 종류의 저장 시스템이거나 이들의 조합을 포함함) 및 적어도 한 개의 커뮤니케이션 인터페이스를 포함한다. 예컨대, 프로그램가능 컴퓨터는 서버, 네트워크 기기, 셋탑 박스, 내장형 장치, 컴퓨터 확장 모듈, 개인용 컴퓨터, 랩탑, PDA(Personal Data Assistant), 클라우드 컴퓨팅 시스템 또는 모바일 장치 중 하나일 수 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 영상 변환장치 102: 입력부
104: 영상변환부 106: 출력부
110: 추론 모델
202: LRB 204: 제1 스킵 연결
302: SRB 304: 제2 스킵 연결
402: 제3 스킵 연결

Claims (10)

  1. 비디오 콘텐츠로부터 저해상도(low resolution) 영상을 획득하는 입력부; 및
    심층신경망(deep neural network) 기반의 추론 모델(inference model)을 이용하여, 상기 저해상도 영상으로부터 상기 비디오 콘텐츠에 대한 고해상도(high resolution) 영상을 생성하는 영상변환부
    를 포함하되,
    상기 추론 모델은 제1 콘볼루션 레이어(convolution layer), 복수의 LRB(Long Residual Block), 제2 콘볼루션 레이어, 제1 스킵 연결(skip connection), 및 제3 콘볼루션 레이어를 포함하여, 상기 저해상도 영상을 상기 제1 콘볼루션 레이어, 상기 복수의 LRB, 상기 제2 콘볼루션 레이어, 및 상기 제3 콘볼루션 레이어의 순서대로 처리하여 상기 고해상도 영상을 생성하는 것을 특징으로 하는 영상 변환장치.
  2. 제1항에 있어서,
    상기 추론 모델은,
    동일한 비디오 콘텐츠에 기초하는 학습용 저해상도 영상 및 학습용 고해상도 영상 페어(image pair)를 이용하여 사전에 트레이닝되는 것을 특징으로 하는 영상 변환장치.
  3. 제1항에 있어서,
    상기 제1 콘볼루션 레이어는,
    상기 저해상도 영상으로부터 복수의 특성맵(feature map)을 추출하는 것을 특징으로 하는 영상 변환장치.
  4. 제1항에 있어서,
    상기 제2 콘볼루션 레이어는 상기 복수의 LRB 중 마지막 LRB의 출력에 대한 잔차(residue) 출력을 생성하고, 상기 제1 스킵 연결은 상기 제1 콘볼루션 레이어의 출력과 상기 잔차 출력을 가산하여 가산 결과를 생성하며, 상기 제3 콘볼루션 레이어는 상기 가산 결과로부터 상기 고해상도 영상을 생성하는 것을 특징으로 하는 영상 변환장치.
  5. 제1항에 있어서,
    상기 복수의 LRB 각각은,
    2 개의 SRB(Short Residual Block), 제2 스킵 연결, 및 제4 콘볼루션 레이어를 포함하여, 상기 LRB의 입력을 상기 2 개의 SRB, 및 상기 제4 콘볼루션 레이어의 순서대로 처리하는 것을 특징으로 하는 영상 변환장치.
  6. 제5항에 있어서,
    상기 제4 콘볼루션 레이어는 상기 두 개의 SRB 중 두 번째 SRB의 출력에 대한 잔차 출력을 생성하고, 상기 제2 스킵 연결은 상기 LRB의 입력과 상기 잔차 출력을 가산하는 것을 특징으로 하는 영상 변환장치.
  7. 제5항에 있어서,
    상기 2 개의 SRB 각각은,
    적어도 하나의 콘볼루션 레이어를 포함하는 제1 콘볼루션 그룹, 연쇄 레이어(concatenation layer), 적어도 하나의 콘볼루션 레이어를 포함하는 제2 콘볼루션 그룹, 및 제3 스킵 연결을 포함하여, 상기 SRB의 입력을 상기 제1 콘볼루션 그룹, 상기 연쇄 레이어 및 상기 제2 콘볼루션 그룹의 순서대로 처리하는 것을 특징으로 하는 영상 변환장치.
  8. 제7항에 있어서,
    상기 제1 콘볼루션 그룹은 상기 SRB의 입력에 대한 잔차 출력을 생성하고, 상기 연쇄 레이어는 상기 SRB의 입력과 상기 제1 콘볼루션 그룹의 잔차 출력을 연쇄하여 상기 제2 콘볼루션 그룹 측으로 전달하고, 상기 제2 콘볼루션 그룹은 상기 연쇄 레이어의 출력에 대한 잔차 출력을 생성하며, 상기 제3 스킵 연결은 상기 SRB의 입력과 상기 제2 콘볼루션 그룹의 잔차 출력을 가산하는 것을 특징으로 하는 영상 변환장치.
  9. 영상 변환장치가 이용하는 영상 변환방법에 있어서,
    비디오 콘텐츠로부터 저해상도(low resolution) 영상을 획득하는 과정; 및
    심층신경망(deep neural network) 기반으로 구현되고, 제1 콘볼루션 레이어(convolution layer), 복수의 LRB(Long Residual Block), 제2 콘볼루션 레이어, 제1 스킵 연결(skip connection), 및 제3 콘볼루션 레이어를 포함하고, 동일한 비디오 콘텐츠에 기초하는 학습용 저해상도 영상 및 학습용 고해상도 영상 페어(image pair)를 기반으로 사전에 트레이닝되며, 상기 저해상도 영상을 상기 제1 콘볼루션 레이어, 상기 복수의 LRB, 상기 제2 콘볼루션 레이어, 및 상기 제3 콘볼루션 레이어의 순서대로 처리하는 추론 모델(inference model)을 이용하여, 상기 저해상도 영상으로부터 상기 비디오 콘텐츠에 대한 고해상도(high resolution) 영상을 생성하는 과정
    을 포함하는 것을 특징으로 하는 영상 변환방법.
  10. 제9항에 따른 영상 변환방법이 포함하는 각 단계를 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터프로그램.
KR1020200046435A 2020-04-17 2020-04-17 영상 변환장치 및 방법 KR20210128605A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200046435A KR20210128605A (ko) 2020-04-17 2020-04-17 영상 변환장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200046435A KR20210128605A (ko) 2020-04-17 2020-04-17 영상 변환장치 및 방법

Publications (1)

Publication Number Publication Date
KR20210128605A true KR20210128605A (ko) 2021-10-27

Family

ID=78287172

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200046435A KR20210128605A (ko) 2020-04-17 2020-04-17 영상 변환장치 및 방법

Country Status (1)

Country Link
KR (1) KR20210128605A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024019337A1 (en) * 2022-07-22 2024-01-25 Samsung Electronics Co., Ltd. Video enhancement method and apparatus

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
비특허문헌 1: B. Lim, S. Son, H. Kim, S. Nah, K. Lee. Enhanced Deep Residual Networks for Single Image Super Resolution, In CVPR workshop, 2017.
비특허문헌 2: K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In CVPR 2016.
비특허문헌 3: Y. Zhang, K. Li, K. Li, L. Wang, B. Zhong, Y. Fu. Image Super-Resolution Using Very Deep Residual Channel Attention Networks, In ECCV, 2018.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024019337A1 (en) * 2022-07-22 2024-01-25 Samsung Electronics Co., Ltd. Video enhancement method and apparatus

Similar Documents

Publication Publication Date Title
Mishra et al. Wavelet-based deep auto encoder-decoder (wdaed)-based image compression
KR101778530B1 (ko) 영상 처리 방법 및 장치
US9628751B2 (en) Method, device, and system for pre-processing a video stream for subsequent motion detection processing
US11928843B2 (en) Signal processing apparatus and signal processing method
CN113538287B (zh) 视频增强网络训练方法、视频增强方法及相关装置
CN111709898A (zh) 基于优化clahe的红外图像增强方法与***
KR20210128605A (ko) 영상 변환장치 및 방법
KR20210109719A (ko) 비디오 컬러화 방법 및 장치
US20180020148A1 (en) Image processing method and apparatus
Sikka et al. Lossless image compression technique using Haar wavelet and vector transform
CN115880381A (zh) 图像处理方法、图像处理装置、模型训练方法
Zhang et al. A novel block compressed sensing based on matrix permutation
KR102442160B1 (ko) 위상합동을 이용한 초해상화 모델 학습방법 및 그를 위한 초해상화 모델
US20170103499A1 (en) Method and apparatus for de-noising an image using video epitome
KR20230061179A (ko) 노이즈 분류를 이용한 화질 개선 방법 및 장치
Tamang et al. Exponential data embedding scheme for display to camera communications
CN115937039A (zh) 数据扩充方法、装置、电子设备及可读存储介质
Wan et al. High bit-precision image acquisition and reconstruction by planned sensor distortion
CN104504667A (zh) 图像处理方法及装置
Di Martino et al. Fuzzy transform for coding/decoding images: a short description of methods and techniques
CN104902256B (zh) 一种基于运动补偿的双目立体图像编解码方法
US10893290B2 (en) Apparatus for moving image coding, apparatus for moving image decoding, and non-transitory computer-readable storage medium
KR102368677B1 (ko) 어두운 영역 기반 저조도 영상 개선 방법 및 장치
KR102417425B1 (ko) 얼굴형을 고려하며 딥러닝 네트워크를 이용하는 배경 및 얼굴 합성 방법 및 장치
KR100815160B1 (ko) 베이시안 호프 변환을 이용한 선형 특징 추출 장치 및 그방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal