KR101380460B1 - 화상 처리 장치 및 화상 처리 방법 - Google Patents

화상 처리 장치 및 화상 처리 방법 Download PDF

Info

Publication number
KR101380460B1
KR101380460B1 KR1020127025639A KR20127025639A KR101380460B1 KR 101380460 B1 KR101380460 B1 KR 101380460B1 KR 1020127025639 A KR1020127025639 A KR 1020127025639A KR 20127025639 A KR20127025639 A KR 20127025639A KR 101380460 B1 KR101380460 B1 KR 101380460B1
Authority
KR
South Korea
Prior art keywords
image
block
motion vector
unit
determined
Prior art date
Application number
KR1020127025639A
Other languages
English (en)
Other versions
KR20120135296A (ko
Inventor
히데노부 미요시
Original Assignee
후지쯔 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지쯔 가부시끼가이샤 filed Critical 후지쯔 가부시끼가이샤
Publication of KR20120135296A publication Critical patent/KR20120135296A/ko
Application granted granted Critical
Publication of KR101380460B1 publication Critical patent/KR101380460B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

인접 블록의 부호화 모드를 판정하고, 인트라 부호화 모드가 아닌 인접 블록의 움직임 벡터 및 이 인접 블록의 참조 화상을 나타내는 참조 인덱스에 기초하여, 처리 대상 블록이 정지 영역 및 움직임 영역 중 어느 쪽에 속하는지를 판정한다. 판정의 결과에 기초하여, 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스를 결정한다. 인접 블록이 모두 인트라 부호화 모드인 경우, 처리 대상 블록이 속하는 필드와 다른 필드의 직근의 화상에 부여된 인덱스 번호를 선택한다. 처리 대상 블록이 정지 영역에 속하는 경우, 처리 대상 블록이 속하는 필드와 동일한 필드의 직근의 화상에 부여된 인덱스 번호를 선택한다. 처리 대상 블록이 움직임 영역에 속하는 경우, 인접 블록의 참조 화상을 나타내는 참조 인덱스 중에서 시간적으로 가장 가까운 참조 화상의 인덱스 번호를 선택한다.

Description

화상 처리 장치 및 화상 처리 방법{IMAGE PROCESSING APPARATUS AND IMAGE PROCESSING METHOD}
본 발명은, 화상 처리 장치 및 화상 처리 방법에 관한 것이다.
동화상의 화상 처리 기술 중 하나로, 화상 정보를 인터 예측(화면간 예측)을 사용하여 부호화한 제1 부호화 정보를, 이 제1 부호화 정보의 움직임 벡터를 사용하여, 제2 부호화 정보로 트랜스코드(transcode)하는 기술이 있다. 이러한 기술에 있어서, 예를 들면 제1 부호화 정보의 움직임 벡터를 재이용할 수 없는 경우에, 부호화 대상 블록의 예측 모드를, 주변의 블록의 예측 모드에 기초하여, 인터 예측으로부터 인트라 예측(화면내 예측)으로 변경하여 제2 부호화 정보를 생성하는 기술이 있다. 또한, 부호화 대상 매크로 블록의 예측 모드를, 인접하는 부호화된 매크로 블록, 및 부호화되어 있지 않은 인접 매크로 블록에 대응하기 직전의 화상 내의 매크로 블록의 각각과 동일한 예측 모드 중에서 선택하는 기술이 있다. 또한, 프레임간이나 필드간의 움직임 벡터를 이용하여, 보간되는 프레임이나 필드에 대한 움직임 벡터를 추정하고, 이 움직임 벡터를 이용하여, 보간되는 프레임이나 필드의 화소를 생성하는 기술이 있다.
인터 예측을 사용하여 동화상을 부호화하는 시스템에 있어서, 동화상 데이터를 송신하는 측의 장치에서는, 다음과 같은 처리가 행해진다. 과거의 참조 화상으로부터 부호화 대상 화상으로의 움직임을 나타내는 움직임 벡터 데이터가 생성된다. 그 움직임 벡터 데이터를 이용하여 참조 화상으로부터 부호화 대상 화상의 예측 화상이 생성된다. 그 예측 화상과 실제의 부호화 대상 화상과의 차분 데이터가 생성된다. 그리고 그 차분 데이터 및 움직임 벡터 데이터가 부호화되어 송신된다. 수신측의 장치에서는, 수신한 움직임 벡터 데이터 및 차분 데이터를 이용하여 복호 대상 화상이 재생된다. 이때의 부호화 및 복호의 처리는, 1 프레임의 원화상을 복수의 블록(매크로 블록)으로 분할하고, 이 블록 단위로 행해진다.
동화상의 표시 방식 중 하나로, 1 프레임의 화상을, 홀수 번째의 주사선으로 이루어지는 필드와 짝수 번째의 주사선으로 이루어지는 필드로 분할하고, 그들의 필드를 교대로 표시하는 인터레이스(interlacing) 방식이 있다. 인터레이스 방식에서는, 부호화 대상 화상에 대해 복수의 참조 화상의 후보가 존재하고, 그 중에서 적당한 참조 화상이 선택된다. 복수의 참조 화상의 후보에는, 각각 인덱스 번호가 부여(할당)된다. 1 프레임의 화상에 있어서, 공간적으로 상측에 위치하는 필드를 톱 필드(top field)라 칭하고, 공간적으로 하측에 위치하는 필드를 보텀 필드(bottom field)라 칭하는 경우가 있다.
도 9는 참조 화상의 후보에 대한 인덱스 번호의 부여 방법을 설명하는 도면이다. 예를 들면, 도 9에 도시한 바와 같이, Pt0로 한 부호화 대상 블록의 화상(1)이 톱 필드의 화상인 경우, 직근(가장 가까운)의 동일한 필드 타입, 즉, 톱 필드의 Pt1로 한 참조 화상의 후보(2)에 인덱스 번호 refIdxL0으로서 0이 부여된다. 부호화 대상 블록의 화상(1)에 대해 직근의 다른 필드 타입, 즉 보텀 필드의 Pb1로 한 참조 화상의 후보(3)에 1의 인덱스 번호가 부여된다. Ptn 및 Pbn은, 각각 톱 필드 및 보텀 필드의 화상인 것을 나타낸다. 또한, Ptn의 화상 및 Pbn의 화상은, 동일한 프레임에 포함되는 화상이다.
톱 필드와 톱 필드와 같이 필드끼리가 공간적으로 상하의 동일한 측에 있는 경우를 동일 패리티라고 하고, 톱 필드와 보텀 필드와 같이 필드끼리가 공간적으로 상하의 다른 측에 있는 경우를 상이 패리티라 부르는 경우가 있다. 2의 인덱스 번호는, 동일 패리티에 있어서 다음으로 직근의 Pt2로 한 참조 화상의 후보(4)에 부여된다. 3의 인덱스 번호는, 상이 패리티에 있어서 다음으로 직근의 Pb2로 한 참조 화상의 후보(5)에 부여된다. 이와 같이, 부호화 대상 블록에 가까운 순으로, 동일 패리티의 화상으로부터 시작하여, 동일 패리티의 화상과 상이 패리티의 화상에 대해 교대로 인덱스 번호가 부여된다. 부호화 대상 블록의 화상이 보텀 필드의 화상인 경우도 마찬가지이다.
인터레이스 방식으로 인터 예측을 사용하여 동화상을 부호화하는 경우, 예를 들면 도 9에 도시한 바와 같이, 부호화 대상 블록 Pt0에 대해 참조 화상의 후보가 Pt1, Pb1, Pt2 및 Pb2와 같이 복수 존재하는 경우가 있다. 실제로 부호화할 때에는, 복수의 참조 화상의 후보 중에서 적당한 하나가 선택된다. 따라서, 차분 데이터 및 움직임 벡터 데이터와 함께, 선택된 참조 화상을 나타내는 참조 인덱스도 부호화된다. 이것에 대해, 직근의 동일 패리티의 화상을 참조 화상으로 하도록 미리 알고리즘으로 정해져 있는 경우가 있다. 부호화하는 측의 알고리즘 및 복호하는 측의 알고리즘이 이러한 알고리즘인 경우에는, 부호화하는 측에서 복호하는 측으로 참조 인덱스를 통지하지 않아도, 복호하는 측에서 참조 인덱스가 0인 것을 암묵적으로 알 수 있다. 따라서, 참조 인덱스를 생략하고 부호화할 수 있으므로, 참조 인덱스도 부호화하는 경우에 비해, 부호화의 효율이 좋아진다.
동화상 부호화 방식의 규격의 하나인 ITU-T H.264/ISO/IEC MPEG-4AVC에는, 이와 같이 참조 인덱스를 생략하고 부호화하는, P8×8ref0이나 P_SKIP이라 불리는 매크로 블록이 준비되어 있다. 동화상을 부호화할 때에는, 동화상 데이터의 압축률이 높아지므로, P8×8ref0이나 P_SKIP이 가능한 한 많이 선택되는 것이 바람직하다. 또한, ITU-T는, International Telecommunication Union Telecommunication Standardization Sector(국제 전기 통신 연합 전기 통신 표준화 부문)의 약자이다. ISO는, International Organization for Standardization(국제 표준화 기구)의 약자이다. IEC는, International Electrotechnical Commission(국제 전기 표준 회의)의 약자이다. MPEG-4는, Moving Picture Experts Group phase 4의 약자이다. AVC는, Advanced Video Coding의 약자이다.
일본 특허 출원 공개 제2006-295734호 공보 일본 특허 출원 공개 제2009-55542호 공보 일본 특허 출원 공개 제2003-163894호 공보
그러나 종래의 인터레이스 방식에 있어서의 부호화 기술에서는, 이하에 설명하는 바와 같이, 참조 인덱스를 생략하고 부호화할 수 있는 매크로 블록 타입이 선택되기 어렵다. 그로 인해, 부호화의 효율이 나쁘다고 하는 문제점이 있다. 정지하고 있는 씬(scene)일 때에는, 톱 필드 및 보텀 필드 중 어느 쪽에 있어서도, 부호화 대상 블록의 화상이 직근의 동일 패리티의 화상과 동일한 경우가 많다. 따라서, 참조 화상으로서 직근의 동일 패리티의 화상이 선택되는 경향이 있다. 직근의 동일 패리티의 화상이 선택되는 경우에는, 참조 인덱스가 0이므로, 상술한 P8×8ref0이나 P_SKIP이 선택되기 쉬워진다.
그것에 반해, 움직임이 있는 씬일 때에는, 톱 필드 및 보텀 필드 중 어느 쪽에 있어서도, 부호화 대상 블록의 화상이 직근의 동일 패리티의 화상과 다른 경우가 많다. 이것은, 도 10에 도시한 바와 같이, GOP(Group Of Pictures) 구조가 I 픽쳐(도면에는 나타나 있지 않음), 혹은 P 픽쳐와 P 픽쳐와의 사이에 2매의 B 픽쳐를 개재하는 IBBP 구조인 것과 같은 경우에 현저해진다. 움직임 보상 예측에서는, 부호화 대상의 화상과 동일한 픽쳐 타입의 화상이 참조 화상으로서 이용된다.
따라서, 부호화 대상 블록의 화상(11)이 보텀 필드에 있어서의 P 픽쳐의 화상 Pb0인 경우, 이 Pb0에 대해 직근의 보텀 필드에 있어서의 P 픽쳐의 화상은, Pb1로 한 화상(12)이다. 이 Pb1은 Pb0의 화상으로부터 6 필드 시간 떨어져 있으므로, Pb1로부터 Pb0으로 이행하는 동안에 도안이 크게 변화되어 버릴 우려가 있다.
한편, Pt0으로 한 직근의 톱 필드에 있어서의 P 픽쳐의 화상(13)은 Pb0으로부터 1 필드 시간밖에 떨어져 있지 않다. 따라서, 1 필드 시간 떨어져 있는 경우의 도안의 변화는, 상술한 6 필드 시간 떨어져 있을 경우와 비교하여 작다. 이 보텀 필드의 화상의 예 정도는 아니지만, 부호화 대상 블록의 화상이 톱 필드의 화상인 경우도, 직근의 상이 패리티의 화상의 쪽이 직근의 동일 패리티의 화상보다도, 부호화 대상 블록의 화상으로부터 떨어져 있는 시간이 짧다. 이와 같이, 움직임이 있는 씬일 때에는, 참조 화상으로서 직근의 상이 패리티의 화상을 선택한 쪽이 예측 정밀도가 좋아질 가능성이 높으므로, 직근의 상이 패리티의 화상이 선택되는 경향이 있다. 이 경우에는, 참조 인덱스가 1이므로, 상술한 P8×8ref0이나 P_SKIP은 선택되지 않는다.
또한, 전술한 문제는, 정지하고 있는 씬과 움직임이 있는 씬에 한정되지 않고, 화면 내의 정지하고 있는 영역(정지 영역)과 움직임이 있는 영역(움직임 영역)에 대해서도 마찬가지이다. 즉, 도 11에 도시한 바와 같이, 정지 영역(21)에서는, 참조 화상으로서 직근의 동일 패리티의 화상이 선택되는 경향이 있고, 움직임 영역(22)에서는, 참조 화상으로서 직근의 상이 패리티의 화상이 선택되는 경향이 있다. 따라서, 움직임 영역(22)에서는, 상술한 P8×8ref0이나 P_SKIP이 선택되지 않는다. 이와 같이, 종래의 부호화 기술에서는, 참조 인덱스를 생략하고 부호화할 수 있는 매크로 블록 타입이 선택되기 어렵기 때문에, 부호화의 효율이 나빠져 버린다.
이 화상 처리 장치 및 화상 처리 방법은, 동화상의 화상 처리에 있어서 부호화의 효율을 좋게 하는 것을 목적으로 한다.
화상 처리 장치는, 1 프레임을 서로 다른 타이밍에서 표시되는 복수의 필드로 나눈다. 화상 처리 장치는, 각 필드의 화상을 각각 복수의 블록으로 분할한다. 화상 처리 장치는, 블록마다 과거의 복수의 참조 화상의 후보로부터 선택한 참조 화상 및 이 참조 화상에 대한 움직임 벡터에 기초하여 움직임 보상 예측을 행한다. 화상 처리 장치는, 인트라 모드 판정부, 움직임 벡터 판정부 및 참조 인덱스 결정부를 구비하고 있다. 인트라 모드 판정부는, 처리 대상 블록에 인접하는 복수의 인접 블록의 부호화 모드가 모두 인트라 부호화 모드인지의 여부를 판정한다. 움직임 벡터 판정부는, 인트라 모드 판정부에 의해 인접 블록 중 적어도 하나가 인트라 부호화 모드가 아니라고 판정된 경우에, 처리 대상 블록이 정지 영역 및 움직임 영역 중 어느 쪽에 속하는지를 판정한다. 그 판정은, 인트라 부호화 모드가 아니라고 판정된 인접 블록의 움직임 벡터 및 인트라 부호화 모드가 아니라고 판정된 인접 블록의 참조 화상을 나타내는 참조 인덱스에 기초하여 행해진다. 참조 인덱스 결정부는, 인트라 모드 판정부에 의해 모든 인접 블록이 인트라 부호화 모드라고 판정된 경우에, 처리 대상 블록이 속하는 필드와 다른 필드의 시간적으로 가장 가까운 화상에 부여된 인덱스 번호를 선택한다. 참조 인덱스 결정부는, 움직임 벡터 판정부에 의해 정지 영역에 속한다고 판정된 경우에, 처리 대상 블록이 속하는 필드와 동일한 필드의 시간적으로 가장 가까운 화상에 부여된 인덱스 번호를 선택한다. 참조 인덱스 결정부는, 움직임 벡터 판정부에 의해 움직임 영역에 속한다고 판정된 경우에, 인트라 모드 판정부에 의해 인트라 부호화 모드가 아니라고 판정된 인접 블록의 참조 화상을 나타내는 참조 인덱스 중에서 시간적으로 가장 가까운 참조 화상의 인덱스 번호를 선택한다. 참조 인덱스 결정부는, 선택한 인덱스 번호를 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스로 결정한다.
개시된 화상 처리 장치 및 화상 처리 방법에 따르면, 동화상의 화상 처리에 있어서 부호화의 효율을 좋게 할 수 있다고 하는 효과를 발휘한다.
도 1은 실시예 1에 관한 화상 처리 장치를 도시하는 블록도이다.
도 2는 실시예 1에 관한 화상 처리 방법을 나타내는 플로우차트이다.
도 3은 실시예 2에 관한 부호화 장치의 하드웨어 구성을 도시하는 블록도이다.
도 4는 실시예 2에 관한 부호화 장치의 기능적 구성을 도시하는 블록도이다.
도 5는 실시예 2에 관한 화상 처리 장치를 도시하는 블록도이다.
도 6은 부호화 대상 매크로 블록, 인접 매크로 블록 및 참조 화상의 관계를 설명하는 도면이다.
도 7은 실시예 2에 관한 화상 처리 방법을 나타내는 플로우차트이다.
도 8은 실시예 3에 관한 복호 장치의 기능적 구성을 도시하는 블록도이다.
도 9는 참조 화상의 후보에 대한 인덱스 번호의 부여 방법을 설명하는 도면이다.
도 10은 IBBP 구조에 있어서의 참조 화상의 선택예를 설명하는 도면이다.
도 11은 정지 영역 및 움직임 영역에 대한 참조 화상의 선택예를 설명하는 도면이다.
이하에, 본 발명에 따른 화상 처리 장치 및 화상 처리 방법의 실시예를 도면에 기초하여 상세하게 설명한다. 또한, 이 실시예에 의해 본 발명이 한정되는 것은 아니다. 화상 처리 장치 및 화상 처리 방법은, 처리 대상 블록에 인접하는 인접 블록의 화상의 부호화 모드, 인접 블록의 참조 화상을 나타내는 참조 인덱스 및 이 참조 화상에 대한 인접 블록의 움직임 벡터에 기초하여, 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스를 결정하는 것이다. 이 실시 형태에서는, 1 프레임은, 서로 다른 타이밍에서 표시되는 복수의 필드, 예를 들면 톱 필드와 보텀 필드로 나뉜다. 각 필드의 화상은, 각각 복수의 블록으로 분할되어 처리된다. 화상 처리 장치는, 블록마다 과거의 복수의 참조 화상의 후보로부터 선택한 참조 화상 및 이 참조 화상에 대한 움직임 벡터에 기초하여 움직임 보상 예측을 행한다.
(실시예 1)
ㆍ화상 처리 장치의 설명
도 1은, 실시예 1에 관한 화상 처리 장치를 도시하는 블록도이다. 도 1에 도시한 바와 같이, 화상 처리 장치는, 인트라 모드 판정부(31), 움직임 벡터 판정부(32) 및 참조 인덱스 결정부(33)를 구비하고 있다. 이들 인트라 모드 판정부(31), 움직임 벡터 판정부(32) 및 참조 인덱스 결정부(33)는, 예를 들면 후술하는 화상 처리 방법을 프로세서에 실행시키는 프로그램을 프로세서가 실행함으로써 실현된다. 혹은, 하드웨어로 실현해도 된다. 인트라 모드 판정부(31)는, 처리 대상 블록에 인접하는 복수의 인접 블록의 부호화 모드가 모두 인트라 부호화 모드인지의 여부를 판정한다.
움직임 벡터 판정부(32)는, 인트라 모드 판정부(31)에 의해 인접 블록 중 적어도 하나가 인트라 부호화 모드가 아니라고 판정된 경우에, 처리 대상 블록이 정지 영역 및 움직임 영역 중 어느 쪽에 속하는지를 판정한다. 이 판정은, 인트라 부호화 모드가 아니라고 판정된 인접 블록의 움직임 벡터 및 인트라 부호화 모드가 아니라고 판정된 인접 블록의 참조 화상을 나타내는 참조 인덱스에 기초하여 행해진다.
참조 인덱스 결정부(33)는, 인트라 모드 판정부(31)에 의해 모든 인접 블록이 인트라 부호화 모드라고 판정된 경우, 처리 대상 블록에 대하여 직근의 상이 패리티의 화상에 부여된 인덱스 번호를 선택한다. 참조 인덱스 결정부(33)는, 움직임 벡터 판정부(32)에 의해 정지 영역에 속한다고 판정된 경우, 처리 대상 블록에 대하여 직근의 동일 패리티의 화상에 부여된 인덱스 번호를 선택한다. 참조 인덱스 결정부(33)는, 움직임 벡터 판정부(32)에 의해 움직임 영역에 속한다고 판정된 경우, 인트라 모드 판정부(31)에 의해 인트라 부호화 모드가 아니라고 판정된 인접 블록의 참조 화상을 나타내는 참조 인덱스 중에서 직근의 참조 화상의 인덱스 번호를 선택한다. 참조 인덱스 결정부(33)는, 선택한 인덱스 번호를 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스로 결정한다.
ㆍ화상 처리 방법의 설명
도 2는, 실시예 1에 관한 화상 처리 방법을 나타내는 플로우차트이다. 도 2에 도시한 바와 같이, 하나의 처리 대상 블록에 대한 화상 처리가 개시되면, 우선, 인트라 모드 판정부(31)에 의해, 처리 대상 블록에 인접하는 복수의 인접 블록의 부호화 모드가 모두 인트라 부호화 모드인지의 여부가 판정된다(스텝 S1). 모든 인접 블록이 인트라 부호화 모드라고 판정된 경우(스텝 S1 : '예'), 참조 인덱스 결정부(33)에 의해, 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스로서, 직근의 상이 패리티의 화상에 부여된 인덱스 번호가 선택된다(스텝 S2). 그리고, 하나의 처리 대상 블록에 대한 일련의 처리가 종료된다.
인접 블록 중 적어도 하나가 인트라 부호화 모드가 아니라고 판정된 경우(스텝 S1 : '아니오'), 움직임 벡터 판정부(32)에 의해, 처리 대상 블록이 정지 영역 및 움직임 영역 중 어느 쪽에 속하는지가 판정된다(스텝 S3). 이 판정은, 인트라 부호화 모드가 아니라고 판정된 인접 블록의 움직임 벡터 및 인트라 부호화 모드가 아니라고 판정된 인접 블록의 참조 화상을 나타내는 참조 인덱스에 기초하여 행해진다.
처리 대상 블록이 정지 영역에 속한다고 판정된 경우(스텝 S3 : '예'), 참조 인덱스 결정부(33)에 의해, 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스로서, 직근의 동일 패리티의 화상에 부여된 인덱스 번호가 선택된다(스텝 S4). 그리고, 하나의 처리 대상 블록에 대한 일련의 처리가 종료된다.
처리 대상 블록이 움직임 영역에 속한다고 판정된 경우(스텝 S3 : '아니오'), 참조 인덱스 결정부(33)에 의해, 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스로서, 인트라 부호화 모드가 아니라고 판정된 인접 블록의 참조 화상에 부여된 인덱스 번호가 선택된다(스텝 S5). 인트라 부호화 모드가 아니라고 판정된 인접 블록이 복수 존재하는 경우에는, 해당하는 복수의 인접 블록의 참조 화상 중 직근의 참조 화상에 부여된 인덱스 번호가 선택된다. 그리고, 하나의 처리 대상 블록에 대한 일련의 처리가 종료된다. 이상의 처리가 모든 처리 대상 블록에 대하여 행해진다.
실시예 1에 따르면, 부호화할 때에 인접 블록의 부호화 모드, 인접 블록의 움직임 벡터 및 인접 블록의 참조 화상을 나타내는 참조 인덱스에 기초하여, 처리 대상 블록의 참조 인덱스가 결정된다. 따라서, 복호할 때에도 동일하게 하여 처리 대상 블록의 참조 인덱스를 결정함으로써, 부호화하는 측과 복호하는 측에서, 동일한 처리 대상 블록에 대하여 동일한 참조 인덱스가 결정되게 된다. 그것에 의해, 부호화하는 측으로부터 복호하는 측으로 참조 인덱스를 통지하지 않아도, 복호하는 측에서 복호할 수 있다. 즉, 참조 인덱스를 생략하여 부호화하여, 복호할 수 있다. 또한, 참조 인덱스가 0이 아닌 경우라도 인접 블록에 따라서 적당한 참조 인덱스가 결정되므로, 참조 인덱스가 0인 경우에 참조 인덱스의 부호화를 생략할 수 있는 경우와 비교하여, 보다 많은 블록에서 참조 인덱스를 생략하고 부호화할 수 있다. 따라서, 부호화의 효율을 좋게 할 수 있다.
(실시예 2)
실시예 2는, 실시예 1의 화상 처리 장치 및 화상 처리 방법을 동화상의 부호화 장치 및 부호화 방법에 적용한 것이다. 실시예 2를 적용 가능한 동화상 부호화 방식의 일례로서, 예를 들면 ITU-T H.264/ISO/IEC MPEG-4AVC나 ISO/IEC MPEG-2/MPEG-4를 들 수 있다. MPEG-2는, Moving Picture Experts Group phase 2의 약자이다.
ㆍ부호화 장치의 설명
도 3은, 실시예 2에 따른 부호화 장치의 하드웨어 구성을 도시하는 블록도이다. 도 3에 도시한 바와 같이, 부호화 장치는, 예를 들면 CPU(Central Processing Unit, 중앙 처리 장치)(41), 화상 처리 프로세서(42), RAM(Random Access Memory, 랜덤 액세스 메모리)(43), HDD(Hard Disk Drive, 하드디스크 드라이브)(44), ROM(Read Only Memory, 읽기 전용 메모리)(45), 입력 장치(46), 모니터(47), 매체 판독 장치(48) 및 네트워크 인터페이스(49)를 구비하고 있다. 각 구성부는 버스(50)에 접속되어 있다.
HDD(44)는, 내장하는 하드디스크에 화상 처리 프로그램이나 동화상 데이터를 기억하고 있다. 화상 처리 프로그램은, 동화상 데이터를 화상 처리하는 프로그램이며, 예를 들면 매체 판독 장치(48)에 의해 착탈 가능한 기록 매체로부터 읽어내어져 하드디스크에 인스톨되어 있다. 동화상 데이터는, 예를 들면 매체 판독 장치(48)에 의해 착탈 가능한 기록 매체로부터 읽어내어진 데이터나, 네트워크 인터페이스(49)를 개재하여 네트워크로부터 수신한 데이터나, 텔레비전 방송을 수신한 데이터이다.
RAM(43)은, CPU(41)의 워크 에어리어(work area)로서 사용된다. RAM(43)은, HDD(44)로부터 읽어내어진 동화상 데이터를 저장한다. RAM(43)은, 화상 처리 프로세서(42)에 의한 화상 처리 결과를 저장한다. 화상 처리 프로세서(42)는, HDD(44)로부터 화상 처리 프로그램을 읽어내어 화상 처리 프로세스를 실행하고, RAM(43)으로부터 읽어낸 동화상 데이터에 대하여 부호화나 복호 등의 처리를 행한다. CPU(41)는, 부호화 장치의 전체의 동작을 제어한다. 실시예 2에 따른 부호화 장치는, 화상 처리 프로세서(42)가 화상 처리 프로세스를 실행함으로써 실현된다.
ROM(45)은, 부트 프로그램(boot program) 등의 프로그램을 기억하고 있다. 입력 장치(46)는, 예를 들면 키보드나, 터치 패널식 입력 패드나, 마우스 등의 포인팅 디바이스나, 리모트 컨트롤러 등의 조작 기기의 스위치나 버튼을 포함한다. 모니터(47)는, 예를 들면 CRT(Cathode Ray Tube, 브라운관) 디스플레이나 TFT(Thin Film Transistor, 박막 트랜지스터) 액정 디스플레이 등의 동화상이나 데이터를 표시하는 장치이다. 매체 판독 장치(48)는, DVD(Digital Versatile Disk, 디지털 버서타일 디스크)나 메모리 카드 등의 착탈 가능한 기록 매체로부터 동화상 데이터를 포함하는 데이터의 판독을 제어한다.
네트워크 인터페이스(49)는, 통신 회선을 통해서 인터넷 등의 네트워크에 접속되고, 네트워크에 접속된 다른 장치와의 사이에서 동화상 데이터를 포함하는 데이터의 송수신을 제어한다. 네트워크 인터페이스(49)는, 모뎀이나 LAN(Local Area Network, 구내 통신망) 어댑터 등을 포함한다. 부호화 장치가 텔레비전 방송을 수신하는 장치인 경우에는, 부호화 장치는, 안테나선에 접속되는 도시하지 않은 인터페이스를 구비하고 있다.
도 4는 실시예 2에 따른 부호화 장치의 기능적 구성을 도시하는 블록도이다. 도 4에 도시한 바와 같이, 부호화 장치는, 예측 오차 생성부(61), 직교 변환부(62), 양자화부(63) 및 부호화부로서의 엔트로피 부호화부(64)를 구비하고 있다. 부호화 장치에 입력된 원화상의 데이터는, 부호화 대상의 필드마다 예를 들면 16×16 픽셀의 매크로 블록의 데이터로 분할된다. 부호화 처리는, 매크로 블록 단위로 행해진다. 따라서, 실시예 2에서는, 실시예 1의 부호화 대상 블록 및 인접 블록은 각각 부호화 대상 매크로 블록 및 인접 매크로 블록으로 된다.
예측 오차 생성부(61)에는, 현재의 부호화 대상 매크로 블록의 데이터가 입력된다. 예측 오차 생성부(61)는, 현재의 부호화 대상 매크로 블록의 데이터와, 후술하는 예측 화상 선택부(72)로부터 공급되는 움직임 보상된 참조 화상의 데이터와의 예를 들면 차분을 구함으로써 예측 오차 신호를 생성한다. 움직임 보상된 참조 화상은, 후술하는 인터 예측 화상 생성부(70)에 있어서 과거의 참조 화상에 대하여 움직임 보상함으로써 생성된다.
직교 변환부(62)는, 예측 오차 생성부(61)의 출력 신호에 대하여 직교 변환 처리를 행하여, 수평 방향 및 수직 방향의 주파수 성분으로 분리된 신호를 생성한다. 양자화부(63)는, 직교 변환부(62)의 출력 신호에 대하여 양자화 처리를 행하여, 부호화함으로써 예측 오차 신호의 부호량을 저감한다. 엔트로피 부호화부(64)는, 양자화부(63)의 출력 신호 및 움직임 벡터를, 심볼의 출현 빈도에 따라서 가변 길이의 부호를 할당함으로써 부호화하여, 비트스트림으로서 출력한다. 움직임 벡터는, 후술하는 움직임 벡터 계산부(71)로부터 공급된다.
또한, 부호화 장치는, 역양자화부(65), 역직교 변환부(66), 복호 화상 생성부(67) 및 복호 화상 기억부(68)를 구비하고 있다. 역양자화부(65)는, 양자화부(63)의 출력 신호에 대하여 역양자화 처리를 행한다. 역직교 변환부(66)는, 역양자화부(65)의 출력 신호에 대하여 역직교 변환 처리를 행한다. 이와 같이 역양자화부(65) 및 역직교 변환부(66)에 의해 복호 처리가 행해짐으로써, 부호화 전의 예측 오차 신호와 동일한 정도의 신호가 얻어진다. 즉, 부호화 전의 예측 오차 신호가 거의 재생된다.
복호 화상 생성부(67)는, 재생된 예측 오차 신호와, 후술하는 예측 화상 선택부(72)로부터 공급되는 움직임 보상된 참조 화상의 데이터를, 예를 들면 가산함으로써, 현재의 부호화 대상 매크로 블록의 예측되는 데이터를 재생한다. 복호 화상 기억부(68)는, 재생된 부호화 대상 매크로 블록의 예측되는 데이터를 기억한다. 복호 화상 기억부(68)에 기억된 매크로 블록의 데이터는, 이 이후의 부호화 처리를 행할 때에 참조 화상으로서 이용된다.
또한, 부호화 장치는, 인트라 예측 화상 생성부(69), 예측 화상 생성부로서의 인터 예측 화상 생성부(70), 움직임 벡터 계산부(71) 및 예측 화상 선택부(72)를 구비하고 있다. 인트라 예측 화상 생성부(69)는, 부호화 대상 매크로 블록과 동일한 필드 내에서 부호화 대상 매크로 블록의 주변에 위치하는 이미 부호화된 화소를 이용하여 예측 화상을 생성한다. 인터 예측 화상 생성부(70)는, 복호 화상 기억부(68)로부터 얻은 참조 화상의 데이터를 움직임 벡터로 움직임 보상함으로써, 움직임 보상된 참조 화상의 데이터를 생성한다. 참조 화상의 데이터는, 후술하는 참조 인덱스의 결정 방법에 의해 결정되는 참조 인덱스에 기초하여 복호 화상 기억부(68)로부터 읽어내어진다.
움직임 벡터 계산부(71)는, 현재의 부호화 대상 매크로 블록의 데이터와, 복호 화상 기억부(68)로부터 얻은 참조 화상의 데이터와의 공간적인 어긋남을 나타내는 움직임 벡터를 구한다. 예측 화상 선택부(72)는, 인트라 예측 화상 생성부(69)의 출력 데이터 및 인터 예측 화상 생성부(70)의 출력 데이터 중 어느 한쪽을 선택한다. 복호 화상 기억부(68)는, 예를 들면 프레임 메모리를 구비하고 있고, 예를 들면 도 3에 나타내는 하드웨어 구성에 있어서 RAM(43)에 의해 실현된다. 부호화 장치의, 복호 화상 기억부(68)를 제외한 다른 구성부는, 예를 들면 도 3에 나타내는 하드웨어 구성에 있어서, 화상 처리 프로세서(42)가 HDD(44)로부터 화상 처리 프로그램을 읽어내어 화상 처리 프로세스를 실행함으로써 실현된다.
도 5는, 실시예 2에 따른 화상 처리 장치를 도시하는 블록도이다. 도 5에 도시한 바와 같이, 화상 처리 장치는, 실시예 1에 따른 화상 처리 장치의 구성 외에, 부호화 모드 저장부(81), 움직임 벡터 저장부(82) 및 참조 인덱스 저장부(83)를 구비하고 있다. 이 화상 처리 장치는, 예를 들면 움직임 벡터 계산부(71), 인터 예측 화상 생성부(70) 또는 그 양방에 포함된다. 부호화 모드 저장부(81), 움직임 벡터 저장부(82) 및 참조 인덱스 저장부(83)는, 예를 들면 도 3에 나타내는 하드웨어 구성에 있어서 RAM(43)에 의해 실현된다.
부호화 모드 저장부(81)는, 부호화 대상 매크로 블록에 인접하는 이미 부호화된 인접 매크로 블록의 부호화 모드를 저장한다. 부호화 모드로서, 예를 들면 인트라 부호화 모드 및 인터 부호화 모드를 들 수 있다. 인접 매크로 블록의 예측 화상이 인트라 예측에 의해 생성되어 있는 경우에, 부호화 모드 저장부(81)에 인트라 부호화 모드가 저장된다. 인접 매크로 블록의 예측 화상이 인터 예측에 의해 생성되어 있는 경우에, 부호화 모드 저장부(81)에 인터 부호화 모드가 저장된다.
움직임 벡터 저장부(82)는, 인터 부호화 모드의 인접 매크로 블록의 움직임 벡터를 저장한다. 움직임 벡터 저장부(82)는, 인접 매크로 블록의 움직임 벡터의 세로 방향 성분을 저장해도 되고, 세로 방향 성분과 가로 방향 성분의 양쪽을 저장해도 된다.
참조 인덱스 저장부(83)는, 인터 부호화 모드의 인접 매크로 블록의 참조 화상을 나타내는 참조 인덱스를 저장한다. 인터 부호화 모드의 인접 매크로 블록이 복수 존재하는 경우, 예를 들면 A, B 및 C의 3개의 인접 매크로 블록이 존재하는 경우(도 6 참조), 인접 매크로 블록 A, B 및 C의 각각에 참조 화상이 존재한다. 그 경우, 참조 인덱스 저장부(83)는, 그들 3개의 참조 화상을 나타내는 3개의 참조 인덱스 중, 대응하는 인접 매크로 블록에 시간적으로 가장 가까운 참조 화상인 것을 나타내는 참조 인덱스를 저장해도 된다.
인트라 모드 판정부(31)는, 부호화 대상 매크로 블록의 번호에 기초하여, 이 부호화 대상 매크로 블록의 인접 매크로 블록을 인식한다. 인트라 모드 판정부(31)는, 부호화 모드 저장부(81)에 저장되어 있는 부호화 모드에 기초하여, 인접 블록의 부호화 모드가 모두 인트라 부호화 모드인지의 여부를 판정한다.
움직임 벡터 판정부(32)는, 움직임 벡터 저장부(82)에 저장되어 있는 움직임 벡터 및 참조 인덱스 저장부(83)에 저장되어 있는 참조 인덱스에 기초하여, 처리 대상 매크로 블록이 정지 영역 및 움직임 영역 중 어느 쪽에 속하는지를 판정한다. 판정의 기준으로서, 예를 들면 모든 인터 부호화 모드의 인접 매크로 블록에 대해서, 다음 (1)의 조건과 (2)의 조건의 양쪽을 만족시키는지의 여부를 들 수 있다.
(1) 참조 화상을 나타내는 참조 인덱스가 0이다.
(2) 움직임 벡터가 0 혹은 0이라 간주할 수 있을 정도로 작은 값이다.
이 (1)과 (2)의 조건을 모든 인터 부호화 모드의 인접 매크로 블록이 만족시키는 경우에, 움직임 벡터 판정부(32)는, 처리 대상 매크로 블록이 정지 영역에 속한다고 판정한다. 그렇지 않은 경우에, 움직임 벡터 판정부(32)는, 처리 대상 매크로 블록이 움직임 영역에 속한다고 판정한다. 그때, 움직임 벡터에 대해서는, 세로 방향 성분, 또는 세로 방향 성분과 가로 방향 성분의 양쪽에 기초하여 판정해도 된다.
또한, 화면의 경계 부분이나, 분할된 슬라이스의 경계 부분에서는, 모든 인접 매크로 블록에 대해서, 부호화 모드나 움직임 벡터나 참조 인덱스 등의 정보가 존재하지 않는 경우가 있다. 모든 인접 매크로 블록의 정보가 존재하지 않는 경우, 움직임 벡터 판정부(32)는, 처리 대상 매크로 블록이 정지 영역에 속한다고 판정해도 된다. 참조 인덱스 결정부(33)에 대해서는, 실시예 1에 있어서 설명한 바와 같다.
ㆍ화상 처리 방법(참조 인덱스의 결정 방법)의 설명
도 6은, 부호화 대상 매크로 블록, 인접 매크로 블록 및 참조 화상의 관계를 설명하는 도면이다. 도 6에 도시한 바와 같이, 부호화 대상 매크로 블록(91)에 대하여, 좌측에 위치하는 부호화된 좌측 매크로 블록 A(92), 상측에 위치하는 부호화된 우측 상측 매크로 블록 B(93) 및 우측 상측에 위치하는 부호화된 우측 상측 매크로 블록 C(94)를 인접 매크로 블록이라 한다. 또한, 인접 매크로 블록은, 이들 A, B 및 C의 3개로 한정되지 않고, 부호화된 주변 매크로 블록이어도 된다. 부호화 대상 매크로 블록(91)이 구해야 할 참조 화상(95)을 나타내는 참조 인덱스를 refIdxL0이라 한다.
좌측 매크로 블록 A(92)에 대해서, 참조 화상 A(96)를 나타내는 참조 인덱스를 refIdxL0A라 하고 움직임 벡터를 mvL0A라 한다. 움직임 벡터 mvL0A의 가로 방향 성분 및 세로 방향 성분을 각각 mvL0A_x 및 mvL0A_y라 한다. 상측 매크로 블록 B(93)에 대해서, 참조 화상 B(97)를 나타내는 참조 인덱스를 refIdxL0B라 하고, 움직임 벡터를 mvL0B라 한다. 움직임 벡터 mvL0B의 가로 방향 성분 및 세로 방향 성분을 각각 mvL0B_x 및 mvL0B_y라 한다. 우측 상측 매크로 블록 C(94)에 대해서, 참조 화상 C(98)를 나타내는 참조 인덱스를 refIdxL0C라 하고, 움직임 벡터를 mvL0C라 한다. 움직임 벡터 mvL0C의 가로 방향 성분 및 세로 방향 성분을 각각 mvL0C_x 및 mvL0C_y라 한다. 이하, 이들의 참조 인덱스 및 움직임 벡터의 표기를 이용하여, 도 6을 예로 들어 실시예 2에 따른 화상 처리 방법(참조 인덱스의 결정 방법)에 대해서 설명한다. 또한, 인덱스 번호의 부여 방법은, 도 9에 나타내는 부여 방법에 따르는 것으로 한다.
도 7은, 실시예 2에 따른 화상 처리 방법을 나타내는 플로우차트이다. 도 7에 나타낸 바와 같이, 하나의 처리 대상 블록에 대한 화상 처리가 개시되면, 우선, 움직임 벡터 판정부(32)에 의해, 좌측 매크로 블록 A(92), 상측 매크로 블록 B(93) 및 우측 상측 매크로 블록 C(94) 중 적어도 하나에 인접 매크로 블록으로서의 정보가 존재하는지의 여부가 판정된다. 즉, 적어도 하나의 인접 매크로 블록이 이용 가능한지의 여부가 판정된다(스텝 S11).
인접 매크로 블록으로서 이용 가능한 매크로 블록이 없는 경우(스텝 S11: '아니오'), 움직임 벡터 판정부(32)에 의해, 부호화 대상 매크로 블록(91)이 정지 영역에 속한다고 판정된다. 그 판정 결과에 기초하여, 참조 인덱스 결정부(33)에 의해 refIdxL0은 0으로 결정된다(스텝 S15). 이것에 의해, 부호화 대상 매크로 블록(91)이 구해야 할 참조 화상(95)으로서, 부호화 대상 매크로 블록(91)에 대하여 직근의 동일 패리티의 화상이 선택된 것으로 된다. 그리고, 하나의 부호화 대상 매크로 블록(91)에 대한 일련의 처리가 종료된다. 이용 가능한 인접 매크로 블록이 없는 경우의 예로서, 예를 들면 부호화 대상 매크로 블록(91)이 화면의 경계 부분이나, 분할된 슬라이스의 경계 부분에 위치하는 경우를 들 수 있다.
한편, 어느 하나라도 인접 매크로 블록으로서 이용 가능한 경우(스텝 S11 : '예'), 인트라 모드 판정부(31)에 의해, 그 이용 가능한 인접 매크로 블록이 인트라 부호화 모드인지의 여부가 판정된다. 이용 가능한 인접 매크로 블록이 복수 존재 하는 경우에는, 모든 이용 가능한 인접 매크로 블록이 인트라 부호화 모드인지의 여부가 판정된다(스텝 S12).
모든 이용 가능한 인접 매크로 블록이 인트라 부호화 모드라고 판정된 경우(스텝 S12 : '예'), 참조 인덱스 결정부(33)에 의해 refIdxL0은 1로 결정된다(스텝 S13). 이것에 의해, 부호화 대상 매크로 블록(91)이 구해야 할 참조 화상(95)으로서, 부호화 대상 매크로 블록(91)에 대하여 직근의 상이 패리티의 화상이 선택된 것으로 된다. 그리고, 하나의 부호화 대상 매크로 블록(91)에 대한 일련의 처리가 종료된다. 모든 이용 가능한 인접 매크로 블록이 인트라 부호화 모드인 경우의 예로서, 물체의 이동에 의해 어클루젼(occlusion)이 발생하는 경우를 들 수 있다. 이러한 경우는, 부호화 대상 매크로 블록(91)이 움직임 영역에 속한다고 간주할 수 있으므로, 직근의 상이 패리티의 화상이 선택됨으로써 예측 효율이 높아진다.
이용 가능한 인접 매크로 블록 중의 적어도 하나가 인트라 부호화 모드가 아닌, 즉 인터 부호화 모드라고 판정된 경우(스텝 S12 : '아니오'), 움직임 벡터 판정부(32)에 의해, 부호화 대상 매크로 블록(91)이 정지 영역 및 움직임 영역 중 어느 쪽에 속하는지가 판정된다(스텝 S14). 구체적으로는, 예를 들면 좌측 매크로 블록 A(92), 상측 매크로 블록 B(93) 및 우측 상측 매크로 블록 C(94)의 3개가 이용 가능한 인터 부호화 모드의 인접 매크로 블록인 것으로 한다. 이 경우, 다음 (3), (4) 및 (5)의 조건을 충족시키는 경우, 정지 영역이라 판정된다(스텝 S14). 혹은, (3), (4) 및 (5)의 3개 모두 만족시키지 않아도, 어느 하나, 또는 2개 이상의 조합을 만족시키는 경우에, 정지 영역이라 판정해도 된다. 또한, 도 7의 스텝 S14의 표기에 있어서, *는 A, B 또는 C를 나타내고 있다. 또한, 도 7의 스텝 S14의 표기에서는, 움직임 벡터의 가로 방향 성분(x 성분)에 대해서는 생략하고 있다.
(3) refIdxL0A=0 또한 mvL0A_x=mvL0A_y=0
(4) refIdxL0B=0 또한 mvL0B_x=mvL0B_y=0
(5) refIdxL0C=0 또한 mvL0C_x=mvL0C_y=0
또한, 움직임 벡터의 가로 방향 성분 및 세로 방향 성분이 0인지의 여부를 판정하는 대신에, 가로 방향 성분의 절대값 및 세로 방향 성분의 절대값을 이용하여 다음과 같이 판정해도 된다. 움직임 벡터의 가로 방향 성분 및 세로 방향 성분에 대해서 각각 임계값 THx 및 THy를 미리 설정하고, 다음 (6) 및 (7)의 조건을 충족시킬 때에, 움직임 벡터가 실질적으로 0이라고 간주해도 된다. 혹은, 움직임 벡터의 가로 방향 성분의 절대값과 세로 방향 성분의 절대값의 합에 대해서 임계값 TH를 미리 설정하고, 다음 (8)의 조건을 충족시킬 때에, 움직임 벡터가 실질적으로 0이라고 간주해도 된다. 다음 (6), (7) 및 (8)의 조건의 표기에 있어서, *는 A, B 또는 C를 나타내고 있다.
(6) |mvL0*_x|<THx
(7) |mvL0*_y|<THy
(8) |mvL0*_x|+|mvL0*_y|<TH
또한, 인터레이스 방식의 경우, 톱 필드와 보텀 필드는 공간적으로 상하의 다른 측에 있다. 따라서, 상술한 (3)으로부터 (8)까지의 조건에 있어서, 움직임 벡터의 가로 방향 성분(x 성분)을 판정의 기준으로부터 생략해도 된다.
부호화 대상 매크로 블록(91)이 정지 영역에 속한다고 판정된 경우(스텝 S14 : '예'), 참조 인덱스 결정부(33)에 의해 refIdxL0은 0으로 결정된다(스텝 S15). 이것에 의해, 부호화 대상 매크로 블록(91)이 구해야 할 참조 화상(95)으로서, 부호화 대상 매크로 블록(91)에 대하여 직근의 동일 패리티의 화상이 선택된 것으로 된다. 그리고, 하나의 부호화 대상 매크로 블록(91)에 대한 일련의 처리가 종료된다. 부호화 대상 매크로 블록(91)이 정지 영역에 속하는 경우, 직근의 동일 패리티의 화상과의 사이에서 도안의 변화가 거의 없다. 따라서, 직근의 동일 패리티의 화상이 선택됨으로써 예측 효율이 높아진다.
전술한 정지 영역의 판정 조건을 만족시키지 않는 경우, 부호화 대상 매크로 블록(91)은 움직임 영역에 속한다고 판정된다(스텝 S14 : '아니오'). 이 경우, 스텝 S11에서 이용 가능하다고 판정되고, 또한 스텝 S12에서 인터 부호화 모드라고 판정된 인접 매크로 블록을 대상으로 하여, 참조 인덱스 결정부(33)에 의해 refIdxL0은 다음과 같이 결정된다.
예를 들면, 좌측 매크로 블록 A(92), 상측 매크로 블록 B(93) 및 우측 상측 매크로 블록 C(94)의 3개가 이용 가능한 인터 부호화 모드의 인접 매크로 블록이라고 한다. 도 9에 나타내는 부여 방법에 따라서 인덱스 번호가 부여되는 것으로 하였으므로, refIdxL0의 우선 순위는 1, 0, 3, 2의 순으로 된다. 따라서, 다음 (9)로부터 (12)에 따라서 refIdxL0이 결정된다(스텝 S16).
(9) refIdxL0A, refIdxL0B 및 refIdxL0C 중 어느 하나가 1인 경우, refIdxL0=1
(10) 상기 (9)가 아닌 경우이며, 또한 refIdxL0A, refIdxL0B 및 refIdxL0C 중 어느 하나가 0인 경우, refIdxL0=0
(11) 상기 (10)이 아닌 경우이며, 또한 refIdxL0A, refIdxL0B 및 refIdxL0C 중 어느 하나가 3인 경우, refIdxL0=3
(12) 상기 (11)이 아닌 경우이며, 또한 refIdxL0A, refIdxL0B 및 refIdxL0C 중 어느 하나가 2인 경우, refIdxL0=2
그리고, 하나의 부호화 대상 매크로 블록(91)에 대한 일련의 처리가 종료된다. 이상의 처리가 모든 부호화 대상 매크로 블록(91)에 대해 행해진다. 인터 부호화 모드의 인접 매크로 블록이 있고, 또한 부호화 대상 매크로 블록(91)이 움직임 영역에 속하는 경우, 부호화 대상 매크로 블록(91)과 참조 화상과의 시간적인 거리(격차)가 커질수록 예측이 들어맞기 어려워진다. 따라서, 패리티가 동일한지 상이한지에 관계없이, 직근의 화상이 선택됨으로써 예측 효율이 높아진다.
실시예 2에 따르면, 부호화 장치에 있어서, 부호화 대상 매크로 블록(91)의 이미 부호화된 인접 매크로 블록의 부호화 모드, 움직임 벡터 및 참조 인덱스에 기초하여, 부호화 대상 매크로 블록(91)의 참조 인덱스가 결정된다. 복호 장치에 있어서도, 부호화 장치로부터 출력된 화상 데이터의 비트스트림을 복호할 때에, 부호화 장치와 동일하게 하여 복호 대상의 매크로 블록의 참조 인덱스가 결정되도록 하면, 부호화 장치로부터 복호 장치에 참조 인덱스를 통지하지 않아도 된다. 따라서, 실시예 1과 마찬가지로, 부호화 장치에 있어서, 보다 많은 매크로 블록에서 참조 인덱스를 생략하고 부호화할 수 있으므로, 부호화의 효율을 좋게 할 수 있다.
(실시예 3)
실시예 3은, 실시예 1의 화상 처리 장치 및 화상 처리 방법을 동화상의 복호 장치 및 복호 방법에 적용한 것이다. 실시예 3을 적용 가능한 동화상 복호 방식의 일례로서, 예를 들면 ITU-T H.264/ISO/IEC MPEG-4AVC나 ISO/IEC MPEG-2/MPEG-4를 들 수 있다. 실시예 3에 따른 복호 장치의 하드웨어 구성에 대해서는, 도 3에 나타내는 구성과 마찬가지이므로, 설명을 생략한다.
도 8은, 실시예 3에 관한 화상 처리 장치를 적용한 복호 장치의 기능적 구성을 도시하는 블록도이다. 도 8에 도시한 바와 같이, 복호 장치는, 복호부로서의 엔트로피 복호부(101), 역양자화부(102), 역직교 변환부(103), 움직임 보상 화상 생성부(104), 예측값 생성부(105), 복호 화상 생성부(106) 및 복호 화상 기억부(107)를 구비하고 있다. 실시예 2와 마찬가지로, 복호 처리는, 복호 대상의 필드마다 예를 들면 16×16 픽셀의 매크로 블록 단위로 행해진다. 복호 장치는, 예를 들면 실시예 2에 따른 부호화 장치에 의해 부호화된 부호화 정보를 복호하여 화상을 재생한다.
엔트로피 복호부(101)는, 입력 스트림의 부호화 정보를 복호하여 차분 정보 및 움직임 벡터를 생성한다. 역양자화부(102)는, 엔트로피 복호부(101)에서 생성된 차분 정보에 대하여 역양자화 처리를 행한다. 역직교 변환부(103)는, 역양자화부(102)의 출력 신호에 대하여 역직교 변환 처리를 행한다. 엔트로피 복호부(101), 역양자화부(102) 및 역직교 변환부(103)에 의해, 예를 들면 실시예 2에 따른 부호화 장치의 엔트로피 부호화부(64), 양자화부(63) 및 직교 변환부(62)(도 4 참조)의 각각에 대응하는 반대의 처리를 행함으로써, 입력 스트림으로부터 예측 오차 신호가 재생된다.
움직임 보상 화상 생성부(104)는, 예를 들면 도 5에 나타내는 구성의 화상 처리 장치를 구비하고 있다. 예를 들면 도 5에 나타내는 구성의 화상 처리 장치는, 실시예 2에 있어서 설명한 바와 같이, 복호 대상 매크로 블록에 인접하는 인접 매크로 블록의 부호화 모드, 움직임 벡터 및 참조 인덱스에 기초하여 복호 대상 매크로 블록을 복호할 때의 참조 인덱스를 결정한다. 움직임 보상 화상 생성부(104)는, 복호 화상 기억부(107)로부터, 결정된 참조 인덱스에 대응하는 참조 화상을 읽어내고, 이 참조 화상과 입력 스트림으로부터 통지된 움직임 벡터에 기초하여 움직임 보상 화상 신호를 생성한다. 예측값 생성부(105)는, 움직임 보상 화상 생성부(104)에서 생성된 움직임 보상 화상 신호에 기초하여, 복호 화상의 예측값을 나타내는 예측 신호를 생성한다. 움직임 보상 화상 생성부(104) 및 예측값 생성부(105)는, 예를 들면 실시예 2에 따른 부호화 장치의 움직임 벡터 계산부(71) 및 인터 예측 화상 생성부(70)(도 4 참조)와 마찬가지로 하여 예측 신호를 생성한다.
복호 화상 생성부(106)는, 예측값 생성부(105)에서 생성된 예측 신호와, 재생된 예측 오차 신호를, 예를 들면 가산함으로써, 복호 화상을 생성한다. 복호 화상 기억부(107)는, 재생된 복호 화상의 데이터를 기억한다. 복호 화상 기억부(107)에 기억된 복호 화상의 데이터는, 이 이후의 복호 처리를 행할 때에 참조 화상으로서 이용된다. 복호 화상 기억부(107)는, 예를 들면 프레임 메모리를 구비하고 있고, 예를 들면 도 3에 나타내는 하드웨어 구성에 있어서 RAM(43)에 의해 실현된다. 복호 장치의, 복호 화상 기억부(107)를 제외한 다른 구성부는, 예를 들면 도 3에 나타내는 하드웨어 구성에 있어서, 화상 처리 프로세서(42)가 HDD(44)로부터 화상 처리 프로그램을 읽어내어 화상 처리 프로세스를 실행함으로써 실현된다. 실시예 3에 따른 화상 처리 방법에 있어서의 참조 인덱스의 결정 방법에 대해서는, 실시예 2와 마찬가지이므로, 설명을 생략한다.
실시예 3에 따르면, 복호 장치에 있어서, 복호 대상 매크로 블록의 인접 매크로 블록의 부호화 모드, 움직임 벡터 및 참조 인덱스에 기초하여, 복호 대상 매크로 블록의 참조 인덱스가 결정된다. 부호화 장치에 있어서도, 부호화 대상 매크로 블록의 참조 인덱스가 마찬가지로 하여 결정되도록 하면, 부호화 장치로부터 복호 장치에 참조 인덱스를 통지하지 않아도 된다. 따라서, 이 복호 장치와, 이 복호 장치와 마찬가지로 하여 부호화 대상 매크로 블록의 참조 인덱스를 결정하는 부호화 장치를 이용함으로써, 실시예 1과 마찬가지로, 부호화의 효율을 좋게 할 수 있다.
31 : 인트라 모드 판정부
32 : 움직임 벡터 판정부
33 : 참조 인덱스 결정부
61 : 예측 오차 생성부
62 : 직교 변환부
63 : 양자화부
64 : 부호화부
65, 102 : 역양자화부
66, 103 : 역직교 변환부
67, 106 : 복호 화상 생성부
70 : 예측 화상 생성부
101 : 복호부
104 : 움직임 보상 화상 생성부
105 : 예측값 생성부

Claims (9)

1 프레임을 서로 다른 타이밍에서 표시되는 복수의 필드로 나누고, 각 필드의 화상을 각각 복수의 블록으로 분할하고, 상기 블록마다, 필드로 분할된 과거의 복수의 참조 화상의 후보로부터 선택한 참조 화상 및 그 참조 화상에 대한 움직임 벡터에 기초하여 움직임 보상 예측을 행하는 화상 처리 장치로서,
처리 대상 블록에 인접하는 복수의 인접 블록의 부호화 모드가 모두 인트라 부호화 모드인지의 여부를 판정하는 인트라 모드 판정부와,
상기 인트라 모드 판정부에 의해 상기 인접 블록 중 적어도 하나가 인트라 부호화 모드가 아니라고 판정된 경우에, 그 인트라 부호화 모드가 아니라고 판정된 인접 블록의 움직임 벡터 및 그 인트라 부호화 모드가 아니라고 판정된 인접 블록의 참조 화상을 나타내는 참조 인덱스에 기초하여 상기 처리 대상 블록이 정지 영역 및 움직임 영역 중 어느 쪽에 속하는지를 판정하는 움직임 벡터 판정부와,
상기 인트라 모드 판정부에 의해 모든 상기 인접 블록이 인트라 부호화 모드라고 판정된 경우에, 상기 처리 대상 블록이 속하는 필드와 다른 필드의 시간적으로 가장 가까운 참조 화상의 후보에 부여된 인덱스 번호를 선택하고, 상기 움직임 벡터 판정부에 의해 정지 영역에 속한다고 판정된 경우에, 상기 처리 대상 블록이 속하는 필드와 동일한 필드의 시간적으로 가장 가까운 참조 화상의 후보에 부여된 인덱스 번호를 선택하고, 상기 움직임 벡터 판정부에 의해 움직임 영역에 속한다고 판정된 경우에, 상기 인트라 모드 판정부에 의해 인트라 부호화 모드가 아니라고 판정된 인접 블록의 참조 화상을 나타내는 참조 인덱스 중에서 시간적으로 가장 가까운 참조 화상의 인덱스 번호를 선택하고, 그 선택한 인덱스 번호를 상기 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스로 결정하는 참조 인덱스 결정부
를 구비하는 것을 특징으로 하는 화상 처리 장치.
제1항에 있어서,
화면 내에서 상기 복수의 필드의 세로 방향의 위치가 다르고, 상기 움직임 벡터 판정부는, 상기 인트라 모드 판정부에 의해 인트라 부호화 모드가 아니라고 판정된 인접 블록의 움직임 벡터의 세로 방향 성분에 기초하여 판정을 행하는 것을 특징으로 하는 화상 처리 장치.
제1항에 있어서,
상기 인접 블록의 정보가 존재하지 않는 경우, 상기 움직임 벡터 판정부는, 상기 처리 대상 블록이 정지 영역에 속한다고 판정하는 것을 특징으로 하는 화상 처리 장치.
제1항에 있어서,
상기 참조 인덱스 결정부에 의해 결정된 참조 인덱스, 그 참조 인덱스에 대응하는 참조 화상 및 그 참조 화상에 대한 상기 처리 대상 블록의 움직임 벡터에 기초하여, 상기 처리 대상 블록의 예측 화상을 생성하는 예측 화상 생성부와,
상기 처리 대상 블록의 원화상에 대한 상기 처리 대상 블록의 예측 화상의 오차를 생성하는 예측 오차 생성부와,
상기 예측 오차 생성부에 의해 생성된 오차를 직교 변환하는 직교 변환부와,
상기 직교 변환부의 출력 신호를 양자화하는 양자화부와,
상기 양자화부의 출력 신호 및 상기 참조 화상에 대한 상기 처리 대상 블록의 움직임 벡터를 부호화하는 부호화부를 구비하는 것을 특징으로 하는 화상 처리 장치.
제4항에 있어서,
상기 양자화부의 출력 신호를 역양자화하는 역양자화부와,
상기 양자화부의 출력 신호를 역직교 변환하여 상기 예측 화상의 오차를 재생하는 역직교 변환부와,
상기 역직교 변환부에 의해 재생된 상기 예측 화상의 오차 및 상기 예측 화상 생성부에 의해 생성된 예측 화상에 기초하여 상기 처리 대상 블록의 복호 화상을 생성하는 복호 화상 생성부를 구비하는 것을 특징으로 하는 화상 처리 장치.
제1항에 있어서,
상기 처리 대상 블록의 예측 화상의 오차 및 그 처리 대상 블록의 움직임 벡터의 각 정보가 부호화된 부호화 정보를 복호하는 복호부와,
상기 복호부의 출력 신호를 역양자화하는 역양자화부와,
상기 역양자화부의 출력 신호를 역직교 변환하여 상기 처리 대상 블록의 예측 화상의 오차를 재생하는 역직교 변환부와,
상기 참조 인덱스 결정부에 의해 결정된 참조 인덱스, 그 참조 인덱스에 대응하는 참조 화상 및 그 참조 화상에 대한 상기 처리 대상 블록의 움직임 벡터에 기초하여, 상기 처리 대상 블록의 움직임 보상 화상을 생성하는 움직임 보상 화상 생성부와,
상기 움직임 보상 화상 생성부에 의해 생성된 상기 처리 대상 블록의 움직임 보상 화상에 기초하여 상기 처리 대상 블록의 복호 화상의 예측값을 생성하는 예측값 생성부와,
상기 역직교 변환부에 의해 재생된 상기 예측 화상의 오차 및 상기 예측값 생성부에 의해 생성된 상기 복호 화상의 예측값에 기초하여 상기 처리 대상 블록의 복호 화상을 생성하는 복호 화상 생성부를 구비하는 것을 특징으로 하는 화상 처리 장치.
1 프레임을 서로 다른 타이밍에서 표시되는 복수의 필드로 나누고, 각 필드의 화상을 각각 복수의 블록으로 분할하고, 상기 블록마다, 필드로 분할된 과거의 복수의 참조 화상의 후보로부터 선택한 참조 화상 및 그 참조 화상에 대한 움직임 벡터에 기초하여 움직임 보상 예측을 행하는 화상 처리 방법으로서,
처리 대상 블록에 인접하는 복수의 인접 블록의 부호화 모드가 모두 인트라 부호화 모드인지의 여부를 판정하는 스텝과,
모든 상기 인접 블록이 인트라 부호화 모드라고 판정된 경우에, 상기 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스로서, 상기 처리 대상 블록이 속하는 필드와 다른 필드의 시간적으로 가장 가까운 참조 화상의 후보에 부여된 인덱스 번호를 선택하는 스텝과,
상기 인접 블록 중 적어도 하나가 인트라 부호화 모드가 아니라고 판정된 경우에, 그 인트라 부호화 모드가 아니라고 판정된 인접 블록의 움직임 벡터 및 그 인트라 부호화 모드가 아니라고 판정된 인접 블록의 참조 화상을 나타내는 참조 인덱스에 기초하여 상기 처리 대상 블록이 정지 영역 및 움직임 영역 중 어느 쪽에 속하는지를 판정하는 스텝과,
상기 처리 대상 블록이 정지 영역에 속한다고 판정된 경우에, 상기 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스로서, 상기 처리 대상 블록이 속하는 필드와 동일한 필드의 시간적으로 가장 가까운 참조 화상의 후보에 부여된 인덱스 번호를 선택하는 스텝과,
상기 처리 대상 블록이 움직임 영역에 속한다고 판정된 경우에, 상기 처리 대상 블록의 참조 화상을 나타내는 참조 인덱스로서, 상기 인트라 부호화 모드가 아니라고 판정된 인접 블록의 참조 화상을 나타내는 참조 인덱스 중에서 시간적으로 가장 가까운 참조 화상의 인덱스 번호를 선택하는 스텝
을 포함하는 것을 특징으로 하는 화상 처리 방법.
제7항에 있어서,
화면 내에서 상기 복수의 필드의 세로 방향의 위치가 다르고, 상기 처리 대상 블록이 정지 영역 및 움직임 영역 중 어느 쪽에 속하는지를 판정하는 스텝에서는, 상기 인트라 부호화 모드가 아니라고 판정된 인접 블록의 움직임 벡터의 세로 방향 성분에 기초하여 판정을 행하는 것을 특징으로 하는 화상 처리 방법.
제7항에 있어서,
상기 인접 블록의 정보가 존재하지 않는 경우, 상기 처리 대상 블록이 정지 영역에 속한다고 판정하는 스텝을 더 포함하는 것을 특징으로 하는 화상 처리 방법.
KR1020127025639A 2010-03-30 2010-03-30 화상 처리 장치 및 화상 처리 방법 KR101380460B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/055712 WO2011121731A1 (ja) 2010-03-30 2010-03-30 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
KR20120135296A KR20120135296A (ko) 2012-12-12
KR101380460B1 true KR101380460B1 (ko) 2014-04-02

Family

ID=44711521

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127025639A KR101380460B1 (ko) 2010-03-30 2010-03-30 화상 처리 장치 및 화상 처리 방법

Country Status (5)

Country Link
US (1) US9036918B2 (ko)
JP (1) JP5522252B2 (ko)
KR (1) KR101380460B1 (ko)
CN (1) CN102823247B (ko)
WO (1) WO2011121731A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147291A (ja) * 2011-01-13 2012-08-02 Canon Inc 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP5698644B2 (ja) * 2011-10-18 2015-04-08 株式会社Nttドコモ 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置及び動画像予測復号プログラム
WO2014168445A1 (ko) * 2013-04-11 2014-10-16 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
WO2015012622A1 (ko) * 2013-07-24 2015-01-29 삼성전자 주식회사 움직임 벡터 결정 방법 및 그 장치
CN110213593B (zh) * 2018-05-25 2023-01-24 腾讯科技(深圳)有限公司 一种运动矢量的确定方法、编码压缩方法和相关装置
EP3648059B1 (en) * 2018-10-29 2021-02-24 Axis AB Video processing device and method for determining motion metadata for an encoded video

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070075257A (ko) * 2006-01-12 2007-07-18 엘지전자 주식회사 영상신호의 엔코딩/디코딩시의 레이어간 모션 예측 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100396558B1 (ko) * 2001-10-25 2003-09-02 삼성전자주식회사 적응 움직임 보상형 프레임 및/또는 레이트 변환 장치 및그 방법
JP4405367B2 (ja) * 2004-08-27 2010-01-27 パナソニック株式会社 映像信号の予測符号化における参照フィールドの決定方法
JP2006295734A (ja) * 2005-04-13 2006-10-26 Pioneer Electronic Corp 再符号化装置、再符号化方法、および再符号化用プログラム
EP1933570A4 (en) * 2005-10-05 2010-09-29 Panasonic Corp PROCESS AND DEVICE FOR REFERENCE SELECTION
JP4991762B2 (ja) * 2006-01-09 2012-08-01 エルジー エレクトロニクス インコーポレイティド 映像信号のエンコーディング/デコーディング方法及び装置
JP2008011117A (ja) * 2006-06-28 2008-01-17 Matsushita Electric Ind Co Ltd 画像符号化におけるインターレース符号化時の参照ピクチャ決定方法
JP2009011117A (ja) * 2007-06-29 2009-01-15 Kansai Electric Power Co Inc:The 電力変換装置
JP2009055542A (ja) * 2007-08-29 2009-03-12 Toshiba Corp 動画像符号化装置および動画像符号化方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070075257A (ko) * 2006-01-12 2007-07-18 엘지전자 주식회사 영상신호의 엔코딩/디코딩시의 레이어간 모션 예측 방법

Also Published As

Publication number Publication date
US9036918B2 (en) 2015-05-19
JP5522252B2 (ja) 2014-06-18
KR20120135296A (ko) 2012-12-12
JPWO2011121731A1 (ja) 2013-07-04
CN102823247B (zh) 2015-04-08
CN102823247A (zh) 2012-12-12
US20130011072A1 (en) 2013-01-10
WO2011121731A1 (ja) 2011-10-06

Similar Documents

Publication Publication Date Title
AU2018294206B2 (en) Motion vector refinement for multi-reference prediction
US11595659B2 (en) Method and apparatus for encoding or decoding video data in FRUC mode with reduced memory accesses
JP5697614B2 (ja) デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP4527677B2 (ja) 動画像符号化方法、動画像符号化装置、動画像符号化プログラム
KR101380460B1 (ko) 화상 처리 장치 및 화상 처리 방법
US20130223526A1 (en) Image decoding method, image coding method, image decoding device, image coding device, and recording medium
RU2695512C2 (ru) Устройство кодирования видео с предсказанием, способ кодирования видео с предсказанием, программа кодирования видео с предсказанием, устройство декодирования видео с предсказанием, способ декодирования видео с предсказанием и программа декодирования видео с предсказанием
WO2013125171A1 (ja) イントラ予測モード判定装置、方法、プログラム記憶媒体
JP4760551B2 (ja) 動きベクトル復号化方法および復号化装置
US20130215966A1 (en) Image encoding method, image decoding method, image encoding device, image decoding device
US20130010870A1 (en) Video encoder and video decoder
NZ760521B2 (en) Motion vector refinement for multi-reference prediction
NZ780051B2 (en) Motion vector refinement for multi-reference prediction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170220

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190227

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200227

Year of fee payment: 7