KR102051723B1 - 팔레트 코딩 모드를 위한 이스케이프 컬러 코딩 - Google Patents

팔레트 코딩 모드를 위한 이스케이프 컬러 코딩 Download PDF

Info

Publication number
KR102051723B1
KR102051723B1 KR1020177023940A KR20177023940A KR102051723B1 KR 102051723 B1 KR102051723 B1 KR 102051723B1 KR 1020177023940 A KR1020177023940 A KR 1020177023940A KR 20177023940 A KR20177023940 A KR 20177023940A KR 102051723 B1 KR102051723 B1 KR 102051723B1
Authority
KR
South Korea
Prior art keywords
escape color
color value
value
video
coding
Prior art date
Application number
KR1020177023940A
Other languages
English (en)
Other versions
KR20170108112A (ko
Inventor
샤오유 시우
얀 예
유웬 헤
Original Assignee
브이아이디 스케일, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브이아이디 스케일, 인크. filed Critical 브이아이디 스케일, 인크.
Publication of KR20170108112A publication Critical patent/KR20170108112A/ko
Application granted granted Critical
Publication of KR102051723B1 publication Critical patent/KR102051723B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

팔레트 코딩 모드를 위한 이스케이프 컬러 코딩을 위한 시스템, 방법 및 수단이 공개된다. 비디오 비트스트림이 수신될 수 있다. 비디오 비트스트림은 양자화 파라미터(QP) 및/또는 이스케이프 컬러 픽셀에 대응하는 양자화된 이스케이프 컬러 값을 포함할 수 있다. 스케일링된 이스케이프 컬러 값은 양자화된 이스케이프 컬러 값을 스케일링 팩터에 의해 스케일링함으로써 생성될 수 있다. 좌측-시프트 파라미터는 QP에 기초하여 결정될 수 있다. 좌측-시프트 파라미터에 기초하여 스케일링된 이스케이프 컬러 값을 좌측-시프트함으로써 좌측-시프트된 이스케이프 컬러 값이 생성될 수 있다. 상수 파라미터에 기초하여 좌측-시프트된 이스케이프 컬러 값을 우측-시프트함으로써 우측-시프트된 이스케이프 컬러 값이 생성될 수 있다. 우측-시프트된 이스케이프 컬러 값에 기초하여 재구성된 이스케이프 컬러 값이 결정될 수 있다. 장치는 재구성된 이스케이프 컬러 값에 기초하여 비디오 비트스트림을 디코딩할 수 있다.

Description

팔레트 코딩 모드를 위한 이스케이프 컬러 코딩
관련 출원들의 상호 참조
본 출원은 2015년 1월 29일자로 출원된 미국 가출원 제62/109,535호의 이익을 주장하며, 그 내용은 본원에 참조로서 포함된다.
화면 콘텐츠 공유는 애플리케이션에 의해, 예를 들어, 원격 데스크톱, 화상 회의 및/또는 모바일 미디어 프레젠테이션 애플리케이션에서 사용할 수 있다. 화면 콘텐츠 공유는 하나 이상의 산업 전반에 걸친 애플리케이션 요구 사항의 적용을 받을 수 있다. 비디오 콘텐츠(예를 들어, 실사(natural) 비디오 콘텐츠)와 비교하여, 화면 콘텐츠는 급격한 곡선(sharp curve) 및 텍스트를 내부에 포함할 수 있기 때문에, 여러 개의 지배적인(예를 들어, 주요한) 컬러 및/또는 날카로운 에지(sharp edge)를 갖는 다수의 블록을 포함할 수 있다. 비디오 압축은 화면 콘텐츠를 인코딩하고/하거나 인코딩된 화면 콘텐츠를 수신기에 전송하는데 사용될 수 있다. 비디오 압축은 화면 콘텐츠의 피처(feature)를 완전히 특성화하지 못하고/못하거나 압축 성능이 낮을 수 있다. 예를 들어, 재구성된 화상(picture)은 품질이 좋지 않을 수 있다. 재구성된 화상의 곡선 및/또는 텍스트는 흐려질 수 있고/있거나 재구성된 화상의 곡선 및/또는 텍스트를 인식하는 것이 어려울 수 있다. 화면 콘텐츠의 재구성은 사용되는 화면 압축 방법에 따라 달라질 수 있다.
팔레트 코딩 모드를 위한 이스케이프 컬러 코딩을 위한 시스템, 방법 및 도구가 제공된다. 비디오 코딩 장치는 비디오 비트스트림을 수신할 수 있다. 비디오 코딩 장치는 무선 송수신 유닛(wireless transmit/receive unit, WTRU) 및/또는 디코더를 포함할 수 있다. 비디오 비트스트림은 양자화 파라미터(quantization parameter, QP)를 포함할 수 있다. 비디오 비트스트림은 양자화된 이스케이프 컬러 값을 포함할 수 있다. 양자화된 이스케이프 컬러 값은 이스케이프 컬러 픽셀에 대응할 수 있다. 양자화된 이스케이프 컬러 값은 이스케이프 컬러를 정의할 수 있다. 이스케이프 컬러는 적어도 하나의 주요 컬러 및 적어도 하나의 이스케이프 컬러를 포함하는 코딩 유닛과 관련될 수 있다. 양자화된 이스케이프 컬러 값은 손실 코딩(lossy coding)과 관련될 수 있다. 비디오 코딩 장치는 이스케이프 컬러 값을 스케일링 팩터(scaling factor)에 의해 스케일링함으로써 스케일링된 이스케이프 컬러 값을 생성할 수 있다. 비디오 코딩 장치는 QP에 기초하여 스케일링 팩터를 결정할 수 있다.
비디오 코딩 장치는 QP에 기초하여 좌측-시프트(left-shift) 파라미터를 결정할 수 있다. 우측-시프트(right-shift) 이스케이프 컬러 값이 음수가 아니도록, 좌측-시프트 파라미터가 결정될 수 있다. 좌측-시프트 파라미터는 QP를 6으로 나눔으로써 결정될 수 있다. 비디오 코딩 장치는 좌측-시프트 파라미터에 기초하여 스케일링된 이스케이프 컬러 값을 좌측-시프트함으로써 좌측-시프트된 이스케이프 컬러 값을 생성할 수 있다. 좌측-시프트된 이스케이프 컬러 값은 좌측-시프트 파라미터에 32를 더함으로써 생성될 수 있다. 비디오 코딩 장치는 상수 파라미터에 기초하여 좌측-시프트된 이스케이프 컬러 값을 우측-시프트함으로써 우측-시프트된 이스케이프 컬러 값을 생성할 수 있다. 상수 파라미터는 6과 동일할 수 있다. 비디오 코딩 장치는 우측-시프트된 이스케이프 컬러 값에 기초하여 재구성된 이스케이프 컬러 값을 결정할 수 있다. 비디오 코딩 장치는 재구성된 이스케이프 컬러 값에 기초하여 비디오 비트스트림을 디코딩할 수 있다.
도 1은 예시적인 단일 계층 인코더의 블록도이다.
도 2는 예시적인 단일 계층 디코더의 블록도이다.
도 3은 예시적인 화면 콘텐츠 공유 시스템의 블록도이다.
도 4는 팔레트 코딩의 예를 도시한다.
도 5는 상이한 QP들에 걸친 이스케이프 컬러 시그널링의 예시적인 최대 절사 바이너리 코드(truncated binary code, TBC) 값의 그래프이다.
도 6은 상이한 QP들에 걸친 이스케이프 컬러 시그널링의 예시적인 최대 TBC 값의 또 다른 그래프이다.
도 7a는 하나 이상의 개시된 실시 예가 구현될 수 있는 예시적인 통신 시스템의 시스템 다이어그램이다.
도 7b는 도 7a에 도시된 통신 시스템 내에서 사용될 수 있는 예시적인 무선 송수신 유닛(WTRU)의 시스템 다이어그램이다.
도 7c는 도 7a에 도시된 통신 시스템 내에서 사용될 수 있는 예시적인 무선 액세스 네트워크 및 예시적인 코어 네트워크의 시스템 다이어그램이다.
도 7d는 도 7a에 도시된 통신 시스템 내에서 사용될 수 있는 다른 예시적인 무선 액세스 네트워크 및 다른 예시적인 코어 네트워크의 시스템 다이어그램이다.
도 7e는 도 7a에 도시된 통신 시스템 내에서 사용될 수 있는 또 다른 예시적인 무선 액세스 네트워크 및 또 다른 예시적인 코어 네트워크의 시스템 다이어그램이다.
예시적인 실시 예의 상세한 설명이 다양한 도면을 참조하여 설명될 것이다. 이 설명은 가능한 구현들에 대한 상세한 예를 제공하지만, 상세한 설명은 전형적인 예인 것으로 의도되며 결코 본 출원의 범위를 제한하지 않는다는 것을 유의해야 한다.
비디오 코딩 시스템은 예를 들어 그러한 신호의 저장 필요성 및/또는 전송 대역폭을 감소시키기 위해 디지털 비디오 신호를 압축하는데 사용될 수 있다. 블록 기반, 웨이블릿(wavelet) 기반 및 객체 기반 시스템과 같은 다양한 유형의 비디오 코딩 시스템이 있다. 블록 기반 하이브리드 비디오 코딩 시스템이 널리 사용되고 배치될 수 있다. 블록 기반 비디오 코딩 시스템의 예는 MPEG1/2/4 파트 2, H.264 MPEG-4 파트 10 AVC 및 VC-1 표준과 같은 국제 비디오 코딩 표준을 포함한다.
도 1은 예시적인 비디오 코딩 디바이스, 예를 들어 인코더(200)를 도시한다. 인코더(200)는 하이브리드 비디오 코딩 시스템의 일부일 수 있다. 인코더(200)는(예를 들어, WTRU(102)와 같은) WTRU에 의해 구현될 수 있다. 입력 비디오 신호(202)는 인코더(200)에 의해 수신될 수 있다. 입력 비디오 신호(202)는 블록 단위로 처리될 수 있다. 비디오 블록 유닛은 16×16 픽셀을 포함할 수 있다. 비디오 블록 유닛은 매크로 블록(macroblock) 또는 MB로 지칭될 수 있다. 고효율 비디오 코딩(High Efficiency Video Coding, HEVC)에서, 고해상도(예컨대, 1080p 등) 비디오 신호를 압축(예를 들어, 효율적으로 압축)하기 위해 확장된 블록 크기(예를 들어, "코딩 유닛(coding unit)" 또는 CU)가 사용될 수 있다. HEVC에서 CU는 최대 64×64 픽셀을 포함할 수 있다. CU는 하나 이상의 예측 단위(prediction unit, PU)로 파티션될 수 있다. 별도의 예측 모드가 PU에 적용될 수 있다. 인코더(200)는 (예를 들어, 각각의 입력 비디오 블록에 대해) 공간 예측(spatial prediction)(260) 및/또는 시간 예측(temporal prediction)(262)을 수행할 수 있다. 공간 예측(260)(예를 들어, "인트라 예측(intra prediction)")은 동일하거나 이웃하는 비디오 화상/슬라이스 내의 코딩된 이웃 블록으로부터의 픽셀을 사용하여 현재의 비디오 블록을 예측할 수 있다. 공간 예측(260)은 비디오 신호의 공간 리던던시(redundancy)를 감소시킬 수 있다.
시간 예측(262)은 "인터 예측(inter prediction)" 및/또는 "모션 보상 예측(motion compensated prediction)"이라 불릴 수 있다. 시간 예측(262)은 현재 비디오 블록을 예측하기 위해 코딩된 비디오 화상으로부터의 픽셀을 사용할 수 있다. 시간 예측(262)은 비디오 신호의 시간 리던던시를 감소시킬 수 있다. 비디오 블록에 대한 시간 예측 신호는 하나 이상의 모션 벡터에 의해 시그널링될 수 있다. 하나 이상의 모션 벡터는 현재 블록과 참조 블록 사이의 모션의 양 및/또는 방향을 나타낼 수 있다. 만일 다중 참조 화상(reference picture)이 지원되면, 하나 이상의(예를 들어, 각각의) 비디오 블록에 대해, 참조 화상 인덱스가 전송될 수 있다. 참조 화상 인덱스는 참조 화상 저장소(264) 내의 어느 참조 화상로부터 시간 예측 신호가 비롯되었는지, 또는 온 것인지를 식별하는데 사용될 수 있다.
인코더(200)에서의 모드 결정(280)은, 예를 들어, 공간 및/또는 시간 예측 후에, 예측 모드를 선택하는 것을 포함할 수 있다. 예측 모드는 예를 들어 레이트-왜곡(rate-distortion) 최적화에 기초하여 선택될 수 있다. 예측 블록은 공간 예측(260), 시간 예측(262) 및/또는 선택된 예측 모드를 사용하여 결정될 수 있다. 예측 블록은 입력 비디오 블록(216)으로부터 감산될 수 있다. 목표 비트 레이트를 달성하기 위해 예를 들어, 변환(204) 및 양자화(206)를 사용하여 예측 잔차(prediction residual)가 상관 해제(de-correlate)될 수 있다. 양자화된 잔차 계수는 역 양자화(210) 및/또는 역 변환(212)되어 재구성된 잔차를 형성할 수 있다. 재구성된 잔차는 예측 블록(226)에 추가되어, 재구성된 비디오 블록을 형성할 수 있다. 디-블로킹 필터(de-blocking filter) 및/또는 하나 이상의 적응 루프 필터(Adaptive Loop Filter)와 같은 인-루프 필터링(266)은, 예를 들어, 참조 화상 저장소(264)에 저장되기 전에 및/또는 미래의 비디오 블록을 코딩하기 위해 사용되기 전에, 재구성된 비디오 블록에 적용될 수 있다. 출력 비디오 비트스트림(220)을 형성하기 위해, 코딩 모드(예를 들어, 인터 또는 인트라), 예측 모드 정보, 모션 정보, 및/또는 양자화된 잔차 계수는 엔트로피 코딩(208)으로 전송되어, 압축 및/또는 패킹되어(packed) 출력 비디오 비트스트림(220)을 형성할 수 있다. 출력 비디오 비트스트림(220)은 통신 채널을 통해 전송될 수 있다.
효율적인 압축을 달성하기 위해, 인코더(200)는 입력 비디오 신호(202)를 예측하기 위해 공간 예측(260)(예를 들어, 인트라 예측) 및/또는 시간 예측(262)(예를 들어, 인터 예측 및/또는 모션 보상 예측)과 같은 기술을 이용할 수 있다. 인코더(200)는, 예를 들어 레이트 및 왜곡의 조합과 같은 특정 기준에 기초하여, 복수의 예측 형태로부터 예측 형태를 결정할 수 있는 모드 결정 로직(mode decision logics)(280)을 포함할 수 있다. 인코더(200)는 예측 잔차(예를 들어, 입력 신호와 예측 신호 간의 차이 신호)를 변환(204) 및/또는 양자화(206)할 수 있다. 모드 정보(예를 들어, 인트라 또는 인터 예측) 및/또는 예측 정보(예를 들어, 모션 벡터, 참조 화상 인덱스, 인트라 예측 모드 등)와 함께, 양자화된 잔차는 엔트로피 인코딩(208)에서 압축되고/되거나 출력 비디오 비트스트림(220)으로 패킹된다.
인코더(200)는 예를 들어, 양자화된 잔차에 역 양자화(210) 및/또는 역 변환(212)을 적용하여 재구성된 잔차를 생성함으로써, 재구성된 비디오 신호를 획득할 수 있다. 비디오 코딩 장치(200)는, 예를 들어, 재구성된 잔차를 다시 예측 신호에 가산함으로써 재구성된 비디오 블록을 생성할 수 있다. 재구성된 비디오 신호는 루프 필터링(266)(예를 들어, 디-블로킹 필터, 샘플 적응 오프셋)을 거칠 수 있다. 재구성된 비디오 블록은 (예를 들어, 미래의 비디오 신호를 예측하기 위해 사용되는) 참조 화상 저장소(264)에 저장될 수 있다.
도 2는 예시적인 비디오 코딩 디바이스, 예컨대 비디오 디코더(300)이다. 비디오 디코더(300)는 (예를 들어, WTRU(102)와 같은) WTRU에 의해 구현될 수 있다. 비디오 디코더는 비디오 비트스트림(302)을 수신할 수 있다. 비디오 비트스트림(302)은 인코더(200)에 의해 생성되는 출력 비디오 비트스트림(220)일 수 있다. 비디오 비트스트림(302)은 엔트로피 디코딩 유닛(308)에서 언패킹(unpacked) 및/또는 엔트로피 디코딩될 수 있다. 코딩 모드 및/또는 예측 정보는, 예를 들어, 예측 블록(324)을 형성하기 위해, (예를 들어, 인트라 코딩된 경우) 공간 예측 유닛(360)으로 및/또는 (예를 들어, 인터 코딩된 경우) 시간 예측 유닛(362)으로 전송될 수 있다. 하나 이상의 잔차 변환 계수들(320)이 잔차 블록을 재구성하기 위해 예를 들어, 역 양자화 유닛(310) 및/또는 역 변환 유닛(312)에 전송될 수 있다. 예측 블록(324) 및/또는 잔차 블록은 326에서 함께 더해질 수 있다. 예측 블록(324) 및 잔차 블록은 재구성된 블록을 형성할 수도 있다. 재구성된 블록은 예를 들어 참조 화상 저장소(364)에 저장되기 전에 루프 필터(366)로 전송될 수 있다. 인 루프 필터링은 루프 필터(366)에서 재구성된 블록에 대해 수행될 수 있다. 참조 화상 저장소 내의 재구성된 비디오는 디스플레이 장치(330)를 구동하고 및/또는 미래의 비디오 블록을 예측하는데 사용되기 위하여 전송될 수 있다. 디코딩된 비디오(328)는 참조 화상 저장소(364)로부터 디스플레이(330)로 전송될 수 있다.
비디오 디코더(300)는(예를 들어, 인코더(200)에 의해 생성된 출력 비디오 비트스트림(220)일 수 있는) 비디오 비트스트림(302)을 수신할 수 있다. 비디오 디코더(300)는 디스플레이될 비디오 신호를 재구성할 수 있다. 비디오 비트스트림(302)은 엔트로피 디코딩 유닛(308)에 의해 파싱(parse)될 수 있다. 잔차 계수는 (예를 들어, 재구성된 잔차를 획득하기 위해) 역 양자화(310) 및/또는 역변환(312)될 수 있다. 코딩 모드 및/또는 예측 정보는 예를 들어 공간 예측(360) 및/또는 시간 예측(362)을 사용하여 예측 신호를 획득하는데 사용될 수 있다. 예측 신호 및/또는 재구성된 잔차는 함께 가산되어(326) 재구성된 비디오 신호를 결정한다. 재구성된 비디오 신호는 예를 들어, 참조 화상 저장소(364)에 저장되기 전에 루프 필터(366)로 전송되어, 디스플레이되고/되거나, 다른 비디오 신호들(예를 들어, 미래의 비디오 신호들)을 디코딩하는데 사용될 수 있다.
예를 들어, 사람들은 미디어 프레젠테이션이나 원격 데스크톱 용도로 장치 콘텐츠를 공유하기 때문에, 화면 콘텐츠 압축이 더 많이 활용될 수 있다. 모바일 장치의 화면 디스플레이는 HD(high definition) 또는 UHD(ultra-high definition) 해상도를 지원할 수 있다. 블록 코딩 모드 및/또는 변환과 같은 비디오 코딩 툴은 (예를 들어, 이들 공유 애플리케이션에서 화면 콘텐츠를 전송하기 위한 대역폭 요구를 증가시킬 수 있기 때문에) 화면 콘텐츠 코딩에 대해 최적화되지 않을 수 있다.
도 3은 예시적인 화면 콘텐츠 공유 시스템(400)을 도시한다. 시스템(400)은(예를 들어, WTRU(102)와 같은) WTRU에 의해 구현될 수 있다. 화면 콘텐츠 공유 시스템(400)은 (예를 들어, 트랜시버(120)와 같은) 수신기(410), (예를 들어, 비디오 디코더(300)와 같은) 디코더(420) 및 디스플레이(440)(예를 들어, 디스플레이(128)와 같은 렌더러(renderer))를 포함할 수 있다. 수신기는 입력 비트스트림(415)(예를 들어, 입력 비트스트림(302))을 수신할 수 있다. 수신된 입력 비트스트림(415)은 (예를 들어, 인코더(200)와 같은) 비디오 인코더에 의해 인코딩될 수 있다. 수신기는 입력 비트스트림(415)을 디코더(420)에 전송할 수 있다. 디코더(420)는 입력 비트스트림(415)을 디코딩할 수 있다. 디코더(420)는 하나 이상의 디스플레이 이미지 버퍼(430)를 생성할 수 있다. 하나 이상의 디스플레이 이미지 버퍼(430)는 미래의 이미지를 예측하기 위해 사용될 수 있다. 하나 이상의 디코딩된 이미지(435)는 하나 이상의 디스플레이 이미지 버퍼(430)를 사용하여 생성될 수 있다. 하나 이상의 디코딩된 이미지(435)는 디스플레이(440) 상에 디스플레이될 수 있다.
고효율 비디오 코딩(HEVC)은 비디오 압축 표준이다. HEVC는 ITU-T 비디오 코딩 전문가 그룹(Video Coding Experts Group, VCEG)과 ISO/IEC Moving Picture Experts Group(Moving Picture Experts Group, MPEG)이 공동으로 개발했다. HEVC는 동일한 품질의 H.264에 비해 50% 대역폭을 절약할 수 있다. HEVC는 블록 기반 하이브리드 비디오 코딩 표준이다. HEVC는 더 큰 비디오 블록의 사용을 허용할 수 있으며 블록 코딩 정보를 시그널링하기 위해, 쿼드-트리(quad-tree) 파티션을 사용할 수 있다. 화상 또는 슬라이스는 동일한 크기(예컨대, 64×64)를 갖는 코딩 트리 블록(coding tree block, CTB)으로 파티션될 수 있다. 각 CTB는 쿼드-트리를 가진 코딩 단위(coding unit, CU)로 파티션될 수 있다. 각 CU는 쿼드-트리를 가진 예측 유닛(prediction unit, PU)과 변환 유닛(transform unit, TU)으로 더 파티션될 수 있다. 모션 벡터의 정밀도(예를 들어, HEVC에서 최대 1/4 픽셀일 수 있음)에 따라, 선형 필터가 부분 위치(fractional position)에서 픽셀 값을 얻기 위해 적용될 수 있다. HEVC에서, 보간 필터는 루마에 대해 7 또는 8개의 탭을 갖고 크로마에 대해 4개의 탭을 가질 수 있다. HEVC의 디-블로킹 필터는 콘텐츠 기반일 수 있다. 코딩 모드 차이, 모션 차이, 참조 화상 차이, 픽셀 값 차이 등과 같은 다수의 요인에 따라, 상이한 디-블로킹 필터 동작이 TU 및 PU 경계에서 적용될 수도 있다. 엔트로피 코딩 경우, HEVC는 상위 레벨 파라미터들을 제외한 대부분의 블록 레벨 신택스(syntax) 요소에 대해 컨텍스트-기반 적응 산술 이진 코딩(context-based adaptive arithmetic binary coding, CABAC)을 사용할 수 있다. CABAC 코딩에는 두 종류의 빈(bin)이 있는데, 컨텍스트 기반 코딩된 일반 빈(regular bin), 및 컨텍스트가 없는 바이-패스 코딩된 빈(by-pass coded bin)이다.
HEVC는 다양한 블록 코딩 모드를 포함할 수 있다. HEVC는 화면 콘텐츠 코딩을 위한 공간 리던던시를 완전히 활용하지 못할 수 있다. HEVC는 연속-톤(continuous-tome) 비디오 신호를 포함할 수 있는 카메라-캡처된 실사 콘텐츠(nature content)의 압축을 목표로 할 수 있다. 카메라-캡처된 실사 콘텐츠에 대해 효율적일 수 있는 모드 결정 및/또는 변환 코딩 툴은 이산-톤(discrete-tone) 비디오 신호를 포함할 수 있는 화면 콘텐츠에 적합(예를 들어, 최적)하지 않을 수도 있다. 화면 콘텐츠(예를 들어, 텍스트 및 그래픽)는 카메라-캡처된 실사 콘텐츠와 비교하여 상이한 특성을 나타낼 수 있다. 인트라 블록 카피(intra block copy), 팔레트 코딩(palette coding) 및/또는 적응 컬러 변환(adaptive color transform)이 화면 콘텐츠 코딩의 효율을 향상시키는데 사용될 수 있다.
도 4는 팔레트-기반 코딩 시스템(500)의 예를 도시한다. 팔레트 기반 코딩은 예를 들어 화면 콘텐츠 코딩의 효율을 향상시키기 위해 HEVC의 재귀적 쿼드-트리 프레임워크에 포함될 수 있다. 예시적인 팔레트 기반 코딩 시스템(500)은 팔레트 테이블 결정기(palette table determiner)(504), 팔레트 인덱스 결정기(palette index determiner)(508), 팔레트 인덱스 코딩 모드 결정기(512), 이스케이프 컬러 양자화기(516) 및/또는 엔트로피 코더(518)를 포함할 수 있다. 예시적인 팔레트 기반 코딩 시스템(500)은 화면 콘텐츠, 예를 들어 코딩 유닛(502)(예를 들어, 비디오 블록)을 수신할 수 있다. 화면 콘텐츠 비디오 내의 코딩 유닛(502)은 하나 이상의(예를 들어, 제한된 수의) 지배적인 컬러들(예를 들어, 주요 컬러들)에 의해 지배될 수 있다. 코딩 유닛(502) 내의 제1 픽셀(예를 들어, 각각의 픽셀)의 컬러 값은 제2 픽셀로부터 반복될 수 있다. 제2 픽셀은 제1 픽셀 위에 있을 수 있다. 코딩 유닛(502) 내의 제1 픽셀의 컬러 값은 제3 픽셀로부터 반복될 수 있다. 제3 픽셀은 제1 픽셀의 좌측에 위치될 수 있다. 모든 픽셀의 샘플 값을 직접 코딩하는 대신에, 코딩 유닛(502)은 주요 컬러 테이블(예를 들어, 팔레트 테이블(506)) 및/또는 인덱스 맵(예를 들어, 팔레트 인덱스 맵(510))에 의해 표현될 수 있다. 팔레트 테이블(506)은 팔레트 테이블 결정기(504)에 의해 결정될 수 있다. 팔레트 인덱스 맵(510)은 팔레트 인덱스 결정기(508)에 의해 결정될 수 있다. 팔레트 테이블(506) 및/또는 팔레트 인덱스 맵(510)을 사용하는 것은 모든 픽셀에 대해 샘플 값을 직접 코딩하는 것보다 더 효율적일 수 있다. 팔레트 테이블(506) 및/또는 팔레트 인덱스 맵(510)을 사용하는 것은 코딩 유닛(502)의 코딩 효율을 향상시킬 수 있다.
코딩 유닛(CU)(502)은 팔레트 모드로 코딩될 수 있다. 팔레트 모드로 코딩된 각각의 CU에 대해, 팔레트 테이블(506)이 결정될 수 있다. 팔레트 테이블(506)은 예를 들어 CU(502)로부터 주요 컬러의 세트를 선택함으로써 504에서 결정될 수 있다. 팔레트 인덱스 맵(510)은 예를 들어 CU(502)의 픽셀을 주요 컬러 및 이스케이프 컬러로 분류함으로써, 508에서 결정될 수 있다. 블랭크 블록(blank block)(510b)은 하나 이상의 주요 컬러를 갖는 하나 이상의 픽셀을 나타낼 수 있다. 패턴화된 블록(patterned block)(510p)은 하나 이상의 이스케이프 컬러를 갖는 하나 이상의 픽셀을 나타낼 수 있다.
팔레트 테이블(506) 내의 인덱스들(예를 들어, 인덱스들만)은 (예를 들어, 팔레트 테이블 내의 컬러들을 갖는 픽셀들에 대해) 인코딩될 수 있다. 팔레트 테이블에 없는 컬러를 가진 픽셀에 대한 컬러 값은 이스케이프 컬러로 간주될 수 있다. (예를 들어, 손실 코딩이 사용되는 경우) 양자화된 컬러 값은 이스케이프 컬러에 대응하는 픽셀에 대해 인코딩(예를 들어, 직접 인코딩)될 수 있다. 카피-좌측(copy-left) 모드 및/또는 카피-상위(copy-above) 모드와 같은 2개 이상의 예측 코딩 모드가 (예를 들어, 팔레트 인덱스의 코딩 효율을 향상시키기 위해) 팔레트 인덱스 맵을 인코딩하기 위해 도입될 수 있다. 카피-좌측 모드에서, 픽셀(예를 들어, 현재 픽셀)에 대한 하나의 팔레트 인덱스의 값이 시그널링될 수 있다. 런 값(run value)은 (예를 들어, 현재 픽셀과 동일한 팔레트 인덱스를 가질 수 있는 후속 픽셀들의 개수를 나타내기 위해) 시그널링될 수 있다. 카피-상위 모드에서, 코딩된 픽셀의 팔레트 인덱스는 바로 위의 인접 픽셀로부터 카피될 수 있다. 카피-상위 모드에서, 런 값(예를 들어, 런 값만)이 (예를 들어, 얼마나 많은 후속 픽셀들이 대응하는 상위 이웃들로부터 그들의 팔레트 인덱스를 카피하는지를 나타내기 위해) 시그널링될 수 있다. 팔레트 테이블 크기는 K로 표현될 수 있다. 팔레트 인덱스 0 내지 K-1은 하나 이상의 주요 컬러를 나타낼 수 있는 반면, 팔레트 인덱스 K는 하나 이상의 이스케이프 컬러를 나타낼 수 있다.
(예를 들어, 각각의) 이스케이프 컬러 픽셀에 대한 하나 이상의 컬러 값이 디코더에 보내질(예를 들어, 전송될(transmitted)) 수 있다. 손실 코딩이 적용될 때, 이스케이프 컬러 픽셀의 하나 이상의 컬러 값은 예를 들어 이스케이프 컬러의 시그널링 오버헤드를 줄이기 위해 비트스트림으로 시그널링되기 전에 양자화될 수 있다. 이스케이프 컬러의 하나 이상의 컬러 값은 516에서 양자화될 수 있다. 예를 들어, 이스케이프 컬러의 하나 이상의 컬러 값은 이스케이프 컬러 값을 양자화 스텝에 의해 나눔으로써 516에서 양자화될 수 있다. 양자화 파라미터 QP와 양자화 스텝 크기 Q step 사이의 관계는 Q step = 2 ( QP -4)/ 6 로서 표현될 수 있다. 이스케이프 컬러 값 pValue 및 양자화 스텝 크기 Q step 가 주어지면, 인코더는 다음 수학식 1에 도시된 바와 같이 pValue를 양자화할 수 있다:
Figure 112017082591131-pct00001
디코더에서, 이스케이프 컬러의 재구성된 값 pRec가 결정(예를 들어, 유도)될 수 있다. 재구성된 값 pRec은 수학식 2에서와 같이 양자화 스텝 크기를 곱함으로써 결정될 수 있다:
Figure 112017082591131-pct00002
수학식 1과 수학식 2에서 Qstep은 부동 소수점 수(floating-point number)이다. 부동 소수점 수에 의한 곱셈 및/또는 나눗셈은 (예를 들어, 적절한 비트의) 하나의 우측 시프트가 뒤따르는 스케일링 팩터를 곱함으로써 근사화될 수 있다. 양자화 스텝 크기의 하나 이상의(예를 들어, 52) 미리 정의된 부동 소수점 값이 (예를 들어, H.264 및/또는 HEVC에서와 같이) 정의될 수 있다. 하나 이상의 미리 정의된 부동 소수점 값은 QP = 0, 1, 2, ..., 51에 대응할 수 있고/있거나 0.63(QP = 0) 내지 228(QP = 51)의 범위일 수 있다. 양자화 스텝 크기는 QP에서 6씩 증가할 때마다 두 배가 될 수 있다. QP + 6k와 연관된 양자화 스텝 크기가 QP와 관련된 양자화 스텝 사이즈의 2k 배이기 때문에, QP + 6k에 대한 양자화 프로세스는 QP와 동일한 스케일링 팩터를 공유할 수 있다. QP + 6k에 대한 양자화 프로세스는 QP에 대한 양자화 프로세스보다 k 개 더 많은 우측 시프트를 포함할 수 있다. 표 1에 나타낸 바와 같이, 6쌍의 스케일링 파라미터 encScale [i]decScale [i], i = 0, 1,.., 5가 양자화 및/또는 역 양자화 프로세스에 대해 정의될 수 있는데, 여기서 QP%6은 "QP 모듈로(modulo) 6" 연산을 나타낸다.
양자화 및 역 양자화 프로세스의 스케일링 팩터
QP%6 0 1 2 3 4 5
encScale[QP%6] 26214 23302 20560 18396 16384 14564
decScale[QP%6] 40 45 51 57 64 72
표 1에서, encScale[i]는 양자화 파라미터(예를 들어, 양자화 팩터)를 나타내고, decScale[i]는 역-양자화(de-quantization) 파라미터(예를 들어, 역-양자화 팩터)를 나타낼 수 있다. 표 1에 정의된 스케일링 팩터에 따라, 이스케이프 컬러의 양자화 및 역 양자화 프로세스가 수학식 3과 수학식 4에 의해 정의될 수 있는데, 여기서 '/'연산은 결과를 0 쪽으로 절사하는 정수 나눗셈(integer division with truncation of the result toward zero)을 나타낸다 .
Figure 112017082591131-pct00003
Figure 112017082591131-pct00004
양자화된 이스케이프 컬러 값은 TBC(truncated binary code)를 사용하여 이진화될 수 있다. 양자화된 이스케이프 컬러 값은 (예를 들어, 손실 코딩이 적용되는 경우) 바이패스 모드로 코딩될 수 있다. TBC를 사용하는 것은 이스케이프 컬러 시그널링의 오버헤드를 줄일 수 있다. TBC는 고정 길이 코드(fixed length code, FLC)의 변형(variant)을 포함할 수 있다. TBC는 균일한 분포를 갖는 알파벳에 사용될 수 있다. TBC는 알파벳의 크기가 2의 거듭제곱일 때 FLC로 변질(degenerate)될 수 있다. TBC는 입력 값(예를 들어, 모두 포함)의 최대값 pMax가 알려져 있다고 가정할 수 있다. 2 k ≤n < 2 k+1 이고, u = 2 k+1 - n이 되도록, nn = pMax + 1k = floor(log 2 (n))으로서 정의될 수 있다. pLevel로 표시된 입력 값은 다음과 같이 이진화된다: 만일 pLevel < u 이면, 코드워드가 길이 k를 가진 pLevel의 이진 표현에 의해 지정(specify)되고; 그렇지 않으면, 코드워드는 길이 k+1을 가진 pLevel + u의 이진 표현에 의해 지정될 수 있다. 표 2는 pMax = 8일 때, TBC 이진화의 예를 도시한다.
pMax = 8인 TBC 이진화의 예
코드워드 코드워드
0 000 5 101
1 001 6 110
2 010 7 1110
3 011 8 1111
4 100
표 2에 도시된 바와 같이, 이스케이프 컬러(예를 들어, 양자화된 이스케이프 컬러)의 값을 이진화하는 것은 TBC에 입력으로서 최대 레벨 pMax를 제공하는 것을 포함할 수 있다. 손실 코딩의 경우, TBC 최대값 pMax는 수학식 5를 사용하여 반올림된 양자화 스텝 크기
Figure 112017082591131-pct00005
를 결정(예를 들어, 유도)함으로써 결정될 수 있다:
Figure 112017082591131-pct00006
손실 코딩에 있어서, TBC 최대값 pMax는 최대 이스케이프 컬러 값(1 << BD-1) 및 반올림된 양자화 스텝 크기
Figure 112017082591131-pct00007
을 사용하여 양자화된 값(pMax * )을 계산함으로써 결정될 수 있으며, 여기서 BD는 수학식 6에 나타낸 바와 같이 입력 비디오의 비트 깊이이다.
Figure 112017082591131-pct00008
손실 코딩에 있어서, TBC 최대값 pMax는 수학식 7을 사용하여 pMax * 를 표현하기 위해 비트 수 numBits를 유도함으로써 결정될 수 있다:
Figure 112017082591131-pct00009
손실 코딩에 있어서, TBC 최대값 pMax는 수학식 8을 사용함으로써 달성될 수 있는 최대 양자화된 값 pLevel max 를 유도함으로써 결정될 수 있다:
Figure 112017082591131-pct00010
손실 코딩의 경우, TBC 최대값 pMax는 수학식 9를 사용하여 최대 TBC 값 pMax를 결정함으로써 결정될 수 있다:
Figure 112017082591131-pct00011
최대 TBC 값은 하나 이상의 TBC 코드워드가 이스케이프 컬러에 대한 양자화된 값의 실제 동적 범위(예를 들어, 전체 범위)를 커버할 수 있도록 이스케이프 컬러 시그널링에 대해 결정될 수 있다. 역 양자화는 이스케이프 컬러에 대해 수행될 수 있다. 이스케이프 컬러에 대한 역 양자화는, 다양한 QP에 대한(예를 들어, 모든 QP에 대한) 양자화된 이스케이프 컬러의 역 양자화가 수행될 수 있도록 수행될 수 있다.
수학식 9에 예시된 바와 같이, 이스케이프 컬러의 이진화에 대한 최대 TBC 값 pMax는 0 내지 (1 << numBits - 1)까지 포함하는 범위로 제한되며(예를 들어, 클리핑(clipped)됨), numBits는 수학식 6과 수학식 7에 따라 최대 이스케이프 컬러 값(1 << BD - 1)과 반올림된 양자화 스텝 크기
Figure 112017082591131-pct00012
로부터 유도된다.
Figure 112017082591131-pct00013
은 실수 값(예를 들어, 부동 소수점) 양자화 스텝 크기를 가장 가까운 정수 값으로(예를 들어, 수학식 5에 나타낸 바와 같이) 반올림함으로써 계산될 수 있다.
도 5는 복수의 QP 값들에 대한 예시적인 TBC 값들의 그래프(600)를 나타낸다. 입력 비디오는 8비트(예를 들어, BD = 8)일 수 있다. 그래프(600)는 복수의 QP 값에 대한 이스케이프 컬러의 계산된 최대 TBC 값을 나타낼 수 있는 제1 곡선(610)을 포함한다. 그래프(600)는 양자화된 이스케이프 컬러의 이론적인 최대값을 나타낼 수 있는 제2 곡선(620)을 포함한다. 수학식 10을 사용하여 부동 소수점 연산을 가정하면, 제2 곡선(620) 상의 이론상 최대값이 계산될 수 있다:
Figure 112017082591131-pct00014
제1 곡선(610)은 SCM-3.0에서 허용되는 복수의 최대 TBC 값을 나타낼 수 있다. 예시된 바와 같이, SCM-3.0은 이론적인 결과와 비교할 때 더 작은 최대 TBC 값(예를 들어, QP가 0인 경우 -149.79까지)을 가능하게 할 수 있다. SCM-3.0과 이론적인 결과 사이의 최대 TBC 값의 차이는 numBits의 계산 및/또는 클리핑 연산(예를 들어, 수학식 9에서 후속하는 클리핑 연산)에 기인할 수 있다. SCM-3.0에서 허용될 수 있는 것과 이론적으로 허용될 수 있는 것의 차이는 작은 QP의 경우 큰 QP의 경우보다 클 수 있다. 작은 QP와 큰 QP의 차이는 나누기 연산에 의해 도입된 하나 이상의 반올림 오류 때문일 수 있다. 하나 이상의 반올림 오류는 작은 QP 값에 대해 더 심각할 수 있다. 최대 TBC 값의 감소는 하나 이상의 재구성된 이스케이프 컬러 및 하나 이상의 상응하는 원래 값 간의 왜곡을 증가시킬 수 있다. 증가된 왜곡은 임계 값(1 << numBits - 1)보다 큰 하나 이상의 양자화된 이스케이프 컬러 값이 TBC 전의 동일한 임계 값으로 클리핑되는 것에 의해 야기될 수 있다. 하나 이상의 재구성된 이스케이프 컬러 및 원래 값 사이의 증가된 왜곡은 팔레트 코딩 모드의 전반적인 효율을 감소시킬 수 있다.
TBC 최대값의 계산은(예를 들어, 수학식 5 및/또는 수학식 6과 같은) 하나 이상의 부동 소수점 연산을 포함할 수 있다. 하나 이상의 최대 TBC 값은 TBC 코드 워드가 양자화된 이스케이프 컬러의 전체 동적 범위를 캡슐화(예를 들어, 커버)하게 할 수 있도록 결정될 수 있다.
수학식 4에서 (6 - QP / 6)의 우측 시프트는 QP < 42일 때, 정의(예를 들어, 정의만)될 수 있다. QP ≥ 42일 때, 우측 시프트(예를 들어,(6 - QP/6))는 음수 값을 초래할 수 있다. 음수 값은, 대응하는 우측 시프트 연산이 정의되지 않는 것을 초래할 수 있다. 이스케이프 컬러의 역-양자화(de-quantization)는 다양한 QP에 대한(예를 들어, 모든 QP에 대한) 양자화된 이스케이프 컬러의 역-양자화를 가능하게 하도록 수행될 수 있다.
본 명세서에 개시된 방법들은 손실 코딩에 적용될 수 있다. 코딩은 손실 코딩인 것으로 결정될 수 있다. 예를 들어, 인코딩된 비트스트림이 수신될 수 있고, 인코딩된 비트스트림은 손실 코딩을 사용하여 인코딩되도록 결정될 수 있고/있거나, 인코딩되는 비트스트림이 손실 코딩을 사용하여 인코딩되는 것에 응답하여 최대 TBC 값이 결정될 수 있다. 최대 TBC 값은 다음 중 하나 이상을 기반으로 결정될 수 있다.
최대 TBC 값은 이스케이프 컬러 코딩을 위해 결정(예를 들어, 계산)될 수 있다. 최대 TBC에 대한 계산에는 클리핑 연산이 포함될 수 있다. 클리핑 연산은 TBC 코드워드 pMax의 하나 이상의 값을 (1 << numBits - 1)보다 크지 않게 클리핑하는 것을 포함할 수 있다. 최대 TBC 값의 결정은 정수 연산을 포함할 수 있다. 최대 TBC 값은 양자화된 이스케이프 컬러 값의 동적 범위의 상한보다 크거나 같도록 선택될 수 있다. 양자화된 이스케이프 컬러를 코딩하기 위한 최대 TBC 값은 수학식 11에 의해 결정될 수 있다:
Figure 112017082591131-pct00015
최대 TBC 값을 결정하는 것은 스케일링 파라미터(예를 들어, encScale [i])를 선택하는 것을 포함할 수 있다. 스케일링 파라미터(예를 들어, encScale [i])는 복수의 스케일링 파라미터들로부터 선택될 수 있다. 예를 들어, 스케일링 파라미터(예를 들어, encScale [i])는 6개의 스케일링 파라미터의 집합, 예를 들어, encScale[0], encScale [1], encScale [2], encScale [3], encScale [4]encScale[5]로부터 선택될 수 있다. 스케일링 파라미터는 QP 값(예를 들어, encScale[QP%6])에 기초하여 선택될 수 있으며, 여기서 '%'는 모듈로 연산을 나타내고, '6'은 이용 가능한 스케일링 파라미터들의 집합 내의 스케일링 파라미터들의 수를 나타낼 수 있다.
도 6은 복수의 QP 값들에 대한 예시적인 최대 TBC 값들의 그래프(700)를 도시한다. 입력 비디오는 8 비트(예를 들어, BD = 8)일 수 있다. 그래프(700)는 예를 들어 SCM-3.0에서 지정된 바와 같이, 상이한 QP 값들에 대한 이스케이프 컬러들의 복수의 계산된 최대 TBC 값들을 나타낼 수 있는 제1 곡선(710)을 포함한다. 그래프(700)는 양자화된 이스케이프 컬러의 이론적 최대값을 나타낼 수 있는 제2 곡선(720)을 포함한다. 수학식 10을 이용하여, 예를 들어 부동 소수점 연산을 가정할때, 제2 곡선(720) 상의 이론적 최대값이 계산될 수 있다. 그래프(700)는 예를 들어 수학식 11에 따라 결정될 수 있는 복수의 최대 TBC 값을 나타낼 수 있는 제3 곡선(730)을 포함한다.
도 6에 도시된 바와 같이, 제3 곡선(730) 상에 도시된 (예를 들어, 수학식 11을 이용하여 결정되는) 복수의 최대 TBC 값은 제1 곡선(710) 상에 도시된 복수의 최대 TBC 값보다 제2 곡선(720) 상에 도시된 이론적인 최대 TBC 값에 더 가까울 수 있다. 도 6에 도시된 바와 같이, 최대 TBC 값을 결정하기 위해 수학식 11을 사용하는 것은, 결정된 최대 TBC 값과 이론적인 최대 TBC 값 사이의 차이를 감소시킬 수 있다. 예를 들어, 실제로 허용될 수 있는 것과 이론적으로 허용될 수 있는 것 사이의 최대 차이는 (예를 들어, 수학식 11을 사용하여) -149,79에서 -3.2로 감소될 수 있다. (예컨대, 대부분의 QP 값들에 대해) 제3 곡선(730) 상의 복수의 최대 TBC 값은 제2 곡선(720) 상의 양자화된 이스케이프 컬러의 이론적인 최대 TBC 값에 근접할 수 있다. 제2 곡선(720) 및 제3 곡선(730)의 최대 TBC 값의 차이는 (예를 들어, 매우 작은 QP 값을 제외하고) 1보다 작을 수 있다. 하나 이상의 최대 TBC 값들(예를 들어, 수학식 11을 사용하여 결정된 최대 TBC 값들)은 클리핑 연산 없이 및/또는 부동 소수점 연산 없이 결정될 수 있다. 하나 이상의 최대 TBC 값은 양자화된 이스케이프 컬러의 동적 범위(예를 들어, 전체 범위)를 커버할 수 있다. 비트스트림 적합성(conformance) 요구 사항은 예를 들어 이스케이프 컬러의 시그널링된 값이 최대 TBC 값보다 크지 않도록 예를 들어, pLevel pMax이 되도록 이스케이프 컬러의 시그널링된 값을 제한함으로써 적용될 수 있다.
비디오 비트스트림은 (예를 들어, WTRU와 같은 디코더에 의해) 수신될 수 있다. 비디오 비트스트림은 인코딩된 비디오 비트스트림일 수 있다. 비디오 비트스트림은 양자화 파라미터를 포함할 수 있다. 비디오 비트스트림은 양자화된 이스케이프 컬러 값을 포함할 수 있다. 양자화된 이스케이프 컬러 값은 이스케이프 컬러를 정의할 수 있다. 양자화된 이스케이프 컬러 값은 이스케이프 컬러 픽셀에 대응할 수 있다. 비디오 비트스트림을 디코딩하는 것은 하나 이상의 이스케이프 컬러의 역 양자화(inverse quantization)(예를 들어, 역-양자화(de-quantization))를 포함할 수 있다. 하나 이상의 이스케이프 컬러의 역 양자화는 하나 이상의 우측 시프트를 결정하는 것을 포함할 수 있다. 우측 시프트를 결정하는 것은 우측 시프트 값을 결정하는 것을 포함할 수 있다. 우측 시프트는 음의 우측 시프트 값에 대해 정의되지 않을 수 있다. 우측 시프트 값에는 음수가 아닌 우측 시프트 값(예를 들어, 음수가 아닌 우측 시프트 값만)이 포함될 수 있다. 예를 들어 음수 우측 시프트 값을 피하거나 완화하기 위해 다음 중 하나 이상을 수행할 수 있다.
수학식 4에 도시된 바와 같이, 우측 시프트 값(예를 들어, 우측 시프트하는 비트 수)은 (6 - QP/6)에 의해 정의될 수 있다. 우측 시프트 연산은 QP < 42에 대해 정의될 수 있다(예를 들어, 단지 정의될 수 있다). QP ≥ 42 일 때, 우측 시프트는 음의 값이 될 수 있고 대응하는 우측 시프트 연산은 정의되지 않을 수 있다. 정의되지 않은 우측 시프트 연산을 피하는 것은 다음 중 하나 이상을 포함할 수 있다.
정의되지 않은 우측 시프트 연산은 수학식 4의 우측 시프트 연산을 위한 비트 수를 Δ 비트만큼 증가시킴으로써 피할 수 있다. Δ 비트를 추가하는 것은 양자화된 이스케이프 컬러의 스케일링된 버전(예를 들어, 수학식 4에서 pLevel ·decScale[QP%6])을 초래할 수 있다. 스케일링된 버전은 스케일링된 이스케이프 컬러 값을 포함할 수 있다. 스케일링된 이스케이프 컬러 값은 음수가 아닌 수만큼 우측 시프트(예를 들어, 항상 우측 시프트)될 수 있다. 추가적인 우측 시프트에 의해 야기될 수 있는 신호 크기 변화를 보상하기 위해, 역 양자화에서의 스케일링 동안 Δ 비트의 좌측 시프트(예를 들어, 하나의 추가적인 좌측 시프트)가 수행될 수 있다. 재구성된 이스케이프 컬러를 생성하기 위한 역 양자화는 수학식 12에 의해 표현될 수 있고, Δ에 대한 상응하는 값은 수학식 13을 사용하여 결정될 수 있다:
Figure 112017082591131-pct00016
Figure 112017082591131-pct00017
Δ 값은 QP 값(예를 들어, QP max )에 기초하여 결정될 수 있다. 수학식 13에서, QP max 는 최대 QP 값을 나타낼 수 있으며, 이는 51과 동일할 수 있다. ΔBD는 입력 비디오의 비트 깊이에서 8을 뺀 것을 나타낼 수 있다. 즉, ΔBD = BD - 8이다. Δ의 값은 수학식 13에서 2 + ΔBD와 동일하게 설정될 수 있다. Δ가 2 + ABD와 동일하게 설정될 수 있을지라도, Δ에 대한 하나 이상의(예를 들어, 상이한) 값이 우측 시프트 연산에 사용될 수 있다. 예를 들어, 해당 우측 시프트가 음이 아닌 값(예를 들어, 항상 음이 아닌 값)인 것을 보장하기 위하여, Δ의 값은 예를 들어 수학식 13에서 결정된 임계 값과 같거나 클 수 있다(예를 들어, Δ ≥ 2 + ΔBD).
수학식 4에서, 우측-시프트(6 - QP/6)는 큰 QP 값에 대해 음이 될 수 있다. 부분적인 우측 시프트는 입력 QP 값과 관련될 수 있다. 부분적인 우측 시프트는, 예를 들어, 우측 시프트가 음이 아닌 것을 보장하기 위해 역 양자화의 스케일링 연산으로 이동될 수 있다. 스케일링된 이스케이프 컬러 값은 스케일링 팩터에 의해 이스케이프 컬러 값을 스케일링함으로써 생성될 수 있다. 좌측 시프트 파라미터가 결정될 수 있다. 좌측 시프트 파라미터는 QP(예를 들어, 입력 QP 값)에 기초하여 결정될 수 있다. 좌측 시프트 파라미터는 QP를 6으로 나눔으로써 결정될 수 있다. 좌측-시프트된 이스케이프 컬러 값이 생성될 수 있다. 좌측-시프트된 이스케이프 컬러 값은 좌측-시프트 파라미터에 기초하여 스케일링된 이스케이프 컬러 값을 좌측-시프트함으로써 생성될 수 있다. 예를 들어, 좌측-시프트된 이스케이프 컬러 값은, 좌측-시프트 파라미터에 기초하여 스케일링된 이스케이프 컬러값을 좌측-시프트한 후, 32를 더함으로써 생성될 수 있다. 달리 말해서, 우측-시프트하기 전에 좌측-시프트된 이스케이프 컬러 값에 32가 더해질 수 있다. 우측-시프트된 이스케이프 컬러 값이 생성될 수 있다. 우측-시프트된 이스케이프 컬러 값은 상수 파라미터를 기반으로 좌측-시프트된 이스케이프 컬러 값을 우측-시프트함으로써 생성될 수 있다. 상수 파라미터는 6과 동일할 수 있다. 재구성된 이스케이프 컬러 값이 결정될 수 있다. 재구성된 이스케이프 컬러 값은 우측-시프트된 이스케이프 컬러 값에 기초하여 결정될 수 있다. 비디오 비트스트림은 재구성된 이스케이프 컬러 값에 기초하여 디코딩될 수 있다.
-(QP/6)비트의 우측 시프트는 (QP/6) 비트의 좌측 시프트가 될 수 있다. -(QP/6) 비트의 우측 시프트를 (QP/6) 비트의 좌측 시프트로 변경함으로써, 우측 시프트 연산을 위한 비트의 수는 예를 들어, 모든 QP 값에 대하여 (예를 들어 항상) 6일 수 있다. 이스케이프 컬러의 대응하는 역 양자화는 수학식 14로 표현될 수 있다:
Figure 112017082591131-pct00018
수학식 4의 역-양자화(de-quantization)와 비교하여, 수학식 14의 역-양자화는 예를 들어 반올림 및 우측 시프트 전에 좌측 시프트를 수행함으로써 음의 값만큼 우측 시프트를 완화할 수 있다. 우측 시프트 비트의 수 및/또는 반올림 오프셋은 상수 값일 수 있다. 우측 시프트 비트의 수 및/또는 반올림 오프셋은 QP에 의존하지 않을 수 있다. 예를 들어, 우측 시프트 비트의 수는 6일 수 있다. 반올림 오프셋은 32일 수 있다. 하나 이상의 (예를 들어, 모든) QP 값에 대해 통일된 수학식(예를 들어, 수학식 14)이 사용될 수 있다. 예를 들어, [36, 42)의 범위(예를 들어, QP/6 = 0)는 통일된 방정식에서 고려되지 않을 수 있다.
변환 스킵 모드(tranform skip mode)의 역 양자화(inverse quantization)는 이스케이프 컬러의 역 양자화를 수행하는데 사용될 수 있다. 재구성된 이스케이프 컬러를 생성하기 위한 역 양자화는 수학식 15에 의해 표현될 수 있다:
Figure 112017082591131-pct00019
수학식 15에서, nT는 변환 유닛의 블록 크기를 나타낼 수 있다. 수학식 15는 2D 변환 블록 및/또는 변환 스킵 블록에 의해 공유될 수 있는 역 양자화에 대응할 수 있는 제1 부분을 포함할 수 있다. 수학식 15는 스킵된 역 변환에 기인한 신호 크기 변화를 정규화하기 위하여, 예를 들어, 변환 스킵 블록에 대해 사용될 수 있는(예를 들어, 단독으로 사용되는) 하나 이상의 비트 시프트 연산(예를 들어, 추가 비트 시프트 연산)에 대응할 수 있는 제2 부분을 포함할 수 있다. 예를 들어, 역 변환이 팔레트 코딩된 CU에 적용되지 않을 수도 있기 때문에, 다양한 nT 값을 이용하는 것은 역 양자화(예를 들어, 수학식 15에서의 역 양자화)를 위한 이스케이프 컬러의 재구성된 값에 영향을 주지 않을 수 있다. nT의 값은 미리 결정된 값(예를 들어, 고정된 수)으로 설정될 수 있다. 예를 들어, nT의 값은 4, 8, 16 및/또는 32로 설정될 수 있다. nT의 값은 이스케이프 컬러(들)로서 코딩될 수 있는 하나 이상의 픽셀(예를 들어, 모든 픽셀)에 대해 미리 정해진 값으로 설정될 수 있다. nT의 값은 예를 들어 현재 CU에 포함될 수 있는 이스케이프 컬러 픽셀에 대한 CU 크기와 동일하게 설정될 수 있다.
우측-시프트는 생략될 수 있다. 우측 시프트 값이 음수 값을 포함하면 우측 시프트를 생략할 수 있다. 정의되지 않은 음의 우측 시프트를 회피 및/또는 완화하기 위해 우측 시프트를 생략할 수 있다. 우측 시프트가 정의되지 않은 음수 우측 시프트인지 여부가 결정될 수 있다. 우측 시프트가 음의 우측 시프트임을 결정하는 것에 응답하여 우측 시프트 연산이 생략될 수 있다. 양자화된 이스케이프 컬러는 음이 아닌 우측-시프트로 이어질 수 있는 QP에 대해 (예를 들어, 수학식 4를 사용하여) 역-양자화(예를 들어, 역-양자화만) 될 수 있다. 예를 들어, 양자화된 이스케이프 컬러는 42보다 작은 QP(예를 들어, QP < 42)에 대해 역-양자화(예를 들어, 역-양자화만) 될 수 있다. 우측 시프트 연산은 42보다 크거나 같은 QP들(예를 들어, QP ≥ 42)에 대해서는 생략(예를 들어, 무시)될 수 있다.
역-양자화(de-quantization)는 스케일링 팩터 decScale[QP%6]에 의한 스케일링을 포함할 수 있다. 역-양자화는 (6 - QP/6) 비트의 우측 시프트를 포함할 수 있다. 우측 시프트 뒤에 스케일링이 올 수 있다. 우측 시프트를 생략(예를 들어, 무시)하는 것은, 예를 들어 우측 시프트의 값이 음수 일 때, 우측 시프트에 대한 비트들의 수를 0으로 클리핑하는 것을 포함(예를 들어, 동등(equivalent))할 수 있다. 우측 시프트 연산을 생략하기로 결정하는 것은 수학식 16으로 표현될 수 있다:
Figure 112017082591131-pct00020
재구성된 이스케이프 컬러의 값은 예를 들어 QP ≥ 42 일 때 최대 픽셀 값(예를 들어,(1 << BD - 1))으로 클리핑될 수 있다.
도 7a는 하나 이상의 개시된 실시 예가 구현될 수 있는 예시적인 통신 시스템(100)의 다이어그램이다. 통신 시스템(100)은 음성, 데이터, 비디오, 메시징, 브로드캐스트 등과 같은 콘텐츠를 다중 무선 사용자에게 제공하는 다중 액세스 시스템일 수 있다. 통신 시스템(100)은 다중 무선 사용자가 무선 대역폭을 포함하는 시스템 자원의 공유를 통해 그러한 콘텐츠에 액세스할 수 있게 할 수 있다. 예를 들어, 통신 시스템(100)은 코드 분할 다중 액세스(code division multiple access, CDMA), 시분할 다중 액세스(time division multiple access, TDMA), 주파수 분할 다중 액세스(frequency division multiple access, FDMA), 직교 FDMA(orthogonal FDMA, OFDMA), 단일-캐리어 FDMA(single-carrier FDMA, SC-FDMA) 등과 같은 하나 이상의 채널 액세스 방법을 이용할 수 있다.
도 7a에 도시된 바와 같이, 통신 시스템(100)은 무선 송수신 유닛(WTRU)(102a, 102b, 02c 및/또는 102d)(일반적으로 또는 집합적으로 WTRU(102)로 지칭함), 무선 액세스 네트워크(radio access network, RAN)(103/104/105), 코어 네트워크(106/107/109), 공중 교환 전화망(public switched telephone network, PSTN)(108), 인터넷(110) 및 다른 네트워크(112)를 포함할 수 있지만, 개시된 실시 예들은 임의의 수의 WTRU, 기지국, 네트워크 및/또는 네트워크 요소를 포함할 수 있음을 이해할 것이다. WTRU(102a, 102b, 102c, 102d) 각각은 무선 환경에서 동작 및/또는 통신하도록 구성된 임의의 유형의 장치일 수 있다. 예를 들어, WTRU(102a, 102b, 102c, 102d)는 무선 신호를 송신 및/또는 수신하도록 구성될 수 있으며, 사용자 장비(user equipment, UE), 이동국, 고정 또는 이동 가입자 유닛, 페이저, 셀룰러 전화, PDA(personal digital assistant), 스마트폰, 랩탑, 넷북, 개인용 컴퓨터, 무선 센서, 가전 제품 등을 포함할 수 있다.
통신 시스템(100)은 또한 기지국(114a) 및 기지국(114b)을 포함할 수 있다. 각각의 기지국(114a, 114b)은 코어 네트워크(106/107/109), 인터넷(110) 및/또는 네트워크들(112)와 같은 하나 이상의 통신 네트워크에의 액세스를 용이하게 하기 위하여 WTRU(102a, 102b, 102c, 102d) 중 적어도 하나와 무선으로 인터페이스하도록 구성된 임의의 유형의 장치일 수 있다. 예로서, 기지국(114a, 114b)은 베이스 트랜시버 스테이션(base transceiver station, BTS), 노드 B, e노드 B, 홈 노드 B, 홈 e노드 B, 사이트 제어기, 액세스 포인트(AP), 무선 라우터 등일 수 있다. 기지국(114a, 114b)은 각각 단일 요소로서 도시되었지만, 기지국(114a, 114b)은 임의의 수의 상호 연결된 기지국들 및/또는 네트워크 요소들을 포함할 수 있음을 알 것이다.
기지국(114a)은 RAN(103/104/105)의 일부일 수 있으며, 기지국 제어기(base station controller, BSC), 무선 네트워크 제어기(radio network controller, RNC), 릴레이 노드 등과 같은 다른 기지국들 및/또는 네트워크 요소들(도시되지 않음)을 포함할 수 있다. 기지국(114a) 및/또는 기지국(114b)은 특정 지리적 영역 내에서 무선 신호를 송신 및/또는 수신하도록 구성될 수 있으며, 이는 셀(도시되지 않음)로서 지칭될 수 있다. 셀은 또한 셀 섹터들(cell sectors)로 분할될 수 있다. 예를 들어, 기지국(114a)과 연관된 셀은 3개의 섹터들로 분할될 수 있다. 따라서, 일 실시 예에서, 기지국(114a)은 예를 들어, 셀의 각 섹터에 하나씩, 3개의 트랜시버를 포함할 수 있다. 다른 실시 예에서, 기지국(114a)은 다중-입력 다중 출력(multiple-input multiple output, MIMO) 기술을 사용할 수 있고, 따라서 셀의 각 섹터에 대해 다중 트랜시버를 이용할 수 있다.
기지국(114a, 114b)은 무선 인터페이스(115/116/117)를 통해 하나 이상의 WTRU(102a, 102b, 102c, 102d)와 통신할 수 있으며, 무선 인터페이스(115/116/117)는 임의의 적절한 무선 통신 링크(예를 들어, 무선 주파수(radio frequency, RF), 마이크로파, 적외선(infrared, IR), 자외선(ultraviolet, UV), 가시광 등)일 수 있다. 무선 인터페이스(115/116/117)는 임의의 적합한 무선 액세스 기술(radio access technology, RAT)을 사용하여 설정될 수 있다.
보다 구체적으로, 전술한 바와 같이, 통신 시스템(100)은 다중 액세스 시스템일 수 있고, CDMA, TDMA, FDMA, OFDMA, SC-FDMA 등과 같은 하나 이상의 채널 액세스 방식을 이용할 수 있다. 예를 들면, RAN(103/104/105)의 기지국(114a)과 WTRU(102a, 102b, 102c)는 광대역 CDMA(wideband CDMA, WCDMA)를 사용하여 무선 인터페이스(115/116/117)를 설정할 수 있는, UTRA(UMTS(Universal Mobile Telecommunications System) Terrestrial Radio Access)와 같은 무선 기술을 구현할 수 있다. WCDMA는 고속 패킷 액세스(High-Speed Packet Access, HSPA) 및/또는 진화된 HSPA(HSPA+)와 같은 통신 프로토콜을 포함할 수 있다. HSPA는 고속 다운 링크 패킷 액세스(High-Speed Downlink Packet Access, HSDPA) 및/또는 고속 업 링크 패킷 액세스(High-Speed Uplink Packet Access, HSUPA)를 포함할 수 있다.
또 다른 실시 예에서, 기지국(114a) 및 WTRU(102a, 102b, 102c)는 E-UTRA(Evolved UMTS Terrestrial Radio Access)와 같은 무선 기술을 구현할 수 있으며, 이는 LTE(Long Term Evolution) 및/또는 LTE-A(LTE-Advanced)를 사용하여 무선 인터페이스(115/116/117)를 구축할 수 있다.
다른 실시 예들에서, 기지국(114a) 및 WTRU(102a, 102b, 102c)는 IEEE 802.16(예를 들어, WiMAX(Worldwide Interoperability for Microwave Access)), CDMA2000, CDMA2000 1X, CDMA2000 EV-DO, IS-2000(Interim Standard 2000), IS-95(Interim Standard 95), IS-856(Interim Standard 856), GSM(Global System for Mobile communications), EDGE(Enhanced Data rates for GSM Evolution), GSM EDGE(GERAN) 등과 같은 무선 기술을 이용할 수 있다.
도 7a의 기지국(114b)은 예를 들어, 무선 라우터, 홈 노드 B, 홈 e노드 B 또는 액세스 포인트일 수 있으며, 사업장, 가정, 차량, 캠퍼스 등과 같은 지역화된 영역에서의 무선 접속을 용이하게 하기 위해 임의의 적합한 RAT를 이용할 수 있다. 하나의 실시 예에서, 기지국(114b) 및 WTRU(102c, 102d)는 IEEE 802.11과 같은 무선 기술을 구현하여 무선 근거리 통신망(wireless local area network, WLAN)을 구축할 수 있다. 다른 실시 예에서, 기지국(114b) 및 WTRU(102c, 102d)는 무선 개인 영역 네트워크(wireless personal area network, WPAN)를 구축하기 위해 IEEE 802. 15와 같은 무선 기술을 구현할 수 있다. 또 다른 실시 예에서, 기지국(114b) 및 WTRU(102c, 102d)는 피코셀 또는 펨토셀을 구축하기 위해 셀룰러 기반 RAT(예를 들어, WCDMA, CDMA2000, GSM, LTE, LTE-A 등)를 이용할 수 있다. 도 7a에 도시된 바와 같이, 기지국(114b)은 인터넷(110)에 대한 직접 접속을 가질 수 있다. 따라서, 기지국(114b)은 코어 네트워크(106/07/109)를 통해 인터넷(110)에 액세스할 필요가 없을 수 있다.
RAN(103/104/105)은 코어 네트워크(106/107/109)와 통신할 수 있으며, 코어 네트워크(106/107/109)는 WTRU(102a, 102b, 102c, 102d) 중 하나 이상에 음성, 데이터, 애플리케이션, 및/또는 VoIP(voice over internet protocol) 서비스를 제공하도록 구성된 임의의 타입의 네트워크일 수 있다. 예를 들어, 코어 네트워크(106/107/109)는 호 제어, 과금 서비스, 모바일 위치 기반 서비스, 선불 전화, 인터넷 접속, 비디오 분배 등을 제공할 수 있고/있거나 사용자 인증과 같이 높은 수준의 보안 기능을 수행할 수 있다. 도 7a에는 도시되지 않았지만, RAN(103/104/105) 및/또는 코어 네트워크(106/107/109)는 RAN(103/104/105)과 동일한 RAT 또는 상이한 RAT를 사용하는 다른 RAN들과 직접 또는 간접으로 통신할 수 있다는 것을 인식할 것이다. 예를 들어, E-UTRA 무선 기술을 사용할 수 있는 RAN(103/104/105)에 접속되는 것에 부가하여, 코어 네트워크(106/107/109)는 GSM 무선 기술을 사용하는 또 다른 RAN(도시되지 않음)과 또한 통신할 수 있다.
코어 네트워크(106/107/109)는 또한 PSTN(108), 인터넷(110) 및/또는 다른 네트워크들(112)를 액세스하기 위하여 무선 송수신 유닛(102a, 102b, 102c, 102d)를 위한 게이트웨이로서의 역할을 할 수 있다. PSTN(108)은 일반 전화 서비스(plain old telephone service, POTS)를 제공하는 회선 교환 전화 네트워크를 포함할 수 있다. 인터넷(110)은 TCP/IP 인터넷 프로토콜 스위트(suite)에서의 전송 제어 프로토콜(transmission control protocol, TCP), 사용자 데이터그램 프로토콜(user datagram protocol, UDP) 및 인터넷 프로토콜(internet protocol, IP)과 같은 일반적인 통신 프로토콜을 사용하는 상호 연결된 컴퓨터 네트워크 및 장치의 글로벌 시스템을 포함할 수 있다. 네트워크(112)는 다른 서비스 제공자들에 의해 소유 및/또는 운영되는 유선 또는 무선 통신 네트워크들을 포함할 수 있다. 예를 들어, 네트워크(112)는 RAN(103/104/105)과 동일한 RAT 또는 상이한 RAT를 사용할 수 있는 하나 이상의 RAN에 연결된 다른 코어 네트워크를 포함할 수 있다.
통신 시스템(100) 내의 WTRU(102a, 102b, 102c, 102d) 중 일부 또는 전부는 다중 모드 기능을 가질 수 있는데, 예를 들어, WTRU(102a, 102b, 102c, 102d)는 상이한 무선 링크를 통해 상이한 무선 네트워크와 통신하기 위한 다중 트랜시버를 포함할 수 있다. 예를 들어, 도 7a에 도시된 WTRU(102c)는 셀룰러 기반 무선 기술을 사용할 수 있는 기지국(114a) 및 IEEE 802 무선 기술을 사용할 수 있는 기지국(114b)과 통신하도록 구성될 수 있다.
도 7b는 예시적인 WTRU(102)의 시스템 다이어그램이다. 도 7b에 도시된 바와 같이, WTRU(102)는 프로세서(118), 트랜시버(120), 송신/수신 소자(122), 스피커/마이크로폰(124), 키패드(126), 디스플레이/터치 패드(128), 비-분리형 메모리(130), 분리형 메모리(132), 전원(134), GPS(global positioning system) 칩셋(136) 및 기타 주변 장치(138)를 포함할 수 있다. WTRU(102)는 실시 예와 일관성을 유지하면서 전술한 요소들의 임의의 서브 조합을 포함할 수 있다는 것을 알 것이다. 또한, 기지국(114a 및 114b), 및/또는 기지국(114a 및 114b)이 나타낼 수 있는 노드들, 예를 들어, 특히 트랜시버 스테이션(BTS), 노드-B, 사이트 제어기, 액세스 포인트(AP), 홈 노드-B, 진화된 홈 노드-B(eNodeB), 홈 진화 노드-B(HeNB 또는 HeNodeB), 홈 진화 노드-B 게이트웨이 및 프록시 노드(그러나 이에 한정되지는 않음)가 도 7b에 도시되고 여기서 설명된 요소들 전부 또는 일부를 포함할 수 있다는 것을 실시 예들은 고려한다.
프로세서(118)는 범용 프로세서, 특수 목적 프로세서, 종래 프로세서, 디지털 신호 프로세서(digital signal processor, DSP), 복수의 마이크로프로세서, DSP 코어와 연관된 하나 이상의 마이크로프로세서, 제어기, 마이크로 제어기, ASIC(Application Specific Integrated Circuits), FPGA(Field Programmable Gate Array) 회로, 임의의 다른 유형의 집적 회로(integrated circuit, IC), 상태 머신 등일 수 있다. 프로세서(118)는 신호 코딩, 데이터 처리, 전력 제어, 입력/출력 처리 및/또는 WTRU(102)가 무선 환경에서 동작할 수 있게 하는 임의의 다른 기능을 수행할 수 있다. 프로세서(118)는 트랜시버(120)에 결합될 수 있고, 트랜시버(120)는 송신/수신 소자(122)에 결합될 수 있다. 도 7b는 프로세서(118)와 트랜시버(120)를 별개의 구성 요소로 도시하지만, 프로세서(118)와 트랜시버(120)는 전자 패키지 또는 칩 내에 함께 통합될 수 있음을 알 것이다. 프로세서(118)와 같은 프로세서는 통합 메모리를 포함할 수 있다(예를 들어, WTRU(102)는 프로세서 및 관련 메모리를 포함하는 칩셋을 포함할 수 있다). 메모리는 프로세서(예를 들어, 프로세서(118)) 또는 장치(예를 들어, WTRU(102))와 다른 방법으로 관련되는 메모리와 통합된 메모리를 지칭할 수 있다. 메모리는 일시적이지 않을 수 있다. 메모리는 프로세서에 의해 실행될 수 있는 명령어들(예를 들어, 소프트웨어 및/또는 펌웨어 명령어들)을 포함(예를 들어, 저장)할 수 있다. 예를 들어, 메모리는 실행될 때 프로세서가 여기에 설명된 하나 이상의 구현 예를 구현하도록 할 수 있는 명령어들을 포함할 수 있다.
송신/수신 소자(122)는 무선 인터페이스(115/116/117)를 통하여 기지국(예를 들어, 기지국(114a))으로 신호를 송신하거나 기지국(예를 들어, 기지국(114a))으로신호를 수신하도록 구성될 수 있다. 예를 들어, 일 실시 예에서, 송신/수신 소자(122)는 RF 신호들을 송신 및/또는 수신하도록 구성된 안테나일 수 있다. 다른 실시 예에서, 송신/수신 소자(122)는 예를 들어 IR, UV 또는 가시광 신호를 송신 및/또는 수신하도록 구성된 이미터(emitter)/검출기(detector)일 수 있다. 다른 실시 예에서, 송신/수신 소자(122)는 RF 신호 및 광 신호 모두를 송신 및 수신하도록 구성될 수 있다. 송신/수신 소자(122)는 무선 신호들의 임의의 조합을 송신 및/또는 수신하도록 구성될 수 있음을 알 것이다.
또한, 송신/수신 소자(122)가 도 7b에 단일 소자로서 도시되어 있지만, WTRU(102)는 임의의 수의 송신/수신 소자(122)를 포함할 수 있다. 보다 구체적으로, WTRU(102)는 MIMO 기술을 사용할 수 있다. 따라서, 일 실시 예에서, WTRU(102)는 무선 인터페이스(115/116/117)를 통해 무선 신호를 송신 및 수신하기 위한 2개 이상의 송신/수신 소자(122)(예컨대, 다중 안테나)를 포함할 수 있다.
트랜시버(120)는 송신/수신 소자(122)에 의해 송신될 신호를 변조하고 송신/수신 소자(122)에 의해 수신되는 신호를 복조하도록 구성될 수 있다. 전술한 바와 같이, WTRU(102)는 다중 모드 기능을 가질 수 있다. 따라서, 트랜시버(120)는 예를 들어 UTRA 및 IEEE 802.11과 같은 다수의 RAT를 통해 WTRU(102)가 통신할 수 있게 하는 다중 트랜시버를 포함할 수 있다.
WTRU(102)의 프로세서(118)는 스피커/마이크로폰(124), 키패드(126), 및/또는 디스플레이/터치패드(128)(예를 들어, LCD(liquid crystal display) 디스플레이 유닛 또는 OLED(organic light-emitting diode) 디스플레이 유닛)에 연결되어 이로부터 사용자 입력 데이터를 수신할 수 있다. 프로세서(118)는 또한 사용자 데이터를 스피커/마이크로폰(124), 키패드(126), 및/또는 디스플레이/터치패드(128)에 출력할 수 있다. 또한, 프로세서(118)는 비-분리형 메모리(130), 분리형 메모리(132), 및/또는 프로세서와 통합된 메모리(예를 들어, 캐시)와 같은 임의의 유형의 적절한 메모리로부터 정보를 액세스하고, 데이터를 저장할 수 있다. 비-분리형 메모리(130)는 RAM(random-access memory), ROM(read-only memory), 하드 디스크 또는 임의의 다른 유형의 메모리 저장 장치를 포함할 수 있다. 분리형 메모리(132)는 가입자 식별 모듈(subscriber identity module, SIM) 카드, 메모리 스틱, SD(secure digital) 메모리 카드 등을 포함할 수 있다. 다른 실시 예에서, 프로세서(118)는 서버 또는 가정용 컴퓨터(도시되지 않음)와 같이 WTRU(102) 상에 물리적으로 위치하지 않는 메모리로부터 정보를 액세스하고, 데이터를 저장할 수 있다.
프로세서(118)는 전원(134)으로부터 전력을 수신할 수 있고, WTRU(102) 내의 다른 부품에 전력을 분배 및/또는 제어하도록 구성될 수 있다. 전원(134)은 WTRU(102)에 전력을 공급하기 위한 임의의 적절한 장치일 수 있다. 예를 들어, 전원(134)은 하나 이상의 건전지(예를 들어, 니켈-카드뮴(nickel-cadmium, Ni-Cd), 니켈-아연(nickel-zinc, NiZn), 니켈 수소 합금 전지(nickel metal hydride, NiMH), 리튬 이온(lithium-ion, Li-ion) 등), 태양 전지, 연료 전지 등을 포함할 수 있다.
프로세서(118)는 또한 GPS 칩셋(136)에 연결될 수 있고, GPS 칩셋(136)은 WTRU(102)의 현재 위치에 관한 위치 정보(예컨대, 경도와 위도)를 제공하도록 구성될 수 있다. GPS 칩셋(136)으로부터의 정보에 추가하여, 또는 GPS 칩셋(136)로부터의 정보 대신에, WTRU(102)는 기지국(예를 들어, 기지국(114a, 114b))으로부터 무선 인터페이스(115/116/117)를 통하여 위치 정보를 수신할 수 있고/있거나, 2개 이상의 인근 기지국으로부터 신호가 수신되는 타이밍에 기초하여 그 위치를 결정할 수 있다. WTRU(102)가 실시 예와 일관성을 유지하면서, 임의의 적절한 위치 결정 구현을 통해 위치 정보를 획득할 수 있다는 것을 이해할 것이다.
프로세서(118)는 다른 주변 장치(138)에 추가로 연결될 수 있고, 주변 장치(138)는 추가 피처들, 기능 및/또는 유선 또는 무선 연결성을 제공하는 하나 이상의 소프트웨어 및/또는 하드웨어 모듈들을 포함할 수 있다. 예를 들어, 주변 장치(138)는 가속도 센서, 전자 나침반, 위성 트랜시버, (사진 또는 비디오용) 디지털 카메라, USB(universal serial bus) 포트, 진동 장치, 텔레비전 트랜시버, 핸즈프리 헤드셋, 블루투스(Bluetooth®) 모듈, 주파수 변조(frequency modulated, FM) 라디오 유닛, 디지털 뮤직 플레이어, 미디어 플레이어, 비디오 게임 플레이어 모듈, 인터넷 브라우저 등을 포함할 수 있다.
도 7c는 일 실시 예에 따른 RAN(103) 및 코어 네트워크(106)의 시스템 다이어그램이다. 전술한 바와 같이, RAN(103)은 무선 인터페이스(115)를 통해 WTRU(102a, 102b, 102c)와 통신하기 위해 UTRA 무선 기술을 사용할 수 있다. RAN(103)은 또한 코어 네트워크(106)와 통신할 수 있다. 도 7c에 도시된 바와 같이, RAN(103)는 노드-B(140a, 140b, 140c)를 포함할 수 있고, 노드-B는 각각 무선 인터페이스(115)를 통하여 WTRU(102a, 102b, 102c)와 통신하기 위한 하나 이상의 트랜시버를 포함할 수 있다. 노드-B(140a, 140b, 140c)는 각각 RAN(103) 내의 특정 셀(도시되지 않음)과 연관될 수 있다. RAN(103)은 또한 RNC(142a, 142b)를 포함할 수 있다. RAN(103)은 실시 예와 일관성을 유지하면서 임의의 수의 노드-B 및 RNC를 포함할 수 있다는 것이 이해될 것이다.
도 7c에 도시된 바와 같이, 노드-B(140a, 140b)는 RNC(142a)와 통신할 수 있다. 또한, 노드-B(140c)는 RNC(142b)와 통신할 수 있다. 노드-B(140a, 140b, 140c)는 Iub 인터페이스를 통해 각각의 RNC(142a, 142b)와 통신할 수 있다. RNC(142a, 142b)는 Iur 인터페이스를 통해 서로 통신할 수 있다. 각각의 RNC(142a, 142b)는 자신이 접속된 각 노드-B(140a, 140b, 140c)를 제어하도록 구성될 수 있다. 또한, 각각의 RNC(142a, 142b)는 외부 루프 전력 제어, 부하(load) 제어, 승인(admission) 제어, 패킷 스케줄링, 핸드오버 제어, 매크로 다이버시티, 보안 기능, 데이터 암호화 등과 같은 다른 기능을 수행하거나 지원하도록 구성될 수 있다.
도 7c에 도시된 코어 네트워크(106)는 미디어 게이트웨이(media gateway, MGW)(144), 이동 전화 교환국(mobile switching center, MSC)(146), 패킷 교환 지원 노드(serving GPRS support node, SGSN)(148), 및/또는 GGSN(gateway GPRS support node, GGSN)(150)를 포함할 수 있다. 전술한 요소들 각각은 코어 네트워크(106)의 일부로서 도시되었지만, 이들 요소들 중 어떤 것이라도 코어 네트워크 d운영자 이외의 엔티티에 의해 소유 및/또는 운영될 수 있음을 알 것이다.
RAN(103) 내의 RNC(142a)는 IuCS 인터페이스를 통해 코어 네트워크(106) 내의 MSC(146)에 접속될 수 있다. MSC(146)는 MGW(144)에 접속될 수 있다. MSC(146) 및 MGW(144)는 WTRU(102a, 102b, 102c)와 전통적인 일반 전화 통신 장치 간의 통신을 용이하게 하기 위해 PSTN(108)과 같은 회선 교환 네트워크로의 액세스를 WTRU(102a, 102b, 102c)에 제공할 수 있다.
RAN(103)의 RNC(142a)는 또한 IuPS 인터페이스를 통해 코어 네트워크(106)의 SGSN(148)에 접속될 수 있다. SGSN(148)은 GGSN(150)에 접속될 수 있다. SGSN(148) 및 GGSN(150)은 WTRU(102a, 102b, 102c)와 IP 가능 장치 간의 통신을 용이하게 하기 위해 인터넷(110)과 같은 패킷 교환 네트워크로의 액세스를 WTRU(102a, 102b, 102c)에 제공할 수 있다.
전술한 바와 같이, 코어 네트워크(106)는 또한 다른 서비스 제공자에 의해 소유 및/또는 운영되는 다른 유선 또는 무선 네트워크를 포함할 수 있는 네트워크(112)에 접속될 수 있다.
도 7d는 일 실시 예에 따른 RAN(104) 및 코어 네트워크(107)의 시스템 다이어그램이다. 전술한 바와 같이, RAN(104)은 무선 인터페이스(116)를 통해 WTRU(102a, 102b, 102c)와 통신하기 위해 E-UTRA 무선 기술을 사용할 수 있다. RAN(104)은 또한 코어 네트워크(107)와 통신할 수 있다.
RAN(104)은 e노드-B(160a, 160b, 160c)를 포함할 수 있지만, RAN(104)은 실시 예와 일관성을 유지하면서, 임의의 수의 e노드-B를 포함할 수 있는 것으로 이해될 것이다. e노드-B(160a, 160b, 160c)는 무선 인터페이스(116)를 통해 WTRU(102a, 102b, 102c)와 통신하기 위한 하나 이상의 트랜시버를 각각 포함할 수 있다. 일 실시 예에서 e노드-B(160a, 160b, 160c)는 MIMO 기술을 구현할 수 있다. 따라서, e노드-B(160a)는 예를 들어, 다중 안테나를 사용하여 WTRU(102a)로 무선 신호를 송신하고, WTRU(102a)로부터 무선 신호를 수신할 수 있다.
e노드-B(160a, 160b, 160c) 각각은 특정 셀(도시되지 않음)과 연관될 수 있고, 무선 자원 관리 결정, 핸드오버 결정, 업 링크 및/또는 다운 링크에서의 사용자의 스케줄링 등을 처리하도록 구성될 수 있다. 도 7d에 도시된 바와 같이, e노드-B(160a, 160b, 160c)는 X2 인터페이스를 통해 서로 통신할 수 있다.
도 7d에 도시된 코어 네트워크(107)는 이동성 관리 게이트웨이(mobility management gateway, MME)(162), 서빙 게이트웨이(164) 및 패킷 데이터 네트워크(packet data network, PDN) 게이트웨이(166)를 포함할 수 있다. 상기 요소들 각각은 코어 네트워크(107)의 일부로서 도시되지만, 이들 요소들 중 어떤 것이라도 코어 네트워크 운영자가 아닌 다른 엔티티에 의해 소유 및/또는 운영될 수 있다는 것을 이해할 것이다.
MME(162)는 S1 인터페이스를 통해 RAN(104) 내의 e노드-B(160a, 160b, 160c) 각각에 접속될 수 있고 제어 노드로서 기능할 수 있다. 예를 들어, MME(162)는 WTRU(102a, 102b, 102c)의 사용자 인증, 베어러 활성화/비활성화, WTRU(102a, 102b, 102c)의 초기 부착 동안 특정 서빙 게이트웨이 선택의 책임이 있을 수 있다. MME(162)는 RAN(104)과 GSM 또는 WCDMA와 같은 다른 무선 기술을 사용하는 다른 RAN들(도시되지 않음) 사이에서 스위칭하기 위한 제어 평면 기능을 또한 제공할 수 있다.
서빙 게이트웨이(164)는 S1 인터페이스를 통해 RAN(104) 내의 e노드-B(160a, 160b, 160c) 각각에 접속될 수 있다. 서빙 게이트웨이(164)는 일반적으로 WTRU(102a, 102b, 102c)로/로부터 사용자 데이터 패킷을 라우팅 및 포워딩할 수 있다. 서빙 게이트웨이(164)는 또한, 인터-e노드 B 핸드오버 동안 사용자 평면을 앵커링(anchoring)하는 것, WTRU(102a, 102b, 102c)에 대한 다운 링크 데이터가 이용 가능할 때 페이징을 트리거하는 것, WTRU(102a, 102b, 102c)의 컨텍스트를 관리 및 저장하는 것 등과 같은 다른 기능들을 수행할 수 있다.
서빙 게이트웨이(164)는 또한 PDN 게이트웨이(166)에 연결될 수 있는데, PDN 게이트웨이(166)는 WTRU(102a, 102b, 102c) 및 IP 가능 장치 사이의 통신을 용이하게 하기 위해 인터넷(110)과 같은 패킷 교환 네트워크에 대한 액세스를 WTRU(102a, 102b, 102c)에 제공할 수 있다.
코어 네트워크(107)는 다른 네트워크와의 통신을 용이하게 할 수 있다. 예를 들어, 코어 네트워크(107)는 WTRU(102a, 102b, 102c)와 전통적인 일반 전화 통신 장치 간의 통신을 용이하게 하기 위해 PSTN(108)과 같은 회선 교환 네트워크에 대한 액세스를 WTRU(102a, 02b, 102c)에 제공할 수 있다. 예를 들어, 코어 네트워크(107)는 코어 네트워크(107)와 PSTN(108) 사이의 인터페이스 역할을 하는 IP 게이트웨이(예를 들어, IMS(IP multimedia subsystem) 서버)를 포함할 수 있거나 통신할 수 있다. 또한, 코어 네트워크(107)는 다른 서비스 제공자에 의해 소유 및/또는 운영되는 다른 유선 또는 무선 네트워크를 포함할 수 있는 네트워크(112)에 대한 액세스를 WTRU(102a, 102b, 102c)에 제공할 수 있다.
도 7e는 실시 예에 따른 RAN(105) 및 코어 네트워크(109)의 시스템 다이어그램이다. RAN(105)은 무선 인터페이스(117)를 통해 WTRU(102a, 102b, 102c)와 통신하기 위해 IEEE 802.16 무선 기술을 사용하는 액세스 서비스 네트워크(access service network, ASN)일 수 있다. 이하에서 더 설명되는 바와 같이, WTRU(102a, 102b, 102c), RAN(105), 및 코어 네트워크(109)의 상이한 기능 엔티티 간의 통신 링크는 참조점(reference point)으로서 정의될 수 있다.
도 7e에 도시된 바와 같이, RAN(105)은 기지국(180a, 180b, 180c) 및 ASN 게이트웨이(182)를 포함할 수 있지만, RAN(105)은 실시 예와 일관성을 유지하면서, 임의의 수의 기지국 및 ASN 게이트웨이를 포함할 수 있다는 것을 인식할 것이다. 기지국(180a, 180b, 180c)은 각각 RAN(105) 내의 특정 셀(도시되지 않음)과 연관될 수 있고, 각각 무선 인터페이스(117)를 통해 WTRU(102a, 102b, 102c)와 통신하기 위한 하나 이상의 트랜시버를 포함할 수 있다. 일 실시 예에서, 기지국(180a, 180b, 180c)은 MIMO 기술을 구현할 수 있다. 따라서, 예를 들어, 기지국(180a)은 WTRU(102a)에 무선 신호를 송신하고 WTRU(102a)로부터 무선 신호를 수신하기 위해 다중 안테나를 사용할 수 있다. 기지국(180a, 180b, 180c)은 또한 핸드오프 트리거링, 터널 구축, 무선 자원 관리, 트래픽 분류, 서비스 품질(QoS) 정책 집행 등과 같은 이동성 관리 기능을 제공할 수 있다. ASN 게이트웨이(182)는 트래픽 집합 포인트(traffic aggregation point)로서 기능할 수 있고, 페이징, 가입자 프로파일의 캐싱, 코어 네트워크(109)로의 라우팅 등에 대한 책임이 있을 수 있다.
WTRU(102a, 102b, 102c)와 RAN(05) 사이의 무선 인터페이스(117)는 IEEE 802.16 사양을 구현하는 R1 참조점으로서 정의될 수 있다. 또한, WTRU(102a, 102b, 102c) 각각은 코어 네트워크(109)와의 논리적 인터페이스(도시되지 않음)를 구축할 수 있다. WTRU(102a, 102b, 102c)와 코어 네트워크(109) 간의 논리적 인터페이스는 R2 참조점으로서 정의될 수 있고, 이는 인증(authentication), 허가(authorization), IP 호스트 구성 관리 및/또는 이동성 관리에 사용될 수 있다.
각각의 기지국(180a, 180b, 180c) 간의 통신 링크는 WTRU 핸드오버 및 기지국 간의 데이터 전송을 용이하게 하기 위한 프로토콜을 포함하는 R8 참조점으로서 정의될 수 있다. 기지국(180a, 180b, 180c)과 ASN 게이트웨이(182) 사이의 통신 링크는 R6 참조점으로서 정의될 수 있다. R6 참조점은 각각의 WTRU(102a, 102b, 102c)와 연관된 이동성 이벤트에 기초하여 이동성 관리를 용이하게 하기 위한 프로토콜을 포함할 수 있다.
도 7e에 도시된 바와 같이, RAN(105)은 코어 네트워크(109)에 접속될 수 있다. RAN(105)과 코어 네트워크(109) 간의 통신 링크는 예를 들어, 데이터 전송 및 이동성 관리 기능을 용이하게 하기 위한 프로토콜을 포함하는 R3 참조점으로서 정의될 수 있다. 코어 네트워크(109)는 모바일 IP 홈 에이전트(mobile IP home agent, MIP-HA)(184), AAA(authentication, authorization, accounting) 서버(186) 및 게이트웨이(188)를 포함할 수 있다. 상기 요소들 각각은 코어 네트워크(109)의 일부로서 도시되어 있지만, 이들 요소들 중 어느 것이라도 코어 네트워크 운영자 이외의 엔티티에 의해 소유 및/또는 운영될 수 있음을 알 것이다.
MIP-HA는 IP 어드레스 관리를 담당할 수 있고, WTRU(102a, 102b, 102c)가 상이한 ASN들 및/또는 상이한 코어 네트워크들 사이에서 로밍할 수 있게 할 수 있다. MIP-HA(184)는 WTRU(102a, 102b, 102c)와 IP 가능 장치 간의 통신을 용이하게 하기 위해 인터넷(110)과 같은 패킷 교환 네트워크에 대한 액세스를 WTRU(102a, 102b, 102c)에 제공할 수 있다. AAA 서버(186)는 사용자 인증 및 사용자 서비스 지원을 담당할 수 있다. 게이트웨이(188)는 다른 네트워크와의 연동을 용이하게 할 수 있다. 예를 들어, 게이트웨이(188)는 WTRU(102a, 102b, 102c)와 전통적인 일반 전화 통신 장치 사이의 통신을 용이하게 하기 위해 PSTN(108)과 같은 회선 교환 네트워크에 대한 액세스를 WTRU(102a, 102b, 102c)에 제공할 수 있다. 또한, 게이트웨이(188)는 다른 서비스 제공자에 의해 소유 및/또는 운영되는 다른 유선 또는 무선 네트워크를 포함할 수 있는 네트워크(112)에 대한 액세스를 WTRU(102a, 102b, 102c)에 제공할 수 있다.
도 7e에는 도시되지 않았지만, RAN(105)은 다른 ASN들에 접속될 수 있고 코어 네트워크(109)는 다른 코어 네트워크들에 접속될 수 있음을 알 것이다. RAN(105)과 다른 ASN들 사이의 통신 링크는 RAN(105)과 다른 ASN들 사이에서 WTRU(102a, 102b, 102c)의 이동성을 조정하기 위한 프로토콜을 포함할 수 있는 R4 참조점으로서 정의될 수 있다. 코어 네트워크(109)와 다른 코어 네트워크 사이의 통신 링크는 홈 코어 네트워크와 방문된 코어 네트워크 사이의 연동을 용이하게 하기 위한 프로토콜을 포함할 수 있는 R5 참조로서 정의될 수 있다.
피처 및 요소가 특정한 조합으로 상술되었지만, 당업자는 각각의 피처 또는 요소가 단독으로 또는 다른 피처 및 요소와 임의의 조합으로 사용될 수 있다는 것을 이해할 것이다. 또한, 여기에 설명된 방법은 컴퓨터 또는 프로세서에 의한 실행을 위해 컴퓨터 판독 가능 매체에 포함된 컴퓨터 프로그램, 소프트웨어 또는 펌웨어로 구현될 수 있다. 컴퓨터 판독 가능 매체의 예는 (유선 또는 무선 접속을 통해 전송되는) 전자 신호 및 컴퓨터 판독 가능 저장 매체를 포함한다. 컴퓨터 판독 가능 저장 매체의 예는 ROM, RAM, 레지스터, 캐시 메모리, 반도체 메모리 장치, 내부 하드 디스크 및 착탈식 자기 디스크와 같은 자기 매체, 광 자기 매체 및 CD-ROM 디스크 및 DVD와 같은 광학 매체를 포함하지만, 이에 국한되는 것은 아니다. 소프트웨어와 관련된 프로세서는 WTRU, UE, 단말기, 기지국, RNC, 또는 임의의 호스트 컴퓨터에서 사용하기 위한 무선 주파수 트랜시버를 구현하는데 사용될 수 있다.

Claims (18)

  1. 비디오 비트스트림을 디코딩하는 방법에 있어서,
    이스케이프 컬러(escape color)를 정의하는 양자화된 이스케이프 컬러 값 및 양자화 파라미터를 포함하는 비디오 비트스트림을 수신하는 단계와,
    스케일링 팩터(scaling factor)에 의해 상기 양자화된 이스케이프 컬러 값을 스케일링함으로써 스케일링된 이스케이프 컬러 값을 생성하는 단계와,
    상기 양자화 파라미터에 기초하여 좌측-시프트(left-shift) 파라미터를 결정하는 단계와,
    상기 좌측-시프트 파라미터에 기초하여 상기 스케일링된 이스케이프 컬러 값을 좌측-시프트함으로써 좌측-시프트된 이스케이프 컬러 값을 생성하는 단계와,
    상수(constant) 파라미터만큼 상기 좌측-시프트된 이스케이프 컬러 값을 우측-시프트(right-shift)함으로써 우측-시프트된 이스케이프 컬러 값을 생성하는 단계와,
    상기 우측-시프트된 이스케이프 컬러 값에 기초하여 재구성된 이스케이프 컬러 값을 결정하는 단계를 포함하는 비디오 비트스트림 디코딩 방법.
  2. 제1항에 있어서, 상기 재구성된 이스케이프 컬러 값에 기초하여 상기 비디오 비트스트림을 디코딩하는 단계를 더 포함하는 비디오 비트스트림 디코딩 방법.
  3. 제1항에 있어서, 상기 상수 파라미터는 6과 동일한 것인, 비디오 비트스트림 디코딩 방법.
  4. 제1항에 있어서, 상기 좌측-시프트된 이스케이프 컬러 값을 우측-시프트하는 것은 상기 양자화 파라미터에 독립적인 것인, 비디오 비트스트림 디코딩 방법.
  5. 제1항에 있어서, 상기 좌측-시프트 파라미터는 상기 양자화 파라미터를 6으로 나눔으로써 결정되고,
    상기 방법은 우측-시프트하기 전에 상기 좌측-시프트된 이스케이프 컬러 값에 32를 더하는 단계를 더 포함하는 것인, 비디오 비트스트림 디코딩 방법.
  6. 제1항에 있어서, 상기 이스케이프 컬러는 적어도 하나의 주요(major) 컬러 및 적어도 하나의 이스케이프 컬러를 포함하는 코딩 유닛(coding unit)과 연관되는 것인, 비디오 비트스트림 디코딩 방법.
  7. 제1항에 있어서, 상기 양자화된 이스케이프 컬러 값은 손실 코딩(lossy coding)과 연관되는 것인, 비디오 비트스트림 디코딩 방법.
  8. 제1항에 있어서, 상기 양자화 파라미터에 기초하여 상기 스케일링 팩터를 결정하는 단계를 더 포함하는 비디오 비트스트림 디코딩 방법.
  9. 제1항에 있어서, 상기 양자화된 이스케이프 컬러 값은 이스케이프 컬러 픽셀에 대응하는 것인, 비디오 비트스트림 디코딩 방법.
  10. 비디오 디코딩 디바이스에 있어서,
    프로세서를 포함하고,
    상기 프로세서는,
    이스케이프 컬러를 정의하는 양자화된 이스케이프 컬러 값 및 양자화 파라미터를 포함하는 비디오 비트스트림을 수신하고,
    스케일링 팩터에 의해 상기 양자화된 이스케이프 컬러 값을 스케일링함으로써 스케일링된 이스케이프 컬러 값을 생성하고,
    상기 양자화 파라미터에 기초하여 좌측-시프트 파라미터를 결정하고,
    상기 좌측-시프트 파라미터에 기초하여 상기 스케일링된 이스케이프 컬러 값을 좌측-시프트함으로써 좌측-시프트된 이스케이프 컬러 값을 생성하고,
    상수 파라미터만큼 상기 좌측-시프트된 이스케이프 컬러 값을 우측-시프트함으로써 우측-시프트된 이스케이프 컬러 값을 생성하며,
    상기 우측-시프트된 이스케이프 컬러 값에 기초하여 재구성된 이스케이프 컬러 값을 결정하도록 구성되는 것인 비디오 디코딩 디바이스.
  11. 제10항에 있어서, 상기 프로세서는 또한, 상기 재구성된 이스케이프 컬러 값에 기초하여 상기 비디오 비트스트림을 디코딩하도록 구성되는 것인, 비디오 디코딩 디바이스.
  12. 제10항에 있어서, 상기 상수 파라미터는 6과 동일한 것인, 비디오 디코딩 디바이스.
  13. 제10항에 있어서, 상기 좌측-시프트된 이스케이프 컬러 값을 우측-시프트하는 것은 상기 양자화 파라미터에 독립적인 것인, 비디오 디코딩 디바이스.
  14. 제10항에 있어서, 상기 좌측-시프트 파라미터는 상기 양자화 파라미터를 6으로 나눔으로써 결정되고,
    상기 프로세서는 또한, 우측-시프트하기 전에 상기 좌측-시프트된 이스케이프 컬러 값에 32를 더하도록 구성되는 것인, 비디오 디코딩 디바이스.
  15. 제10항에 있어서, 상기 이스케이프 컬러는 적어도 하나의 주요 컬러 및 적어도 하나의 이스케이프 컬러를 포함하는 코딩 유닛과 연관되는 것인, 비디오 디코딩 디바이스.
  16. 제10항에 있어서, 상기 양자화된 이스케이프 컬러 값은 손실 코딩과 연관되는 것인, 비디오 디코딩 디바이스.
  17. 제10항에 있어서, 상기 프로세서는 또한, 상기 양자화 파라미터에 기초하여 상기 스케일링 팩터를 결정하도록 구성되는 것인, 비디오 디코딩 디바이스.
  18. 제10항에 있어서, 상기 양자화된 이스케이프 컬러 값은 이스케이프 컬러 픽셀에 대응하는 것인, 비디오 디코딩 디바이스.
KR1020177023940A 2015-01-29 2016-01-27 팔레트 코딩 모드를 위한 이스케이프 컬러 코딩 KR102051723B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562109535P 2015-01-29 2015-01-29
US62/109,535 2015-01-29
PCT/US2016/015214 WO2016123262A1 (en) 2015-01-29 2016-01-27 Escape color coding for palette coding mode

Publications (2)

Publication Number Publication Date
KR20170108112A KR20170108112A (ko) 2017-09-26
KR102051723B1 true KR102051723B1 (ko) 2019-12-03

Family

ID=55447095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177023940A KR102051723B1 (ko) 2015-01-29 2016-01-27 팔레트 코딩 모드를 위한 이스케이프 컬러 코딩

Country Status (7)

Country Link
US (1) US10277910B2 (ko)
EP (1) EP3251352A1 (ko)
JP (1) JP2018510539A (ko)
KR (1) KR102051723B1 (ko)
CN (2) CN111601110B (ko)
TW (1) TWI735424B (ko)
WO (1) WO2016123262A1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9807402B2 (en) * 2014-10-06 2017-10-31 Industrial Technology Research Institute Method of color palette coding applicable to electronic device and electronic device using the same
US10057587B2 (en) * 2015-01-31 2018-08-21 Qualcomm Incorporated Coding escape pixels for palette mode coding
CN109792438B (zh) * 2016-09-12 2022-01-11 陈仕东 多入多出信道传输视频的方法及装置
CN108174214A (zh) * 2017-12-08 2018-06-15 重庆邮电大学 一种基于屏幕内容视频编码的远程桌面共享方法
CN108595927B (zh) * 2018-04-04 2023-09-19 北京市商汤科技开发有限公司 身份认证、解锁及支付方法、装置、存储介质、产品和设备
WO2019229683A1 (en) 2018-05-31 2019-12-05 Beijing Bytedance Network Technology Co., Ltd. Concept of interweaved prediction
CN117915081A (zh) 2019-01-02 2024-04-19 北京字节跳动网络技术有限公司 视频处理的方法
CN117793346A (zh) 2019-01-31 2024-03-29 北京字节跳动网络技术有限公司 视频编解码中的细化量化步骤
WO2020169103A1 (en) 2019-02-24 2020-08-27 Beijing Bytedance Network Technology Co., Ltd. Independent coding of palette mode usage indication
US11503311B2 (en) * 2019-03-08 2022-11-15 Sony Group Corporation Hybrid palette-DPCM coding for image compression
WO2020243295A1 (en) 2019-05-31 2020-12-03 Bytedance Inc. Palette mode with intra block copy prediction
CN113542740B (zh) * 2019-06-04 2023-01-13 西安万像电子科技有限公司 图像传输方法及装置
US11368693B2 (en) * 2019-07-01 2022-06-21 Sony Group Corporation Forward and inverse quantization for point cloud compression using look-up tables
CN114175662B (zh) * 2019-07-20 2023-11-24 北京字节跳动网络技术有限公司 调色板模式使用指示的条件相关编解码
CA3147923A1 (en) * 2019-07-20 2021-01-28 Beijing Bytedance Network Technology Co., Ltd. Quantization process for palette mode
CN117221536A (zh) 2019-07-23 2023-12-12 北京字节跳动网络技术有限公司 调色板模式编解码的模式确定
WO2021018166A1 (en) 2019-07-29 2021-02-04 Beijing Bytedance Network Technology Co., Ltd. Scanning order improvements for palette mode coding
KR20220044278A (ko) 2019-08-15 2022-04-07 바이트댄스 아이엔씨 상이한 분할 구조들을 갖는 팔레트 모드
KR20230049764A (ko) * 2019-08-15 2023-04-13 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 팔레트 모드를 이용한 비디오 코딩의 방법 및 장치
CN117395420A (zh) 2019-08-15 2024-01-12 字节跳动有限公司 用于调色板逸出符号的熵编解码
EP4000258A4 (en) 2019-08-20 2023-03-15 Beijing Bytedance Network Technology Co., Ltd. SCALING POSITION-BASED COEFFICIENTS
AU2020337678B2 (en) * 2019-08-26 2023-12-14 Lg Electronics Inc. Image or video coding based on palette coding
WO2021050715A1 (en) 2019-09-12 2021-03-18 Bytedance Inc. Using palette predictor in video coding
JP2022548737A (ja) 2019-09-19 2022-11-21 バイトダンス インコーポレイテッド パレット・モードのための量子化パラメータ導出
WO2021055114A1 (en) * 2019-09-20 2021-03-25 Alibaba Group Holding Limited Method and system for signaling chroma quantization parameter offset
JP7382494B6 (ja) * 2019-09-23 2023-11-29 ベイジン ダージャー インターネット インフォメーション テクノロジー カンパニー リミテッド ビデオ符号化復号化における定量化および逆定量化設計のための方法及び装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008120433A1 (ja) 2007-03-28 2008-10-09 Panasonic Corporation 逆量子化回路、逆量子化方法及び画像再生装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6397324B1 (en) * 1999-06-18 2002-05-28 Bops, Inc. Accessing tables in memory banks using load and store address generators sharing store read port of compute register file separated from address register file
US20090010533A1 (en) * 2007-07-05 2009-01-08 Mediatek Inc. Method and apparatus for displaying an encoded image
CN101645173B (zh) * 2008-12-16 2012-05-16 中国科学院声学研究所 一种随机调色板编码***及方法
US9654777B2 (en) * 2013-04-05 2017-05-16 Qualcomm Incorporated Determining palette indices in palette-based video coding
US9558567B2 (en) * 2013-07-12 2017-01-31 Qualcomm Incorporated Palette prediction in palette-based video coding
US9872040B2 (en) * 2014-01-02 2018-01-16 Qualcomm Incorporated Color index coding for palette-based video coding
WO2015194185A1 (en) * 2014-06-20 2015-12-23 Sharp Kabushiki Kaisha Efficient palette coding for screen content codings

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008120433A1 (ja) 2007-03-28 2008-10-09 Panasonic Corporation 逆量子化回路、逆量子化方法及び画像再生装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
F. Zou, et al. CE 1 Related: On escape pixel coding for palette mode. JCT-VC of ITU-T and ISO/IEC. JCTVC-T0112 Ver.3, Feb. 10, 2015. pp.1-9
R. Joshi, et al. High Efficiency Video Coding (HEVC) Screen Content Coding: Draft 2. JCT-VC of ITU-T and ISO/IEC. JCTVC-S1005 Ver.1, Dec. 10, 2014. pp.1-366
X. Xiu, et al. Non-CE1: On escape color coding for palette coding mode. JCT-VC of ITU-T and ISO/IEC. JCTVC-T0118 Ver.2, Feb. 6, 2015. pp.1-11

Also Published As

Publication number Publication date
CN111601110B (zh) 2023-11-07
JP2018510539A (ja) 2018-04-12
EP3251352A1 (en) 2017-12-06
TW201637445A (zh) 2016-10-16
WO2016123262A1 (en) 2016-08-04
CN107211134A (zh) 2017-09-26
US20160227231A1 (en) 2016-08-04
TWI735424B (zh) 2021-08-11
CN107211134B (zh) 2020-05-29
US10277910B2 (en) 2019-04-30
CN111601110A (zh) 2020-08-28
KR20170108112A (ko) 2017-09-26

Similar Documents

Publication Publication Date Title
KR102051723B1 (ko) 팔레트 코딩 모드를 위한 이스케이프 컬러 코딩
US11558627B2 (en) Palette coding for screen content coding
JP6684867B2 (ja) Rgbビデオコーディングエンハンスメントのためのシステムおよび方法
JP6709823B2 (ja) ビデオ符号化のための成分間相関解除
US10484686B2 (en) Palette coding modes and palette flipping

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant