JP2015015666A - 動画像符号化装置およびその動作方法 - Google Patents

動画像符号化装置およびその動作方法 Download PDF

Info

Publication number
JP2015015666A
JP2015015666A JP2013142364A JP2013142364A JP2015015666A JP 2015015666 A JP2015015666 A JP 2015015666A JP 2013142364 A JP2013142364 A JP 2013142364A JP 2013142364 A JP2013142364 A JP 2013142364A JP 2015015666 A JP2015015666 A JP 2015015666A
Authority
JP
Japan
Prior art keywords
tile
motion vector
vector detection
detection unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013142364A
Other languages
English (en)
Other versions
JP6120707B2 (ja
Inventor
憲一 岩田
Kenichi Iwata
憲一 岩田
誠二 望月
Seiji Mochizuki
誠二 望月
俊之 加谷
Toshiyuki Kaya
俊之 加谷
亮司 橋本
Ryoji Hashimoto
亮司 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2013142364A priority Critical patent/JP6120707B2/ja
Priority to EP14175656.9A priority patent/EP2824931B1/en
Priority to US14/324,117 priority patent/US9363527B2/en
Priority to CN201410320754.5A priority patent/CN104284197B/zh
Publication of JP2015015666A publication Critical patent/JP2015015666A/ja
Priority to US15/149,648 priority patent/US9712842B2/en
Application granted granted Critical
Publication of JP6120707B2 publication Critical patent/JP6120707B2/ja
Priority to US15/618,316 priority patent/US9877044B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】動画像符号化方式に導入されたタイルの境界に発生するノイズ等を低減すること。【解決手段】動きベクトル検出部109で、第1の検出部109_1と第2の検出部109_2に1枚のピクチャーに含まれる第1のタイルの動画像信号と第2のタイルの動画像信号が供給され、第1の検出部109_1と第2の検出部109_2にフレームメモリ108から参照画像が供給される。第1の検出部109_1が第1のタイルに含まれる多数の動画像信号のうちで第1のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって処理する。その処理の際に、フレームメモリ108から読み出される参照画像のうち第1のタイルとは異なる別のタイルに含まれる参照画像を優先的に参照するように、第1の動きベクトル検出部109_1が第1の動きベクトルMV1を生成する。【選択図】図2

Description

本発明は、動画像符号化装置およびその動作方法に関し、特に並列処理能力を増加するために動画像符号化方式に導入されたタイルの境界に発生するノイズ等を低減するのに有効な技術に関する。
良く知られているように国際規格ISO/IEC 13818−2で標準化されたMPEG−2の規格による動画像の一般的な圧縮方式は、ビデオストリームから冗長な情報を削除することによって、ビデオ記憶容量と必要な帯域幅とを削減すると言う原理に基づいている。尚、MPEGは、Moving Picture Experts Groupの略である。
MPEG−2の規格はビットストリームのシンタックス(圧縮符号化データ列の規則または符号化データのビットストリームの構成方法)およびデコードプロセスのみを規定しているので、衛星放送・サービス、ケーブルテレビジョン、インターラクティブテレビジョン、インターネット等の種々の状況で十分利用可能なようにフレキシブルなものである。
MPEG−2のエンコードプロセスでは、最初にデジタルビデオの各画素のカラーと輝度との成分を規定するために、ビデオ信号はサンプルされ量子化される。カラーと輝度との成分を示す値は、マクロブロックとして知られている構造に蓄積される。マクロブロックに蓄積されたカラーと輝度との値は、離散コサイン変換(DCT:Discrete Cosine Transform)を使用して周波数値に変換される。DCTによって得られる変換係数は、ピクチャーの輝度とカラーで異なった周波数を持つ。量子化されたDCT変換係数は、ビデオストリームを更に圧縮する可変長コーディング(VLC:Variable Length Coding)によってエンコードされる。
MPEG−2のエンコードプロセスでは、動き圧縮技術による付加圧縮が規定されている。MPEG−2の規格では、Iフレーム、Pフレーム、Bフレームの3種類のピクチャーもしくはフレームが存在している。Iフレームは、そのフレームはビデオストリームで他のいかなるピクチャーまたはフレームを参照することなく再生されることを意味するイントラ符号化されたものである。PフレームとBフレームとは、そのフレームは他のピクチャーまたはフレームの参照によって再生されることを意味するインター符号化されたものである。例えば、PフレームとBフレームとは、参照フレームに関して動き推定を示す動きベクトルを含む。動きベクトルの使用によって、MPEGエンコーダは特定のビデオストリームに必要な帯域幅の低減が可能となる。尚、Iフレームは独立(intra-coded)フレームと呼ばれ、Pフレームは片方向予測(predictive-coded)フレームと呼ばれ、Bフレームは両方向予測(bi-directionally predictive-coded)フレームと呼ばれる。
従って、MPEG−2の動画像符号化装置(Encoder)は、フレームメモリと動きベクトル検出部と動き補償部と減算部とDCT変換部と量子化部と逆量子化部と逆DCT変換部と可変長符号化部によって構成される。符号化される動画像信号は、Bフレームの符号化や動きベクトルの検出ためにフレームメモリに格納された後、フレームメモリから読み出され動き補償部からの動き補償予測信号が減算部で減算され、DCT変換部と量子化部とでそれぞれDCT変換処理と量子化処理とが実行される。量子化されたDCT変換係数は可変長符号化部で可変長符号化処理されるとともに、逆量子化部と逆DCT変換部で局部復号処理が実行された後にこの局部復号処理結果は動き補償部を介して減算部に供給される。
一方、MPEG−2の動画像復号装置(Decoder)は、バッファメモリと可変長復号部と逆量子化部と逆DCT変換部と動き補償部と加算部とフレームメモリによって構成される。MPEG−2の符号化ビットストリームはバッファメモリに蓄積された後、可変長復号部と逆量子化部と逆DCT変換部とで可変長復号処理と逆量子化処理と逆DCT変換処理がそれぞれ実行された後、加算部で可変長復号処理された動きベクトルと加算され、加算部の出力から再生画像信号が生成される。この再生画像信号はフレームメモリに格納され、他のフレームの予測に使用される。
MPEG−2の規格に続いて、テレビ電話等の低レートの符号化のための国際規格ISO/IEC 14496で標準化されたMPEG−4の規格(H.263)よる動画像の一般的な圧縮方式も提案されている。MPEG−4(H.263)の規格による圧縮方式は、MPEG−2と同様にフレーム間予測と離散コサイン変換を用いた「ハイブリッド型」と呼ばれるものであり、更に半画素(ハーフペル)単位での動き補償が導入された。この圧縮方式は、MPEG−2と同様に、エントロピー符号化としてハフマン符号を使用するが、新しくランとレベルとラストとを同時に符号化する3次元可変長符号化(3次元VLC)という技術を導入して、圧縮率を大きく向上させている。尚、ランとレベルとはランレングスの係数に関するものであって、ラストとは最後の係数であるかを示すものである。更に、MPEG−4(H.263)の規格には、Baselineと呼ばれる基本部分と、Annexと呼ばれる拡張規格とがある。
MPEG−4(H.263)の規格による圧縮方式による効率改善が十分でなかったもので、従来方式との互換性を考慮せずに、より高い符号化効率を達成するために、MPEG−4 AVC(H.264)の規格が国際規格ISO/IEC 14496−10によって標準化された。尚、AVCは、Advanced Video Codingの略であり、MPEG−4 AVC(H.264)の規格は、H.264/AVCと呼ばれる。
規格H.246/AVCによるビデオコーディングは、ビデオコーディング層(Video Coding Layer)と、ネットワーク抽象層(Network Abstraction Layer)とから構成されている。すなわち、ビデオコーディング層はビデオコンテキストを有効に表現するように設計されたものであり、またネットワーク抽象層はビデオのVCL表現をフォーマットするとともに種々の転送層や記憶媒体による転送のために適切な方法でのヘッダー情報を与えるものである。
MPEG−2、MPEG−4、MPEG−4 AVC(H.264)等の国際標準動画像符号化方法では、時間方向の相関を使って高い符号化効率を実現するために、インター符号化すなわちフレーム間予測符号化が使用されている。フレームの符号化モードには、フレーム間の相関を使わずにイントラ符号化を使用するIフレームと、過去に符号化した1フレームからインター予測するPフレームと、過去に符号化した2フレームからインター予測することができるBフレームがある。
このフレーム間予測符号化では、動画像から動き補償された参照画像(予測画像)が減算され、この減算による予測残差が符号化される。符号化の処理は、DCT(離散コサイン変換)等の直交変換と量子化と可変長符号化との処理を含んでいる。動き補償(動き補正)はフレーム間予測の参照フレームを空間的に移動させる処理を含むものであり、動き補償の処理は被符号化フレームのブロック単位で行われる。画像内容に動きが無い場合には、移動は無く被予測画素と同一位置の画素が使用される。動きが有る場合には、最も類似するブロックが探索され、移動量が動きベクトルとされる。動き補償のブロックは、MPEG−2の符号化方法では16画素×16画素/16画素×8画素のブロックであり、MPEG−4の符号化方法では16画素×16画素/16画素×8画素/8画素×8画素のブロックである。動き補償のブロックは、MPEG−4 AVC(H.264)の符号化方法では16画素×16画素/16画素×8画素/8画素×16画素/8画素×8画素/8画素×4画素/4画素×8画素/4画素×4画素のブロックである。
上述した符号化処理は映像画面(フレームまたはフィールド)毎に行われるものであり、画面を細分化したブロック(通常は16画素×16画素、MPEGではマクロブロック(MB)と呼ばれる)が処理単位となるものである。すなわち、符号化されるべきブロック毎に、既に符号化された参照画像から最も類似したブロック(予測画像)が選択されて、符号化画像(ブロック)と予測画像の差分信号が符号化(直交変換、量子化等)される。画面内での符号化されるブロックと予測信号の相対位置の差が動きベクトルと呼ばれるものである。
また、下記非特許文献1には、H.246/AVCによるビデオコーディング層(VCL)は、ブロックベースドハイブリッドビデオコーディングと呼ばれるアプローチに従っていると記載している。VCL設計は、マクロブロック、スライス、スライスブロックから構成されており、各ピクチャーは固定サイズの複数のマクロブロックに分割され、各マクロブロックは輝度成分で16×16サンプルの四角形ピクチャー領域と、それに対応する2つの色差成分のそれぞれに四角形サンプル領域とを含んでいる。1つのピクチャーは1つまたはそれ以上のスライスを含むことができ、各スライスはアクティブシーケンスとピクチャーパラメータセットとを与えると言う意味で自己包含的であり、スライス表現は基本的には他のスライスからの情報を使用することなくデコードされることができるので、シンタックスエレメントはビットストリームとピクチャーの領域のサンプルの値とから解析できる。しかしながら、より完全なデコーディングのために、スライス境界にわたってデブロッキングフィルタを適応するためには、他のスライスからのいくつかの情報が必要となる。また。各スライスはピクチャーの他のスライスと独立にエンコードされデコードされるので、スライスは並列処理に使用できることも、下記非特許文献1に記載されている。
一方で、動画像符号を扱うシステムは、デジタルHDTV(High Definition Television)放送受信機やHDTV信号を撮影可能なデジタルビデオカメラなどで、画像サイズは大画面化してきている。これらの信号を処理する画像符号化装置や画像復号装置には、ますます高い処理性能が求められている。
このような背景から、規格H.264/MPEG−4 AVCの後続規格である新規格H.265(ISO/IEC 23008−2)が提案され、この新規格はHEVC(High Efficiency Video Coding)と呼ばれている。この新規格はブロックサイズの適正化等により圧縮効率が優れたものであり、MPEG−2の規格に比較して約4倍、規格H.264/AVCに比較して約2倍圧縮性能を有するとしている。
一方、下記特許文献1には、MPEG−1/2/4とH.261/H.263/H.264−AVC等の広く採用される種々の符号化圧縮規格では、16×16画素からなる1つのマクロブロックが動き補償と後続処理の処理単位として使用されているのに対し、HEVCと呼ばれる次世代規格では、よりフレキシブルなブロック構造が処理単位として採用されると記載されている。このフレキシブルなブロック構造の単位は、コーディングユニット(CU)と呼ばれ、コーディングユニットは最大コーディングユニット(LCU)から出発して良好な性能を達成するために、クアッド・トリー(quadtree)を使用した小さなブロックに適応的に分割される。最大コーディングユニット(LCU)のサイズは、16×16画素のマクロブロックのサイズよりもずっと大きな64×64画素である。下記特許文献1の図1とそれに関係する開示には、クアッド・トリーに基づくコーディングユニット分割の例が示され、その深さ“ゼロ”では最初のコーディングユニット(CU)は64×64画素からなる最大コーディングユニット(LCU)である。スプリットフラグ“0”は、その時点のコーディングユニット(CU)が分割されないことを示す一方、スプリットフラグ“1”は、その時点のコーディングユニット(CU)がクアッド・トリーによって4つの小さなコーディングユニットに分割されることを示す。分割後のコーディングユニット(CU)は、予め特定された最小コーディングユニット(CU)のサイズに到達するまで、更にクアッド・トリー分割されることも、下記特許文献1に記載されている。
下記非特許文献2には、HEVCの規格の概観が記載されている。以前の規格のコーディングレイヤーのコアが、輝度サンプルの16×16ブロックと8×8ブロックの2つの色度サンプルを含むマクロブロックであったのに対して、HEVCの規格の類似構成は、伝統的なマクロブロックよりも大きくエンコーダによってサイズが選択されるコーディングトリーユニット(CTU)である。コーディングトリーユニット(CTU)は、輝度コーディングトリーブロック(CTB)と色度コーディングトリーブロック(CTB)とシンタックス要素とによって構成される。コーディングトリーユニット(CTU)のクアッド・トリー・シンタックスは、その輝度と色度のコーディングトリーブロック(CTB)の大きさと位置とを指定する。ピクチャー領域を符号化するために、インター・ピクチャーまたはイントラ・ピクチャーが使用されるか否かの決定は、コーディングユニット(CU)のレベルでなされる。プレディクションユニット(PU)の分割構造は、コーディングユニット(CU)のレベルにその根源を持っている。基本的なプレディクションタイプの決定に依存して、輝度と色度のコーディングブロック(CB)はサイズの分割が可能で、輝度と色度のプレディクションブロック(PB)からの予測が可能である。HEVCの規格は、64×64サンプルから4×4サンプルまでの可変のプレディクションブロック(PB)のサイズをサポートする。予測残差はブロック変換によって符号化されて、トランスフォームユニット(TU)のトリー構造は、コーディングユニット(CU)のレベルにその根源を持つものである。輝度のコーディングブロック(CB)の残差は、輝度のトランスフォームブロック(TB)と同一なことが可能であり、更に小さな輝度のトランスフォームブロック(TB)への分割が可能である。これは、色度のトランスフォームブロック(TB)でも同様である。離散コサイン変換(DCT)の関数と類似した整数ベースの関数が、4×4、8×8、16×16、32×32サンプルの四角型のトランスフォームブロック(TB)のサイズのために定義されている。
更に下記非特許文献2には、HEVCの規格のスライスは、同一のピクチャーの他のスライスから独立に符号化されることが可能なデータ構造であることが記載されている。また更に下記非特許文献2には、HEVCの規格には、並列処理能力を強化するかパケッタイズする目的でスライスデータの構造を修正するために、タイルやウエーブフロント・パラレル・プロセッシング(WPP)の新規な特徴が導入されていることも記載されている。タイルはピクチャーを四角形の領域に分割するものであり、タイルの主目的は誤差の回復力を提供するより並列処理の能力を増加するものである。複数のタイルは、1つのピクチャーの独立に復号可能な領域であり、こられは共有ヘッダー情報によって符号化される。ウエーブフロント・パラレル・プロセッシング(WPP)により、1つのスライスは複数のコーディングトリーユニット(CTU)の行に分割される。最初の行は通常の方法によって処理され、最初の行に若干の決定がされた後に2番目の行は処理を開始され、2番目の行に若干の決定がされた後に3番目の行は処理を開始されることができる。
また更に下記非特許文献2には、HEVCの規格に準拠するビットストリームを生成可能なハイブリットビデオエンコーダの構成が記載され、そのインター・ピクチャー予測ループ中に、H.264/MPEG−4 AVCの規格で使用されるものと類似したデブロッキングフィルタが含まれることも記載されている。
米国公開特許 US2012/0106652A1 明細書
GARY J. SULLIVAN et al,"Video Compression−From Concept to the H.264/AVC Standard" , PROCEEDING OF THE IEEE, VOL.93、 No.1, JANUARY 2005、PP.18−31. "Overview of the High Efficiency Video Coding (HEVC) Standard", Gary J. Sullivan et al. IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNNOLOGY, VOL.22,NO.12, DECEMBER 2012, PP.1649−1668.
本発明者等は本発明に先立って、新規格H.265(HEVC)に準拠して動画像を符号化することよって符号化ビットストリームを生成することが可能な動画像符号化装置(video encoder)の開発に従事した。
この開発においては、最初に本発明に先立って、本発明者等は、既存の動画像符号化方式と新規格H.265(HEVC)の符号化方式に関してレビューを行ったものである。
まず、従来のMPEG−2/4とH.263等の動画像符号化方式では、低ビット・レートで動画像を符号化する場合には、復号画像にブロック歪みが生じたままフレーム・メモリに格納され、次のピクチャーの動き補償の処理でこのブロック歪みを含んだ復号画像を参照して符号化するため、画質の劣化が伝播すると言う問題があった。
従って、規格H.264/AVCによる動画像符号化方式では、フレーム・メモリに復号画像を格納するに先立って、デブロッキングフィルタによってブロック歪みの除去が行われる。このデブロッキングフィルタは、画像の符号化時に生じるブロック歪みを減少させるフィルタである。従って、デブロッキングフィルタの使用によって、動画像のブロック歪みが参照画像に含まれて復号画像に伝播されることが防止されるので、良好な画質の復号画像を再生することが可能となる。しかしながら、デブロッキングフィルタの画像処理量は膨大であり、動画像復号装置(Decoder)の全処理量の略半分が、デブロッキングフィルタの画像処理量となる場合もある。従って、ビットストリームのピクチャーパラメータセットに含まれるデブロッキングフィルタコントロールプレゼントフラグとスライスヘッダに含まれるディスエーブルデブロッキングフィルタidcの2つのパラメータとにより、下記の3種類の設定が可能となるものである。
1番目は、ブロック境界およびマクロブロック境界にデブロッキング処理を実行するものであり、2番目は、マクロブロック境界にのみデブロッキング処理を実行するものであり、3番目はデブロッキング処理を実行しないと言うものである。例えば、携帯電話等のように、低消費電力のシステムLSIによって復号処理を実行する場合には、デブロッキング処理の省略によって、多少の画質の劣化を許容して処理量の削減を実現するものである。
一方、上記非特許文献2に記載のように、規格H.265(HEVC)による動画像符号化方式に導入された並列処理の能力を増加するためのタイルを使用することで、動画像符号化処理を実行する動画像符号化装置(Encoder)、および動画像復号処理を実行する動画像復号装置(Decoder)における並列処理が可能となる。近年のシステムLSIは、デュアルコアまたはクアッドコアのコンピュータアーキテクチャーを採用しているので、並列処理の能力を増加するタイルの使用は、有益である。
しかし、本発明に先立った本発明者等による検討により、規格H.265(HEVC)の動画像符号化方式に導入された並列処理の能力を増加するタイルの使用によってタイル境界に不連続なノイズ等が発生して、画質の劣化が発生すると言う問題が明らかとされた。
上記非特許文献2に記載されたHEVCの規格に準拠するビットストリームの生成可能なハイブリットビデオエンコーダのデブロッキングフィルタは、上述したタイル境界での不連続なノイズ等をある程度低減することが可能であるが、十分には低減できないことが、本発明に先立った本発明者等による検討によって明らかとされた。
このような課題を解決するための手段等を以下に説明するが、その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
本願において開示される代表的な実施の形態の概要を簡単に説明すれば、下記のとおりである。
すなわち、代表的な実施の形態による動画像符号化装置(1)で動きベクトル検出を実行する動きベクトル検出部(109)は、少なくとも第1の動きベクトル検出部(109_1)と第2の動きベクトル検出部(109_2)とを含む。
前記第1の動きベクトル検出部(109_1)の一方の入力端子と前記第2の動きベクトル検出部(109_2)の一方の入力端子とに、動画像信号(VS)の1枚のピクチャーに含まれる第1のタイルの動画像信号と第2のタイルの動画像信号とがそれぞれ供給される。
前記第1の動きベクトル検出部(109_1)の他方の入力端子と前記第2の動きベクトル検出部(109_2)の他方の入力端子とに、フレームメモリ(108)から読み出される参照画像が供給される。
前記第1の動きベクトル検出部(109_1)が、前記第1のタイルに含まれる多数の動画像信号のうちで前記第1のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって処理する第1タイル境界処理を実行する。
前記第1タイル境界処理の実行の際に、前記フレームメモリから読み出される前記参照画像のうち前記第1のタイルとは異なる別のタイルに含まれる参照画像を優先的に参照するように、前記第1の動きベクトル検出部(109_1)が前記第1の動きベクトルを生成する。
前記第2の動きベクトル検出部(109_2)が、前記第2のタイルに含まれる多数の動画像信号のうちで前記第2のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって処理する第2タイル境界処理を実行する。
前記第2タイル境界処理の実行の際に、前記フレームメモリから読み出される前記参照画像のうち前記第2のタイルとは異なる別のタイルに含まれる参照画像を優先的に参照するように、前記第2の動きベクトル検出部(109_2)が前記第2の動きベクトルを生成することを特徴とする(図2参照)。
本願において開示される実施の形態のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
すなわち、本動画像符号化装置(1)によれば、タイルの境界に発生するノイズ等を低減することができる。
図1は、実施の形態1による動画像符号化装置1の構成を示す図である。 図2は、図1に示した実施の形態1による動画像符号化装置1の動きベクトル検出部109と動き補償部110の構成を示す図である。 図3は、図2に示した実施の形態1による動きベクトル検出部109の第1動きベクトル検出部109_1の構成を示す図である。 図4は、図1乃至図3に示した実施の形態1による動画像符号化装置1によるインター予測による符号化動作を説明する図である。 図5は、図4の符号化対象である第2ピクチャーPct_2の第1のタイルTile_1に含まれタイル境界線TBに位置するブロックBL3が、規格H.265(HEVC)によって規定された最大コーディングユニット(LCU)のクアッド・トリーに基づく分割で生成されるプレディクションユニット(PU)であることを示す図である。 図6は、図2に示した実施の形態1による動きベクトル検出部109の第1と第2と第3と第4の動きベクトル検出部109_1、109_2、109_3、109_4と動き補償部110の第1と第2と第3と第4の動き補償部110_1、110_2、110_3、110_4とによって並列処理される符号化対象であるピクチャーPctのタイル分割を示す図である。 図7は、図6に示した第1のタイルTile_1中に含まれる多数のプレディクションユニット(PU)のうち、タイル境界線TBに位置する動画像信号としてのプレディクションユニット(PU)をインター予測により符号化する際に、フレームメモリ108に格納された参照画像である第1ピクチャーPct_1の内部の探索範囲Search Areaを示す図である。 図8は、図1乃至図3に示した実施の形態1の動画像符号化装置1が、タイル境界に位置する動画像信号をインター予測により符号化する際に、タイル境界を越えて他のタイルに含まれる参照画像を優先的に選択して参照する処理フローを説明する図である。 図9は、図2に示した動きベクトル検出部109と動き補償部110で、第1と第2と第3と第4の動きベクトル検出部109_1、2、3、4が小数画素精度で動きベクトルを検出し、第1と第2と第3と第4の動き補償部110_1、2、3、4が小数画素精度で動き補償予測信号を生成するための補間フィルタの構成を示す図である。 図10は、実施の形態2による小数画素精度の位置の画素値を生成する図9に示した補間フィルタの動作を説明する図である。 図11は、符号化対象であるプレディクションユニット(PU)がブロックBL3であり、動き補償の単位が4画素×4画素である場合に、実施の形態2による図9に示した補間フィルタから生成される小数画素精度の位置の画素値を使用して動きベクトルの検出と動き補償予測信号の生成とが可能な小数探索範囲Fractional Search Areaを示す図である。 図12は、図7と同様に、符号化対象であるプレディクションユニット(PU)がタイル境界線TBに位置するブロックBL3である場合に、実施の形態2による図9に示した補間フィルタから生成される小数画素精度の位置の画素値を用いた探索が可能な小数探索範囲Fractional Search Areaを示す図である。 図13は、図9乃至図12に示した実施の形態2による動画像符号化装置1が、タイル境界に位置する動画像信号をインター予測により符号化する際に、タイル境界を越えて他のタイルに含まれる参照画像を優先的に選択して参照する処理フローを説明する図である。
1.実施の形態の概要
まず、本願において開示される代表的な実施の形態についてその概要を説明する。代表的な実施の形態の概要説明で括弧を付して参照する図面の参照符号は、それが付された構成要素の概念に含まれるものを例示するに過ぎない。
[1].代表的な実施の形態では、符号化されるべき動画像信号(VS)の符号化画像領域(PU)と最も類似する参照画像領域をフレームメモリ(108)から読み出される参照画像にて動きベクトル検出(109)によって探索することによって、動きベクトルが生成される。
前記動きベクトルと前記フレームメモリ(108)から読み出される前記参照画像とから、動き補償(110)によって動き補償予測信号が生成される。
前記動画像信号(VS)と前記動き補償予測信号との減算(101)によって、予測残差が生成される。
前記減算(101)によって生成された前記予測残差の変換処理(102)と量子化処理(103)と逆量子化処理(104)と逆変換処理(105)の処理結果と前記動き補償(110)によって生成される前記動き補償予測信号との加算(106)によって、前記フレームメモリ(108)に格納される前記参照画像が生成される動画像符号化装置(1)である(図1参照)。
前記動きベクトル検出を実行する動きベクトル検出部(109)は、少なくとも第1の動きベクトル検出部(109_1)と第2の動きベクトル検出部(109_2)とを含む。
前記第1の動きベクトル検出部(109_1)の一方の入力端子と前記第2の動きベクトル検出部(109_2)の一方の入力端子とに、前記動画像信号(VS)の1枚のピクチャーに含まれる第1のタイルの動画像信号と第2のタイルの動画像信号とがそれぞれ供給される。
前記第1の動きベクトル検出部(109_1)の他方の入力端子と前記第2の動きベクトル検出部(109_2)の他方の入力端子とに、前記フレームメモリ(108)から読み出される前記参照画像が供給される。
前記第1の動きベクトル検出部(109_1)の出力端子と前記第2の動きベクトル検出部(109_2)の出力端子から、第1の動きベクトル(MV1)と第2の動きベクトル(MV2)とが並列に生成される。
前記動き補償を実行する動き補償部(110)は、少なくとも第1の動き補償部(110_1)と第2の動き補償部(110_2)とを含む。
前記第1の動き補償部(110_1)の一方の入力端子と前記第2の動き補償部(110_2)の一方の入力端子とに、前記第1の動きベクトル(MV1)と前記第2の動きベクトル(MV2)とがそれぞれ供給される。
前記第1の動き補償部(110_1)の他方の入力端子と前記第2の動き補償部(110_2)の他方の入力端子とに、前記フレームメモリ(108)から読み出される前記参照画像が供給される。
前記第1の動き補償部(110_1)の出力端子と前記前記第2の動き補償部(110_2)の出力端子から、前記動き補償予測信号としての第1の動き補償予測信号と第2の動き補償予測信号とが並列に生成される。
前記第1の動きベクトル検出部(109_1)が、前記第1のタイルに含まれる多数の動画像信号のうち、前記第1のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって処理する第1タイル境界処理を実行する。
前記第1タイル境界処理の実行の際に、前記フレームメモリから読み出される前記参照画像のうち、前記第1のタイルとは異なる別のタイルに含まれる参照画像を優先的に参照するように、前記第1の動きベクトル検出部(109_1)が前記第1の動きベクトルを生成する。
前記第2の動きベクトル検出部(109_2)が、前記第2のタイルに含まれる多数の動画像信号のうち、前記第2のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって処理する第2タイル境界処理を実行する。
前記第2タイル処理境界の実行の際に、前記フレームメモリから読み出される前記参照画像のうち、前記第2のタイルとは異なる別のタイルに含まれる参照画像を優先的に参照するように、前記第2の動きベクトル検出部(109_2)が前記第2の動きベクトルを生成することを特徴とする(図2参照)。
前記実施の形態によれば、タイルの境界に発生するノイズ等を低減することができる。
好適な実施の形態では、前記第1の動きベクトル検出部は、前記第1の動きベクトル検出部の前記一方の入力端子と前記他方の入力端子にそれぞれ供給される前記第1のタイルの動画像信号のアドレス情報と前記参照画像のアドレス情報と前記タイル境界に関する情報に従って、前記第1の動きベクトルを生成する。
前記第2の動きベクトル検出部は、前記第2の動きベクトル検出部の前記一方の入力端子と前記他方の入力端子にそれぞれ供給される前記第2のタイルの動画像信号のアドレス情報と前記参照画像のアドレス情報と前記タイル境界に関する情報に従って、前記第2の動きベクトルを生成することを特徴とするものである(図3参照)。
他の好適な実施の形態では、前記第1の動きベクトル検出部(109_1)と前記第2の動きベクトル検出部(109_2)とは、整数画素位置の画素値の補間を実行する複数タップの補間フィルタを使用することによって、小数画素精度で前記第1の動きベクトル(MV1)と前記第2の動きベクトル(MV2)とを生成可能とされる(図9乃至図13参照)。
更に他の好適な実施の形態では、前記第1の動きベクトル検出部(109_1)は、前記小数画素精度によって設定される前記動きベクトル検出(109)の小数探索範囲に、前記第1の動きベクトルを生成する際に、前記第1のタイルとは異なる前記別のタイルに含まれる前記参照画像を含むことが可能である。
前記第2の動きベクトル検出部(109_2)は、前記小数画素精度によって設定される前記動きベクトル検出(109)の小数探索範囲に、前記第2の動きベクトルを生成する際に前記第2のタイルとは異なる前記別のタイルに含まれる前記参照画像を含むことが可能であることを特徴とするものである(図12参照)。
具体的な実施の形態では、前記第1の動きベクトル検出部の前記一方の入力端子と前記第2の動きベクトル検出部の前記一方の入力端子とにそれぞれ供給される前記第1のタイルの動画像信号と前記第2のタイルの動画像信号は、規格H.265(HEVC)に準拠して分割される複数のタイルの動画像信号であることを特徴とするものである。
更に具体的な実施の形態では、前記第1タイル境界処理および前記第2タイル処理境界により処理される前記タイル境界の前記近傍は、前記規格H.265(HEVC)によって規定された64×64画素のサイズを有する最大コーディングユニット(LCU)よりも小さな距離で前記タイル境界に位置するものであることを特徴とするものである。
2.実施の形態の詳細
次に、実施の形態について更に詳述する。尚、発明を実施するための最良の形態を説明するための全ての図において、前記の図と同一の機能を有する部品には同一の符号を付して、その繰り返しの説明は省略する。
[実施の形態1]
《動画像符号化装置の構成》
図1は、実施の形態1による動画像符号化装置1の構成を示す図である。
図1に示した実施の形態1による動画像符号化装置1は、コーディングユニットバッファ100と減算器101と周波数変換部102と量子化部103と逆量子化部104と逆周波数変換部105と加算器106によって構成される。更に動画像符号化装置1は、フィルタユニット107とフレームメモリ108と動きベクトル検出部109と動き補償部110とバッファメモリ111とイントラ予測部112とセレクタ部113とエントロピーエンコーダ114とビデオバッファ115によって構成される。
動画像信号VSはHEVC規格のフレキシブルなブロック構造である処理単位のコーディングユニット(CU)に分割された後に、コーディングユニット(CU)はコーディングユニットバッファ100に格納される。コーディングユニットバッファ100から読み出されたコーディングユニット(CU)は、減算器101の一方の入力端子と動きベクトル検出部109の一方の入力端子とイントラ予測部112の一方の入力端子とに供給される。
図1に示されていないが、動画像の各ピクチャーのインター予測もしくはイントラ予測を示す予測モードが、図示しない符号化制御ユニットからセレクタ部113とエントロピーエンコーダ114に供給される。インター符号化される動画像信号のコーディングユニット(CU)は、Bフレームの符号化や動きベクトルの検出ためにバッファ100に格納された後、バッファ100から読み出されたコーディングユニット(CU)は、減算器101の一方の入力端子に供給される。動きベクトル検出部109はバッファ100から読み出された動画像信号とフレームメモリ108に格納された参照画像とに応答して、動きベクトルMVを生成して、動き補償部110は動きベクトル検出部109から生成された動きベクトルMVとフレームメモリ108に格納された参照画像とに応答して、動き補償予測信号を生成する。動き補償部110からの動き補償予測信号がセレクタ部113を介して減算部101で動画像信号から減算され、減算部101の減算出力信号に関して周波数変換部102と量子化部103とでそれぞれ周波数変換処理と量子化処理とが実行される。量子化部103で量子化された周波数変換係数と動きベクトル検出部109から生成された動きベクトルMVとはエントロピーエンコーダ114で可変長符号化処理され、ビデオバッファ115を介して圧縮ビデオビットストリームCVBSが生成される。量子化部103で量子化された周波数変換係数は、逆量子化部104と逆周波数変換部105と加算器106とフィルタユニット107とによって局部復号処理が実行された後に、この局部復号処理結果は参照画像としてフレームメモリ108に格納される。フィルタユニット107は、MPEG−4 AVC(H.264)の規格に従って、ブロック歪みを低減するためのデブロッキングフィルタの機能を有するものである。また更にフィルタユニット107は、新規格H.265(HEVC)に準拠するために、デブロッキングフィルタ機能の後にサンプルアダプティブオフセット(SAO)と呼ばれるフィルタ機能を有する。このサンプルアダプティブオフセット(SAO)のフィルタ機能は、動画像符号化装置1の図示しない符号化制御ユニットの度数分布解析により決定される追加パラメータによって記述されるルックアップテーブルを使用することにより、原信号振幅を良好に再構築するものである。
イントラ符号化される動画像信号はバッファ100に格納された後に、バッファ100から読み出された動画像信号は、イントラ予測部112の一方の入力端子に供給される。一方、バッファメモリ111には、イントラ予測によって符号化されて局部復号処理によって生成された参照画像が格納されているので、バッファメモリ111から読み出された参照画像がイントラ予測部112の他方の入力端子に供給される。従って、イントラ予測部112は、一方の入力端子に供給される動画像信号のコーディングユニット(CU)をイントラ符号化する際に、バッファメモリ111から他方の入力端子に供給される符号化済みの参照画像に含まれる複数の近隣のコーディングユニット(CU)から最適なコーディングユニットを選択して更に選択された最適なコーディングユニットの空間情報を生成する。その結果、イントラ予測部112は、イントラ予測された最適なコーディングユニット(CU)と対応する空間的予測モードとを含んだイントラ予測情報をセレクタ部113に供給するものである。
《動きベクトル検出部と動き補償部の構成》
図2は、図1に示した実施の形態1による動画像符号化装置1の動きベクトル検出部109と動き補償部110の構成を示す図である。
図2に示したように、動きベクトル検出部109は、タイル分割部109_0と第1動きベクトル検出部109_1と第2動きベクトル検出部109_2と第3動きベクトル検出部109_3と第4動きベクトル検出部109_4とを含む。
動きベクトル検出部109のタイル分割部109_0の入力端子にバッファ100から読み出された動画像信号が供給されることによって、タイル分割部109_0は図示しない符号化制御ユニットから供給されるHEVC規格のタイル分割情報に従って、1枚のピクチャーの動画像信号を並列処理能力の増加のために複数のタイルに分割する。その結果、タイル分割部109_0から生成される第1タイルの動画像信号が第1動きベクトル検出部109_1の一方の入力端子に供給され、タイル分割部109_0から生成される第2タイルの動画像信号が、第2動きベクトル検出部109_2の一方の入力端子に供給される。第1動きベクトル検出部109_1の他方の入力端子と第2動きベクトル検出部109_2の他方の入力端子には、フレームメモリ108から読み出される参照画像が並列に供給されるので、第1動きベクトル検出部109_1から第1動きベクトルMV1が生成されるのと並列に第2動きベクトル検出部109_2から第2動きベクトルMV2が生成される。タイル分割部109_0から生成される第3タイルの動画像信号が第3動きベクトル検出部109_3の一方の入力端子に供給され、タイル分割部109_0から生成される第4タイルの動画像信号が第4動きベクトル検出部109_4の一方の入力端子に供給される。第3動きベクトル検出部109_3の他方の入力端子と第4動きベクトル検出部109_4の他方の入力端子には、フレームメモリ108から読み出される参照画像が並列に供給されるので、第3動きベクトル検出部109_3から第3動きベクトルMV3が生成されるのと並列に第4動きベクトル検出部109_4から第4動きベクトルMV4が生成される。
図2に示したように、動き補償部110は、第1動き補償部110_1と第2動き補償部110_2と第3動き補償部110_3と第4動き補償部110_4を含む。第1動き補償部110_1の一方の入力端子に、第1動きベクトル検出部109_1から生成される第1動きベクトルMV1が供給され、第2動き補償部110_2の一方の入力端子に、第2動きベクトル検出部109_2から生成される第2動きベクトルMV2が供給される。第1動き補償部110_1の他方の入力端子と第2動き補償部110_2の他方の入力端子とに、フレームメモリ108から読み出される参照画像が並列に供給されるので、第1動き補償部110_1から第1動き補償予測信号が生成されるのと並列に、第2動き補償部110_2から第2動き補償予測信号が生成される。第3動き補償部110_3の一方の入力端子に、第3動きベクトル検出部109_3から生成される第3動きベクトルMV3が供給され、第4動き補償部110_4の一方の入力端子に、第4動きベクトル検出部109_4から生成される第4動きベクトルMV4が供給される。第3動き補償部110_3の他方の入力端子と第4動き補償部110_4の他方の入力端子とに、フレームメモリ108から読み出される参照画像が並列に供給されるので、第3動き補償部110_3から第3動き補償予測信号が生成されるのと並列に、第4動き補償部110_4から第4動き補償予測信号が生成される。このように図2に示した動き補償部110の第1動き補償部110_1と第2動き補償部110_2と第3動き補償部110_3と第4動き補償部110_4から並列に生成される第1動き補償予測信号と第2動き補償予測信号と第3動き補償予測信号と第4動き補償予測信号とは、セレクタ部113の一方の入力端子に並列に供給される。
図1と図2に示した実施の形態1による動画像符号化装置1では、符号化される動画像信号のタイル分割部109_0によるタイル分割と全く同一のタイル分割によって、フレームメモリ108に格納された参照画像が分割されている。その結果、タイル分割部109_0による符号化される動画像信号のタイル分割のタイル境界線と、フレームメモリ108に格納された参照画像のタイル分割のタイル境界線とは、完全に一致している。従って、図2に示した動きベクトル検出部109では、フレームメモリ108に格納された参照画像の画面内に含まれる第1と第2と第3と第4のタイル等の全てのタイルの参照画像情報が、第1と第2と第3と第4の動きベクトル検出部109_1、109_2、109_3、109_4に並列に供給される。更に図2に示した動き補償部110では、フレームメモリ108に格納された参照画像の画面内に含まれる第1と第2と第3と第4のタイル等の全てのタイルの参照画像情報が、第1と第2と第3と第4の動き補償部110_1、110_2、110_3、110_4に並列に供給される。
以上説明したように図2の動きベクトル検出部109では、タイル分割部109_0は動画像信号を複数のタイルに分割して、第1と第2と第3と第4の動きベクトル検出部109_1、109_2、109_3、109_4はフレームメモリ108に格納された参照画像の全てのタイルの参照画像情報を参照して、4個のタイルに分割された動画像信号に関して動きベクトル検出を実行する。従って、第1動きベクトル検出部109_1と第2動きベクトル検出部109_2と第3動きベクトル検出部109_3と第4動きベクトル検出部109_4とから、第1動きベクトルMV1と第2動きベクトルMV2と第3動きベクトルMV3と第4動きベクトルMV4とが並列に生成される。更に図2に示した動き補償部110では、第1と第2と第3と第4の動き補償部110_1、110_2、110_3、110_4は、第1と第2と第3と第4の動きベクトルMV1、MV2、MV3、MV4とフレームメモリ108から読み出される参照画像の全てのタイルの参照画像情報とを使用して、第1と第2と第3と第4の動き補償予測信号を並列に生成する。
図1と図2とに示した実施の形態1による動画像符号化装置1の動きベクトル検出部109と動き補償部110は、規格H.265(HEVC)の動画像符号化方式に導入されたタイルの境界に発生するノイズ等を低減するために、下記の特徴を有するものである。
すなわち、第1動きベクトル検出部109_1が第1タイルに含まれる多数の動画像信号のうち、第1のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって符号化する際に、第2と第3と第4のタイル等のいずれかの他のタイルに含まれる参照画像を優先的に選択するように、第1動きベクトル検出部109_1が構成される。その結果、第1動きベクトル検出部109_1から生成される第1動きベクトルMV1の方向は、第1のタイルから他のタイルに向かう方向に優先的に選択される。従って、第1タイルのうち、タイル境界またはその近傍に位置する動画像信号をインター予測するための第1動き補償部110_1から生成される第1動き補償予測信号は、第2と第3と第4のタイル等のいずれかの他のタイルに含まれる参照画像を優先的に含むものである。ここで、タイル境界の近傍は、規格H.265(HEVC)によって規定された64×64画素のサイズを有する最大コーディングユニット(LCU)よりも小さな距離でタイル境界に位置することを意味するものである。
第2動きベクトル検出部109_2が第2タイルに含まれる多数の動画像信号のうち、第2のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって符号化する際に、第1と第3と第4のタイル等のいずれかの他のタイルに含まれる参照画像を優先的に選択するように、第2動きベクトル検出部109_2が構成される。その結果、第2動きベクトル検出部109_2から生成される第2動きベクトルMV2の方向は、第2のタイルから他のタイルに向かう方向に優先的に選択される。従って、第2タイルのうちタイル境界またはその近傍に位置する動画像信号をインター予測するための第2動き補償部110_2から生成される第2動き補償予測信号は、第1と第3と第4のタイル等のいずれかの他のタイルに含まれる参照画像を優先的に含むものである。尚、タイル境界の近傍は、上述の規定で定義される。
第3動きベクトル検出部109_3が第3タイルに含まれる多数の動画像信号のうち、第3のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって符号化する際に、第1と第2と第4のタイル等のいずれかの他のタイルに含まれる参照画像を優先的に選択するように、第3動きベクトル検出部109_3が構成される。その結果、第3動きベクトル検出部109_3から生成される第3動きベクトルMV3の方向は、第3のタイルから他のタイルに向かう方向に優先的に選択される。従って、第3タイルのうちタイル境界またはその近傍に位置する動画像信号をインター予測するための第3動き補償部110_3から生成される第3動き補償予測信号は、第1と第2と第4のタイル等のいずれかの他のタイルに含まれる参照画像を優先的に含むものである。尚、タイル境界の近傍は、上述の規定で定義される。
第4動きベクトル検出部109_4が第4タイルに含まれる多数の動画像信号のうち、第4のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって符号化する際に、第1と第2と第3のタイル等のいずれかの他のタイルに含まれる参照画像を優先的に選択するように、第4動きベクトル検出部109_4が構成される。その結果、第4動きベクトル検出部109_4から生成される第4動きベクトルMV4の方向は、第4のタイルから他のタイルに向かう方向に優先的に選択される。従って、第4タイルのうち、タイル境界またはその近傍に位置する動画像信号をインター予測するための第4動き補償部110_4から生成される第4動き補償予測信号は、第1と第2と第3のタイル等のいずれかの他のタイルに含まれる参照画像を優先的に含むものである。尚、タイル境界の近傍は、上述の規定で定義される。
従って、図1と図2に示した実施の形態1による動画像符号化装置1では、上述した特徴によってタイルのタイル境界またはその近傍に位置する動画像信号をインター予測により符号化する際に、タイル境界を越えて他のタイルに含まれる参照画像を優先的に選択して参照するものである。その結果、タイル境界の動画像の画質の差違が軽減され、規格H.265(HEVC)の動画像符号化方式に導入されたタイルの境界またはその近傍に発生するノイズ等を低減することが可能となる。
《第1動きベクトル検出部の構成》
図3は、図2に示した実施の形態1による、動きベクトル検出部109の第1動きベクトル検出部109_1の構成を示す図である。
図3に示したように、第1動きベクトル検出部109_1は、データ分離部109_1_1と絶対値演算部109_1_2とタイル判定部109_1_3と加算部109_1_4と最適ブロック判定部109_1_5と最適位置記憶部109_1_6とを含む。
データ分離部109_1_1には、図示しない符号化制御ユニットから供給されるタイル分割情報TDIと、符号化対象ブロックT_Bの画素情報および画面内アドレスと、参照ブロックR_Bの画素情報および画面内アドレスが供給される。符号化対象ブロックT_Bはタイル分割部109_0から生成される第1タイルの動画像信号に含まれる、インター符号化されるコーディングユニット(CU)であり、参照ブロックR_Bはフレームメモリ108から読み出される参照画像に含まれる、上述のインター符号化されるコーディングユニット(CU)に対応するブロックサイズを有する多数の参照画像ブロックである。この多数の参照画像ブロックである参照ブロックR_Bは、フレームメモリ108に格納された参照画像の画面内に含まれる第1と第2と第3と第4のタイル等の全てのタイルの参照画像情報である。
絶対値演算部109_1_2には、データ分離部109_1_1から符号化対象ブロックT_Bの画素情報と多数の参照ブロックR_Bの画素情報が供給されるので、絶対値演算部109_1_2は符号化対象ブロックT_Bの画素情報と多数の参照ブロックR_Bの画素情報の差分の絶対値Sim_Vを次々に算出するものである。この差分の絶対値Sim_Vが小さな参照ブロックR_Bの画素情報は、符号化対象ブロックT_Bの画素情報と類似していることになる。尚、符号化対象ブロックT_Bの画素情報と多数の参照ブロックR_Bの画素情報とは、輝度信号Yと色差信号Cr、Cbとを、例えば4:2:0の比率で含むものである。
タイル判定部109_1_3には、データ分離部109_1_1からタイル分割情報TDIと符号化対象ブロックT_Bの画面内アドレスと多数の参照ブロックR_Bの画面内アドレスとが供給されるので、タイル判定部109_1_3は符号化対象ブロックT_Bが所属するタイルと多数の参照ブロックR_Bの各ブロックが所属するタイルとが同一か否かを判定する。タイルが同一の場合にはタイル判定部109_1_3は、絶対値の大きな重み係数値Wg_Vを生成して、同一でない場合には、タイル判定部109_1_3は、絶対値の小さな重み係数値Wg_Vを生成する。
加算部109_1_4は、絶対値演算部109_1_2から生成される差分の絶対値Sim_Vとタイル判定部109_1_3から生成される重み係数値Wg_Vとの加算を実行するので、加算部109_1_4の加算結果は、最適ブロック判定部109_1_5に供給される。最適ブロック判定部109_1_5は加算部109_1_4から次々に供給される加算結果に応答して、最小値の加算結果を更新する。最適ブロック判定部における最小値の加算結果の更新に応答して、最適位置記憶部109_1_6には最小値の加算結果に対応する参照ブロックR_Bの画面内アドレスが更新され格納される。従って、最適ブロック判定部109_1_5によって更新される最小加算値の最適な参照ブロックR_Bが有する画面内アドレスと符号化対象ブロックT_Bの画面内アドレスとを使用して、最適ブロック判定部109_1_5から第1動きベクトルMV1が生成されるものである。その結果、第1動きベクトル検出部109_1から生成される第1動きベクトルMV1の方向は、第1のタイルから他のタイルに向かう方向に優先的に選択される。
図2に示した動きベクトル検出部109の第2動きベクトル検出部109_2と第3動きベクトル検出部109_3と第4動きベクトル検出部109_4の各検出部も、図3に示した第1動きベクトル検出部109_1と同様に構成される。
《インター予測による符号化動作》
図4は、図1乃至図3に示した実施の形態1による動画像符号化装置1によるインター予測による符号化動作を説明する図である。
図4に示した時間経過の第2時刻T2のタイミングで、図1乃至図3に示した実施の形態1による動画像符号化装置1によって、符号化対象である第2ピクチャーPct_2がインター予測により符号化されることを想定する。第2ピクチャーPct_2は、タイル境界線TBを境にして第1のタイルTile_1と第2のタイルTile_2に分割される。第2ピクチャーPct_2は図2のタイル分割部109_0により第1のタイルTile_1と第2のタイルTile_2に分割され、第1のタイルTile_1の動画像信号の第1動きベクトル検出器109_1と第1動き補償部110_1による処理と、第2のタイルTile_2の動画像信号の第2動きベクトル検出器109_2と第2動き補償部110_2による処理が、並列に実行される。第1のタイルTile_1の内部には多数の動画像信号が含まれ、多数の動画像信号のうち、ブロックBL3の動画像信号がタイル境界線TBに位置して、特にタイル境界線TBに位置するブロックBL3の動画像信号がインター予測による符号化されるものである。
第2時刻T2のタイミングでの第2ピクチャーPct_2のインター予測による符号化に際して、動画像符号化装置1の内部の局部復号処理によって復号済みの参照画像である第1ピクチャーPct_1が、図4に示した時間経過の第1時刻T1のタイミングで、フレームメモリ108に格納されている。符号化対象である第2ピクチャーPct_2のタイル分割のタイル境界線TBと同一のタイル境界線TBによって、復号済みの参照画像である第1ピクチャーPct_1も第1のタイルTile_1と第2のタイルTile_2とに分割される。参照画像である第1ピクチャーPct_1の第1のタイルTile_1に含まれてタイル境界線TBに位置するブロックBL_0は、符号化対象である第2ピクチャーPct_2の第1のタイルTile_1に含まれたインター予測による符号化対象のブロックBL3と同一のブロックサイズ(コーディングユニット(CU))と同一の画面内アドレスとを有している。参照画像である第1ピクチャーPct_1の第1のタイルTile_1には、符号化対象のブロックBL3のインター予測に使用される参照候補ブロックBL1が含まれ、第2のタイルTile_2にも、符号化対象のブロックBL3のインター予測に使用される参照候補ブロックBL2が含まれる。尚、参照候補ブロックBL1、BL2は符号化対象のブロックBL3と同一のブロックサイズ(コーディングユニット(CU))を有し、参照候補ブロックBL1は動きベクトルMV_01を有し、参照候補ブロックBL2は動きベクトルMV_02を有している。
上述のように、図1乃至図3に示した実施の形態1による動画像符号化装置1では、タイル境界またはその近傍に位置する動画像信号をインター予測により符号化する際に、タイル境界を越えて他のタイルに含まれる参照画像を優先的に選択して参照する。従って、符号化対象である第2ピクチャーPct_2の第1のタイルTile_1に含まれ、タイル境界線TBに位置するブロックBL3の動画像信号がインター予測による符号化される際に、参照画像である第1ピクチャーPct_1の第1のタイルTile_1に含まれた参照候補ブロックBL1よりも、第2のタイルTile_2に含まれた参照候補ブロックBL2が優先的に選択される。その結果、第2ピクチャーPct_2の第1のタイルTile_1に含まれ、タイル境界線TBに位置するブロックBL3の動画像信号がインター予測により符号化される際に、タイル境界線TBを越えて他のタイルである第2のタイルTile_2に含まれる参照候補ブロックBL2の参照画像が、優先的に選択され参照されるものである。従って、第2ピクチャーPct_2の第1のタイルTile_1に含まれてタイル境界線TBに位置するブロックBL3の動画像信号がインター予測により符号化される際に、タイル境界線TBの第1のタイルTile_1と第2のタイルTile_2との画質の相違が軽減され、タイル境界線TBに位置するブロックBL3に発生するノイズ等を低減することが可能となる。
尚、図4に示した時間経過の第3時刻T3のタイミングで、符号化対象である第3ピクチャーPct_3がインター予測による符号化される際に、第1ピクチャーPct_1と第2ピクチャーPct_2のいずれか一方を参照画像として使用することが可能である。その際には、第3ピクチャーPct_3のタイル境界に位置する動画像信号をインター予測により符号化する場合に、タイル境界を越えて他のタイルに含まれる参照画像を優先的に選択して参照するものである。
《LCUに含まれる符号化対象ブロック》
図5は、図4の符号化対象である第2ピクチャーPct_2の第1のタイルTile_1に含まれタイル境界線TBに位置するブロックBL3が、規格H.265(HEVC)によって規定された最大コーディングユニット(LCU)のクアッド・トリーに基づく分割で生成されるプレディクションユニット(PU)であることを示す図である。
従って、プレディクションユニット(PU)である符号化対象ブロックBL3のブロックサイズは、最大の64×64画素から予め特定された最小コーディングユニット(CU)の画素サイズまでのいずれかのサイズに設定されることが可能である。
《タイル分割》
図6は、図2に示した実施の形態1による動きベクトル検出部109の第1と第2と第3と第4の動きベクトル検出部109_1、109_2、109_3、109_4と動き補償部110の第1と第2と第3と第4の動き補償部110_1、110_2、110_3、110_4とによって並列処理される符号化対象であるピクチャーPctのタイル分割を示す図である。
図6に示した符号化対象であるピクチャーPctは、例えば水平方向に4096画素、垂直方向に2048画素が配置された超高精細の画面である。上述したように、並列処理の能力増加のためにHEVC規格に導入されたタイルは、符号化対象であるピクチャーを四角形の領域に分割することによって形成されたものであるので、図6に示したピクチャーPctはタイル境界線TBによって分割された複数のタイルTile_1、2、3、4…を含んでいる。
複数のタイルTile_1、2、3、4…の各タイルは、図5に示した最大コーディングユニット(LCU)に含まれる符号化対象ブロックである複数のプレディクションユニット(PU)を含んでいる。
第1のタイルTile_1に含まれる複数のプレディクションユニット(PU)が、図2に示した第1の動きベクトル検出部109_1と第1の動き補償部110_1とによって処理されるのと並列に、第2のタイルTile_2に含まれる複数のプレディクションユニット(PU)が、図2に示した第2の動きベクトル検出部109_2と第2の動き補償部110_2とによって処理される。それと並列に、第3のタイルTile_3に含まれる複数のプレディクションユニット(PU)が、図2に示した第3の動きベクトル検出部109_3と第3の動き補償部110_3とによって処理され、第4のタイルTile_4に含まれる複数のプレディクションユニット(PU)が、図2に示した第4の動きベクトル検出部109_4と第4の動き補償部110_4とによって処理される。複数のタイルTile_1、2、3、4…の各タイルの内部の複数のプレディクションユニット(PU)は、図6の破線に示すように、ラスタースキャンの順序でジグザグ方式に処理される。
その後に、図6に示した符号化対象であるピクチャーPctでは、第5のタイルTile_5に含まれる複数のプレディクションユニット(PU)が、図2に示した第1の動きベクトル検出部109_1と第1の動き補償部110_1とによって処理される。それと並列に、第6のタイルTile_6に含まれる複数のプレディクションユニット(PU)が、図2に示した第2の動きベクトル検出部109_2と第2の動き補償部110_2とによって処理される。それと並列に、図6に図示されないが、第7のタイルTile_7に含まれる複数のプレディクションユニット(PU)が、図2に示した第3の動きベクトル検出部109_3と第3の動き補償部110_3とによって処理される。これと並列に、図6に図示されないが、第8のタイルTile_8に含まれる複数のプレディクションユニット(PU)が、図2に示した第4の動きベクトル検出部109_4と第4の動き補償部110_4とによって処理される。
《タイル境界線に位置する動画像信号の符号化》
図7は、図6に示した第1のタイルTile_1中に含まれる多数のプレディクションユニット(PU)のうち、タイル境界線TBに位置する動画像信号としてのプレディクションユニット(PU)をインター予測により符号化する際に、フレームメモリ108に格納された参照画像である第1ピクチャーPct_1の内部の探索範囲Search Areaを示す図である。
ここでは、図4に示した時間経過の第2時刻T2の符号化対象である第2ピクチャーPct_2と同様に、第1のタイルTile_1の内部の多数の動画像信号のうち、タイル境界線TBに位置するブロックBL3の動画像信号がインター予測により符号化される。図7に示した参照画像である第1ピクチャーPct_1の第1のタイルTile_1中に含まれタイル境界線TBに位置する動画像信号としてのプレディクションユニット(PU)は、符号化対象の第2ピクチャーPct_2の第1のタイルTile_1に含まれたインター予測による符号化対象のブロックBL3と同一のブロックサイズと同一の画面内アドレスとを有している。
第2ピクチャーPct_2のインター予測による符号化に際して、図4に示した時間経過の第1時刻T1にフレームメモリ108に格納された参照画像である第1ピクチャーPct_1の全てのタイルの参照画像が使用される可能性を有している。しかし、タイル境界線TBに位置するブロックBL3のインター予測による符号化に際して、第1ピクチャーPct_1の全てのタイルの参照画像が使用されると、第2動きベクトル検出器109_1による動きベクトル検出時間が長くなってしまう。この問題を解消するために、図7に示した探索範囲Search Areaを使用して、動きベクトル検出が実行される。すなわち、図7に示したように、インター予測による符号化対象のブロックBL3と同一のブロックサイズと同一の画面内アドレスとを有する参照画像であるプレディクションユニット(PU)の周辺部分に、太い破線で示した探索範囲Search Areaが設定される。図7の例では、参照画像であるプレディクションユニット(PU)の周辺の±128画素の範囲で、探索範囲Search Areaが設定されている。
しかし、探索範囲Search Areaの全ての参照画像がインター予測による符号化に使用されるのではなく、符号化対象のタイルと同一のタイルより、符号化対象のタイルと相違するタイルが優先的に選択される。従って、図7に示すように符号化対象の第2ピクチャーPct_2の第1のタイルTile_1に含まれ、タイル境界線TBに位置するブロックBL3の動画像信号がインター予測による符号化される際に、参照画像である第1ピクチャーPct_1の第1のタイルTile_1に含まれた参照候補ブロックよりもその他のタイルに含まれた参照候補ブロックが優先的に選択される。その結果、第2ピクチャーPct_2の第1のタイルTile_1に含まれ、タイル境界線TBに位置するブロックBL3の動画像信号がインター予測による符号化される際に、タイル境界線TBを越えて、他のタイルである第2と第4と第5のタイルTile_2、4、5に含まれる参照候補ブロックの参照画像が、優先的に選択され参照されるものである。
《処理フロー》
図8は、図1乃至図3に示した実施の形態1の動画像符号化装置1が、タイル境界に位置する動画像信号をインター予測により符号化する際に、タイル境界を越えて他のタイルに含まれる参照画像を優先的に選択して参照する処理フローを説明する図である。
図8に示した最初のステップSTEP1で、符号化対象である第2ピクチャーPct_2のインター予測による符号化処理が開始される。
ステップSTEP2では、符号化対象である第2ピクチャーPct_2の第1のタイルTile_1に含まれる複数の動画像信号としての各プレディクションユニット(PU)が、第2ピクチャーPct_2を複数のタイルに分割するタイル境界線TBに位置するか否かが、第1動き検出部109_1のデータ分離部109_1_1によって判定される。この判定結果が「NO」の場合にはステップSTEP3に移行し、この判定結果が「YES」の場合にはステップSTEP11に移行する。
ステップSTEP3では、参照画像である第1ピクチャーPct_1の第1のタイルTile_1の内部に含まれたプレディクションユニット(PU)の周辺±128画素の範囲に探索範囲Search Areaが設定される。
ステップSTEP4では、ステップSTEP3により設定された探索範囲Search Areaの内部では、図3に示した第1動きベクトル検出部109_1の絶対値演算部109_1_2と加算部109_1_4と最適ブロック判定部109_1_5と最適位置記憶部109_1_6とを使用して、最小加算値の最適な参照ブロックとその画面内アドレスとが更新される。
ステップSTEP5では、ステップSTEP4の探索動作が、ステップSTEP3によって設定された探索範囲Search Areaで終了したか否かが判定される。この判定結果が「NO」の場合にはステップSTEP3に復帰し、この判定結果が「YES」の場合にはステップSTEP6に移行する。
ステップSTEP6では、符号化対象である第2ピクチャーPct_2の第1のタイルTile_1に含まれた複数の動画像信号であるプレディクションユニット(PU)の全てが処理されたか否かが判定される。この判定結果が「NO」の場合にはステップSTEP2に復帰し、この判定結果が「YES」の場合にはステップSTEP7に移行する。
ステップSTEP11では、図7に示した参照画像である第1ピクチャーPct_1の第1のタイルTile_1中に含まれてタイル境界線TBに位置する動画像信号としてのプレディクションユニット(PU)の周辺の±128画素の範囲に探索範囲Search Areaが設定され、その後ステップSTEP12に移行する。
ステップSTEP12では、図3に示した動きベクトル検出部109の第1動きベクトル検出部109_1のタイル判定部109_1_3によって、重み係数値Wg_Vが設定される。上述したようにタイル判定部109_1_3は、符号化対象ブロックが所属するタイルと多数の参照ブロックの各ブロックが所属するタイルとが同一か否かを判定する。タイル判定部109_1_3は、タイルが同一の場合には、絶対値の大きな重み係数値Wg_Vを設定し、同一ではない場合には、絶対値の小さな重み係数値Wg_Vを設定する。
ステップSTEP13では、ステップSTEP11により設定された探索範囲Search Areaの内部では、図3に示した第1動きベクトル検出部109_1の絶対値演算部109_1_2と加算部109_1_4と最適ブロック判定部109_1_5と最適位置記憶部109_1_6とを使用して、最小加算値の最適な参照ブロックとその画面内アドレスとが更新される。その結果、符号化対象であるプレディクションユニット(PU)が、第1のタイルTile_1に含まれてタイル境界線TBに位置する場合には、タイル境界線TBを越えて他のタイルに含まれる参照画像が、優先的に選択され参照されるものとなる。
ステップSTEP14では、ステップSTEP13の探索動作がステップSTEP12により設定された探索範囲Search Areaで終了したか否かが判定される。この判定結果が「NO」の場合にはステップSTEP11に復帰し、この判定結果が「YES」の場合にはステップSTEP6に移行する。
以上のように図8に示した符号化処理によって、符号化対象のプレディクションユニット(PU)が第1のタイルTile_1の内部に完全に含まれる場合と符号化対象のプレディクションユニット(PU)が第1のタイルTile_1に含まれてタイル境界線TBに位置する場合の両者において、フレームメモリ108に格納された参照画像を使用したインター予測による符号化が可能とされる。特に、後者の場合には、タイル境界線TBを越えて他のタイルに含まれる参照画像が優先的に選択され参照されるので、タイル境界の動画像の画質の差違が軽減されて、規格H.265(HEVC)の動画像符号化方式に導入されたタイルの境界に発生するノイズ等を低減することが可能となる。
[実施の形態2]
実施の形態1による動画像符号化装置1は、整数画素精度によって動きベクトルと動き補償予測信号とを生成してインター予測による符号化を実行するものであった。
それに対して、以下に説明する実施の形態2は、小数画素精度によって動きベクトルと動き補償予測信号とを生成して、インター予測による符号化を実行するものである。
すなわち、インター予測によって符号化される動画像信号であるプレディクションユニット(PU)の動きベクトルの大きさが整数画素単位となる確率は高くないので、動きベクトルの大きさを整数画素未満の精度(小数画素精度)で検出することが有効である。従って、整数画素の位置の画素値から小数画素精度の位置の画素値を生成する必要があるので、整数画素の位置の画素値の補間を行う複数タップのフィルタを使用する必要がある。
《小数画素精度を実現する補間フィルタ》
図9は、図2に示した動きベクトル検出部109と動き補償部110で、第1と第2と第3と第4の動きベクトル検出部109_1、109_2、109_3、109_4が小数画素精度で動きベクトルを検出し、第1と第2と第3と第4の動き補償部110_1、110_2、110_3、110_4が小数画素精度で動き補償予測信号を生成するための補間フィルタの構成を示す図である。
図9に示すように補間フィルタは、8タップのデジタルフィルタによって構成されている。従って、図9に示した補間フィルタとしての8タップのデジタルフィルタは、8個の整数画素位置の画素値を格納する8個の画素レジスタ11、12…18と、8個のタップ係数を格納する8個のタップ係数レジスタ21、22…28と、8個のデジタル乗算器31、32…38と、1個の加算器40とを含んでいる。
第1画素レジスタ11に格納された第1整数画素位置の第1画素値と、第1タップ係数レジスタ21に格納された第1タップ係数とが第1デジタル乗算器31によって乗算され、第1デジタル乗算器31の乗算結果は加算器40の第1入力端子に供給される。
第2画素レジスタ12に格納された第2整数画素位置の第2画素値と、第2タップ係数レジスタ22に格納された第2タップ係数とが第2デジタル乗算器32によって乗算され、第2デジタル乗算器32の乗算結果は加算器40の第2入力端子に供給される。
以下これと同様にして、第8画素レジスタ18に格納された第8整数画素位置の第8画素値と第8タップ係数レジスタ28に格納された第8タップ係数とが第8デジタル乗算器38によって乗算されて、第8デジタル乗算器38の乗算結果は加算器40の第8入力端子に供給される。
このように、加算器40は8個のデジタル乗算器31、32…38のそれぞれの乗算結果を加算することで、小数画素精度の位置の画素値を示す出力信号を生成するものである。
《補間フィルタの動作》
図10は、実施の形態2による小数画素精度の位置の画素値を生成する図9に示した補間フィルタの動作を説明する図である。
図10に示すように、第1画素レジスタ11に格納された第1整数画素位置の第1画素値(P(x−3.5,y))と、第1タップ係数レジスタ21に格納された第1タップ係数(−1)とが、第1デジタル乗算器31によって乗算される。
第2画素レジスタ12に格納された第2整数画素位置の第2画素値(P(x−2.5,y))と、第2タップ係数レジスタ22に格納された第2タップ係数(4)とが、第2デジタル乗算器32によって乗算される。
第3画素レジスタ13に格納された第3整数画素位置の第3画素値(P(x−1.5,y))と、第3タップ係数レジスタ23に格納された第3タップ係数(−11)とが、第3デジタル乗算器33によって乗算される。
第4画素レジスタ14に格納された第4整数画素位置の第4画素値(P(x−0.5,y))と、第4タップ係数レジスタ24に格納された第4タップ係数(40)とが、第3デジタル乗算器34によって乗算される。
第5画素レジスタ15に格納された第5整数画素位置の第5画素値(P(x+0.5,y))と、第5タップ係数レジスタ25に格納された第5タップ係数(40)とが、第5デジタル乗算器35によって乗算される。
第6画素レジスタ16に格納された第6整数画素位置の第6画素値(P(x+1.5,y))と、第6タップ係数レジスタ26に格納された第6タップ係数(−11)とが、第6デジタル乗算器36によって乗算される。
第7画素レジスタ17に格納された第7整数画素位置の第7画素値(P(x+2.5,y))と、第7タップ係数レジスタ27に格納された第7タップ係数(4)とが、第7デジタル乗算器37によって乗算される。
第8画素レジスタ18に格納された第8整数画素位置の第8画素値(P(x+3.5,y))と、第8タップ係数レジスタ28に格納された第8タップ係数(−1)とが、第8デジタル乗算器38によって乗算される。
加算器40による8個のデジタル乗算器31、32…38の8個の乗算結果の加算により、第4整数画素位置と第5整数画素位置との中間位置にある小数画素精度の位置の画素値(P(x,y))を示す出力信号を加算器40の出力端子から生成することが可能となる。
実施の形態2による小数画素精度の位置の画素値を生成する図9の補間フィルタは、8タップのデジタルフィルタによって構成されている。従って、図10に示すように、中間位置にある小数画素精度の位置の画素値(P(x,y))の左側の3.5タップの位置と右側の3.5タップの位置に、第1整数画素位置の第1画素値(P(x−3.5,y))と第8整数画素位置の第8画素値(P(x+3.5,y))とがそれぞれ配置されている。
実施の形態2による図9に示した補間フィルタは、例えば水平方向に4096画素が配置され、垂直方向に2048画素が配置された超高精細の画面で、水平方向に8タップのデジタルフィルタ動作を実行した後に垂直方向にも8タップのデジタルフィルタ動作を実行するものである。
《小数画素精度を使用する小数探索範囲》
図11は、符号化対象であるプレディクションユニット(PU)がブロックBL3であり、動き補償の単位が4画素×4画素である場合に、実施の形態2による図9に示した補間フィルタから生成される小数画素精度の位置の画素値を使用して動きベクトルの検出と動き補償予測信号の生成とが可能な小数探索範囲Fractional Search Areaを示す図である。
図11に示すように、小数探索範囲Fractional Search Areaは、4画素×4画素の大きさを持つ符号化対象であるプレディクションユニット(PU)を中心にして上下左右に11画素×11画素の大きさを有するものである。すなわち、4画素×4画素の大きさを持ったプレディクションユニット(PU)の左端の1個の画素の左側に3.5個分の画素が存在して、プレディクションユニット(PU)の右端の1個の画素の右側に3.5個分の画素が存在する。同様に、4画素×4画素の大きさを持ったプレディクションユニット(PU)の上端の1個の画素の上側に3.5個分の画素が存在し、プレディクションユニット(PU)の下端の1個の画素の下側に3.5個分の画素が存在する。
図12は、図7と同様に、符号化対象であるプレディクションユニット(PU)がタイル境界線TBに位置するブロックBL3である場合に、実施の形態2による図9に示した補間フィルタから生成される小数画素精度の位置の画素値を用いた探索が可能な小数探索範囲Fractional Search Areaを示す図である。
図12には、実施の形態1による動画像符号化装置1により探索される整数画素精度の探索範囲Search Areaが参考のために示されている。特に、図12に示された2個の小数探索範囲Fractional Search Areaは、11画素×11画素の大きさの一部分の画素が符号化対象であるブロックBL3を含んだ第1タイルTile_1と異なる他の第2タイルTile_2もしくは第4タイルTile_4の画素値を含むものである。従って、図12において符号化対象であるブロックBL3を含んだ第1タイルTile_1からタイル境界線TBを越えて他のタイルTile_2、3、4に含まれる参照画像を参照することで、画質が良好(OK)となる範囲が、図7における、画質が良好(OK)な範囲よりも拡大されることが理解される。すなわち、図12において符号化対象であるブロックBL3を含む第1タイルTile_1と同一のタイルに含まれる参照画像を参照することで、画質が不良(NG)となる範囲が、図7における、画質が不良(NG)な範囲よりも縮小されるものである。
《処理フロー》
図13は、図9乃至図12に示した実施の形態2による動画像符号化装置1が、タイル境界に位置する動画像信号をインター予測により符号化する際に、タイル境界を越えて他のタイルに含まれる参照画像を優先的に選択して参照する処理フローを説明する図である。
図13に示した実施の形態2による処理フローが図8に示した実施の形態1による処理フローと相違するのは、ステップSTEP21とステップSTEP22とが追加された点である。
ステップSTEP21では、図11に示す、11画素×11画素の大きさを有し探索位置に位置された小数探索範囲Fractional Search Areaが、タイル境界線TBを越えて複数のタイルの画素値を含むか否かが判定される。この判定結果が「YES」の場合にはステップSTEP22に移行し、この判定結果が「NO」の場合にはステップ13に直接移行する。
ステップSTEP22では、探索位置の小数探索範囲Fractional Search Areaがタイル境界線TBに位置しているので、小さな重み係数値Wg_Vが設定されるものである。
その結果、図13の実施の形態2による処理フローによれば、図12に示したような2個の小数探索範囲Fractional Search Areaが優先的に選択されるものである。
以上、本発明者によってなされた発明を種々の実施の形態に基づいて具体的に説明したが、本発明はそれに限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは言うまでもない。
例えば、本発明は、規格H.265(HEVC)に準拠して動画像を符号化処理することのみに限定されるものではない。
すなわち、本発明は、64×64画素のサイズを有する最大コーディングユニット(LCU)を処理単位とする規格H.265(HEVC)以外にも更に大きなサイズの最大コーディングユニット(LCU)を処理単位とする将来出現する規格に対応する符号化処理に適用することが可能である。
本発明は、1つのピクチャーが並列処理可能であり、それぞれ四角形の画素領域を含む複数のタイルに分割可能である動画像の符号化処理に広く適用することが可能である。
1…動画像符号化装置
100…コーディングユニットバッファ
101…減算器
102…周波数変換部
103…量子化部
104…逆量子化部
105…逆周波数変換部
106…加算器
107…フィルタユニット
108…フレームメモリ
109…動きベクトル検出部
110…動き補償部
111…111
112…イントラ予測部
113…セレクタ部
114…エントロピーエンコーダ
115…ビデオバッファ
109_0…タイル分割部
109_1…第1動きベクトル検出部
109_2…第2動きベクトル検出部
109_3…第3動きベクトル検出部
109_4…第4動きベクトル検出部
109_1_1…データ分離部
109_1_2…絶対値演算部
109_1_3…タイル判定部
109_1_4…加算部
109_1_5…最適ブロック判定部
109_1_6…最適位置記憶部

Claims (12)

  1. 符号化されるべき動画像信号の符号化画像領域と最も類似する参照画像領域をフレームメモリから読み出される参照画像にて動きベクトル検出によって探索することによって、動きベクトルが生成され、
    前記動きベクトルと前記フレームメモリから読み出される前記参照画像とから、動き補償によって動き補償予測信号が生成され、
    前記動画像信号と前記動き補償予測信号との減算によって、予測残差が生成され、
    前記減算によって生成された前記予測残差の変換処理と量子化処理と逆量子化処理と逆変換処理の処理結果と前記動き補償によって生成される前記動き補償予測信号との加算によって、前記フレームメモリに格納される前記参照画像が生成される動画像符号化装置であって、
    前記動きベクトル検出を実行する動きベクトル検出部は、少なくとも第1の動きベクトル検出部と第2の動きベクトル検出部とを含み、
    前記第1の動きベクトル検出部の一方の入力端子と前記第2の動きベクトル検出部の一方の入力端子とに、前記動画像信号の1枚のピクチャーに含まれる第1のタイルの動画像信号と第2のタイルの動画像信号とがそれぞれ供給され、
    前記第1の動きベクトル検出部の他方の入力端子と前記第2の動きベクトル検出部の他方の入力端子とに、前記フレームメモリから読み出される前記参照画像が供給され、
    前記第1の動きベクトル検出部の出力端子と前記第2の動きベクトル検出部の出力端子から、第1の動きベクトルと第2の動きベクトルとが並列に生成され、
    前記動き補償を実行する動き補償部は、少なくとも第1の動き補償部と第2の動き補償部とを含み、
    前記第1の動き補償部の一方の入力端子と前記第2の動き補償部の一方の入力端子とに、前記第1の動きベクトルと前記第2の動きベクトルとがそれぞれ供給され、
    前記第1の動き補償部の他方の入力端子と前記第2の動き補償部の他方の入力端子とに、前記フレームメモリから読み出される前記参照画像が供給され、
    前記第1の動き補償部の出力端子と前記前記第2の動き補償部の出力端子から、前記動き補償予測信号としての第1の動き補償予測信号と第2の動き補償予測信号とが並列に生成され、
    前記第1の動きベクトル検出部が、前記第1のタイルに含まれる多数の動画像信号のうちで前記第1のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって処理する第1タイル境界処理を実行して、
    前記第1タイル境界処理の実行の際に、前記フレームメモリから読み出される前記参照画像のうち前記第1のタイルとは異なる別のタイルに含まれる参照画像を優先的に参照するように、前記第1の動きベクトル検出部が前記第1の動きベクトルを生成して、
    前記第2の動きベクトル検出部が、前記第2のタイルに含まれる多数の動画像信号のうちで前記第2のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって処理する第2タイル境界処理を実行して、
    前記第2タイル処理境界の実行の際に、前記フレームメモリから読み出される前記参照画像のうち前記第2のタイルとは異なる別のタイルに含まれる参照画像を優先的に参照するように、前記第2の動きベクトル検出部が前記第2の動きベクトルを生成する
    動画像符号化装置。
  2. 請求項1において、
    前記第1の動きベクトル検出部は、前記第1の動きベクトル検出部の前記一方の入力端子と前記他方の入力端子にそれぞれ供給される前記第1のタイルの動画像信号のアドレス情報と前記参照画像のアドレス情報と前記タイル境界に関する情報に従って、前記第1の動きベクトルを生成して、
    前記第2の動きベクトル検出部は、前記第2の動きベクトル検出部の前記一方の入力端子と前記他方の入力端子にそれぞれ供給される前記第2のタイルの動画像信号のアドレス情報と前記参照画像のアドレス情報と前記タイル境界に関する情報に従って、前記第2の動きベクトルを生成する
    動画像符号化装置。
  3. 請求項2において、
    前記第1の動きベクトル検出部と前記第2の動きベクトル検出部とは、整数画素位置の画素値の補間を実行する複数タップの補間フィルタを使用することによって小数画素精度で前記第1の動きベクトルと前記第2の動きベクトルとを生成可能とされる
    動画像符号化装置。
  4. 請求項3において、
    前記第1の動きベクトル検出部は、前記小数画素精度によって設定される前記動きベクトル検出の小数探索範囲に、前記第1の動きベクトルを生成する際に前記第1のタイルとは異なる前記別のタイルに含まれる前記参照画像を含むことが可能であり、
    前記第2の動きベクトル検出部は、前記小数画素精度によって設定される前記動きベクトル検出の小数探索範囲に、前記第2の動きベクトルを生成する際に前記第2のタイルとは異なる前記別のタイルに含まれる前記参照画像を含むことが可能である
    動画像符号化装置。
  5. 請求項4において、
    前記第1の動きベクトル検出部の前記一方の入力端子と前記第2の動きベクトル検出部の前記一方の入力端子とにそれぞれ供給される前記第1のタイルの動画像信号と前記第2のタイルの動画像信号は、規格H.265(HEVC)に準拠して分割される複数のタイルの動画像信号である
    動画像符号化装置。
  6. 請求項5において、
    前記第1タイル境界処理および前記第2タイル処理境界により処理される前記タイル境界の前記近傍は、前記規格H.265(HEVC)によって規定された64×64画素のサイズを有する最大コーディングユニットよりも小さな距離で前記タイル境界に位置するものである
    動画像符号化装置。
  7. 符号化されるべき動画像信号の符号化画像領域と最も類似する参照画像領域をフレームメモリから読み出される参照画像にて動きベクトル検出によって探索することによって、動きベクトルが生成され、
    前記動きベクトルと前記フレームメモリから読み出される前記参照画像とから、動き補償によって動き補償予測信号が生成され、
    前記動画像信号と前記動き補償予測信号との減算によって、予測残差が生成され、
    前記減算によって生成された前記予測残差の変換処理と量子化処理と逆量子化処理と逆変換処理の処理結果と前記動き補償によって生成される前記動き補償予測信号との加算によって、前記フレームメモリに格納される前記参照画像が生成される動画像符号化装置の動作方法であって、
    前記動きベクトル検出を実行する動きベクトル検出部は、少なくとも第1の動きベクトル検出部と第2の動きベクトル検出部とを含み、
    前記第1の動きベクトル検出部の一方の入力端子と前記第2の動きベクトル検出部の一方の入力端子とに、前記動画像信号の1枚のピクチャーに含まれる第1のタイルの動画像信号と第2のタイルの動画像信号とがそれぞれ供給され、
    前記第1の動きベクトル検出部の他方の入力端子と前記第2の動きベクトル検出部の他方の入力端子とに、前記フレームメモリから読み出される前記参照画像が供給され、
    前記第1の動きベクトル検出部の出力端子と前記第2の動きベクトル検出部の出力端子から、第1の動きベクトルと第2の動きベクトルとが並列に生成され、
    前記動き補償を実行する動き補償部は、少なくとも第1の動き補償部と第2の動き補償部とを含み、
    前記第1の動き補償部の一方の入力端子と前記第2の動き補償部の一方の入力端子とに、前記第1の動きベクトルと前記第2の動きベクトルとがそれぞれ供給され、
    前記第1の動き補償部の他方の入力端子と前記第2の動き補償部の他方の入力端子とに、前記フレームメモリから読み出される前記参照画像が供給され、
    前記第1の動き補償部の出力端子と前記前記第2の動き補償部の出力端子から、前記動き補償予測信号としての第1の動き補償予測信号と第2の動き補償予測信号とが並列に生成され、
    前記第1の動きベクトル検出部が、前記第1のタイルに含まれる多数の動画像信号のうちで前記第1のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって処理する第1タイル境界処理を実行して、
    前記第1タイル境界処理の実行の際に、前記フレームメモリから読み出される前記参照画像のうち前記第1のタイルとは異なる別のタイルに含まれる参照画像を優先的に参照するように、前記第1の動きベクトル検出部が前記第1の動きベクトルを生成して、
    前記第2の動きベクトル検出部が、前記第2のタイルに含まれる多数の動画像信号のうちで前記第2のタイルと他のタイルのタイル境界またはその近傍に位置する動画像信号をインター予測によって処理する第2タイル境界処理を実行して、
    前記第2タイル処理境界の実行の際に、前記フレームメモリから読み出される前記参照画像のうち前記第2のタイルとは異なる別のタイルに含まれる参照画像を優先的に参照するように、前記第2の動きベクトル検出部が前記第2の動きベクトルを生成する
    動画像符号化装置の動作方法。
  8. 請求項7において、
    前記第1の動きベクトル検出部は、前記第1の動きベクトル検出部の前記一方の入力端子と前記他方の入力端子にそれぞれ供給される前記第1のタイルの動画像信号のアドレス情報と前記参照画像のアドレス情報と前記タイル境界に関する情報に従って、前記第1の動きベクトルを生成して、
    前記第2の動きベクトル検出部は、前記第2の動きベクトル検出部の前記一方の入力端子と前記他方の入力端子にそれぞれ供給される前記第2のタイルの動画像信号のアドレス情報と前記参照画像のアドレス情報と前記タイル境界に関する情報に従って、前記第2の動きベクトルを生成する
    動画像符号化装置の動作方法。
  9. 請求項8において、
    前記第1の動きベクトル検出部と前記第2の動きベクトル検出部とは、整数画素位置の画素値の補間を実行する複数タップの補間フィルタを使用することによって小数画素精度で前記第1の動きベクトルと前記第2の動きベクトルとを生成可能とされる
    動画像符号化装置の動作方法。
  10. 請求項9において、
    前記第1の動きベクトル検出部は、前記小数画素精度によって設定される前記動きベクトル検出の小数探索範囲に、前記第1の動きベクトルを生成する際に前記第1のタイルとは異なる前記別のタイルに含まれる前記参照画像を含むことが可能であり、
    前記第2の動きベクトル検出部は、前記小数画素精度によって設定される前記動きベクトル検出の小数探索範囲に、前記第2の動きベクトルを生成する際に前記第2のタイルとは異なる前記別のタイルに含まれる前記参照画像を含むことが可能である
    動画像符号化装置の動作方法。
  11. 請求項10において、
    前記第1の動きベクトル検出部の前記一方の入力端子と前記第2の動きベクトル検出部の前記一方の入力端子とにそれぞれ供給される前記第1のタイルの動画像信号と前記第2のタイルの動画像信号は、規格H.265(HEVC)に準拠して分割される複数のタイルの動画像信号である
    動画像符号化装置の動作方法。
  12. 請求項11において、
    前記第1タイル境界処理および前記第2タイル処理境界により処理される前記タイル境界の前記近傍は、前記規格H.265(HEVC)によって規定された64×64画素のサイズを有する最大コーディングユニットよりも小さな距離で前記タイル境界に位置するものである
    動画像符号化装置の動作方法。
JP2013142364A 2013-07-08 2013-07-08 動画像符号化装置およびその動作方法 Active JP6120707B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013142364A JP6120707B2 (ja) 2013-07-08 2013-07-08 動画像符号化装置およびその動作方法
EP14175656.9A EP2824931B1 (en) 2013-07-08 2014-07-03 Video encoder and method for interprediction at boundaries of tiles
US14/324,117 US9363527B2 (en) 2013-07-08 2014-07-04 Video encoder and operation method thereof
CN201410320754.5A CN104284197B (zh) 2013-07-08 2014-07-07 视频编码器及其操作方法
US15/149,648 US9712842B2 (en) 2013-07-08 2016-05-09 Video encoder and operation method thereof
US15/618,316 US9877044B2 (en) 2013-07-08 2017-06-09 Video encoder and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013142364A JP6120707B2 (ja) 2013-07-08 2013-07-08 動画像符号化装置およびその動作方法

Publications (2)

Publication Number Publication Date
JP2015015666A true JP2015015666A (ja) 2015-01-22
JP6120707B2 JP6120707B2 (ja) 2017-04-26

Family

ID=51176133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013142364A Active JP6120707B2 (ja) 2013-07-08 2013-07-08 動画像符号化装置およびその動作方法

Country Status (4)

Country Link
US (3) US9363527B2 (ja)
EP (1) EP2824931B1 (ja)
JP (1) JP6120707B2 (ja)
CN (1) CN104284197B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191724A (ja) * 2018-04-20 2019-10-31 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2020256324A1 (ko) * 2019-06-18 2020-12-24 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5323252B2 (ja) * 2010-03-30 2013-10-23 株式会社東芝 動画像符号化方法、復号化方法、符号化装置および復号化装置
US9317896B2 (en) * 2010-07-09 2016-04-19 Samsung Electronics Co., Ltd. Image interpolation method and apparatus
JP6120707B2 (ja) * 2013-07-08 2017-04-26 ルネサスエレクトロニクス株式会社 動画像符号化装置およびその動作方法
GB201512278D0 (en) * 2015-07-14 2015-08-19 Apical Ltd Hybrid neural network
JP6626319B2 (ja) * 2015-11-18 2019-12-25 キヤノン株式会社 符号化装置、撮像装置、符号化方法、及びプログラム
KR20180134853A (ko) * 2016-05-06 2018-12-19 삼성전자주식회사 인터 프레임의 세그먼트를 부호화하기 위한 방법 및 전자 장치
JP2018032949A (ja) * 2016-08-23 2018-03-01 キヤノン株式会社 動きベクトル検出装置およびその制御方法
CN108155969B (zh) * 2016-12-02 2021-02-19 赛灵思公司 一种针对变长编码数据的解码电路
US11228767B2 (en) 2017-12-13 2022-01-18 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US11044466B2 (en) 2018-01-26 2021-06-22 Samsung Electronics Co., Ltd. Image processing device
CN110324637B (zh) 2018-03-29 2023-11-17 华为技术有限公司 一种双向帧间预测方法及装置
US11606574B2 (en) * 2019-05-31 2023-03-14 Apple Inc. Efficient coding of source video sequences partitioned into tiles
JP7324065B2 (ja) * 2019-06-26 2023-08-09 キヤノン株式会社 動きベクトル検出装置、撮像装置、動きベクトル検出方法、及びプログラム
CN112970252A (zh) * 2020-07-24 2021-06-15 深圳市大疆创新科技有限公司 视频编解码的方法和装置
US20230403404A1 (en) * 2022-06-10 2023-12-14 Qualcomm Incorporated Storing misaligned reference pixel tiles

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011009887A (ja) * 2009-06-24 2011-01-13 Nippon Hoso Kyokai <Nhk> 画像補正装置及びそのプログラム
WO2013001730A1 (ja) * 2011-06-30 2013-01-03 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
WO2013063094A1 (en) * 2011-10-24 2013-05-02 Qualcomm Incorporated Grouping of tiles for video coding

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081209A (en) * 1998-11-12 2000-06-27 Hewlett-Packard Company Search system for use in compression
JP4293740B2 (ja) 2001-05-29 2009-07-08 株式会社リコー 画像圧縮装置
JP2004032799A (ja) 2003-07-28 2004-01-29 Ricoh Co Ltd 動画像処理装置および動画像処理方法
US8411749B1 (en) * 2008-10-07 2013-04-02 Zenverge, Inc. Optimized motion compensation and motion estimation for video coding
WO2011004577A1 (ja) * 2009-07-06 2011-01-13 パナソニック株式会社 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法、プログラムおよび集積回路
CN103039075B (zh) * 2010-05-21 2015-11-25 Jvc建伍株式会社 图像编码装置、图像编码方法、以及图像解码装置、图像解码方法
JP2012028863A (ja) 2010-07-20 2012-02-09 Hitachi Kokusai Electric Inc 動画像符号化装置
US8654860B2 (en) 2010-11-01 2014-02-18 Mediatek Inc. Apparatus and method for high efficiency video coding using flexible slice structure
US8923633B2 (en) * 2011-03-07 2014-12-30 Panasonic Intellectual Property Corporation Of America Image decoding method, image coding method, image decoding apparatus, and image coding apparatus
US10349077B2 (en) * 2011-11-21 2019-07-09 Canon Kabushiki Kaisha Image coding apparatus, image coding method, image decoding apparatus, image decoding method, and storage medium
JP6120707B2 (ja) * 2013-07-08 2017-04-26 ルネサスエレクトロニクス株式会社 動画像符号化装置およびその動作方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011009887A (ja) * 2009-06-24 2011-01-13 Nippon Hoso Kyokai <Nhk> 画像補正装置及びそのプログラム
WO2013001730A1 (ja) * 2011-06-30 2013-01-03 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
WO2013063094A1 (en) * 2011-10-24 2013-05-02 Qualcomm Incorporated Grouping of tiles for video coding

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ARILD FULDSETH ET AL.: "Tiles for managing computational complexity of video encoding and decoding", PICTURE CODING SYMPOSIUM (PCS 2012), JPN6016047922, May 2012 (2012-05-01), pages 389 - 392, ISSN: 0003514708 *
ARILD FULDSETH ET AL.: "Tiles", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-E408_r1, JPN6013034641, March 2011 (2011-03-01), pages 1 - 14, ISSN: 0003514706 *
ARILD FULDSETH ET AL.: "Tiles", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F335, JPN6013022308, July 2011 (2011-07-01), pages 1 - 15, XP055721455, ISSN: 0003514707 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191724A (ja) * 2018-04-20 2019-10-31 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7077115B2 (ja) 2018-04-20 2022-05-30 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2020256324A1 (ko) * 2019-06-18 2020-12-24 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Also Published As

Publication number Publication date
JP6120707B2 (ja) 2017-04-26
US20170280155A1 (en) 2017-09-28
US9877044B2 (en) 2018-01-23
EP2824931A1 (en) 2015-01-14
US9363527B2 (en) 2016-06-07
CN104284197B (zh) 2018-11-23
US9712842B2 (en) 2017-07-18
US20160255365A1 (en) 2016-09-01
US20150010082A1 (en) 2015-01-08
EP2824931B1 (en) 2020-04-01
CN104284197A (zh) 2015-01-14

Similar Documents

Publication Publication Date Title
JP6120707B2 (ja) 動画像符号化装置およびその動作方法
US10356437B2 (en) Moving image encoding apparatus including padding processor for adding padding data to moving image and operation method thereof
US8184699B2 (en) Method of reducing computations in intra-prediction and mode decision processes in a digital video encoder
KR102606414B1 (ko) 디블로킹 필터의 경계 강도를 도출하는 인코더, 디코더 및 대응 방법
US10158869B2 (en) Parallel video decoding processing apparatus and operating method thereof
JP7438196B2 (ja) ビデオコーディングのためのメモリ消費を低減した適応ループフィルタパラメータの時間予測
CN113196783B (zh) 去块效应滤波自适应的编码器、解码器及对应方法
US20110135003A1 (en) Uni-modal based fast half-pel and fast quarter-pel refinement for video encoding
US20070133689A1 (en) Low-cost motion estimation apparatus and method thereof
JP6234770B2 (ja) 動画像復号処理装置、動画像符号化処理装置およびその動作方法
CN112352435B (zh) 用于视频编解码的环内去块滤波器设备和方法
CN114079782A (zh) 视频图像重建方法、装置、计算机设备及存储介质
Murmu Fast motion estimation algorithm in H. 264 standard

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170328

R150 Certificate of patent or registration of utility model

Ref document number: 6120707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150