JP6137817B2 - 画像符号化装置、画像符号化方法及びプログラム - Google Patents

画像符号化装置、画像符号化方法及びプログラム Download PDF

Info

Publication number
JP6137817B2
JP6137817B2 JP2012263126A JP2012263126A JP6137817B2 JP 6137817 B2 JP6137817 B2 JP 6137817B2 JP 2012263126 A JP2012263126 A JP 2012263126A JP 2012263126 A JP2012263126 A JP 2012263126A JP 6137817 B2 JP6137817 B2 JP 6137817B2
Authority
JP
Japan
Prior art keywords
luminance
color difference
prediction mode
encoding
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012263126A
Other languages
English (en)
Other versions
JP2014110483A5 (ja
JP2014110483A (ja
Inventor
秀昭 服部
秀昭 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012263126A priority Critical patent/JP6137817B2/ja
Priority to US14/092,075 priority patent/US20140153642A1/en
Priority to EP13195109.7A priority patent/EP2739058A3/en
Publication of JP2014110483A publication Critical patent/JP2014110483A/ja
Publication of JP2014110483A5 publication Critical patent/JP2014110483A5/ja
Application granted granted Critical
Publication of JP6137817B2 publication Critical patent/JP6137817B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Description

本発明は画像符号化装置、画像符号化方法及びプログラムに関する。
動画像の圧縮記録の符号化方式として、H.264/MPEG−4 AVC(以下H.264)が知られている。
さらに、近年、H.264の後継としてさらに高効率な符号化方式の国際標準化を行う活動が開始され、JCT−VC(Joint Collaborative Team on Video Coding)がISO/IECとITU−Tの間で設立された。このJCT−VCでは、High Efficiency Video Coding符号化方式(以下、HEVC)の標準化が進められている(非特許文献1)。
HEVCにおいては符号化効率を向上させるために、画面内における画素間の相関を利用して画面内予測(以下、イントラ予測と記す)を行い、予測残差を符号化する、イントラ予測符号化が採用されている(非特許文献1の8.4章)。このイントラ予測は、輝度成分のイントラ予測を行う輝度イントラ予測と、Cb成分及びCr成分の各色差成分のイントラ予測を行う色差イントラ予測とから構成される。
特開2010−251952号公報
JCT−VC 寄書 JCTVC−I1003_d4.doc インターネット< http://phenix.int−evry.fr/jct/doc_end_user/documents/9_Geneva/wg11/ >
HEVCにおいては、イントラ予測の単位である予測ブロックのサイズ(以下、予測ブロックサイズ)として、64×64画素、32×32画素、16×16画素、8×8画素または4×4画素の5種類のうち、いずれかを取り得る。尚、64×64画素は水平方向64画素、垂直方向64画素のブロックを示し、本発明の実施形態においては、これを以下、64×64画素と表記する。また、画素数が変化しても同様である。
さらに、HEVCにおいては、画像の輝度成分のイントラ予測モード(以下、輝度イントラ予測モード)として、各予測ブロックサイズに対して図9に示すように35個のモードが夫々定義されている(非特許文献1の8.4.1節)。そして、HEVCにおいてイントラ予測符号化を行う場合に、当該35個のモードから最適な輝度イントラ予測モードを選択しないと、予測誤差が大きくなり、符号化効率が低下してしまう。
HEVCにおいて、画像の各色差成分(Cb成分、及びCr成分)のイントラ予測モード(以下、色差イントラ予測モード)は、輝度イントラ予測モードの35個のモードに比べると選択可能なモード数が制限されている。即ち、色差イントラ予測モードは、輝度イントラ予測モードに基づいて、Planarモード/DCモード/水平モード/垂直モード/輝度参照モード/モード34(図9)の6個のモードが夫々定義されている(非特許文献1の8.4.2節Table8−3)。
そして、色差イントラ予測モードとして、輝度イントラ予測モードを色差イントラ予測でそのまま使用する「輝度参照モード」を使用して符号化効率を向上させるためには、各色差成分にとって最適なモードが、輝度イントラ予測モードとして選択される必要がある。
従来、輝度イントラ予測モード、及び色差イントラ予測モードを決定する方法としては、輝度成分のみを考慮して輝度イントラ予測モードを決定する方法が提案されている(特許文献1)。特許文献1では、符号化ブロック内に複数存在する各予測ブロックについて、色差成分を考慮せずに、輝度成分のみを考慮して輝度イントラ予測モードを決定している。
しかし、輝度成分のみを考慮して輝度イントラ予測モードを決定してしまうと、次のような課題があった。即ち、輝度成分のみを考慮して輝度イントラ予測モードを決定する場合、色差成分を考慮して輝度イントラ予測モードを決定した場合と比較して、HEVCの輝度参照モードによる色差成分イントラ予測において、色差成分の符号化効率が低下してしまう。また、この色差成分の符号化効率の低下は、色差成分の画素サンプル数(以下、色差サンプル数)が輝度成分の画素サンプル数(以下、輝度サンプル数)と同等(4:2:2)もしくはそれ以上(4:4:4)の画像が入力された場合に特に顕著となる。尚、4:2:2及び4:4:4は、デジタルコンポーネント映像信号の入力画像フォーマットを表現する一般的な呼び方(以下、入力画像フォーマットと記す)であり、輝度成分(Y)と色差成分(Cb、及びCr)のサンプリングの周波数の比率を表している。
本発明は上記課題を鑑みて提案されたものであり、色差成分の符号化効率を考慮して輝度イントラ予測モードを決定することを目的とする。
かかる課題を解決するため、本発明の画像符号化装置は、下記の構成を有する。即ち、符号化対象ブロックの色差成分の符号化において選択され得る複数の色差の予測モードの各々の評価を表す複数の第1の値を取得する第1の取得手段と、前記符号化対象ブロックの輝度成分の符号化において選択され得る複数の輝度の予測モードの各々の評価を表す複数の第2の値を取得する第2の取得手段と、記複数の輝度の予測モードのうち前記符号化対象ブロックの輝度成分を符号化する場合に用いる輝度の予測モードを決定する決定手段とを有し、前記第1の値は、前記色差の予測モードを用いて前記符号化対象ブロックの前記色差成分を符号化して算出される符号量に係る値であり、前記第2の値は、前記輝度の予測モードを用いて前記符号化対象ブロックの前記輝度成分を符号化して算出される符号量に係る値であり、前記決定手段は、各予測モードにおける前記第1の値と前記第2の値とを合計した値に基づいて、前記複数の輝度の予測モードから、前記符号化対象ブロックの輝度成分を符号化する場合に用いる輝度の予測モードを決定する。
本発明により、色差成分を考慮して輝度イントラ予測モードを決定することができる。このため、本発明により、輝度成分のみを考慮して輝度イントラ予測モードを決定する場合と比較して、色差成分の符号化効率を向上させ、符号量を低減させることが可能である。
実施形態1及び実施形態2の画像符号化装置の構成を示す図 実施形態1の符号化ブロック、予測ブロック、及び参照サンプルを示す図 実施形態1の輝度色差統合予測モード判定部の構成を示す図 実施形態1のイントラ予測モードを決定するフローチャートを示す図 実施形態1の輝度色差統合予測モード判定部におけるイントラ予測モード探索処理のタイミングチャートを示す図 実施形態1のイントラ予測モードの決定例を示す図 実施形態2の輝度色差統合予測モード判定部の構成を示す図 実施形態3の画像符号化装置の構成を示す図 HEVCのイントラ予測モードを表す図 本発明の符号化方式変換装置に適用可能なコンピュータのハードウェア構成例を示すブロック図
<実施形態1>
本実施形態においては、一枚以上の入力画像を32×32画素の符号化ブロックに分割し、当該符号化ブロック単位で符号化が行われる。即ち、本実施形態においては、符号化ブロックサイズは32×32画素とする。また、本実施形態は、画面内予測(以下、イントラ予測)を用いて符号化する、Iスライスのみを符号化対象とすることを前提としている。即ち、動きベクトルを伴って画面間予測(以下、インター予測)を用いて符号化する、Pスライス、及びBスライスは符号化対象としないものとする。
以下、本発明の実施形態1における画像符号化装置の動作について図1を用いて説明する。
全体制御部130は、画像符号化装置内の各処理部の制御、及び各処理部間のパラメータ伝達を行う。尚、図1において、全体制御部130と画像符号化装置内の各処理部との間の結線を省略している。そして、全体制御部130は画像符号化装置内の各処理部の制御、及び各処理部間のパラメータの読み書きを、パラメータ信号線またはレジスタバスのいずれかを通じて行うことが可能である。また、本実施形態において、図1の全体制御部130は、画像符号化装置内に設置されているが、本発明はこれに限定されない。即ち、全体制御部130は、当該画像符号化装置外に設置され、当該画像符号化装置内の各処理部の制御、及び各処理部間のパラメータの読み書きを、パラメータ信号線またはレジスタバスのいずれかを通じて行ってもよい。
ブロックバッファ101には、輝度成分の画素群(輝度サンプルと称す)、及び色差成分の画素群(色差サンプルと称す)から成る1つもしくは複数の符号化ブロックが記録されている。
ブロックサイズ設定部102は、ブロックバッファ101に記録された1つもしくは複数の符号化ブロックから1符号化ブロック毎に符号化対象である符号化対象ブロックを読み込む。そして、ブロックサイズ設定部102は、読み込んだ符号化対象ブロックに対して、予め決定した予測ブロックのサイズ(予測ブロックサイズ)、及び変換ブロックのサイズ(変換ブロックサイズ)を設定する。本実施形態においては、輝度成分の予測ブロックサイズは16×16画素、各色差成分の予測ブロックサイズは8×8画素であるとする。尚、色差成分はCb成分、及びCr成分から成り、本発明の各実施形態において、各色差成分とはCb成分、及びCr成分を示す。
イントラ予測部110は、ブロックバッファ101に記録された、符号化対象ブロックの輝度サンプル及び色差サンプルを読み込む。また、イントラ予測部110は、ブロックサイズ設定部102で設定された、輝度成分、及び各色差成分の予測ブロックサイズを夫々読み込む。そして、イントラ予測部110は、輝度成分のイントラ予測モード(輝度イントラ予測モード)の候補、及び色差成分のイントラ予測モード(色差イントラ予測モード)の候補から、輝度イントラ予測モード、及び色差イントラ予測モードを夫々探索する。
以下、輝度イントラ予測モードの候補、及び色差イントラ予測モードの候補を、輝度予測モード候補、及び色差予測モード候補と称す。尚、本実施形態においてHEVCを用いて符号化する場合、輝度予測モード候補としては、図9に示す35個のモードが定義されている。また、色差予測モード候補としては、輝度イントラ予測モードに基づいて、Planarモード/DCモード/水平モード/垂直モード/輝度参照モード/モード34(図9)の6個のモードが定義されている。
尚、輝度イントラ予測モードが、Planarモード/DCモード/水平モード/垂直モードのいずれかのモードである場合は、色差イントラ予測モードはPlanarモード/DCモード/水平モード/垂直モード/輝度参照モードから選択することができる。また、輝度イントラ予測モードが、Planarモード/DCモード/水平モード/垂直モード以外のモードである場合は、色差イントラ予測モードはPlanarモード/DCモード/水平モード/垂直モード/モード34から選択することができる。即ち、色差イントラ予測モードとして、Planarモード/DCモード/水平モード/垂直モードのいずれかを使用する場合には、色差イントラ予測の符号化効率は輝度イントラ予測モードに依存しない。
イントラ予測部110内の構成要素の動作について、以下に述べる。
輝度予測モード探索部1101(第一のイントラ予測部)は、各輝度予測モード候補に対応して、輝度成分の参照ブロック(参照輝度ブロック)の生成、及び輝度成分の予測残差ブロック(輝度予測残差ブロック)の算出を夫々行う処理部である。同様に、色差予測モード探索部1103(第二のイントラ予測部)は、各色差予測モード候補に対応して、色差成分の参照ブロック(参照色差ブロック)の生成、及び色差成分の予測残差ブロック(色差予測残差ブロック)の算出を夫々行う処理部である。イントラ予測モードの候補(輝度予測モード候補、及び色差予測モード候補)から、符号化で使用するイントラ予測モード(輝度イントラ予測モード、及び色差イントラ予測モード)を探索するアルゴリズムについては後述する。
まず、輝度予測モード探索部1101は、輝度サンプルバッファ1102に記録されている、イントラ予測に必要な輝度成分の参照画素群(参照輝度サンプルと称す)を入力する。
輝度サンプルバッファ1102に記録されている、イントラ予測に必要な参照輝度サンプルを図2に示す。尚、当該参照輝度サンプルは、輝度イントラ予測部1106で再構成された輝度画素群から成る再構成輝度ブロックに基づくが、輝度イントラ予測部1106の処理については後述する。
本実施形態のように、符号化ブロックサイズが32×32画素の場合、符号化対象ブロックに隣接する符号化ブロック(隣接符号化ブロック)内の、以下に記す所定の輝度画素群(図2(a)の網かけ部分)が参照輝度サンプルとして必要となる。
・符号化対象ブロックの上方及び右斜め上に隣接する、隣接符号化ブロックの下端の64画素(p[0、−1]〜p[63、−1])
・符号化対象ブロックの左方に隣接する、隣接符号化ブロックの右端の32画素(p[−1、0]〜p[−1、31])
・符号化対象ブロックの左斜め上の1画素(p[−1、−1])
また、本実施形態のように、符号化対象ブロックの予測ブロックサイズが16×16画素の場合、同一符号化ブロック内の、以下の所定の輝度画素群(図2(b)の網掛け部分)が参照輝度サンプルとして必要となる。
・各予測ブロックの右端の各15画素(r[15、0]〜r[15、14]、r[31、0]〜r[31、14]、r[15、16]〜r[15、30]、r[31、16]〜r[31、30])
・予測ブロックの下端の各15画素(r[0、15]〜r[14、15]、r[16、15]〜r[30、15]、r[0、31]〜r[14、31]、r[16、31]〜r[30、31])
・予測ブロックの右斜め下の1画素(r[15、15]、r[31、15]、r[15、31]、r[31、31])
上述のように、輝度予測モード探索部1101は、隣接する符号化ブロック内の所定の輝度画素群(図2(a))と、符号化対象ブロック内の所定の輝度画素群(図2(b))とを、参照輝度サンプルとして輝度サンプルバッファ1102から入力する。図2は輝度成分におけるイントラ予測に必要である参照輝度サンプルについてのみ図示したが、各色差成分におけるイントラ予測に必要である色差成分の参照画素群(参照色差サンプルと称す)についても同様である。即ち、色差予測モード探索部1103は、当該参照色差サンプルを色差サンプルバッファ1104から入力する。
次に、輝度予測モード探索部1101、及び色差予測モード探索部1103において、各輝度予測モード候補、及び各色差予測モード候補に対応して、符号化で使用する輝度イントラ予測モード、及び色差イントラ予測モードを探索するアルゴリズムを説明する。
輝度予測モード探索部1101は、輝度予測モード候補のうちの探索対象のモード(輝度探索対象モード)で使用される参照輝度サンプルを輝度サンプルバッファ1102から読み込み、参照輝度ブロックを生成する。同様に、色差予測モード探索部1103は、色差予測モード候補のうちの探索対象のモード(色差探索対象モード)で使用される参照色差サンプルを色差サンプルバッファ1104から読み込み、参照色差ブロックを生成する。当該参照輝度ブロック、及び当該参照色差ブロックは、非特許文献1においてpredSample[x、y]として記載されている。即ち、35個の各イントラ予測モードに対応する生成アルゴリズムは、非特許文献1の8.4.3.1節に記載されているので記述を省略する。
次に、輝度予測モード探索部1101は、符号化対象ブロック内の各予測ブロックに対して、輝度サンプルバッファ1102に記録された参照輝度サンプルから生成した参照輝度ブロックと、ブロックバッファ101から入力した輝度サンプルとの差分を算出する。これにより、輝度予測モード探索部1101は、符号化対象ブロック内の各予測ブロックに対して、当該参照輝度ブロックと当該輝度サンプルとの差分である輝度予測残差ブロックを生成する。同様に、色差予測モード探索部1103は、符号化対象ブロック内の各予測ブロックに対して、色差サンプルバッファ1104に記録された参照色差サンプルから生成した参照色差ブロックと、ブロックバッファ101から入力した色差サンプルとの差分を算出する。これにより、色差予測モード探索部1103は、当該参照色差ブロックと当該色差サンプルとの差分である色差予測残差ブロックを生成する。尚、本実施形態において、輝度予測残差ブロックは16×16画素、色差予測残差ブロックは各色差成分において夫々8×8画素である。
さらに、輝度予測モード探索部1101は、画像の輝度成分について生成した輝度予測残差ブロックを統合予測モード判定部1105に送出する。同様に、色差予測モード探索部1103は、各色差成分について夫々生成した各色差予測残差ブロックを統合予測モード判定部1105に送出する。
統合予測モード判定部1105は、輝度予測モード探索部1101、及び色差予測モード探索部1103から、輝度探索対象モードに対応する輝度予測残差ブロック、及び色差探索対象モードに対応する色差予測残差ブロックを夫々入力する。さらに、統合予測モード判定部1105は、輝度予測モード候補、及び色差予測モード候補に対応する輝度予測残差ブロック、及び色差予測残差ブロックの推定発生符号量に関する評価値を夫々算出する。そして、算出した各評価値に基づいて、符号化で使用する輝度イントラ予測モード、及び色差イントラ予測モードを夫々決定する。評価値の算出方法、及び輝度イントラ予測モード及び色差イントラ予測モードの決定方法については後述する。
輝度イントラ予測部1106は、統合予測モード判定部1105で決定された輝度イントラ予測モードに対応する輝度予測残差ブロックを生成し、直交変換部120へ出力する。同様に、色差イントラ予測部1107は、統合予測モード判定部1105で決定された色差イントラ予測モードに対応する色差予測残差ブロックを生成し、直交変換部120へ出力する。
以下、直交変換部120が輝度イントラ予測部1106から輝度予測残差ブロックを入力した場合の、直交変換部120、量子化部121、エントロピー符号化及び多重化部122、逆量子化部123、及び逆直交変換部124における各処理を説明する。
直交変換部120は、ブロックサイズ設定部102で設定された変換ブロック単位で、輝度イントラ予測部1106で生成された輝度予測残差ブロックを夫々直交変換し、直交変換係数を生成する。さらに、直交変換部120は、生成した直交変換係数を量子化部121に出力する。
量子化部121は、全体制御部130から入力される量子化パラメータに基づいて、直交変換部120から入力された直交変換係数の量子化を行い、量子化した直交変換係数をエントロピー符号化及び多重化部122に送出する。
エントロピー符号化及び多重化部122は、量子化部121で量子化された直交変換係数のエントロピー符号化を行う。また、エントロピー符号化及び多重化部122は、統合予測モード判定部1105で決定された輝度イントラ予測モード等ヘッダ情報のエントロピー符号化も行う。エントロピー符号化及び多重化部122は、エントロピー符号化した直交変換係数とエントロピー符号化したヘッダ情報とを多重化し、多重化したデータを符号化ストリームとして画像符号化装置外へ出力する。
逆量子化部123は、量子化部121で量子化された直交変換係数に対して逆量子化を行う。
逆直交変換部124は、逆量子化部123で逆量子化された直交変換係数に対して、直交変換部120で直交変換する際に用いたものと同一の変換ブロック単位で逆直交変換を施す。さらに、逆直交変換部124は、逆直交変換した直交変換係数を復号し、輝度予測残差ブロックを生成する。逆直交変換部124は、生成した輝度予測残差ブロックを輝度イントラ予測部1106へ送出する。
上述では、各処理部120〜124が、輝度予測残差ブロックに対して施す処理について夫々説明したが、色差予測残差ブロックに対しても同様の処理を行う。即ち、直交変換部120が色差イントラ予測部1107から色差予測残差ブロックを入力した場合、各処理部120〜124は同様に、直交変換、量子化、エントロピー符号化及び多重化、逆量子化、及び逆直交変換の処理を夫々行う。逆直交変換部124は、生成した色差予測残差ブロックを色差イントラ予測部1107へ送出する。
輝度イントラ予測部1106は、逆直交変換部124で生成された復号輝度予測残差ブロックと、輝度イントラ予測部1106で輝度予測残差ブロックの生成時に使用した参照輝度ブロックとを加算し、再構成輝度ブロックを生成する。さらに、輝度イントラ予測部1106は、図2(c)の網掛け部分に示すように、再構成輝度ブロック内の右端の画素群と下端の画素群とを再構成輝度サンプルとして輝度サンプルバッファ1102に記録する。即ち、再構成輝度サンプルは、再構成輝度ブロック内の右端の画素群(r[15、0]〜r[15、15])と下端の画素群(r[0、15]〜r[14、15])とからなる。同様にして、色差イントラ予測部1107は、逆直交変換部124で生成された復号色差予測残差ブロックと、色差イントラ予測部1107で色差予測残差ブロックの生成時に使用した参照色差ブロックとを加算し、再構成色差ブロックを生成する。さらに、色差イントラ予測部1107は、再構成色差ブロック内の右端の画素と下端の画素とを再構成色差サンプルとして色差サンプルバッファ1104に記録する。
輝度予測モード探索部1101、及び色差予測モード探索部1103におけるイントラ予測モードの探索により、及び統合予測モード判定部1105におけるイントラ予測モードを決定するアルゴリズムについて、以下に説明する。
本実施形態において、輝度予測モード探索部1101、及び色差予測モード探索部1103は、以下の順序で輝度イントラ予測モード、及び色差イントラ予測モードを探索する。尚、以下、非特許文献1の8.4.1節記載の名称を使用して説明する。
#0: Intra_Planar(モード0、Planarモード)
#1: Intra_DC(モード1、DCモード)
#2: Angular_10(モード10、水平モード)
#3: Angular_26(モード26、垂直モード)
#4: Angular_2(モード2)
#5: Angular_3(モード3)

(モード10、26を除くモード4〜モード34)

#34: Angular_34(モード34)
尚、上述したイントラ予測モードの括弧内のモード番号は図9のモード番号に対応している。例えば、Angular_10(モード10)は図9における10の方向の画素を予測に用いるモードである。
統合予測モード判定部1105は、輝度予測モード探索部1101で生成された輝度予測残差ブロック、及び色差予測モード探索部1103で生成された色差予測残差ブロックに基づいて、式1により評価値IStotal[i]を算出する。尚、統合予測モード判定部1105は、評価値IStotal[i]を、各イントラ予測モードの候補(各輝度予測モード候補、及び各色差予測モード)に対して夫々算出する。
IStotal[i]=
(Wy[i]×ISy[i])+(Wcb[i]×IScb[i])+(Wcr[i]+IScr[i])
with i=0..34 式1
式1において、iは探索対象のイントラ予測モードの候補を示しており、上記#0〜#34に対応している。例えば、ISy[2]は、輝度イントラ予測モードを水平モード(#2)とした場合の輝度予測残差ブロックに基づく評価値である。
輝度評価値ISy[i]、Cb評価値IScb[i]、及びCr評価値IScr[i]は、輝度予測残差ブロック、Cb成分予測残差ブロック、及びCr成分予測残差ブロックの推定発生符号量を示す評価値である。本実施形態では、評価値を算出する手段(評価値算出手段)として、絶対値化した予測残差を予測残差ブロック内で合計する、SAD(Sum of Absolute Difference)を使用する。また、式1においてWy[i]は輝度成分の重み、Wcb[i]はCb成分の重み、Wcr[i]はCr成分の重みを夫々示している。
式1を実現する統合予測モード判定部1105の構成を図3に示す。図3に示すように、本実施形態における統合予測モード判定部1105は、FIFO301〜303、評価値算出部304、重み付け評価部305、及び予測モード判定部306を有する。
FIFO301は、輝度予測モード探索部1101から輝度予測残差ブロックを入力し、蓄積する。同様に、FIFO302、及びFIFO303は、色差予測モード探索部1103から各色差予測残差ブロック(Cb予測残差ブロック、及びCr予測残差ブロック)を夫々入力し、蓄積する。各予測残差ブロック(輝度予測残差ブロック、Cb予測残差ブロック、及びCr予測残差ブロック)は、夫々異なるタイミングで生成されることが一般的である。このため、統合予測モード判定部1105は、各予測残差ブロックをFIFO301〜303に蓄積した後に評価値算出部304に送出する構成にすることで、同期を取ることができる。
評価値算出部304は、各FIFO301〜303から、輝度予測残差ブロック、Cb予測残差ブロック、及びCr予測残差ブロックを夫々入力する。そして、評価値算出部304は、入力した輝度予測残差ブロック、Cb予測残差ブロック、及びCr予測残差ブロックの評価値である輝度評価値ISy[i]、Cb評価値IScb[i]、Cr評価値IScr[i]を夫々算出する。評価値算出部304は、輝度評価値ISy[i]、Cb評価値IScb[i]、及びCr評価値IScr[i]を夫々異なるタイミングで算出する。このため、各成分(輝度成分、Cb成分、及びCb成分)で評価値を算出する評価値算出部を夫々用意する必要がなく、評価値算出部304を共有することが可能である。このため、評価値算出部304を有する本実施形態における画像符号化装置は、各成分で独立して評価値を算出する場合と比べて回路規模を削減することが可能である。
重み付け評価部305は、各評価値ISy[i]、IScb[i]、IScr[i]と、各重みWy[i]、Wcb[i]、Wcr[i]とを夫々重み付け(乗算)して加算することにより、評価値IStotal[i]を算出する。評価値IStotal[i]は、各イントラ予測モードの候補(各輝度予測モード候補、及び各色差予測モード候補)において、夫々算出される。
イントラ予測モード判定部306は、重み付け評価部305から各イントラ予測モード候補の評価値である評価値IStotal[i]を夫々入力し、蓄積する。全イントラ予測モード候補の中で評価値IStotal[i]が最小となるモード、即ち符号量が最小となるモードを最適なイントラ予測モードとして、輝度イントラ予測モード、及び色差イントラ予測モードを決定する。尚、イントラ予測モード判定部306は、後述するように、重み付け評価部305で決定された色差イントラ予測モードを出力することも可能である。
以下、重み付け評価部305における各重みWy[i]、Wcb[i]、Wcb[i]の決定方法、及びイントラ予測モード判定部306における輝度イントラ予測モード及び色差イントラ予測モードの決定方法について、図4のフローチャートを用いて説明する。
ステップS401において、重み付け評価部305は各重みWy[i]、Wcb[i]、Wcb[i]に対して初期値を設定する。尚、本実施形態において、各重みWy[i]、Wcb[i]、Wcb[i]の初期値は、式2〜式4のように、輝度成分と各色差成分の量子化パラメータの比に基づいた値とする。
Wy[i] = 1 式2
Wcb[i]=αcb×qp_luma/(qp_luma+qp_cb_offset) 式3
Wcr[i]=αcr×qp_luma/(qp_luma+qp_cr_offset) 式4
式3、及び式4における各パラメータについて説明する。
まず、qp_lumaは符号化対象ブロックの輝度成分の量子化パラメータである。また、qp_cb_obbset、及びqp_cr_obbsetは、各色差成分(Cb成分、及びCr成分)の量子化パラメータオフセットであり、輝度成分の量子化パラメータからのオフセット(差分値)を示す。また、αcb、及びαcrは、画像符号化装置のユーザー等により任意の値に設定することが可能なパラメータ値であり、画像の内容や用途に応じてカスタマイズすることができる。尚、重み付け評価部305は、ユーザー等が予め設定したデータ容量に基づくターゲット符号量や、ヘッダ情報の符号量に基づいてαcb、及びαcrを設定することで、各成分の符号量を調整することが可能である。また、式2〜式4に示した、各重みWy[i]、Wcb[i]、Wcb[i]の初期値、及び各パラメータ値αcb、αcrは、図1の全体制御部130によって重み付け評価部305に設定される。
ステップS402において、重み付け評価部305は、後述する色差イントラ予測をPlanarモード/DCモード/水平モード/垂直モードのいずれかのモードに決定するために閾値ThCを設定する。尚、閾値ThCは、ユーザー等により全体制御部130に設定され、さらに、全体制御部130から重み付け評価部305へ入力される。
ステップS403において、重み付け評価部305は、輝度イントラ予測モード及び色差イントラ予測モードにおける所定のモードに対応する各評価値ISy[i]、IScb[i]、IScr[i]、及びIStotal[i]を夫々算出する。尚、本実施形態において、所定のモードとは、Planarモード(#0)/DCモード(#1)/水平モード(#2)/垂直モード(#3)のことである。そして、当該所定のモード#0〜#3は、輝度イントラ予測モードに依存せずに、色差イントラ予測モードとして選択できるモードである。
ステップS404において、重み付け評価部305は、ステップS403で算出した各所定のモードにおけるCb評価値IScb[i]とCr評価値IScr[i]の和(IScb[i]+IScr[i])の最小値を算出する。尚、本実施形態において、IScb[i]+IScr[i]を色差成分評価値と称す。そして、重み付け評価部305は、算出した当該色差成分評価値の最小値と、ステップS402において設定された閾値ThCとを比較し、当該色差成分評価値の最小値が当該閾値ThC以下であるか否かを判定する。そして、当該色差成分評価値の最小値が当該閾値ThC以下である場合、ステップS405に進み、当該色差成分評価値の最小値が当該閾値ThCより大きい場合、ステップS408に進む。
尚、本実施形態において、重み付け評価部305は、色差成分評価値の最小値と、全体制御部130に設定された閾値ThCとを比較し、当該色差成分評価値の最小値が当該閾値ThC以下であるか否かを判定するが、本発明はこれに限定されない。即ち、ステップS403で算出した各所定のモードにおける色差成分評価値のうち、当該閾値ThC以下であるモードがあるかないかを判定してもよい。各所定のモードにおける色差成分評価値のうち、当該閾値ThC以下であるモードがある場合にテップS405に進み、当該閾値ThC以下のモードがない場合に、ステップS408に進むようにしてもよい。
ステップS404でYES(色差成分評価値IScb[i]+IScr[i]の最小値が閾値ThC以下である)と判定された場合、重み付け評価部305は、ステップS405の処理を行う。ステップS405において、重み付け評価部305は、所定のモードのうち色差成分評価値IScb[i]+IScr[i]の最小値に対応するモードを、色差成分の符号化において用いる色差イントラ予測モードとして決定する。さらに、重み付け評価部305は、決定した色差イントラ予測モードをイントラ予測モード判定部306に送出する。ステップS405において、色差成分評価値の最小値が閾値ThC以下であり、十分小さいことから、当該色差成分評価値の最小値に対応するモードを色差イントラ予測モードとして用いることで、色差成分に対して十分な符号化効率を実現できると判断する。
ステップS406において、重み付け評価部305は、各所定のモード#0〜#3以外の各モード#4〜#34に対応する輝度評価値ISy[i]を算出する。尚、全体制御部130は、重み付け評価部305で使用される色差成分の各重みWcb[i]、Wcb[i]をゼロに設定してもよい。即ち、ステップS406において全体制御部130は、各モード#0〜#34に対応する評価値IStotal[i]をIStotal[i]=ISy[i]と変更し、重み付け評価部305が評価値IStotal[i]を算出するようにしてもよい。ここで、ステップS404で決定された色差イントラ予測モードは、輝度イントラ予測モードがどのモードを使用していても選択可能である。このため、輝度評価値ISy[i]のみを算出する、または色差成分の各重みWcb[i]、Wcb[i]をゼロに設定して評価値IStotal[i]を算出することにより、輝度成分のみを考慮して最適な輝度イントラ予測モードを探索することができる。
ステップS407において、イントラ予測モード判定部306は、輝度予測モード候補である各モード#0〜#34のうち、輝度評価値ISy[i]が最小となるモードを輝度イントラ予測モードとして決定する。尚、ステップS406において全体制御部130が色差成分の各重みWcb[i]、Wcb[i]をゼロに設定し、重み付け評価部305が評価値IStotal[i]を算出した場合は次のような処理を行う。即ち、この場合、イントラ予測モード判定部306は、ゼロに設定された色差成分の各重みWcb[i]、Wcb[i]を用いて、評価値IStotal[i]が最小となるモードをイントラ予測モードとして決定してもよい。
上述したように、ステップS404〜407の処理により、色差イントラ予測モードとして輝度イントラ予測モードに依存しない所定のモードを使用した場合の評価値に基づいて色差イントラ予測モードを決定する。そして、輝度評価値ISy[i]のみに基づいて輝度イントラ予測モードを決定する。これにより、色差イントラ予測モードとして所定のモードを設定した場合の評価値が閾値ThC以下の場合、全ての色差予測モード候補ついて探索する必要がなく、演算量を減少することができる。また、色差イントラ予測モードとして所定のモードを設定した場合の評価値が閾値ThC以下の場合、色差成分の符号化効率に過剰に影響されることなく輝度イントラ予測モードを選択することが可能になる。
ステップS408において、重み付け評価部305は、各所定のモード#0〜#3以外の各モード#4〜#34に対応する各評価値ISy[i]、IScb[i]、IScr[i]、及びIStotal[i]を夫々算出する。
ステップS409において、イントラ予測モード判定部306は、輝度予測モード候補である各モード#0〜#34のうち、評価値IStotal[i]が最小となるモードを輝度イントラ予測モードとして決定する。また、ステップS409において、イントラ予測モード判定部306は、色差イントラ予測モードを輝度参照モードに決定する。即ち、ステップS404でNO(色差成分評価値の最小値が閾値ThCより大きい)と判定された場合、イントラ予測モード判定部306は、ステップS409で決定した輝度イントラ予測モードと同じモードを当該色差イントラ予測モードとして決定する。
上述したように、各輝度予測モード候補と各色差予測モード候補とに対応する評価値を重み付けして夫々算出することにより、色差成分の符号化効率を考慮して輝度イントラ予測モード、及び色差イントラ予測モードを決定することができる。
次に、輝度予測モード探索部1101、色差予測モード探索部1103、及び統合予測モード判定部1105の各動作を時系列で示したタイミングチャートを図5に示す。図5は、図2(a)で示した32×32画素の各符号化ブロックを符号化するタイミングチャートを示しており、16×16画素の予測ブロックを4ブロック分処理する様子を示している。
時刻t1において、輝度予測モード探索部1101は、輝度サンプルバッファ1102から入力した参照輝度サンプルに基づいて、Intra_Planar(#0、図5では0と表記)に対応する参照輝度ブロックの生成を行う。そして、輝度予測モード探索部1101は、ブロックバッファ101から入力した予測対象ブロック(図2における予測ブロック1)の輝度サンプルと、生成した参照輝度ブロックとの差分である輝度予測残差ブロックを算出する。さらに、輝度予測モード探索部1101は、算出した輝度予測残差ブロックを統合予測モード判定部1105に送出する。続いて、Intra_DC(#1、図5では1と表記)、Angular_10〜Angular_34(#2〜34、図5では2〜34と表記)についても同様に輝度予測残差ブロックを夫々算出し、統合予測モード判定部1105に送出する。このように、輝度予測モード探索部1101は、輝度予測モード候補である全て(35個)のモードについて夫々探索処理を行う。
時刻t2において、色差予測モード探索部1103は、各色差成分(Cb成分及びCr成分)において、色差サンプルバッファ1104から入力した参照色差サンプルに基づいて、Intra_Planar(#0)に対応する参照色差ブロックの生成を行う。そして、色差予測モード探索部1103は、ブロックバッファ101から読み込んだ、予測対象ブロック(図2における予測ブロック1)の色差サンプルと、生成した参照色差ブロックとの差分である色差予測残差ブロックを算出する。さらに、色差予測モード探索部1103は、算出した色差予測ブロックを統合予測モード判定部1105に送出する。続いて、Intra_DC(#1)、Angular_10〜Angular_34(#2〜#34)についても同様に色差予測残差ブロックを夫々算出し、統合予測モード判定部1105に送出する。このように、色差予測モード探索部1103は、色差予測モード候補である全て(35個)のモードについて探索する。
尚、本実施形態において、色差予測モード探索部1103は、1つの色差予測モード候補について、各色差成分(Cb成分及びCr成分)の色差予測残差ブロックを夫々生成してから、次の色差予測モード候補の探索を行う。また、本実施形態において、入力画像フォーマットは4:2:0である。入力画像フォーマットが4:2:0の場合、符号化ブロックに含まれるCb成分の画素サンプル数は輝度成分の画素サンプル数の1/4である。このため、輝度成分の予測残差ブロック生成処理よりも色差成分の予測残差ブロック生成処理は高速に行うことができる。
時刻t3において、統合予測モード判定部1105は、全成分(輝度成分、Cb成分、Cr成分)の予測残差ブロックが、FIFO301〜303において利用可能になっているため、各予測モード候補の評価値の算出を行う。
時刻t4において、イントラ予測モード判定部306は、全ての輝度予測モード候補、及び色差予測モード候補に対応する評価値が算出されているため、輝度イントラ予測モード、及び色差イントラ予測モードを図4で示したフローチャートのように決定する。
上記の処理を、符号化対象ブロック内の全予測ブロック、及び画面内の符号化ブロック数分だけ繰り返すことにより、画面全体を符号化する。
次に、上述の重み付けを用いたアルゴリズムによる、輝度イントラ予測モード、及び色差イントラ予測モードの決定例を図6に示す。図6(a)、(b)は、ある入力画像に対する、各イントラ予測モードの探索過程及び決定例を示した図であり、図中の数字は各イントラ予測モードに対応する予測残差ブロックの評価値を夫々例示している。
尚、表記を簡略化するために、イントラ予測モードは7つのモードのみを抜粋し表記しているが、本発明において用いられるイントラ予測モードは当該7つのモードに限定されない。即ち、イントラ予測モードとして、使用可能である全35モード用いてもよいし、任意の一部のイントラ予測モード群のみを用いてもよい。尚、図6に示す各評価値の例において、式3、及び式4における各パラメータ値αcb、αcrは夫々「1」であるとしている。同様に、各色差成分の量子化パラメータオフセットqp_cb_offset、qp_cr_offsetは、夫々ゼロとしており、各色差成分の重みWcb[i]、Wcb[i]の初期値は、夫々1となる。また、図4のステップS402で設定される閾値ThCは1000としている。
一方、図6(a)において、従来技術のように輝度成分のみを考慮して最適な輝度イントラ予測モードを決定する場合、輝度イントラ予測モードとして、推定発生符号量がもっとも小さい輝度イントラ予測モードであるAngular_10(水平モード)を選択する。しかし、輝度イントラ予測モードがAngular_10の場合、色差イントラ予測モードとして、色差成分にとって符号化効率が優れるモードであるAngular_18を選択することができず、輝度成分と色差成分との合計の発生符号量は最適とならない。このため、図6(a)において、輝度成分のみを考慮して輝度イントラ予測モードを選択する場合、本発明により色差成分を考慮して輝度イントラ予測モードを選択するよりも符号化効率が低下してしまう。
一方、図6(a)において、輝度成分だけでなく色差成分も考慮した評価値IStotal[i]が最小になるのは、輝度イントラ予測モードと色差イントラ予測モードとをAngular_18とした場合である。従って、本実施形態において符号化方式としてHEVCを用いる場合、輝度イントラ予測モードとしてAngular_18を選択し、色差イントラ予測モードとして輝度参照モードを選択する。これにより、色差イントラ予測モードとしてAngular_18を使用することができる。このように、輝度成分だけでなく色差成分も考慮することにより、輝度成分と色差成分との合計の発生符号量が最適(最小)となる輝度イントラ予測モードを選択可能である。
図6(b)は、色差イントラ予測モードの評価値に関する閾値ThCが有効に作用する例を示した図である。Angular_26(垂直モード)について、輝度成分の評価値ISy[i]は最適でないが、各色差成分の評価値IScb[i]、IScr[i]は最適であり、色差成分評価値IScb[i]+IScr[i]が閾値ThCである1000を下回っている。このため、図6(b)では、色差イントラ予測モードを輝度成分に依存せず選択可能なAngular_26に決定し、輝度イントラ予測モードを輝度成分の評価値ISy[i]が最適(最小)となるAngular_10(水平モード)に決定する。このように、色差イントラ予測モードにおいて、輝度成分に依存せずに選択可能なモードの評価値が十分小さい場合には、輝度イントラ予測モードと、色差イントラ予測モードとで夫々異なるモードを使用し、最適な符号化効率を実現することができる。
尚、本実施形態において輝度成分の予測ブロックサイズは16×16画素、各色差成分の予測ブロックサイズは8×8画素であるが、本発明はこれに限定されない。即ち、HEVCにおいて取り得る予測ブロックサイズ(64×64画素、32×32画素、16×16画素、8×8画素、4×4画素)のうち、符号化ブロックサイズ以下のサイズのいずれかを使用してもよい。例えば、HEVCを用いた符号化において、符号化ブロックサイズが32×32画素である場合、予測ブロックサイズとしては32×32画素、16×16画素、8×8画素、または4×4画素のいずれかを使用することが可能である。
また、本発明は変換ブロックサイズに限定されない。即ち、HEVCを用いた画像符号化装置において、HEVCにおいて取り得る変換ブロックサイズ(32×32画素、16×16画素、8×8画素、4×4画素)のうち、符号化ブロックサイズ以下のサイズのいずれかを使用してよい。例えば、HEVCを用いた符号化において、符号化ブロックサイズが32×32画素である場合、変換ブロックサイズとしては32×32画素、16×16画素、8×8画素、または4×4画素のいずれかを使用することが可能である。
また、本実施形態においてブロックサイズ設定部102は、符号化対象ブロックのデータを解析した結果に基づいて、予め予測ブロックサイズを決定するが、本発明はこれに限定されない。即ち、ブロックサイズ設定部102は、使用可能な全ての予測ブロックサイズについて、イントラ予測部110を夫々動作させ、最適な予測ブロックサイズを探索してもよい。また、ブロックサイズ設定部102は、本実施形態の画像符号化装置の内外で予め決定された、予測ブロックサイズ、及び変換ブロックサイズを読み込んで、夫々設定してもよい。さらに、本発明は予測ブロックサイズの決定方法について、特定のアルゴリズムに依存せず、既存のいかなるアルゴリズムも適用することが可能である。
また、本実施形態において、輝度予測モード探索部1101は、輝度サンプルバッファ1102に記録されている所定の輝度画素群を参照輝度サンプルとして使用する。同様に、本実施形態において、色差予測モード探索部1103は、色差サンプルバッファ1104に記録されている所定の色差画素群を参照色差サンプルとして使用する。しかし、本発明はこれに限定されない。即ち、輝度予測モード探索部1101、及び色差予測モード探索部1103は、ブロックバッファ101に記録されている、符号化対象ブロック及び隣接符号化ブロックの輝度サンプル、及び色差サンプルを使用して各イントラ予測モードを探索してもよい。これにより、探索処理を高速化することが可能である。
本実施形態において、イントラ予測モードの候補を全て評価するアルゴリズムを使用したが、本発明はこれに限定されない。即ち、高速化のために、一部のイントラ予測モードの候補の評価を省略する等してイントラ予測モードの探索するアルゴリズムについても、同様の方法で適用することができる。また、各イントラ予測モードの候補の探索順序についても上記に限定されず、いかなる順番で探索することも可能である。
尚、本実施形態において、入力画像フォーマットは4:2:0であると仮定したが、本発明はこれに限定されない。即ち、輝度成分の画素サンプル数(輝度サンプル数)と色差成分のサンプル数(色差サンプル数)の比には依存せず、一般的に使用されている4:2:0、4:2:2、及び4:4:4のいかなる入力画像フォーマットにおいても使用することが可能である。
また、本実施形態では、輝度成分、及び色差成分のイントラ予測モードに対応する各評価値を重み付けして算出することにより、輝度イントラ予測モードを決定したが、本発明はこれに限定されない。即ち、色差成分の符号化効率を考慮して輝度イントラ予測モードを決定する方法であればよい。本実施形態において、重み付け評価部305は、各評価値ISy[i]、IScb[i]、IScr[i]と、各重みWy[i]、Wcb[i]、Wcr[i]とを夫々重み付け(乗算)して加算することにより、評価値IStotal[i]を算出した。しかし、本発明はこれに限定されず、各色差評価値IScb[i]、及びIScr[i]のみを算出し、各重みWcb[i]、及びWcr[i]を用いて重み付けすることにより、輝度イントラ予測モードを決定してもよい。これにより、輝度評価値ISy[i]を算出する必要がないため、演算量を削減できる。
尚、式2〜式4において、各重みWy、Wcb、Wcrは、輝度サンプル数と色差サンプル数の比を使用せずに算出されるが、これは本実施形態において各評価値の算出に用いる評価値算出手段であるSADが各サンプル数に比例して算出される値のためである。このため、輝度サンプル数と色差サンプル数の比に依存しない評価値を使用する場合には、後述する実施形態のように、各サンプル数に基づいて各重みWy、Wcb、Wcrを夫々決定する必要がある。
また、評価値算出手段も上述のSADに限定されず、予測残差ブロックの分散等のいかなる算出手段を用いて評価値を使用することも可能である。また、本実施形態は、イントラ予測を用いて符号化する、Iスライスのみを符号化対象とし、動きベクトルを伴ってインター予測を用いて符号化する、Pスライス、及びBスライスは符号化対象としないものとしたが、本発明はこれに限定されるものではない。即ち、後述する実施形態3のようにPスライスまたはBスライス内でイントラ予測を用いて符号化ブロックを符号化する際に適用してもよい。
<実施形態2>
次に、本発明の実施形態2について説明する。本実施形態における画像符号化装置の構成は図1と同一であるが、本実施形態において、図1の統合予測モード判定部1105の内部の構成が実施形態1における図3とは異なる。また、本実施形態では、各イントラ予測モードに対する評価値を算出する評価値算出手段として、実施形態1で使用したSADとは異なる手段を使用する。尚、本実施形態において、図4のフローチャート、及び図5のタイミングチャートについては、実施形態1と同一の図が適用可能であるため、説明は省略する。また、本実施形態において、入力画像フォーマットは4:2:0であると仮定する。
図7は、本実施形態における統合予測モード判定部1105の内部構成を示した図であり、評価値算出部701、702、703、FIFO704、705、706、重み付け評価部707、及び予測モード判定部306を有する。尚、図7において、図3と同じ処理を行う処理部は同じ符号を付与して説明を省略する。
評価値算出部701は、図1の輝度予測モード探索部1101から入力した輝度予測残差ブロックに対して評価値ISy[i]を算出し、FIFO704に格納する。評価値算出部702、及び評価値算出部703は、図1の色差予測モード探索部1103から入力した色差予測残差ブロックに対して評価値IScb[i]、及び評価値IScr[i]を夫々算出し、さらに、FIFO705、及びFIFO706に夫々格納する。
重み付け評価部707は、各FIFO704、705、706から読み出した各評価値ISy[i]、IScb[i]、IScr[i]を実施形態1の図3における重み付け評価部305における処理と同様に重み付け加算し、IStotal[i]を算出する。このように、各輝度予測モード候補と各色差予測モード候補とに対応する評価値を重み付けして夫々算出することにより、色差成分の符号化効率を考慮して輝度イントラ予測モード、及び色差イントラ予測モードを決定することができる。
本実施形態において、各評価値算出部701、702、703における各評価値ISy[i]、IScb[i]、IScr[i]は、32×32画素の輝度予測残差ブロック、及び16×16画素の色差予測残差ブロックにおける最大絶対値を夫々使用する。
また、本実施形態において、重み付け評価部305における輝度予測残差ブロック、及び色差予測残差ブロックに対する各重みWy[i]、Wcb[i]、Wcb[i]の初期値は以下のように決定される。
Wy[i] =4 式5
Wcb[i]=αcb×qp_luma/(qp_luma+qp_cb_offset) 式6
Wcr[i]=αcr×qp_luma/(qp_luma+qp_cr_offset) 式7
本実施形態では、各評価値ISy[i]、IScb[i]、IScr[i]を算出するための評価値算出手段として、実施形態1で用いたSAD(入力画像フォーマットに依存する算出手段)ではなく、入力画像フォーマットに依存しない手段を用いる。このため、式5のように、各重みWy[i]、Wcb[i]、Wcb[i]の初期値に輝度サンプル数と色差サンプル数の比を反映させている。本実施形態において、入力画像フォーマットは4:2:0である。入力画像フォーマットが4:2:0である場合、輝度サンプル数は色差サンプル数の4倍であるため、式5においてWy[i]=4としている。
このように、入力画像フォーマットに依存しない評価値算出手段を用いて各評価値を算出する場合でも、各重みに入力画像フォーマットに基づく輝度サンプル数及び色差サンプル数の違いを反映させることで、適切なIStotal[i]を算出することができる。尚、本実施形態は入力画像フォーマットとして4:2:0を用いたが、4:2:2、及び4:4:4等のいかなる入力画像フォーマットを用いる場合も、重みの初期値を適宜変更することにより、容易に対応することが可能である。
また、本実施形態における統合予測モード判定部1105の構成は、前述した実施形態1における評価値算出部304に比べて各評価値算出部701〜703の回路規模が大きくなる。一方、本実施形態における各FIFO704〜706が夫々必要とする容量は、実施形態1における各FIFO301〜303に比べて少なくなる。
実施形態1において、FIFO301が輝度イントラ予測モード1つ分の輝度予測残差ブロックを保持するためには、符号化ブロックサイズが32×32画素であることから、32×32画素分の容量が必要となる。即ち、各予測残差ブロックは9ビットであるため、実施形態1におけるFIFO301は輝度イントラ予測モード1つにつき、32×32×9=9216ビットの容量が必要となる。
一方、本実施形態において、FIFO704が輝度イントラ予測モード1つ分の輝度予測残差ブロックに対する評価値を保持するためには、評価値1つ分のデータ量が一般的に32ビットであることから、32ビットの容量が必要となる。即ち、実施形態1のFIFO301が輝度イントラ予測モード1つにつき必要な容量が9216ビットなのに対し、本実施形態のFIFO701が輝度イントラ予測モード1つにつき必要な容量は32ビットであり、本実施形態により必要な容量を削減できる。特に、予測ブロックサイズが大きくなるほど、本実施形態の構成の方が実施形態1の構成に比べて回路規模が少なくなり、結果として低コストを実現することが可能である。尚、本実施形態において予測ブロックサイズ、及びイントラ予測モード探索アルゴリズムは、実施形態1と同様のものを用いたが、本発明は特定の予測ブロックサイズ、及びイントラ予測モード探索アルゴリズムに限定されない。
<実施形態3>
次に、本発明の実施形態3について説明する。前述した実施形態1、及び実施形態2において、各符号化ブロックはイントラ予測を用いて符号化する、Iスライスのみを使用することを前提としていた。本実施形態では、イントラ予測に加え、動きベクトルを伴いインター予測を用いて符号化する、Pスライス、及びBスライスを用いて符号化する画像符号化装置に本発明を適用する。
図8は、本実施形態における画像符号化装置を示す図であり、実施形態1、及び実施形態2における図1と同じ処理を行う処理部は、図1と同じ符号を付与して説明を省略する。
動きベクトル探索部801は、予め定められた動きベクトル探索アルゴリズムに基づいて、動きベクトルの候補(動きベクトル候補)を算出する。動きベクトル探索部801は、算出した動きベクトル候補のうち、探索対象である動きベクトル(探索対象ベクトル)に対応する、再構成輝度サンプルを動き予測用メモリ806から読み込む。動きベクトル探索部801は、ブロックサイズ設定部102で設定された予測ブロックサイズに基づいて、動き予測用メモリ806から読み込んだ再構成輝度サンプルから参照輝度ブロックを生成する。尚、本実施形態において、実施形態1、及び実施形態2と同様に、予測ブロックサイズは16×16画素とする。このため、本実施形態において、動き予測用メモリ806から読み込む再構成輝度サンプル、及び動きベクトル探索部801で生成される参照輝度ブロックのサイズは16×16画素である。尚、動き予測用メモリに記録されている再構成輝度サンプルの生成方法等については後述する。
そして、動きベクトル探索部801は、生成した参照輝度ブロックと、ブロックバッファ101から入力した、予測対象ブロックの輝度サンプルとの差分を算出し、輝度予測残差ブロックを生成する。さらに、動きベクトル探索部801は、生成した輝度予測残差ブロックに基づいて、各動きベクトル候補に対応する評価値を夫々算出する。尚、当該評価値は当該輝度予測残差ブロックの推定発生量を示す。さらに、当該評価値を算出する方法としては、SAD等いかなる算出方法も用いることができる。動きベクトル探索部801は、全ての動きベクトル候補について、同様に、各評価値を夫々算出し、算出した当該各評価値のうちの最適な評価値に対応する動きベクトル候補を予測で使用する動きベクトルとして決定する。そして、動きベクトル探索部801は、決定した動きベクトルを動き予測部802に伝達する。
本実施形態では、動きベクトル探索部801は輝度成分について考慮して動きベクトルを算出するが、本発明はこれに限定されない。即ち、動きベクトル探索部801は、上述した輝度成分に対する処理と同様の処理により色差予測残差ブロックを生成し、当該色差予測残差ブロックに基づいて算出した各動きベクトル候補の評価値により動きベクトルを決定してもよい。さらに、動きベクトル探索部801は、輝度予測残差ブロックに基づいて算出された各評価値と色差予測残差ブロックに基づいて算出された各評価値との両方を考慮して動きベクトルを決定してもよい。
次に、動き予測部802は、動きベクトル探索部801で決定された動きベクトルに基づいて、当該動きベクトルに対応する再構成輝度サンプルを動き予測用メモリ806から読み込み、参照輝度ブロックを生成する。さらに、動き予測部802は、生成した参照輝度ブロックと、ブロックバッファ101から入力した輝度サンプルとの差分である輝度予測残差ブロックを生成し、生成した輝度予測残差ブロックに対する評価値を算出する。さらに、動き予測部802は、動きベクトル探索部801で決定された動きベクトルを、エントロピー符号化及び多重化部122に送出する。
全体制御部830は、イントラ予測部110で算出された評価値と、動き予測部802で算出された評価値とを比較する。尚、イントラ予測部110で算出された評価値とは、統合予測モード判定部1105で決定された輝度イントラ予測モードに対して算出した評価値である。また、動き予測部802で算出された評価値とは、動きベクトル探索部801で決定された動きベクトルに対して算出した評価値である。さらに、全体制御部830は、比較結果に基づいて、予測対象ブロックの予測においてイントラ予測またはインター予測のどちらを使用するかを決定し、決定した予測方法を選択部803へ伝達する。
選択部803は、全体制御部830で決定された予測方法に基づいて、当該決定された予測方法の輝度予測残差ブロックをイントラ予測部110、または動き予測部802から入力し、入力した輝度予測残差ブロックを直交変換部120に出力する。即ち、全体制御部830で決定された予測方法がイントラ予測の場合、選択部803はイントラ予測部110から輝度予測残差ブロックを入力し、直交変換部120に出力する。一方、全体制御部830で決定された予測方法がインター予測の場合、選択部803は動き予測部802から輝度予測残差ブロックを入力し、直交変換部120に出力する。
直交変換部120、量子化部121、及びエントロピー符号化及び多重化部122は、選択部803から入力された輝度予測残差ブロックに対して、直交変換、量子化、エントロピー符号化及び多重化の処理を夫々行う。尚、逆量子化部123、及び逆直交変換部124は、実施形態1、及び実施形態2と同様の処理を行うので説明は省略する。
動き予測部802は、逆直交変換部124で復号され、生成された輝度予測残差ブロックを入力する。そして、動き予測部802は、入力した当該輝度予測残差ブロックと動きベクトル探索部801で輝度予測残差ブロックを生成するために用いられた参照輝度ブロックとを加算し、再構成輝度ブロックとして選択部804に出力する。
選択部804は、全体制御部830の制御に基づき、イントラ予測部110で生成された再構成輝度ブロック、または動き予測部802で生成された再構成輝度ブロックのいずれかを選択し、ポストフィルタ処理部805に出力する。
ポストフィルタ処理部805は、選択部804から入力した再構成輝度ブロックに対して、デブロッキングフィルタ処理等のフィルタ処理を施し、画質劣化を低減させる。さらに、ポストフィルタ処理部805は、フィルタ処理を施した画像を動き予測用メモリ806に記録する。尚、動き予測用メモリ806に記録された再構成輝度ブロックは、後続画像におけるインター予測の参照輝度ブロックを生成するために使用される。
尚、上述では、図8の各処理部802〜807、830、101、102、110、120〜124が、輝度予測残差ブロックに対して施す処理について夫々説明したが、色差予測残差ブロックに対しても同様の処理を行う。即ち、動き予測部802は、動きベクトル探索部801で決定された動きベクトルに基づいて、色差予測ブロックを算出し、以降の処理を輝度予測残差ブロックと同様に行う。そして、エントロピー符号化及び多重化部122は、輝度成分と色差成分とにおいて、エントロピー符号化した直交変換係数とエントロピー符号化したヘッダ情報とを多重化し、多重化したデータを符号化ストリームとして画像符号化装置外へ出力する。
本実施形態により、本発明のイントラ予測のアルゴリズムは、イントラ符号化及びインター符号化の両方を用いる画像符号化装置においても容易に組み込むことが可能である。
尚、本発明は特定の動きベクトル探索アルゴリズムには依存せず、一般的に使用されているどのような動きベクトル探索アルゴリズムも適用することが可能である。
尚、本実施形態において、動き予測部802は、動きベクトル探索部801で決定された動きベクトルに対して評価値等を算出するが、本発明はこれに限定されない。即ち、動きベクトル探索部801は、予測に用いる動きベクトルを探索するために算出した、各動きベクトル候補に対する評価値等を動きベクトル探索部801内部のメモリ(不図示)に記録してもよい。そして、動き予測部802は、動きベクトル探索部801に記録された当該評価値等から、動きベクトル探索部801で決定された動きベクトルに対応する評価値等を読み出してもよい。
尚、本実施形態における画像符号化装置は、動きベクトル探索部801で決定された動きベクトルを、動き予測部802を介してエントロピー符号化及び多重化部122に入力したが、本発明はこれに限定されない。即ち、本発明における画像符号化装置は、動きベクトル探索部801で決定された動きベクトルを、エントロピー符号化及び多重化部122に直接入力してもよい。
また、本実施形態において、全体制御部830が予測方法(画面内符号化または画面間符号化のいずれか)を決定し、選択部803は全体制御部830で決定された予測方法に基づいて予測残差ブロックの伝送を行うが、本発明はこれに限定されない。即ち、本発明において、選択部803が予測方法を決定してもよい。
<実施形態4>
上記実施形態1、実施形態2、及び実施形態3において、其々図1、図3、図7、及び図8に示した各処理部はハードウェアでもって構成しているものとして説明した。しかし、これらの図に示した各処理部で行う処理をコンピュータプログラムで実行しても良い。
図10は、上記実施形態1、実施形態2、及び実施形態3に係る画像符号化装置の各処理部が行う処理を実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU1001は、RAM1002やROM1003に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上述した実施形態に係る画像符号化装置が行うものとして上述した各処理を実行する。即ち、CPU1001は、図1、図3、図7、及び図8に示した各処理部として機能することになる。
RAM1002は、外部記憶装置1006からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1007を介して、外部から取得したデータ等を一時的に記憶するためのエリアを有する。さらに、RAM1002は、CPU1001が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM1002は、例えば、フレームメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。
ROM1003は、本コンピュータの設定データや、ブートプログラム等を格納する。
操作部1004は、キーボードやマウス等により構成されており、本コンピュータのユーザーが操作することで、各種の指示をCPU1001に対して入力することができる。
表示部1005は、CPU1001による処理結果を表示する。また、表示部1005は、例えば液晶ディスプレイで構成される。
外部記憶装置1006は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置1006には、オペレーティングシステム(OS)や、図1、図3、図7、及び図8に示した各部の機能をCPU1001に実現させるためのコンピュータプログラムが保存されている。さらには、外部記憶装置1006には、処理対象としての各画像が保存されていても良い。
外部記憶装置1006に保存されているコンピュータプログラムやデータは、CPU1001による制御に従って適宜、RAM1002にロードされ、CPU1001による処理対象となる。
I/F1007には、LANやインターネット等のネットワーク、投影装置や表示装置等の他の機部を接続することができ、本コンピュータはこのI/F1007を介して様々な情報を取得したり、送出したりすることができる。
バス1008は、上述の各部を繋ぐ。
上述の構成における作動は、前述のフローチャートで説明した作動をCPU1001が中心となってその制御を行う。
<その他の実施形態>
前述した実施形態では、輝度成分、及び色差成分のイントラ予測モードに対応する評価値を重み付けして算出することにより、色差成分の符号化効率を考慮して輝度イントラ予測モードを決定したが、本発明はこれに限定されない。即ち、色差成分の符号化効率を考慮して輝度イントラ予測モードを決定する方法であればよく、画像符号化装置に入力された入力画像の輝度成分、及び色差成分の画素から算出される属性情報を使用して、輝度イントラ予測モードを決定する方法を用いてもよい。例えば、入力画像の輝度成分、及び色差成分のエッジ、及びグラデーションの方向を算出し、当該方向に基づいて輝度イントラ予測モードを決定してもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (11)

  1. 符号化対象ブロックの色差成分の符号化において選択され得る複数の色差の予測モードの各々の評価を表す複数の第1の値を取得する第1の取得手段と、
    前記符号化対象ブロックの輝度成分の符号化において選択され得る複数の輝度の予測モードの各々の評価を表す複数の第2の値を取得する第2の取得手段と、
    記複数の輝度の予測モードのうち前記符号化対象ブロックの輝度成分を符号化する場合に用いる輝度の予測モードを決定する決定手段と
    を有し、
    前記第1の値は、前記色差の予測モードを用いて前記符号化対象ブロックの前記色差成分を符号化して算出される符号量に係る値であり、
    前記第2の値は、前記輝度の予測モードを用いて前記符号化対象ブロックの前記輝度成分を符号化して算出される符号量に係る値であり、
    前記決定手段は、各予測モードにおける前記第1の値と前記第2の値とを合計した値に基づいて、前記複数の輝度の予測モードから、前記符号化対象ブロックの輝度成分を符号化する場合に用いる輝度の予測モードを決定する
    ことを特徴とする画像符号化装置。
  2. 前記決定手段は、
    前記複数の色差の予測モードの内の所定の予測モードを用いて前記符号化対象ブロックの前記色差成分を符号化して算出される符号量に係る値が、所定の閾値以上の場合に、各予測モードにおける前記第1の値と前記第2の値とを合計した値に基づいて、前記複数の輝度の予測モードから、前記符号化対象ブロックの輝度成分を符号化する場合に用いる輝度の予測モードを決定し、
    前記複数の色差の予測モードの内の所定の予測モードを用いて前記符号化対象ブロックの前記色差成分を符号化して算出される符号量に係る値が、前記所定の閾値より小さい場合は、前記所定の予測モードを、前記符号化対象ブロックの輝度成分を符号化する場合に用いる輝度の予測モードとして決定する、
    ことを特徴とする請求項に記載の画像符号化装置。
  3. 前記第1の値は前記色差の予測モードを用いて前記符号化対象ブロックの前記色差成分を符号化して算出される符号量に第1の重みを乗算した値であり、
    前記第2の値は前記輝度の予測モードを用いて前記符号化対象ブロックの前記輝度成分を符号化して算出される符号量に第2の重みを乗算した値であ
    ことを特徴とする請求項に記載の画像符号化装置。
  4. 前記第1の重みは、前記符号化対象ブロックの前記色差成分の符号化における量子化パラメータに基づいて決定され、
    前記第2の重みは、前記符号化対象ブロックの前記輝度成分の符号化における量子化パラメータに基づいて決定される
    ことを特徴とする請求項3に記載の画像符号化装置。
  5. 前記第1の重みは、前記符号化対象ブロックの前記色差成分のサンプル数に基づいて決定され、
    前記第2の重みは、前記符号化対象ブロックの前記輝度成分のサンプル数に基づいて決定される
    ことを特徴とする請求項3に記載の画像符号化装置。
  6. 前記決定手段は、各予測モードにおける前記第1の値と前記第2の値とを合計した値に基づいて、前記複数の色差の予測モードから、前記符号化対象ブロックの色差成分を符号化する場合に用いる色差の予測モードを決定する
    ことを特徴とする請求項1乃至請求項5のいずれか一項に記載の画像符号化装置。
  7. 前記決定手段は、
    前記複数の色差の予測モードの内の所定の予測モードを用いて前記符号化対象ブロックの前記色差成分を符号化して算出される符号量に係る値が、前記所定の閾値以上の場合に、各予測モードにおける前記第1の値と前記第2の値とを合計した値に基づいて、前記複数の色差の予測モードから、前記符号化対象ブロックの色差成分を符号化する場合に用いる色差の予測モードを決定し、
    前記複数の色差の予測モードの内の所定の予測モードを用いて前記符号化対象ブロックの前記色差成分を符号化して算出される符号量に係る値が、前記所定の閾値より小さい場合は、前記所定の予測モードを、前記符号化対象ブロックの色差成分を符号化する場合に用いる色差の予測モードとして決定する、
    ことを特徴とする請求項記載の画像符号化装置。
  8. 前記所定の予測モードは、前記符号化対象ブロックの輝度成分の符号化において用いる輝度予測モードが前記複数の輝度の予測モードのうちのいずれであっても、前記符号化対象ブロックの色差成分の符号化において用いることのできるモードである
    ことを特徴とする請求項2又は7に記載の画像符号化装置。
  9. 前記所定のモードは、水平モード、垂直モード、DCモード、またはPlanarモードのうちの1つである
    ことを特徴とする請求項2又は7に記載の画像符号化装置。
  10. 符号化対象ブロックの色差成分の符号化において選択され得る複数の色差の予測モードの各々の評価を表す複数の第1の値を取得する第1の取得工程と、
    前記符号化対象ブロックの輝度成分の符号化において選択され得る複数の輝度の予測モードの各々の評価を表す複数の第2の値を取得する第2の取得工程と、
    記複数の輝度の予測モードのうち前記符号化対象ブロックの輝度成分を符号化する場合に用いる輝度の予測モードを決定する決定工程と
    を有し、
    前記第1の値は、前記色差の予測モードを用いて前記符号化対象ブロックの前記色差成分を符号化して算出される符号量に係る値であり、
    前記第2の値は、前記輝度の予測モードを用いて前記符号化対象ブロックの前記輝度成分を符号化して算出される符号量に係る値であり、
    前記決定工程において、各予測モードにおける前記第1の値と前記第2の値とを合計した値に基づいて、前記複数の輝度の予測モードから、前記符号化対象ブロックの輝度成分を符号化する場合に用いる輝度の予測モードを決定する
    ことを特徴とする画像符号化方法。
  11. コンピュータを、請求項1乃至請求項9のいずれか一項に記載の画像符号化装置の各手段として機能させるためのプログラム。
JP2012263126A 2012-11-30 2012-11-30 画像符号化装置、画像符号化方法及びプログラム Expired - Fee Related JP6137817B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012263126A JP6137817B2 (ja) 2012-11-30 2012-11-30 画像符号化装置、画像符号化方法及びプログラム
US14/092,075 US20140153642A1 (en) 2012-11-30 2013-11-27 Image coding apparatus, image coding method, and program
EP13195109.7A EP2739058A3 (en) 2012-11-30 2013-11-29 Image coding apparatus, image coding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012263126A JP6137817B2 (ja) 2012-11-30 2012-11-30 画像符号化装置、画像符号化方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2014110483A JP2014110483A (ja) 2014-06-12
JP2014110483A5 JP2014110483A5 (ja) 2016-01-21
JP6137817B2 true JP6137817B2 (ja) 2017-05-31

Family

ID=49724482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012263126A Expired - Fee Related JP6137817B2 (ja) 2012-11-30 2012-11-30 画像符号化装置、画像符号化方法及びプログラム

Country Status (3)

Country Link
US (1) US20140153642A1 (ja)
EP (1) EP2739058A3 (ja)
JP (1) JP6137817B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101749855B1 (ko) * 2013-04-05 2017-06-21 미쓰비시덴키 가부시키가이샤 컬러 화상 부호화 장치, 컬러 화상 복호 장치, 컬러 화상 부호화 방법 및 컬러 화상 복호 방법
JP6409400B2 (ja) * 2014-08-13 2018-10-24 沖電気工業株式会社 映像符号化装置、方法及びプログラム
JP6106207B2 (ja) * 2015-04-27 2017-03-29 日本電信電話株式会社 符号量推定方法、符号量推定装置及び符号量推定プログラム
WO2017143467A1 (en) 2016-02-22 2017-08-31 Mediatek Singapore Pte. Ltd. Localized luma mode prediction inheritance for chroma coding
EP3316578A1 (en) * 2016-10-25 2018-05-02 Thomson Licensing Method and apparatus for encoding and decoding a picture
GB2574575A (en) * 2018-04-27 2019-12-18 V Nova Int Ltd Video decoder chipset

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007010690A1 (ja) * 2005-07-22 2007-01-25 Mitsubishi Electric Corporation 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法、画像符号化プログラム、画像復号プログラム、ならびに画像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体、画像復号プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5158003B2 (ja) 2009-04-14 2013-03-06 ソニー株式会社 画像符号化装置と画像符号化方法およびコンピュータ・プログラム
KR101503269B1 (ko) * 2010-04-05 2015-03-17 삼성전자주식회사 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치

Also Published As

Publication number Publication date
EP2739058A3 (en) 2015-06-17
US20140153642A1 (en) 2014-06-05
EP2739058A2 (en) 2014-06-04
JP2014110483A (ja) 2014-06-12

Similar Documents

Publication Publication Date Title
TWI831421B (zh) 用於線性成分樣本預測之新樣本集合及新向下取樣方案
US10939101B2 (en) Method and apparatus for video coding
US20230043350A1 (en) Method, apparatus, and system for encoding and decoding image using lm chroma prediction
US11647219B2 (en) Image encoding and decoding method with merge flag and motion vectors
CN107241605B (zh) 视频编码器以及视频编码方法
WO2019072595A1 (en) NEW SAMPLE SETS AND NEW SUB-SAMPLING SCHEMES FOR LINEAR COMPONENT SAMPLE PREDICTION
JP6137817B2 (ja) 画像符号化装置、画像符号化方法及びプログラム
WO2019162116A1 (en) New sample sets and new down-sampling schemes for linear component sample prediction
CN112087628A (zh) 使用两级帧内搜索对视频进行编码
WO2019162117A1 (en) Methods and devices for improvement in obtaining linear component sample prediction parameters
WO2019162118A1 (en) Methods and devices for linear component sample prediction using a double classification
US20140177709A1 (en) Image encoding apparatus, image encoding method and computer program
US10425645B2 (en) Encoder optimizations for palette encoding of content with subsampled colour component
JP2015005957A (ja) 画像符号化装置及び、画像符号化方法及びプログラム
JP5235813B2 (ja) 動画像符号化装置、動画像符号化方法及びコンピュータプログラム
JP6066583B2 (ja) 動画像符号化装置及び動画像符号化方法
US11917136B2 (en) Intra mode coding
JP6265705B2 (ja) 画像符号化装置及び画像符号化方法
WO2023140927A1 (en) Signalling of eob for one dimensional transform skip
JP2024507377A (ja) ビデオ処理の方法、デバイス、及びプログラム
CN117044203A (zh) 用于一维变换跳过的eob的信令
JP2021118525A (ja) 符号化装置、復号装置、及びプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170425

R151 Written notification of patent or utility model registration

Ref document number: 6137817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees