JP2024015184A - 画像復号装置及び方法及びプログラム - Google Patents

画像復号装置及び方法及びプログラム Download PDF

Info

Publication number
JP2024015184A
JP2024015184A JP2023204899A JP2023204899A JP2024015184A JP 2024015184 A JP2024015184 A JP 2024015184A JP 2023204899 A JP2023204899 A JP 2023204899A JP 2023204899 A JP2023204899 A JP 2023204899A JP 2024015184 A JP2024015184 A JP 2024015184A
Authority
JP
Japan
Prior art keywords
color difference
quantization
component
mode
quantization matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023204899A
Other languages
English (en)
Other versions
JP2024015184A5 (ja
Inventor
真悟 志摩
Shingo Shima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2023204899A priority Critical patent/JP2024015184A/ja
Publication of JP2024015184A publication Critical patent/JP2024015184A/ja
Publication of JP2024015184A5 publication Critical patent/JP2024015184A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/127Prioritisation of hardware or computational resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

Figure 2024015184000001
【課題】 2つの色差成分の残差係数の符号化効率を高めつつ、主観画質の劣化を抑制する。
【解決手段】 1つの輝度成分と2つ色差成分で構成される画像データを符号化する画像符号化装置であって、符号化対象の画像を分割することによって得られたブロックの各成分を直交変換し、当該直交変換で得た各成分の変換係数を量子化する量子化手段と、前記量子化手段によって得られた残差係数を符号化する符号化手段と、を有し、前記符号化手段は、前記2つの色差成分の直交変換の変換係数を統合して符号化する場合、当該統合することによって得られる直交変換の変換係数に対して、予め定められた量子化マトリクスを用いて量子化を行い、得られた残差係数を符号化する。
【選択図】 図1

Description

本発明は画像の復号技術に関するものである。
動画像の圧縮記録の符号化方式として、HEVC(High Efficiency Video Coding)符号化方式(以下、HEVCと記す)が知られている。HEVCでは符号化効率向上のため、従来のマクロブロック(16×16画素)より大きなサイズの基本ブロックが採用された。この大きなサイズの基本ブロックはCTU(Coding Tree Unit)と呼ばれ、そのサイズは最大64×64画素である。CTUはさらに予測や変換を行う単位となるサブブロックに分割される。
また、HEVCにおいては、量子化マトリクスと呼ばれる、直交変換を施した後の係数(以下、直交変換係数と記す)を、周波数成分に応じて重み付けをする処理が用いられている。人間の視覚には劣化が目立ちにくい高周波成分のデータをより削減することで、画質を維持しながら圧縮効率を高めることが可能となっている。特許文献1には、このような量子化マトリクスを符号化する技術が開示されている。
近年、HEVCの後継としてさらに高効率な符号化方式の国際標準化を行う活動が開始された。JVET(Joint Video Experts Team)がISO/IECとITU-Tの間で設立され、VVC(Versatile Video Coding)符号化方式(以下、VVC)として標準化が進められている。符号化効率向上のため、VVCでは2つの色差成分(Cb成分とCr成分)の量子化後の残差係数をまとめて符号化する新たな符号化方法(以下、色差残差係数統合符号化と呼称する)が検討されている。
特開2013-38758号公報
VVCにおいても、HEVCと同様に量子化マトリクスの導入が検討されている。しかしながら、HEVCにおける量子化マトリクスは輝度(Y)および色差(Cb、Cr)それぞれの成分に対する量子化・逆量子化処理を前提としており、新しい符号化方法である色差残差係数統合符号化には対応できていない。このため、色差残差係数統合符号化を用いる場合、周波数成分に応じた量子化制御を行うことができず、主観画質を向上できないという課題があった。したがって、本発明は上述した課題を解決するためになされたものであり、色差残差係数統合符号化にも対応した量子化マトリクスを用いた量子化処理を可能とすることで、主観画質を向上させることを目的としている。
この課題を解決するため、例えば本発明の画像符号化装置は以下の構成を備える。すなわち、
画像の符号化データを復号する画像復号装置であって、
前記符号化データから、量子化された変換係数である量子化変換係数に対応するデータを復号する復号手段と、
量子化マトリクスを用いた逆量子化を少なくとも行うことで、前記復号されたデータから、予測誤差を導出する導出手段と、
を有し、
色差成分の予測誤差は、第1のモード又は第2のモードを用いて導出することが可能であり、
前記画像は複数の色差成分を含み、
前記第1のモードは、前記複数の色差成分の内の第1の色差成分に関連付けられた第1の量子化変換係数の符号が前記符号化データにおいて省略され、前記第1の色差成分と、前記複数の色差成分の内の第2の色差成分とが統合されているモードであり、
前記第1のモードにおいて、前記導出手段は、前記第1の色差成分とは異なる色差成分に関連付けられた量子化変換係数を用いて、前記第1の色差成分の第1の予測誤差を導出し、
前記第1のモードにおいて、前記導出手段は、前記第1の色差成分の前記第1の予測誤差を導出するために用いられる前記量子化変換係数を、前記第1の色差成分とは異なる前記色差成分に対応する量子化マトリクスを用いて逆量子化し、
前記第2のモードは、前記第1の量子化変換係数の符号が前記符号化データにおいて省略されていないモードであり、
前記第1のモードが用いられる場合における、前記第1の予測誤差を導出するために用いられる前記量子化変換係数の逆量子化に用いられる前記量子化マトリクスと、前記第2のモードが用いられる場合における、前記第1の色差成分とは異なる色差成分に関連付けられた量子化変換係数の逆量子化に用いられる量子化マトリクスは同じであり、
前記予測誤差は三分木分割を含む、1または複数の分割方法によって分割されたブロックのための予測誤差である
ことを特徴とする。
本発明によれば、2つの色差成分の残差係数の符号化効率を高めつつも、主観画質の劣化を抑制することができる。
第1の実施形態における画像符号化装置のブロック構成図。 第1の実施形態における画像復号装置のブロック構成図。 第1の実施形態における画像符号化装置における画像符号化処理を示すフローチャート。 第1の実施形態における画像復号装置における画像復号処理を示すフローチャート。 第2の実施形態で適用するコンピュータハードウェア構成図。 実施形態にて生成されるビットストリームのデータ構造の例を示す図。 実施形態におけるサブブロック分割の例を示す図。 実施形態で用いられる量子化マトリクスの例を示す図。 実施形態で用いられる量子化マトリクスの要素の走査方法を示す図。 実施形態で生成される量子化マトリクスの差分値行列を示す図。 量子化マトリクスの差分値の符号化に用いられる符号化テーブルの例を示す図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
図1は本実施形態の画像符号化装置のブロック構図である。画像符号化装置は、装置全体の制御を司る制御部150を有する。この制御部150は、CPU、CPUが実行するプログラムを格納するROM、CPUのワークエリアとして利用するRAMを有する。また、画像符号化装置は、入力端子101、ブロック分割部102、量子化マトリクス保持部103、予測部104、変換・量子化部105、逆量子化・逆変換部106、画像再生部107、フレームメモリ108、インループフィルタ部109、符号化部110、統合符号化部111、出力端子112、及び、量子化マトリクス符号化部113を有する。
入力端子101は、画像データ発生源で発生した符号化対象の画像データをフレーム単位に入力する。画像データ発生源は、撮像装置、符号化対象の画像データを記憶したファイルサーバや記憶媒体等、その種類は問わない。また、出力端子112は、符号化データを出力先装置に出力するが、その出力先装置も記憶媒体、ファイルサーバ等、特に問わない。
ブロック分割部102は、入力したフレームの画像を複数の基本ブロックに分割し、その1つを基本ブロックとして後段の予測部104に順に出力する。
量子化マトリクス保持部103は、符号化に先立って複数の量子化マトリクスを生成し、内部の不図示のメモリに保持する。量子化マトリクスの生成方法については特に限定しないが、ユーザが量子化マトリクスを入力しても良いし、入力画像の特性から算出しても、初期値として予め指定されたものを使用しても良い。本実施形態における量子化マトリクス保持部103は、図8(a)に示される8×8画素の直交変換に対応した二次元の量子化マトリクス801と、図8(b)、(c)に示す4×4の直交変換に対応した二次元の量子化マトリクス801、802を生成し、保持する。量子化マトリクス801が輝度成分用、量子化マトリクス801、802は2つの色差成分用の量子化マトリクスである。
予測部104は、基本ブロック単位の画像データに対し、サブブロック分割を決定し、サブブロック単位でフレーム内予測であるイントラ予測やフレーム間予測であるインター予測などを行い、予測画像データを生成する。さらに、予測部104は、入力された画像データと予測画像データとから画素単位の予測誤差を算出し、出力する。また、予測部104は、予測に必要な情報、例えばサブブロック分割、予測モードや動きベクトル等の情報も予測誤差と併せて出力される。以降、この予測に必要な情報を予測情報と呼称する。
変換・量子化部105は、予測部104から入力した予測誤差をサブブロック単位で直交変換して直交変換係数(直交変換された残差係数)を得る。更に、変換・量子化部105は、量子化マトリクス保持部103に格納されている量子化マトリクスを用いて、直交変換係数の量子化を行い、量子化された残差係数(量子化された直交変換係数)を得る。
逆量子化・逆変換部106は、変換・量子化部105から残差係数を入力し、量子化マトリクス保持部103に格納されている量子化マトリクスを用いて逆量子化し、直交変換係数を再生する。逆量子化・逆変換部106は、さらに逆直交変換して予測誤差を再生する。
画像再生部107は、予測部104から出力された予測情報に基づいて、フレームメモリ108を適宜参照して予測画像データを生成する。画像再生部107は、この予測画像データに、逆量子化・逆変換部106からの予測誤差を加算することで、再生画像データを生成し、フレームメモリ108に格納する。
インループフィルタ部109は、フレームメモリ108に格納されている再生画像に対し、デブロッキングフィルタやサンプルアダプティブオフセットなどのインループフィルタ処理を行い、フィルタ処理後の画像データを再度フレームメモリ108に格納する。
符号化部110は、変換・量子化部105から出力された残差係数および予測部104から出力された予測情報を符号化して、符号データを生成し、統合符号化部111に出力する。
量子化マトリクス符号化部113は、量子化マトリクス保持部103に保持されている量子化マトリクスを符号化して、量子化マトリクス符号データを生成し、統合符号化部111に出力する。
統合符号化部111は、量子化マトリクス符号化部113からの量子化マトリクス符号データを含むヘッダ符号データを生成する。そして、統合符号化部111は、ヘッダ符号データに、符号化部110から出力された符号データを後続させ、ビットストリームを形成する。そして、統合符号化部111は、形成したビットストリームを、出力端子112を介して出力する。
ここで、画像符号化装置における画像の符号化動作をより詳しく以下に説明する。本実施形態では、入力端子101より、4:2:0カラーフォーマットの動画像データをフレーム単位に入力する構成とするが、1フレーム分の静止画データを入力する構成としても構わない。また、本実施形態では、説明を容易にするため、イントラ予測符号化の処理のみを説明するが、これに限定されずインター予測符号化の処理においても適用可能である。さらに本実施形態では説明のため、ブロック分割部101においては、入力端子より入力した画像データを、8×8画素の基本ブロックに分割するものとして説明する。すなわち、8×8画素の基本ブロックには、8×8画素の輝度(Y)成分と4×4画素の色差(CbおよびCr)成分の画素が含まれることになる。なお、これは理解を容易にするためであり、上記数値(サイズ)に限定されるものではない。
画像の符号化に先立ち、量子化マトリクスの生成および符号化を行う。
量子化マトリクス保持部103は、まず、量子化マトリクスを生成し、保持する。具体的には、符号化されるサブブロックのサイズや予測方法の種類に応じて、量子化マトリクスを生成する。本実施形態では、図7(a)に示される、サブブロックに分割しない8×8画素の基本ブロックに対応する、量子化マトリクスを生成する。すなわち、量子化マトリクス保持部103は、輝度(Y)成分用の8×8の量子化マトリクス、および、色差(CbおよびCr)成分用の4×4の量子化マトリクスを生成する。ただし、生成される量子化マトリクスはこれに限定されず、4×8、8×4など、サブブロックの形状に対応した量子化マトリクスが生成されても良い。量子化マトリクスを構成する各要素の決定方法は特に限定しない。例えば、所定の初期値を用いても良いし、個別に設定しても良い。また、画像の特性に応じて生成されても構わない。
量子化マトリクス保持部103は、このようにして生成された量子化マトリクスを、内部の不図示のメモリに保持する。図8(a)はY成分用の量子化マトリクス800を示している。また、同図(b)はCb成分用の量子化マトリクス801、同図(c)はCr成分用の量子化マトリクス802を示している。説明を簡易にするため、8×8の64画素分および4×4の16画素分の構成とし、太枠内の各正方形は量子化マトリクスを構成している各要素を表しているものとする。本実施形態では、図8(a)~(c)に示された三種の量子化マトリクスが二次元の形状で保持されているものとするが、量子化マトリクス内の各要素はもちろんこれに限定されない。また、サブブロックのサイズによって、あるいは後述の予測方法の種類、例えばイントラ予測を用いるかインター予測を用いるかによって、同じ色成分に対して複数の量子化マトリクスを保持することも可能である。一般的に、量子化マトリクスは人間の視覚特性に応じた量子化処理を実現するため、図8(a)~(c)に示すように量子化マトリクスの左上部分に相当する低周波部分の要素は小さく、右下部分に相当する高周波部分の要素は大きくなっている。
量子化マトリクス符号化部113は、量子化マトリクス保持部106に保持されている二次元形状の量子化マトリクスを順に読み出し、各要素を走査して得られる前後の要素の差分を計算し、一次元の行列に配置する。本実施形態では、図8(a)~(c)に示された各量子化マトリクスはサイズに応じて、図9(a)または(b)に示された走査方法を用い、要素ごとに走査順に直前の要素との差分を計算するものとする。例えば図8(c)で示された4×4画素分の量子化マトリクスは図9(b)で示された走査方法によって走査されるが、左上に位置する最初の要素8の次はそのすぐ下に位置する要素14が走査され、差分である+6が計算される。また、量子化マトリクスの最初の要素(本実施形態では8)の符号化には、所定の初期値(例えば8)との差分を計算するものとするが、もちろんこれに限定されず、任意の値との差分や、最初の要素の値そのものを用いても良い。要するに復号装置と同じ初期値となっていれば良い。
このようにして、量子化マトリクス符号化部113は、図8(a)の量子化マトリクス800については図9(a)の走査方法を用いて差分行列を生成する。同様に、量子化マトリクス符号化部113は、図8(b)、(c)の量子化マトリクス801、802については図9(b)の走査方法を用いて、差分行列を生成する。図10(a)は、図8(a)の量子化マトリクス800から得た差分行列1000を示している。図10(b)は図8(b)の量子化マトリクス801から得た差分行列1001を示している。そして、図10(c)は、量子化マトリクス802から得た差分行列1002を示している。
量子化マトリクス符号化部113は、上記のようにして生成した各差分行列を更に符号化し、量子化マトリクス符号データを生成する。本実施形態の量子化マトリクス符号化部113は、差分行列の個々の要素に対し、図11(a)に示される符号化テーブルを用いて、符号語を割り当てることで符号化し、量子化マトリクス符号データを生成する。なお、符号化テーブルはこれに限定されず、例えば図11(b)に示される符号化テーブルを用いても良い。このようにして、量子化マトリクス符号化部113は、生成した量子化マトリクス符号データを、後段の統合符号化部111に出力する。
図1に戻り、統合符号化部111は、画像データの符号化に必要なヘッダ情報に、量子化マトリクスの符号データを統合する。
続いて、画像データの符号化が行われる。入力端子101から入力された1フレーム分の画像データはブロック分割部102に供給される。ブロック分割部102は、入力された1フレームの画像データを複数の基本ブロックに分割し、基本ブロック単位の画像データを予測部104に出力する。本実施形態では、8×8画素の基本ブロック単位の画像データが予測部104に供給されることになる。
予測部104は、ブロック分割部102から入力された基本ブロック単位の画像データに対し予測処理を実行する。具体的には、基本ブロックをさらに細かいサブブロックに分割するサブブロック分割を決定し、さらにサブブロック単位で水平予測や垂直予測などのイントラ予測モードを決定する。
図7を参照してサブブロック分割方法を説明する。図7(a)乃至(f)のブロック700乃至705の太枠は基本ブロックとおなじ8×8画素のサイズである。太枠内の各四角形はサブブロックを表している。図7(b)は従来の正方形サブブロック分割の一例を表しており、8×8画素の基本ブロック701は、4個の4×4画素のサブブロックに分割されている。一方、図7(c)~(f)は長方形サブブロック分割の一例を表している。図7(c)は、基本ブロック702が4×8画素サイズの2個のサブブロック(垂直方向に長手)に分割されることを示している。図7(d)は、基本ブロック703が、8×4画素サイズの2個のサブブロック(水平方向に長手)に分割されることを示している。図7(e)、(f)基本ブロック704、705の場合、分割方向が異なるものの、1:2:1の比で3つの長方形サブブロックに分割されている。このように正方形だけではなく、長方形のサブブロックも用いて符号化処理を行っている。
本実施形態では、8×8画素サイズの基本ブロックを、サブブロックに分割しない図7(a)のみが用いられるものとするが、サブブロック分割方法はこれに限定されない。図7(b)のような四分木分割や、図7(e)、(f)のような三分木分割または図7(c)や図7(d)のような二分木分割を用いても構わない。図7(a)以外のサブブロック分割も用いられる場合には、量子化マトリクス保持部103にて使用されるサブブロックに対応する量子化マトリクスが生成される。また、生成された量子化マトリクスは量子化マトリクス符号化部113にて符号化されることとなる。
予測部104は、決定した予測モード、および、フレームメモリ108に格納されている符号化済の領域から予測画像データを生成し、さらに入力された画像データと前記予測画像データから画素単位の予測誤差を算出し、その予測誤差を変換・量子化部105に出力する。また、予測部104は、サブブロック分割や予測モードなどの情報を予測情報として、符号化部110、画像再生部107に出力する。
変換・量子化部105は、予測部104より入力した予測誤差に対し、直交変換・量子化を行い、残差係数を生成する。また、変換・量子化部105は、これと並行して、成分CbとCrの残差係数をまとめて符号化する色差残差係数統合符号化を用いるか否かを判定する。
ここで、本実施形態で用いられる色差残差係数統合符号化について説明する。色差残差係数統合符号化とは、CbとCrの残差係数の相関が高い場合に一方の残差係数のみを符号化し、もう一方の残差係数の符号化を省略することで、発生符号量を削減し、符号化効率を向上させるものである。復号側では符号化された一方の色差残差係数のみを復号し、もう一方の色差残差係数は復号された色差残差係数を用いて算出することにより再生する。本実施形態では、一例として、Cbの残差係数とCrの残差係数に負の相関関係がみられる場合に、色差残差係数統合符号化を用い、後段の符号化部110において成分Cbのみを符号化し、Crの残差係数の符号化を省略する。
図1に戻り、変換・量子化部105は、まずは予測誤差に対し、サブブロックのサイズに対応した直交変換処理を施し直交変換係数(直交変換された残差係数)を生成する。次に、変換・量子化部105は、生成された成分CbおよびCrの直交変換係数の相関関係から、色差残差係数統合符号化を用いるか否かを決定する。すなわち、変換・量子化部105は、成分Cbの直交変換係数に(-1)を乗じたものが成分Crの直交変換係数に近いか否かを判定し、近いと判断された場合には、色差残差係数統合符号化を用いると決定する。また、変換・量子化部105は、色差残差係数統合符号化を用いるか否かを示す情報(1ビットで良い)を色差統合情報として生成する。そして、変換・量子化部105は、直交変換係数を色成分に応じて量子化マトリクス保持部103に格納されている量子化マトリクスを用いて量子化し、残差係数(量子化された直交変換係数)を生成する。本実施形態では、Y成分の直交変換係数には図8(a)、Cb成分の直交変換係数には図8(b)、Cr成分の直交変換係数には図8(c)の量子化マトリクスが用いられるものとする。ただし、使用される量子化マトリクスはこれに限定されない。また、色差残差係数統合符号化を用いると決定した場合には、Cb成分の直交変換係数を図8(b)の量子化マトリクスを用いて量子化し、Cr成分の直交変換係数の量子化処理および後段への出力を省略する。これにより、後段の処理で用いられないCr成分の量子化処理分の演算量を削減することができる。生成された残差係数および色差統合情報は符号化部110および逆量子化・逆変換部106に出力される。
逆量子化・逆変換部106は、変換・量子化部105から入力した残差係数(量子化されている直交変換係数)を、量子化マトリクス保持部103に格納されている量子化マトリクスを用いて逆量子化することで、直交変換係数(正確には、量子化されていないが直交変換されている残差係数)を再生する。逆量子化・逆変換部106は、さらに再生された直交変換係数を逆直交変換して予測誤差を再生する。逆量子化処理には、変換・量子化部105と同様、符号化対象サブブロックの色成分に対応した量子化マトリクスが用いられる。具体的には、逆量子化・逆変換部106は、変換・量子化部105で用いられた量子化マトリクスと同一のものが用いて逆量子化を行う。すなわち、Y成分の残差係数には図8(a)、Cb成分の残差係数には図8(b)、Cr成分の残差係数には図8(c)の量子化マトリクスが用いられる。
また、色差統合情報が、サブブロックにおいて色差残差係数統合符号化が用いられていることを示している場合、逆量子化・逆変換部106は、Cb成分の残差係数の図8(b)の量子化マトリクスを用いて逆量子化し、Cb成分の直交変換係数を再生する。逆量子化・逆変換部106は、再生されたCb成分の直交変換係数に「-1」を乗じたものをCr成分の直交変換係数として再生する。こうして再生された直交変換係数に逆直交変換を施して再生された予測誤差は画像再生部107に出力される。
画像再生部107は、予測部104から入力される予測情報に基づいて、フレームメモリ108を適宜参照し、予測画像を再生する。そして画像再生部107は、再生された予測画像と、逆量子化・逆変換部106により再生された予測誤差とに基づき、再生画像データを生成し、フレームメモリ108に格納する。
インループフィルタ部109は、フレームメモリ108から再生画像データを読み出し、デブロッキングフィルタなどのインループフィルタ処理を行う。そして、インループフィルタ部109は、フィルタ処理された画像データをフレームメモリ108に再格納する。
符号化部110は、変換・量子化部105で生成されたサブブロック単位の残差係数や色差統合情報、並びに、予測部104から入力された予測情報をエントロピー符号化し、符号データを生成する。色差統合情報が、当該サブブロックにおいて色差残差係数統合符号化を用いないことを示す場合、符号化部110は、Y、Cb、Crの全ての色成分の残差係数を符号化する。一方で、色差統合情報が当該サブブロックにおいて色差残差係数統合符号化を用いることを示す場合、符号化部110は、Y、Cbの色成分の残差係数を符号化し、Cr成分の残差係数の符号化を行わない。エントロピー符号化の方法は特に指定しないが、ゴロム符号化、算術符号化、ハフマン符号化などを用いることができる。符号化部110は、生成された符号データを統合符号化部111に出力する。
統合符号化部111は、前述のヘッダの符号データとともに、符号化部110から入力された符号データなどを多重化してビットストリームを形成する。そして、統合符号化部111は、形成したビットストリームを出力端子112から外部(記録媒体はネットワーク等)に出力する。
図6(a)は本実施形態で出力されるビットストリームのデータ構造の一例である。シーケンスヘッダには、量子化マトリクスの符号データが含まれ、各要素の符号化結果で構成されている。ただし、符号化される位置はこれに限定されず、ピクチャヘッダ部やその他のヘッダ部に符号化される構成をとってももちろん構わない。また、1つのシーケンスの中で量子化マトリクスの変更を行う場合、量子化マトリクスを新たに符号化することで更新することも可能である。この際、全ての量子化マトリクスを書き換えても良いし、書き換える量子化マトリクスに対応する量子化マトリクスの色成分を指定することでその一部を変更するようにすることも可能である。
図3は、実施形態の画像符号化装置における制御部150の1フレーム分の符号化処理を示すフローチャートである。
まず、画像の符号化に先立ち、S301にて、制御部150は、量子化マトリクス保持部103を制御し、二次元の量子化マトリクスを生成させ、保持させる。本実施形態の量子化マトリクス保持部103は、8×8画素のブロックに対応し、図8(a)~(c)に示されるY成分、Cb成分およびCr成分のそれぞれの色成分に対応した量子化マトリクス801乃至802を生成し、保持することになる。
S302にて、制御部150は、量子化マトリクス符号化部113を制御し、S301にて生成・保持された量子化マトリクスを走査して各要素の差分を算出し、差分行列を生成する。本実施形態では、図8(a)~(c)に示された量子化マトリクス801乃至803は、図9(a)または(b)の走査方法を用い、図10(a)~(c)に示される差分行列が生成されることになる。そして、制御部150は、量子化マトリクス符号化部113を制御し、生成された差分行列の符号化を行わせ、量子化マトリクス符号データを生成させる。
S303にて、制御部150は、統合符号化部111を制御し、生成された量子化マトリクス符号データとともに、画像データの符号化に必要なヘッダ情報を符号化し、出力させる。S304にて、制御部150は、ブロック分割部102を制御し、フレーム単位の入力画像を基本ブロック単位に分割させる。S305にて、制御部150は、予測部104を制御し、S304にて生成された基本ブロック単位の画像データに対して、予測処理を実行させ、サブブロック分割情報や予測モードなどの予測情報および予測画像データを生成させる。更に、制御部150は、予測部104を制御して、入力された画像データと予測画像データから予測誤差を算出させる。
S306にて、制御部150は、変換・量子化部105を制御し、S305で算出された予測誤差に対して直交変換を行わせ、変換係数を生成させる。更に、制御部150は、変換・量子化部105を制御し、S301にて生成・保持された量子化マトリクスを用いて量子化を行わせ、残差係数を生成させる。これと並行して、変換・量子化部105は、CbとCrの残差係数をまとめて符号化する色差残差係数統合符号化を用いるか否かを決定させる。本実施形態では、Y成分の直交変換係数には図8(a)、Cb成分の直交変換係数には図8(b)、Cr成分の直交変換係数には図8(c)の量子化マトリクスが用いられるものとする。また、色差残差係数統合符号化が用いられる場合には、Cb成分の直交変換係数を図8(b)の量子化マトリクスを用いて量子化し、Cr成分の直交変換係数の量子化処理を省略する。
なお、色差残差係数統合符号化を用いるか否かを決定するための判定処理として、成分Cbの直交変換係数に(-1)を乗じたものが成分Crの直交変換係数に近いか否かの具体的な判定処理を挙げるのであれば次の通りである。
成分Cb、Crの直交変換係数それぞれは4×4個となっている。ここで、図9(b)の走査順の変換係数をCb(i)、Cr(i)(i=0、1、…15)として表す。Cr(i)がCb(i)に“-1”を乗じた値に近いとは、i=0、1、2、…について、両者の関係が次の関係と見なせる場合である。
Cb(i)≒-Cr(i)
つまり、次式のごとく色差CbとCrとの和が閾値以下となる場合である。
|Cb(i)+Cr(i)|≦閾値
ここで|x|は実数xの絶対値を表す。
実施形態の場合、色差成分の係数の個数が4×4個であるので、所定の閾値Thを用いて次式を満たす場合、成分Cbの直交変換係数に(-1)を乗じたものが成分Crの直交変換係数に近いと判断して良いであろう。
Σ|Cb(i)+Cr(i)|<Th
(ここで、Σはi=0,1、…15の合算を示す)
なお、絶対値を求める代わりに、次式の通り、左辺の2つの色差の和の二乗和から判定しても良い。
Σ{Cb(i)+Cr(i)}2<Th
なお、上述の実施形態では、Cbの残差係数とCrの残差係数に負の相関関係がみられる場合に、色差残差係数統合符号化を用いたが、その限りではない。
Cb(i)≒aCr(i)(aは整数)
のように相関関係を一般化することも可能である。
この場合、色差残差係数統合符号化を用いるか否かを決定するための判定処理は、
Σ{|Cb(i)|-|Cr(i)/a|}<Th
あるいは、
Σ{|Cb(i)|-|Cr(i)/a|}2<Th
などの条件が用いられることになる。この条件を満たした場合、色差残差係数統合符号化が適用される。
なお、相関関係を示す情報「a」を符号化してもよい。
S307にて、制御部150は、逆量子化・逆変換部106を制御し、S306で生成された残差係数を、S301にて生成・保持された量子化マトリクスを用いて逆量子化を行わせ、直交変換係数を再生させる。本ステップでは、S306で用いられた量子化マトリクスと同一のものが用いられ、逆量子化処理が行われる。また、色差残差係数統合符号化が用いられる場合には、Cb成分の残差係数を図8(b)の量子化マトリクスを用いて逆量子化しCb成分の直交変換係数を再生する。さらに、再生されたCb成分の直交変換係数に「-1」を乗じたものをCr成分の直交変換係数として再生する。そして、再生された直交変換係数に対して逆直交変換し、予測誤差を再生する。
S308にて、制御部150は画像再生部107を制御し、S305で生成された予測情報に基づいて予測画像を再生させ、再生された予測画像とS307で生成された予測誤差から画像データを再生させ、フレームメモリ108に格納させる。
S309にて、制御部150は、符号化部110を制御し、S305で生成された予測情報およびS306で生成された残差係数や色差統合情報の符号化を行わせ、符号データを生成させる。ここで、色差統合情報が、当該サブブロックにおいて色差残差係数統合符号化を用いないことを示す場合、符号化部110は、Y、Cb、Crの全ての色成分の残差係数を符号化する。一方で、色差統合情報が当該サブブロックにおいて色差残差係数統合符号化を用いることを示す場合、符号化部110は、成分Y、Cbの色成分の残差係数を符号化し、Cr成分の残差係数の符号化を省略する。なお、色差残差係数統合符号化を用いた場合の色成分の符号化データとして、Cb成分の残差係数を符号化する代わりに、Cb成分の残差係数の値と、Cr成分の残差係数の符号を反転させた値との平均値を符号化してもよい。この場合、復号後の画像の色再現の劣化を抑制することが可能となる。また、符号化部110は、生成した符号データを統合符号化部111に出力する。統合符号化部111は、符号化部110からの符号化データを、先に生成したヘッダに後続するように位置させ、出力する。
S310にて、制御部150は、着目フレーム内の全ての基本ブロックの符号化が終了したか否かの判定を行う。制御部150は、終了していると判定した場合にはS311に進め、未符号化の基本ブロックが残っていると判断した場合はS304に処理を戻し、次の基本ブロックに対する符号化を継続させる。
S311にて、制御部150は、インループフィルタ部109を制御し、S308で再生された画像データに対し、インループフィルタ処理を行い、フィルタ処理された画像を生成し、処理を終了する。
以上の構成と動作、特にS306において、色差残差係数統合符号化を用いたサブブロックに対して量子化マトリクスを用いた量子化処理をすることで、周波数成分ごとに量子化を制御し主観画質を向上させることができる。
なお、本実施形態では、色差残差係数統合符号化を用いた場合に図8(b)の量子化マトリクスを用いる構成としたが、使用される量子化マトリクスはこれに限定されない。例えば、図8(c)のCr成分用の量子化マトリクスを用いて量子化・逆量子化処理を行う構成としても効果は変わらない。また、既存の図8(b)や図8(c)の量子化マトリクスを用いて新しい量子化マトリクスを生成し、量子化・逆量子化処理に用いる構成とすることも可能である。
さらには、色差残差係数統合符号化向けに別の量子化マトリクスを符号化する構成としても良い。既存の図8(a)~(c)の量子化マトリクスに加え、図8(d)に示すように、色差残差係数統合符号化向けの量子化マトリクス803を用いて符号化し、色差残差係数統合符号化が用いられるサブブロックの量子化処理に用いる構成とすることもできる。これにより、色差残差係数統合符号化を用いたサブブロックに対する独自の量子化制御を実現することができる。
さらには、本実施形態では、色差残差係数統合符号化を用いたサブブロックに対する量子化マトリクスが一意に決まる構成としたが、識別子を導入することで選択可能とする構成としても構わない。例えば図6(b)は、量子化マトリクスを指定するための色差マトリクス情報(2ビットとする)を新たに導入することで、色差残差係数統合符号化を用いたサブブロックに対する量子化マトリクスを選択的にしたものである。
例えば、色差マトリクス情報が0の場合は、色差残差係数統合符号化を用いたサブブロックに対し、Cb成分に対する量子化マトリクスである図8(b)が用いられる。色差マトリクス情報が1を示している場合には、色差残差係数統合符号化を用いたサブブロックに対し、Cr成分に対する量子化マトリクスである図8(c)が用いられる。一方、色差マトリクス情報が2を示している場合には、色差残差係数統合符号化を用いたサブブロックに対し、個別に符号化された図8(d)が用いられるといった具合である。これにより、量子化マトリクス符号量削減と色差残差係数統合符号化を用いたサブブロックに対する独自の量子化制御とを選択的に実現することが可能となる。
上記をより詳しく説明すると、或るピクチャの或るサブブロック(実施形態ではサブブロック=基本ブロックとしている)の色差統合情報が色差残差係数統合符号化を用いないことを示している場合、そのサブブロックの成分Cbの変換係数は図8(b)に示す量子化マトリクス801を用いて量子化され、Cr成分の変換係数は図8(c)の量子化マトリクス802を用いて量子化されていることを示す。
一方、或るピクチャの或るサブブロックの色差統合情報が色差残差係数統合符号化されていることを示す場合には、成分Cb,Crのサブブロックのいずれが符号化されるかは、ヘッダに格納されている色差マトリクス情報に依存する。例えば、色差マトリクス情報が0の場合は、成分Cb、Crのうち、成分Cbのサブブロックの変換係数が図8(b)の量子化マトリクス801で量子化、符号化されることを示し、成分Crの量子化および符号化は省略されることを示す。また、色差マトリクス情報が1の場合は、成分Cb、Crのうち、成分Crのサブブロックの変換係数が図8(c)の量子化マトリクス802を用いて量子化、符号化されることを示し、成分Cbの量子化および符号化は省略されることを示す(成分Cbを符号化し、成分Crを省略してもよい)。そして、色差マトリクス情報が2の場合は、成分Cb、Crのうち、成分Cb(あるいは成分Cr)のサブブロックの変換係数が図8(d)の量子化マトリクス803を用いて量子化、符号化されることを示し、成分Cr(あるいは成分Cb)の量子化および符号化は省略されることを示す。
なお、図8(d)の量子化マトリクス803を用いる場合、ヘッダに量子化マトリクス803の符号化データを格納することになる。つまり、量子化マトリクス保持部103は量子化マトリクス803を生成、保持し、量子化マトリクス符号化部113はその量子化マトリクス803も符号化することになる。
図2は、実施形態における上記画像符号化装置で生成された符号化画像データを復号する画像復号装置のブロック構成図である。以下、同図を参照し、復号処理に係る構成とその動作を説明する。
画像復号装置は、装置全体の制御を司る制御部250を有する。この制御部250は、CPU、CPUが実行するプログラムを格納するROM、CPUのワークエリアとして利用するRAMを有する。また、画像復号装置は、入力端子201、分離復号部202、復号部203、逆量子化・逆変換部204、画像再生部205、フレームメモリ206、インループフィルタ部207、出力端子208、及び、量子化マトリクス復号部209を有する。
入力端子201は、符号化されたビットストリームを入力するものであり、入力源は例えば符号化ストリームを格納した記憶媒体であるが、ネットワークから入力しても良く、その種類は問わない。
分離復号部202は、ビットストリームから復号処理に関する情報や係数に関する符号データに分離し、またビットストリームのヘッダ部に存在する符号データを復号する。本実施形態の分離復号部202は、量子化マトリクス符号データを分離し、量子化マトリクス復号部209に出力する。また、分離復号部202は、画像の符号データを復号部203に出力する。つまり、分離復号部202は、図1の統合符号化部111と逆の動作を行う。
量子化マトリクス復号部209は、分離復号部202より供給された量子化マトリクス符号データを復号することで量子化マトリクスを再生し、保持する。
復号部203は、分離復号部202から出力された画像の符号データを復号し、残差係数、色差統合情報および予測情報を再生する。
逆量子化・逆変換部204は、図1の逆量子化・逆変換部106と同様、再生された量子化マトリクスを用いて残差係数に対して逆量子化を行い、逆量子化後の係数を得、さらに逆直交変換を実行することで予測誤差を再生する。
画像再生部205は、入力された予測情報に基づいてフレームメモリ206を適宜参照して予測画像データを生成する。そして、画像再生部205は、この予測画像データと逆量子化・逆変換部204で再生された予測誤差から再生画像データを生成し、フレームメモリ206に再格納する。
インループフィルタ部207は、図1のインループフィルタ部109と同様、フレームメモリ206に格納された再生画像データに対し、デブロッキングフィルタなどのインループフィルタ処理を行い、フィルタ処理後の画像データをフレームメモリに再格納する。
出力端子208は、フレームメモリ206に格納されたフレーム画像を順次、外部に出力する。出力先は表示装置が一般的であるが、他のデバイスであっても構わない。
上記実施形態の画像復号装置の画像の復号に係る動作を、更に詳しく説明する。本実施形態では、符号化されたビットストリームをフレーム単位で入力する構成となっている。
図2において、入力端子201から入力された1フレーム分のビットストリームは分離復号部202に供給される。分離復号部202では、ビットストリームから復号処理に関する情報や係数に関する符号データに分離し、ビットストリームのヘッダ部に存在する符号データを復号する。そして、分離復号部202には、ヘッダ部に含まれていた量子化マトリクス符号データを量子化マトリクス復号部209に供給し、画像データの符号データを復号部202に供給する。具体的には、分離復号部202は、まず、図6(a)に示されるビットストリームのシーケンスヘッダから量子化マトリクス符号データを抽出し、量子化マトリクス復号部209に出力する。本実施形態では、図8(a)~(c)に示される量子化マトリクスに対応する量子化マトリクス符号データが抽出、出力される。続いて、ピクチャデータの基本ブロック単位の符号データを抽出し、復号部203に出力する。
量子化マトリクス復号部209は、まず入力された量子化マトリクス符号データを復号し、図10(a)~(c)に示される一次元の差分行列1000乃至1002を再生する。そして、量子化マトリクス復号部209は、符号化側と同様、図11(a)に示される符号化テーブルを用いて各量子化マトリクスを復号する。なお、実施形態では図11(a)の符号化テーブルを利用するものとするが、図11(b)の符号化テーブルを用いても構わない。要するに、符号化側と同じものを用いれば良い。量子化マトリクス復号部209は、再生された一次元の差分行列1000乃至1002を逆走査し、二次元の量子化マトリクスを再生し、保持する。ここでは符号化側の量子化マトリクス符号化部113の動作とは逆の動作を行う。すなわち、本実施形態の量子化マトリクス符号化部113は、図10(a)~(c)に示される差分行列1000乃至1002を、それぞれのサイズに応じて図9(a)または(b)に示される走査方法を用いて復号する。この結果、量子化マトリクス符号化部113は、図8(a)~(c)に示される3種の量子化マトリクス800乃至802を再生し、保持することができる。
復号部203は、分離復号部202から供給された符号データを復号し、色差統合情報および予測情報を再生し、再生された色差統合情報に応じてさらに残差係数を再生する。まず、復号部203は、予測情報を再生し、当該サブブロックで用いられる予測モードを取得する。次に、復号部203は、色差統合情報を再生し、当該サブブロックで色差残差係数統合符号化されているか否かを判定する。色差統合情報が、当該サブブロックにおいて色差残差係数統合符号化を用いないことを示す場合、復号部203は、Y、Cb、Crの全ての色成分の残差係数を復号して再生する。一方、色差統合情報が、当該サブブロックにおいて色差残差係数統合符号化を用いることを示す場合、復号部203は、Y、Cbの色成分の残差係数を復号する(Crの色成分の符号化データは存在しないので、その復号処理は行わない)。復号部203は、再生された色差統合情報および残差係数は逆量子化・逆変換部204に出力し、再生された予測情報は画像再生部205に出力される。
逆量子化・逆変換部204は、入力された残差係数に対し、量子化マトリクス復号部209で再生された量子化マトリクスを用いて逆量子化を行って直交変換係数を生成し、さらに逆直交変換を施して予測誤差を再生する。逆量子化・逆変換部204は、符号化側の逆量子化・逆変換部106と同様、復号対象サブブロックの色成分に対応した量子化マトリクスが用いて逆量子化を行うことになる。すなわち、Y成分の残差係数には図8(a)、Cb成分の残差係数には図8(b)、Cr成分の残差係数には図8(c)の量子化マトリクスが用いられる。ただし、色差統合情報が、当該サブブロックにおいて色差残差係数統合符号化が用いられていることを示す場合には、復号部203からはCr成分の直交変換係数の残差係数の供給はない。そこで、逆量子化・逆変換部204は、Cb成分の残差係数の図8(b)の量子化マトリクスを用いて逆量子化した後、Cr成分の直交変換係数を再生する。すなわち、Cr成分の再生の前に量子化マトリクスを用いて逆量子化が行うことにより、処理の効率化を図っている。具体的には、逆量子化・逆変換部204は、再生されたCb成分の直交変換係数に(-1)を乗じたものをCr成分の直交変換係数として再生し、画像再生部205に供給する。こうして再生された直交変換係数に逆直交変換を施して再生された予測誤差は画像再生部205に出力される。ただし、使用される量子化マトリクスはこれに限定されず、符号化側の変換・量子化部105および逆量子化・逆変換部106で用いられた量子化マトリクスと同一のものであれば良い。
なお、上述では、負の相関関係がみられる場合を一例として説明したが、その限りではない。
Cb(i)≒aCr(i)(aは整数)
の相関関係がみられる場合に色差残差係数統合符号化が行われていた場合、Cb成分の直交変換係数に(a)を乗じたものをCr成分の直交変換係数として再生することになる。相関関係を示す情報「a」は、ビットストリームから復号してもよいし、符号化側と復号側で予めルールとして保持してもよい。
画像再生部205は、復号部203から入力された予測情報に基づいて、フレームメモリ206を適宜参照し、予測画像を再生する。本実施形態の画像再生部205は、符号化側の予測部104と同様、水平予測や垂直予測などのイントラ予測が用いられる。具体的な予測の処理については、符号化側の予測部104と同様であるため、説明を省略する。画像再生部205は、この予測画像と逆量子化・逆変換部204から入力された予測誤差から画像データを再生し、フレームメモリ206に再格納する。格納された画像データは予測の際の参照に用いられる。
インループフィルタ部207は、符号化側のインループフィルタ部109と同様、フレームメモリ206から再生画像を読み出し、デブロッキングフィルタなどのインループフィルタ処理を行う。そして、インループフィルタ部207はフィルタ処理された画像は再びフレームメモリ206に再格納する。
フレームメモリ206に格納された再生画像は、最終的には出力端子208から外部(表示装置がその代表となる)に出力される。
図4は、実施形態に係る画像復号装置における制御部250の復号処理を示すフローチャートである。
まず、S401にて、制御部250は、分離復号部202を制御して、ビットストリームから復号処理に関する情報や係数に関する符号データに分離して、ヘッダ部分の符号データを復号する。より具体的には、分離復号部202は、量子化マトリクス符号データを量子化マトリクス復号部209に供給し、画像の符号データを復号部203に供給させる。
S402にて、制御部250は量子化マトリクス復号部209を制御し、S401で再生された量子化マトリクス符号データを復号させる。この結果、量子化マトリクス復号部209は、図10(a)~(c)で示される一次元の差分行列1000乃至1002を再生する。そして、量子化マトリクス復号部209は、一次元の差分行列1000に対しては図9(a)に示す走査を行い、図11(a)の符号化テーブルに従って復号し、図8(a)の量子化マトリクス800乃至802を再生し、保持する。また、量子化マトリクス復号部209は、一次元の差分行列1001,1102に対しては図9(b)に示す走査を行い、図11(a)の符号化テーブルに従って復号し、図8(b)、(c)の量子化マトリクス801,802を再生し、保持する。
S403にて、制御部250は、復号部203を制御し、S401で分離された符号データを復号し、色差統合情報および予測情報を再生し、輝度成分の残差係数、並びに、色差統合情報に応じた色差の残差係数を再生する。既に説明したように、再生する色差の残差係数はCb,Crの両方の場合と、Cbだけの場合ある点に注意されたい。
S404にて、制御部250は、逆量子化・逆変換部204を制御し、残差係数に対しS402で再生された量子化マトリクスを用いて逆量子化を行って直交変換係数を生成させる。逆量子化・逆変換部204は、更に逆直交変換を行い、予測誤差を再生する。本実施形態では、復号対象サブブロックの色成分に応じて、逆量子化処理において使用される量子化マトリクスを決定する。すなわち、逆量子化・逆変換部204は、Y成分の残差係数に対しては図8(a)、Cb成分の残差係数に対しては図8(b)、Cr成分の残差係数に対しては図8(c)の量子化マトリクスが用いて逆量子化する。ただし、使用される量子化マトリクスはこれに限定されず、符号化側で用いられた量子化マトリクスと同一のものであれば良い。
ただし、色差統合情報が、当該サブブロックにおいて色差残差係数統合符号化が用いられていることを示す場合、逆量子化・逆変換部204は、Cb成分の残差係数の図8(b)の量子化マトリクスを用いて逆量子化してCb成分の直交変換係数を再生する。そして逆量子化・逆変換部204は、再生されたCb成分の直交変換係数に(-1)を乗じたものをCr成分の直交変換係数として再生する。
S405にて、制御部250は画像再生部205を制御し、S403で生成された画像を再生させる。具体的には、画像再生部205は、予測情報に基づき、フレームメモリ206を参照して予測画像を再生する。このとき、画像再生部205は、符号化側のS305と同様、水平予測や垂直予測などのイントラ予測が用いられる。そして、画像再生部205は、再生された予測画像と、S404で生成された予測誤差から画像データを再生し、再生した画像データをフレームメモリ206に格納する。
S406にて、制御部250は、着目フレーム内の全ての基本ブロックの復号が終了したか否かの判定を行い、終了していれば処理をS407に進み、未復号のブロックが存在する場合は次の基本ブロックを復号対象とするため処理をS403に戻す。
S407にて、制御部250はインループフィルタ部207を制御し、S405で再生された画像データに対し、インループフィルタ処理を行い、フィルタ処理された画像を生成し、処理を終了する。
以上の構成と動作により、先に説明した画像符号化装置で生成された符号化ビットストリーム、すなわち、色差残差係数統合符号化を用いたサブブロックに対しても、周波数成分ごとに量子化を制御し主観画質を向上したビットストリームを復号することができる。
なお、本実施形態では、ビットストリームのヘッダに、色差マトリクス情報が含まれる場合の復号処理は次のようになるであろう。
或るピクチャの或るサブブロック(実施形態ではサブブロック=基本ブロックとしている)の色差統合情報が色差残差係数統合符号化を用いないことを示している場合、そのサブブロックの成分Cbの残差係数は図8(b)に示す量子化マトリクス801を用いて逆量子化され、Cr成分の残差係数は図8(c)の量子化マトリクス802を用いて逆量子化される。
一方、或るピクチャの或るサブブロックの色差統合情報が色差残差係数統合符号化されていることを示す場合には、成分Cb,Crのサブブロックのいずれが符号化されるかは、ヘッダに格納されている色差マトリクス情報に依存する。以下はその説明である。
色差マトリクス情報が0の場合は、成分Cb、Crのうち、成分Cbのサブブロックの残差係数は図8(b)の量子化マトリクス801で逆量子化して変換係数を得て、復号される。成分Crは存在しないので、逆量子化した成分Cbの変換係数に“-1”を乗算した値を、成分Crの変換係数として生成し、復号する。
また、色差マトリクス情報が1の場合は、成分Cb、Crのうち、成分Crのサブブロックの残差係数は図8(c)の量子化マトリクス802で逆量子化して変換係数を得て、復号される。成分Cbは存在しないので、逆量子化した成分Crの変換係数に“-1”を乗算した値を、成分Cbの変換係数として生成し、復号する。
また、色差マトリクス情報が2の場合は、成分Cb、Crのうち、一方(例えば成分Cb)のサブブロックの残差係数は図8(b)の量子化マトリクス801で逆量子化して変換係数を得て、復号される。他方の成分Crは存在しないので、逆量子化した一方の成分の変換係数に“-1”を乗算した値を、他方の成分の変換係数として生成し、復号する。
この結果、色差残差係数統合符号化を用いたサブブロックに対する独自の量子化制御を実現したビットストリームを復号することができる。
[第2の実施形態]
上記実施形態の画像符号化装置及び画像復号装置が有する各処理部は、ハードウェアでもって構成しているものとして説明した。しかし、これらの図に示した各処理部で行う処理を、コンピュータプログラムでもって構成しても良い。
図5は、上記実施形態に係る画像符号化装置、画像復号装置に適用可能なコンピュータのハードウェアの構成例を示すブロック図である。
CPU501は、RAM502やROM503に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上記実施形態に係る画像処理装置が行うものとして上述した各処理を実行する。即ち、CPU501は、図1、図2に示した各処理部として機能することになる。
RAM502は、外部記憶装置506、I/F(インターフェース)507を介して外部から取得したプログラムやデータなどを一時的に記憶するためのエリアを有する。更に、RAM502は、CPU501が各種の処理を実行する際に用いるワークエリアとしても利用される。RAM502は、例えば、フレームメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。
ROM503には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部504は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU501に対して入力することができる。表示部505は、CPU501による処理結果を表示する。また表示部505は例えば液晶ディスプレイで構成される。
外部記憶装置506は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置506には、OS(オペレーティングシステム)や、図1、図2に示した各部の機能をCPU501に実現させるためのコンピュータプログラム(アプリケーションプログラム)が保存されている。更には、外部記憶装置506には、処理対象としての各画像データが保存されていても良い。
外部記憶装置506に保存されているコンピュータプログラムやデータは、CPU501による制御に従って適宜、RAM502にロードされ、CPU501による処理対象となる。I/F507には、LANやインターネット等のネットワーク、投影装置や表示装置などの他の機器を接続することができ、本コンピュータはこのI/F507を介して様々な情報を取得したり、送出したりすることができる。508は上述の各部を繋ぐバスである。
上記構成において、本装置に電源が投入されると、CPU501はROM503に格納されたブートプログラムを実行し、外部記憶装置506に格納されたOSをRAM502にロードし実行する。そして、CPU501は、OSの制御下にて、外部記憶装置506から符号化、或いは、復号に係るアプリケーションプログラムをRAM502にロードし、実行する。この結果、CPU501は、図1或いは図2の各処理部として機能し、本装置が画像符号化装置、或いは、画像復号装置として機能することになる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は静止画・動画の符号化・復号を行う符号化装置・復号装置に用いられる。特に、量子化マトリクスを使用する符号化方式および復号方式に適用が可能である。
101…入力端子、102…ブロック分割部、103…量子化マトリクス保持部、104…予測部、105…変換・量子化部、106…逆量子化・逆変換部、107…画像再生部、108…フレームメモリ、109…インループフィルタ部、110…符号化部、111…統合符号化部、112…出力端子、113…量子化マトリクス符号化部

Claims (9)

  1. 画像の符号化データを復号する画像復号装置であって、
    前記符号化データから、量子化された変換係数である量子化変換係数に対応するデータを復号する復号手段と、
    量子化マトリクスを用いた逆量子化を少なくとも行うことで、前記復号されたデータから、予測誤差を導出する導出手段と、
    を有し、
    色差成分の予測誤差は、第1のモード又は第2のモードを用いて導出することが可能であり、
    前記画像は複数の色差成分を含み、
    前記第1のモードは、前記複数の色差成分の内の第1の色差成分に関連付けられた第1の量子化変換係数の符号が前記符号化データにおいて省略され、前記第1の色差成分と、前記複数の色差成分の内の第2の色差成分とが統合されているモードであり、
    前記第1のモードにおいて、前記導出手段は、前記第1の色差成分とは異なる色差成分に関連付けられた量子化変換係数を用いて、前記第1の色差成分の第1の予測誤差を導出し、
    前記第1のモードにおいて、前記導出手段は、前記第1の色差成分の前記第1の予測誤差を導出するために用いられる前記量子化変換係数を、前記第1の色差成分とは異なる前記色差成分に対応する量子化マトリクスを用いて逆量子化し、
    前記第2のモードは、前記第1の量子化変換係数の符号が前記符号化データにおいて省略されていないモードであり、
    前記第1のモードが用いられる場合における、前記第1の予測誤差を導出するために用いられる前記量子化変換係数の逆量子化に用いられる前記量子化マトリクスと、前記第2のモードが用いられる場合における、前記第1の色差成分とは異なる色差成分に関連付けられた量子化変換係数の逆量子化に用いられる量子化マトリクスは同じであり、
    前記予測誤差は三分木分割を含む、1または複数の分割方法によって分割されたブロックのための予測誤差である
    ことを特徴とする画像復号装置。
  2. 前記第2のモードにおいて、前記第1の量子化変換係数に対応するデータと、前記第1の色差成分とは異なる前記色差成分に関連付けられた第2の量子化変換係数に対応するデータとが、前記符号化データから復号される
    ことを特徴とする請求項1に記載の画像復号装置。
  3. 前記第1のモードにおいて、前記導出手段は、前記第1の色差成分とは異なる前記色差成分に係る値と所定の値との乗算を行うことによって、前記第1の予測誤差を導出する
    ことを特徴とする請求項1に記載の画像復号装置。
  4. 前記復号手段は、前記第1のモードにおいて前記第1の予測誤差を導出するために用いられる情報をさらに復号する
    ことを特徴とする請求項1に記載の画像復号装置。
  5. 画像の符号化データを復号する画像復号方法であって、
    前記符号化データから、量子化された変換係数である量子化変換係数に対応するデータを復号する復号工程と、
    量子化マトリクスを用いた逆量子化を少なくとも行うことで、前記復号されたデータから、予測誤差を導出する導出工程と、
    を有し、
    色差成分の予測誤差は、第1のモード又は第2のモードを用いて導出することが可能であり、
    前記画像は複数の色差成分を含み、
    前記第1のモードは、前記複数の色差成分の内の第1の色差成分に関連付けられた第1の量子化変換係数の符号が前記符号化データにおいて省略され、前記第1の色差成分と、前記複数の色差成分の内の第2の色差成分とが統合されているモードであり、
    前記第1のモードにおける前記導出工程において、前記第1の色差成分とは異なる色差成分に関連付けられた量子化変換係数を用いて、前記第1の色差成分の第1の予測誤差を導出し、
    前記第1のモードにおける前記導出工程において、前記第1の色差成分の前記第1の予測誤差を導出するために用いられる前記量子化変換係数を、前記第1の色差成分とは異なる前記色差成分に対応する量子化マトリクスを用いて逆量子化し、
    前記第2のモードは、前記第1の量子化変換係数の符号が前記符号化データにおいて省略されていないモードであり、
    前記第1のモードにおける前記導出工程において、前記第1の予測誤差を導出するために用いられる前記量子化変換係数の逆量子化に用いられる前記量子化マトリクスと、前記第2のモードにおける前記導出工程において、前記第1の色差成分とは異なる色差成分に関連付けられた量子化変換係数の逆量子化に用いられる量子化マトリクスは同じであり、
    前記予測誤差は三分木分割を含む、1または複数の分割方法によって分割されたブロックのための予測誤差である
    ことを特徴とする画像復号方法。
  6. 前記第2のモードにおいて、前記第1の量子化変換係数に対応するデータと、前記第1の色差成分とは異なる前記色差成分に関連付けられた第2の量子化変換係数に対応するデータとが、前記符号化データから復号される
    ことを特徴とする請求項5に記載の画像復号方法。
  7. 前記第1のモードにおける前記導出工程において、前記第1の色差成分とは異なる前記色差成分に係る値と所定の値との乗算を行うことによって、前記第1の予測誤差を導出する
    ことを特徴とする請求項5に記載の画像復号方法。
  8. 前記第1のモードにおいて前記第1の予測誤差を導出するために用いられる情報をさらに復号する情報復号工程を更に有することを特徴とする請求項5に記載の画像復号方法。
  9. コンピュータを、請求項1~4のいずれか1項に記載の画像復号装置の各手段として機能させることを特徴とするプログラム。
JP2023204899A 2019-06-07 2023-12-04 画像復号装置及び方法及びプログラム Pending JP2024015184A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023204899A JP2024015184A (ja) 2019-06-07 2023-12-04 画像復号装置及び方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019107454A JP7493310B2 (ja) 2019-06-07 2019-06-07 画像復号装置及び方法及びプログラム
JP2023204899A JP2024015184A (ja) 2019-06-07 2023-12-04 画像復号装置及び方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019107454A Division JP7493310B2 (ja) 2019-06-07 2019-06-07 画像復号装置及び方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2024015184A true JP2024015184A (ja) 2024-02-01
JP2024015184A5 JP2024015184A5 (ja) 2024-03-29

Family

ID=73652489

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019107454A Active JP7493310B2 (ja) 2019-06-07 2019-06-07 画像復号装置及び方法及びプログラム
JP2023204899A Pending JP2024015184A (ja) 2019-06-07 2023-12-04 画像復号装置及び方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019107454A Active JP7493310B2 (ja) 2019-06-07 2019-06-07 画像復号装置及び方法及びプログラム

Country Status (8)

Country Link
US (6) US11856198B2 (ja)
EP (1) EP3982632A4 (ja)
JP (2) JP7493310B2 (ja)
KR (1) KR20220011175A (ja)
CN (1) CN113994677A (ja)
BR (1) BR112021024187A2 (ja)
TW (1) TW202101990A (ja)
WO (1) WO2020246125A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11641469B2 (en) * 2020-01-13 2023-05-02 Qualcomm Incorporated Signaling scaling matrices in video coding

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
US20110249755A1 (en) * 2008-12-16 2011-10-13 Youji Shibahara Moving image coding method, moving image decoding method, moving image coding apparatus, moving image decoding apparatus, program, and integrated circuit
EA021750B1 (ru) 2009-10-30 2015-08-31 Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка Способ декодирования, декодирующее устройство, способ кодирования и кодирующее устройство
CN102164284A (zh) * 2010-02-24 2011-08-24 富士通株式会社 视频解码方法和***
JP2011259205A (ja) * 2010-06-09 2011-12-22 Sony Corp 画像復号化装置と画像符号化装置およびその方法とプログラム
JP2013038758A (ja) 2011-07-13 2013-02-21 Canon Inc 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
US9031137B2 (en) * 2012-05-03 2015-05-12 Texas Instruments Incorporated Signaling signed band offset values for sample adaptive offset (SAO) filtering in video coding
JP6210368B2 (ja) * 2012-09-18 2017-10-11 サン パテント トラスト 画像復号方法および画像復号装置
CN107360419B (zh) * 2017-07-18 2019-09-24 成都图必优科技有限公司 一种基于透视模型的运动前视视频帧间预测编码方法
JP6644865B2 (ja) 2018-12-28 2020-02-12 日本光電工業株式会社 医療用システム

Also Published As

Publication number Publication date
EP3982632A1 (en) 2022-04-13
KR20220011175A (ko) 2022-01-27
JP7493310B2 (ja) 2024-05-31
US20220094937A1 (en) 2022-03-24
CN113994677A (zh) 2022-01-28
WO2020246125A1 (ja) 2020-12-10
US20240089442A1 (en) 2024-03-14
US20240089443A1 (en) 2024-03-14
US20240089440A1 (en) 2024-03-14
TW202101990A (zh) 2021-01-01
JP2020202473A (ja) 2020-12-17
BR112021024187A2 (pt) 2022-01-11
EP3982632A4 (en) 2023-05-03
US20240089439A1 (en) 2024-03-14
US11856198B2 (en) 2023-12-26
US20240089441A1 (en) 2024-03-14

Similar Documents

Publication Publication Date Title
JP2023105156A (ja) 画像符号化装置、画像符号化方法、及びプログラム
JP2024015184A (ja) 画像復号装置及び方法及びプログラム
JP2023181542A (ja) 画像符号化装置及び画像復号装置及びそれらの制御方法及びプログラム
TWI795635B (zh) 圖像解碼裝置、圖像解碼方法及程式
TWI791959B (zh) 圖像解碼裝置、圖像解碼方法及程式
JP7358135B2 (ja) 画像符号化装置、画像符号化方法、及びプログラム、画像復号装置、画像復号方法、及びプログラム
WO2020003740A1 (ja) 画像符号化装置及び画像復号装置及びそれらの制御方法及びプログラム
JP7508676B2 (ja) 画像符号化装置、画像符号化方法、及びプログラム、画像復号装置、画像復号方法、及びプログラム
JP7508675B2 (ja) 画像符号化装置、画像符号化方法、及びプログラム、画像復号装置、画像復号方法、及びプログラム
JP7358136B2 (ja) 画像符号化装置、画像符号化方法、及びプログラム、画像復号装置、画像復号方法、及びプログラム
WO2021187023A1 (ja) 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
WO2021054012A1 (ja) 画像符号化装置、画像復号装置及びそれらの制御方法及びプログラム
JP2021150723A (ja) 画像符号化装置、画像符号化方法、及びプログラム、画像復号装置、画像復号方法、及びプログラム
JP2021002724A (ja) 画像符号化装置及び画像復号装置及び方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240321