JP5282692B2 - 画像符号化装置と画像符号化方法 - Google Patents

画像符号化装置と画像符号化方法 Download PDF

Info

Publication number
JP5282692B2
JP5282692B2 JP2009173907A JP2009173907A JP5282692B2 JP 5282692 B2 JP5282692 B2 JP 5282692B2 JP 2009173907 A JP2009173907 A JP 2009173907A JP 2009173907 A JP2009173907 A JP 2009173907A JP 5282692 B2 JP5282692 B2 JP 5282692B2
Authority
JP
Japan
Prior art keywords
code amount
picture
unit
encoding
quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009173907A
Other languages
English (en)
Other versions
JP2011029953A (ja
JP2011029953A5 (ja
Inventor
恭平 小藪
孝明 渕江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009173907A priority Critical patent/JP5282692B2/ja
Priority to EP20100168912 priority patent/EP2282545A1/en
Priority to CN2010102339055A priority patent/CN101969554B/zh
Priority to US12/840,739 priority patent/US8483494B2/en
Publication of JP2011029953A publication Critical patent/JP2011029953A/ja
Publication of JP2011029953A5 publication Critical patent/JP2011029953A5/ja
Application granted granted Critical
Publication of JP5282692B2 publication Critical patent/JP5282692B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

この発明は、画像符号化装置と画像符号化方法に関する。詳しくは、ロングGOP構造を採用して画像の符号化と復号化を繰り返しても、画質の劣化を少なくできる画像符号化装置と画像符号化方法に関する。
従来、MPEG(Moving Picture Experts Group)2等の画像符号化方式において、符号量を理想的に配分することは、主観的な画質を維持するための大きな課題である。
例えば、静止画における理想的な符号量配分とは、歪を均一とした状態(固定的な量子化スケール)で符号化した状態である。この歪が大きくなるような符号量になると、高周波成分や複雑部に歪を偏らせることと併せて、主観的な画質を高めることができる。
ここで、例えば特許文献1では、いわゆるフィードフォワード方式の符号量制御を採用し画質信号の局所的性質に適応した制御を可能とすることによって、復号画像の画質を向上できる画質信号の符号化方法が開示されている。フィードフォワード方式とは、等長化単位において発生する符号量を、複数の量子化スケールについて予め計算し、発生符号量が目標発生符号量を超えない範囲で、適切な量子化スケールを決定するものである。
一方、MPEG2でテストモデルとして提案されているTM5等の符号量制御では、仮想バッファの残量と以前エンコードした際の量子化インデックスと発生符号量の関係を用いてフィードバック制御することによって、符号量制御を行っている。
また、画像の符号化と復号化を繰り返したときの画質低下を抑制するため、例えば特許文献2では、前回の符号化時に用いられた量子化パラメータや量子化マトリクスを検出することが行われている。
国際公開第WO96/28937号公報 国際公開第WO2009/035144号公報
ところで、画像の編集処理等では、参照ピクチャと非参照ピクチャを所定の順番で含むGOP(Group of Picture)単位で画像データを符号化したときのストリーム、いわゆるロングGOP構造の符号化ストリームが用いられている。なお、参照ピクチャは、Iピクチャ(Intra符号化画像)とPピクチャ(Predictive符号化画像)である。また、非参照ピクチャはBピクチャ(Bidirectionally Predictive符号化画像)である。
このようなロングGOP構造の符号化ストリームを用いて編集処理等を行う場合、符号化ストリームの復号化を行って得られた画像データに対して種々の処理、例えばカラーコレクションやカット編集等が行われる。また、編集後の画像データは再度符号化されて符号化ストリームが生成される。このように符号化と復号化が繰り返されると、ピクチャタイプが前回の符号化と異なったとき、ピクチャタイプが等しい場合に比べて画質の劣化が顕著となってしまう場合がある。例えば、他のピクチャから参照される参照ピクチャに対して符号量を多く割り当てて参照ピクチャの画質劣化を抑えるように符号化を行えば、全体の画像で画質劣化を少なくできる。このように参照ピクチャと非参照ピクチャで画質の差を設けることで主観的な画質を向上させているとき、参照ピクチャに比べて画質の劣る非参照ピクチャが次の符号化で参照ピクチャに設定されてしまうと、全体の画像で画質劣化が大きくなってしまう。
そこで、この発明では、参照ピクチャと非参照ピクチャを所定の順番で含むGOP構造を採用して画像データの符号化と復号化を繰り返しても、画質の劣化を少なくできる画像符号化装置と画像符号化方法を提供することを目的とする。
この発明の第1の側面は、予め設定した量子化情報を用い、参照ピクチャと非参照ピクチャを所定の順番で含むGOP(Group of Picture)単位で画像データの符号化を行い発生符号量を算出する第1の符号化部と、前記第1の符号化部で算出された発生符号量に基づいて目標発生符号量を実現する量子化情報の設定を行う符号量制御部と、前記画像データの各フレームの画像を参照ピクチャであるIピクチャ(Intra符号化画像)としてDCT(Discrete Cosine Transform)係数の算出を行い、前記符号量制御部で設定された量子化情報を基準とした範囲の量子化情報を用いて前記DCT係数の除算したときの剰余のピクチャ単位の総和が最小となる量子化情報を、前回符号化が行われたときに用いた量子化情報と判別する量子化情報判別部と、前記画像データに対して前記GOP単位でピクチャタイプの設定を行い、該設定したピクチャタイプと前記量子化情報判別部で量子化情報が判別されたピクチャタイプが相違するときは、その後のピクチャタイプの設定を制御してピクチャタイプを一致させるピクチャタイプ設定部と、符号量制御部で設定された前記量子化情報を用いて、前記ピクチャタイプ設定部で設定されたピクチャタイプに基づき前記画像データの符号化を行う第2の符号化部とを有する画像符号化装置にある。
また、この発明の第2の側面は、第1の符号化部で、予め設定した量子化情報を用い、参照ピクチャと非参照ピクチャを所定の順番で含むGOP(Group of Picture)単位で画像データの符号化を行い発生符号量を算出するステップと、符号量制御部で、前記第1の符号化部で算出された発生符号量に基づいて目標発生符号量を実現する量子化情報の設定を行うステップと、量子化情報判別部で、前記画像データの各フレームの画像を参照ピクチャであるIピクチャ(Intra符号化画像)としてDCT(Discrete Cosine Transform)係数の算出を行い、前記符号量制御部で設定された量子化情報を基準とした範囲の量子化情報を用いて前記DCT係数の除算したときの剰余のピクチャ単位の総和が最小となる量子化情報を、前回符号化が行われたときに用いた量子化情報と判別するステップと、前記ピクチャタイプ設定部で、前記画像データに対して前記GOP単位でピクチャタイプの設定を行い、該設定したピクチャタイプと前記量子化情報判別部で量子化情報が判別されたピクチャタイプが相違するときは、その後のピクチャタイプの設定を制御してピクチャタイプを一致させるステップと、第2の符号化部で、前記符号量制御部で設定された前記量子化情報を用いて、前記ピクチャタイプ設定部で設定されたピクチャタイプに基づき前記画像データの符号化を行うステップとを有する画像符号化方法にある。
この発明においては、ロングGOP構造を採用して、画像データのプレエンコードが第1の符号化部で行われて、本エンコードが第2の符号化部で行われる。第1の符号化部では、予め設定した量子化情報を用いて符号化が行われて発生符号量が算出される。符号量制御部は、予め設定した量子化情報と発生符号量の関係から目標発生符号量を実現する量子化情報の設定が行われる。
量子化情報判別部では、画像データの各フレームの画像をIピクチャとしてDCT係数の算出を行い、量子化情報を用いてDCT係数の除算したときの剰余のピクチャ単位の総和が最小となる量子化情報が、前回符号化が行われたときに用いた量子化情報と判別される。ここで、判別に用いられる量子化情報は、符号量制御部で設定された量子化情報を基準とした範囲の量子化情報とされるので、全ての量子化情報を用いて判別を行う必要がなく、前回符号化が行われたときに用いた量子化情報の判別が容易となる。
ピクチャタイプ設定部では、画像データに対してGOP単位でピクチャタイプの設定を行い、設定したピクチャタイプと量子化情報判別部で量子化情報が判別されたピクチャタイプが相違するときは、その後のピクチャタイプの設定を制御してピクチャタイプを一致させる。例えばピクチャタイプ設定部は、量子化情報判別部で判別されたIピクチャが画像データに設定するIピクチャよりも位相が進んでいるとき、進んでいるピクチャ数だけIピクチャよりも前からピクチャ数を削減してGOP長の調整を行い、画像データに対して設定するピクチャタイプが前回符号化が行われたときのピクチャタイプと一致させる。また、ピクチャタイプ設定部は、量子化情報判別部で判別されたIピクチャが画像データに設定するIピクチャよりも位相が遅れているとき、次の1または複数のGOPでピクチャ数を削減してGOP長の調整を行い、画像データに対して設定する参照ピクチャと非参照ピクチャのピクチャタイプを前回符号化が行われたときのピクチャタイプと一致させる。このようなピクチャタイプの設定がピクチャタイプ設定部で行われることから、画像データに対して前回の符号化と同じピクチャタイプを設定することが可能となる。
第2の符号化部では、符号量制御部で設定された量子化情報、すなわちプレエンコードを行って設定された例えば量子化パラメータを用いて画像データの本エンコードが行われる。また、前回符号化が行われた画像データの本エンコードが行われるとき、第2の符号化部では前回符号化が行われたときのピクチャタイプで符号化が行われる。さらに、量子化情報決定部によって、符号量制御部で設定された量子化情報が量子化情報判別部で判別された量子化情報に変更されて、第2の符号化部では、前回符号化が行われたときの量子化情報を用いて画像データの符号化が行われる。
さらに、複数の異なる量子化情報を用いて、画像データの各フレームの画像をIピクチャとして量子化情報毎に符号化を行い発生符号量を算出する第3の符号化部が設けられたとき、符号量制御部では、第1の符号化部で算出された発生符号量に基づいて目標発生符号量を実現する量子化情報と該量子化情報を用いたときの発生符号量の予測を行い、該予測した発生符号量を前記第3の符号化部で算出された発生符号量に応じて補正して、該補正後の発生符号量が目標発生符号量を実現する量子化情報の設定が行われる。このため、目標発生符号量を実現する量子化情報を精度よく判別することが可能となり、前回符号化が行われたときに用いた量子化情報の判別に用いられる量子化情報をより正しく選択できる。
この発明によれば、予め設定した量子化情報を用いて、参照ピクチャと非参照ピクチャを所定の順番で含むGOP(Group of Picture)単位で画像データの符号化が行われて発生符号量が算出される。また、算出された発生符号量に基づいて目標発生符号量を実現する量子化情報の設定が行われる。さらに、画像データの各フレームの画像をIピクチャ(Intra符号化画像)としてDCT(Discrete Cosine Transform)係数が算出される。また、判別された量子化情報を基準とする範囲の量子化情報を用いてDCT係数の除算が行われて、剰余のピクチャ単位の総和が最小となる量子化情報が前回符号化が行われたときに用いた量子化情報と判別される。画像データに対してはGOP単位でピクチャタイプの設定が行われて、該設定したピクチャタイプと前回符号化が行われたときの量子化情報が判別されたピクチャタイプが相違するときは、その後のピクチャタイプの設定を制御してピクチャタイプが一致される。さらに、判別された量子化情報を用いて、設定されたピクチャタイプに基づき画像データの符号化が行われる。
このため、参照ピクチャと非参照ピクチャを所定の順番で含むGOP構造を採用して画像データの符号化と復号化を繰り返しても、画質の劣化を少なくできる。
第1の実施の形態の構成を示す図である。 バックサーチ部の構成を示す図である。 量子化パラメータと剰余の総和の関係を例示した図である。 量子化パラメータと評価値の総和の関係を例示した図である。 第1の実施の形態の動作を示すフローチャートである。 量子化情報設定処理を示すフローチャートである。 量子化パラメータと発生符号量の算出処理を説明するための図である。 1GOP分の発生符号量の算出処理を示すフローチャートである。 ピクチャ一致処理を説明するための図(その1)である。 ピクチャ一致処理を説明するための図(その2)である。 ピクチャ一致処理を説明するための図(その3)である。 第2の実施の形態の構成を示す図である。 量子化マトリクスを例示した図である。 第2の実施の形態の動作を示すフローチャートである。 量子化パラメータと発生符号量の算出処理を説明するための図である。 Iピクチャの発生符号量算出処理を示すフローチャートである。 量子化マトリクスの選択動作を示すフローチャートである。 量子化マトリクスの切り換え制限処理を示すフローチャートである。 第2の発生符号量の検出処理を示すフローチャートである。 高域成分コスト演算の動作を示すフローチャートである。 量子化パラメータと発生符号量の算出処理を説明するための図である。 第2の補正係数の算出動作を示すフローチャートである。 非Iピクチャの発生符号量算出処理を示すフローチャートである。
以下、発明を実施するための形態について、以下の順序で説明を行う。
1.第1の実施の形態の構成
2.第1の実施の形態の動作
3.第2の実施の形態の構成
4.第2の実施の形態の動作
<1.第1の実施の形態の構成
図1は、本発明の第1の実施の形態の構成を示している。画像符号化装置10は、ピクチャタイプ設定部11、画像並べ替え処理部12、第1の符号化部であるプレエンコード部20、符号量制御部40、ディレイバッファ50、量子化情報判別部60、量子化情報決定部65、第2の符号化部である本エンコード部70を備えている。
プレエンコード部20は、予測モード決定部21、DCT(Discrete Cosine Transform)部22、量子化部23、逆量子化部24、IDCT(Inverse Discrete Cosine Transform)部25、予測画生成部26、符号長計算部27を備えている。量子化情報判別部60は、予測処理部61、DCT部62、バックサーチ部63を備えている。本エンコード部70は、予測処理部71、DCT部72、量子化部73、逆量子化部74、IDCT部75、予測画生成部76、可変長符号化部77を備えている。
このような構成において、ピクチャタイプ設定部11は、ロングGOP構造に従い、入力画像の画像データの各フレームに対して、参照画であるIピクチャ(Intra符号化画像)とPピクチャ(Predictive符号化画像)、及び非参照画であるBピクチャ(Bidirectionally Predictive符号化画像)のいずれかのピクチャタイプを設定して画像並べ替え処理部12に通知する。また、ピクチャタイプ設定部11は、後述する量子化情報判別部60から供給された判別信号に基づき、設定したピクチャタイプに対して、量子化情報判別部60で量子化情報が判別されたピクチャタイプが相違するときは、その後のピクチャタイプの設定を制御してピクチャタイプを一致させる。
画像並べ替え処理部12、ピクチャタイプ設定部11で設定されたピクチャタイプに応じて、入力画像の画像データを表示順から符号化順にピクチャの順序を並べ替える。そして、画像並べ替え処理部12は、符号化順に並べ替えた画像データを、プレエンコード部20とディレイバッファ50に出力する。なお、画像符号化装置10では、各フレームの画像がいずれのピクチャタイプに設定されているか識別可能とする。例えば符号化順に並べ替えた画像データにピクチャタイプを示す情報を付加する。また、各フレームの画像がいずれのピクチャタイプであるか識別可能とする情報を、ピクチャタイプ設定部11または画像並べ替え処理部12から、プレエンコード部20や本エンコード部70等に供給して、ピクチャタイプを識別可能としてもよい。
プレエンコード部20は、画像データを固定の量子化パラメータを用いて符号化を行ったときの発生符号量の算出を行い、算出した発生符号量を符号量制御部40に出力する。プレエンコード部20の予測モード決定部21は、入力画像の画像データと後述する予測画生成部26で生成された予測画像データを用いてマクロブロック毎に予測モードを決定する。また、予測モード決定部21は、決定した予測モードの予測画像データを用いて、入力画像の画像データとの誤差を示す差分画像データをDCT部22に出力する。
DCT部22は、差分画像データに対して離散コサイン変換を行い、DCT係数を生成して量子化部23に出力する。
量子化部23は、予め設定された量子化情報、すなわち固定されている量子化パラメータQP(p)を用いてDCT係数の量子化を行い、生成した量子化データを逆量子化部24と符号長計算部27に出力する。
逆量子化部24は量子化データに対して逆量子化を行い、DCT係数を生成してIDCT部25に出力する。
IDCT部25は、逆量子化部24から供給されたDCT係数の逆離散コサイン変換を行い、差分画像データを生成して予測画生成部26に出力する。
予測画生成部26は、差分画像データを用いてローカルデコード画像の画像データを生成する。また、予測画生成部26は、入力画像の画像データを用いてマクロブロック単位で現フレームと時間的に隣接する次フレームとの動き推定を行う。さらに 予測画生成部26は、動き推定結果に基づいてローカルデコード画像の動き補償を行い、ローカルデコード画像の画像データから予測画像データを生成して予測モード決定部21に出力する。
符号長計算部27は、量子化データに対してコンテキスト適応型可変長符号化方式(CAVLC;Context-Adaptive Variable Length Coding)またはコンテキスト適応型2値算術符号化方式(CABAC;Context-Adaptive Binary Arithmetic Coding)のいずれかで符号化を行い、マクロブロック毎に発生符号量を算出して符号量制御部40に出力する。
CAVLC符号化方式は、CABAC方式よりも処理が簡単な方式であり、CABAC符号化方式は、CAVLC方式よりもデータ量を少なくできる方式である。ここで、プレエンコード部20では処理を簡単とするために可変長符号化方式を用い、本エンコード部70ではデータ量を少なくするため算術符号化方式を用いる場合について説明する。可変長符号化はある特定の領域の情報を効率よく符号化しており、算術符号化は領域を特定することなく効率よく符号化できる。このため、可変長符号化から算術符号化の符号量を予測すると大きく誤差がでる場合がある。しかし、CAVLCはコンテキストを適用的に変更することにより、一般的な可変長符号化に比べて、あまり領域を特定せずに効率よく符号化することができる。このため、誤差が少なくなり、CABAC方式を用いたときの発生符号量をCAVLC方式の符号化によって推測することが可能となる。したがって、符号長計算部27でCAVLC方式を用いても、CABAC方式を用いる本エンコード部70における発生符号量を推測できる。なお、符号長計算部27は、CAVLC方式を用いることで回路規模を抑えることも可能となる。
符号量制御部40は、ビットレートとGOP構造の関係から、1GOPに割り当てられる目標発生符号量を決定する。また、符号量制御部40は、プレエンコード部20で算出された発生符号量の1GOP分に基づいて目標発生符号量を実現する量子化パラメータと、この量子化パラメータを用いたときの発生符号量を予測する。すなわち、符号量制御部40は、1GOPの発生符号量が目標発生符号量以下で最も目標発生符号量に近くなる量子化パラメータと、この量子化パラメータを用いたときの発生符号量を予測する。また、符号量制御部40は、予測した発生符号量から目標発生符号量を実現する量子化パラメータを設定して量子化情報決定部65に出力する。
ディレイバッファ50は、符号量制御部40で量子化情報の設定に要する時間だけ入力画像の画像データを遅延させて、遅延後の画像データを量子化情報判別部60と本エンコード部70に出力する。
量子化情報判別部60の予測処理部61は、ディレイバッファ50から供給された画像データの各フレームの画像を参照ピクチャであるIピクチャ(Intra符号化画像)として最適な予測モードを決定すると共に、画像データから予測画像の画像データを生成する。また、予測処理部61は、ディレイバッファ50から供給された画像データと予測画像の画像データとの差分を示す差分画像データを生成してDCT部62に出力する。
DCT部62は、差分画像データに対して離散コサイン変換を行い、DCT係数を生成してバックサーチ部63に出力する。
バックサーチ部63は、供給されたDCT係数を用いて演算を行い、前回の符号化で用いられた量子化情報の判別を行う。量子化情報の判別では、例えば特許文献2(国際公開第WO2009/035144号公報)に示されているように、符号化で用いるDCT係数をバックサーチ処理のためのリスケーリングファクタで除算してマクロブロック毎に剰余を求める。また、1ピクチャを構成するマクロブロックの剰余の総和が極小となるリスケーリングファクタを検出する。なお、リスケーリングファクタは、量子化情報である量子化マトリクスと量子化パラメータ、および復号化で用いるDCT係数から符号化で用いるDCT係数を得るための変換行列の関数である。このようにして検出したリスケーリングファクタを生成したときの量子化情報を、前回の符号化で用いられた量子化情報として判別する。また、剰余の総和の極小値が複数検出されたときは、大きい値を有する量子化パラメータを採用する。さらに、バックサーチ部63は、符号量制御部40で設定された量子化情報を基準とした範囲の量子化情報を用いて、前回の符号化で用いられた量子化情報の判別を行う。
図2は、バックサーチ部63の構成を示している。バックサーチ部63は、剰余計算部631と評価値決定部632と判定部633を有している。剰余計算部631は、符号量制御部40で設定された量子化情報を基準とした範囲の量子化情報に基づくリスケーリングファクタによってDCT係数の除算を行い、得られた剰余を評価値決定部632に出力する。
評価値決定部632は、ピクチャ単位で剰余の総和を算出する。さらに、評価値決定部632は、剰余の総和をリスケーリングファクタで規格化して評価値とする。図3は、量子化情報例えば量子化パラメータと剰余の総和の関係を例示した図である。図3から明らかなように、剰余の総和は量子化パラメータが大きくなると増加する特性を有している。したがって、この特性の影響を受けることなく、剰余の総和が最小となる量子化パラメータを判別できるように、評価値決定部632は、剰余をリスケーリングファクタで規格化して評価値とする。また、評価値決定部632は、1ピクチャを構成するマクロブロックの評価値の総和を算出して判定部633に出力する。
判定部633は、評価値の総和が最小となるリスケーリングファクタを検出して、検出したリスケーリングファクタにおける量子化パラメータや量子化マトリクスを前回符号化が行われたときに用いた量子化情報として、量子化情報決定部65に出力する。図4は、量子化パラメータと評価値の総和の関係を例示した図である。判定部633は、例えば図4の特性から評価値の総和が最小となる量子化パラメータを前回符号化が行われたときに用いた量子化情報とする。
さらに、バックサーチ部63は、量子化情報が判別されたピクチャを示す情報信号をピクチャタイプ設定部11に出力する。ここで、ロングGOP構造の符号化データを復号化して得られた画像データを用いてバックサーチを行った場合、バックサーチを行うピクチャがIピクチャであるときは、前回符号化で用いた量子化情報に基づくリスケーリングファクタによってDCT係数を除算したときの剰余が小さくなる。しかし、バックサーチを行うピクチャがPピクチャまたはBピクチャであるときは、Iピクチャのように剰余が小さくならない。したがって、前回符号化で用いた量子化情報が判別されたか否かによって、前回の符号化でIピクチャに設定されたフレームを検出することができる。バックサーチ部63は、前回の符号化でIピクチャに設定されていたフレームを示す情報信号を生成してピクチャタイプ設定部11に出力する。
量子化情報決定部65は、量子化情報判別部60で判別された量子化情報を本エンコード部70に出力する。また、量子化情報決定部65は、量子化情報判別部60で量子化情報が判別されたとき、符号量制御部40で設定された量子化情報を量子化情報判別部60で判別された量子化情報に変更して本エンコード部70に出力する。したがって、入力画像の画像データが一度も符号化されていない原画像の画像データである場合、量子化情報判別部60では量子化情報を判別できないことから、プレエンコード処理により設定した量子化情報が本エンコード部70に出力される。また、入力画像の画像データが符号化の行われている画像データである場合、量子化情報判別部60で判別された量子化情報が本エンコード部70に出力される。
本エンコード部70は、量子化情報決定部65から供給された量子化情報を用いて画像データの符号化を行う。本エンコード部70の予測処理部71は、ピクチャタイプ設定部11で設定されたピクチャタイプに基づき予測画像データを生成する。予測処理部71は、予測画像データと入力画像の画像データとの誤差を示す差分画像データを生成してDCT部72に出力する。
DCT部72は、差分画像データに対して離散コサイン変換を行い、DCT係数を生成して量子化部73に出力する。
量子化部73は、量子化情報決定部65から供給された量子化情報を用いてDCT係数の量子化を行い、量子化データを逆量子化部74と可変長符号化部77に出力する。
逆量子化部74は、量子化データに対して逆量子化を行い、DCT係数を生成してIDCT部75に出力する。
IDCT部75は、逆量子化部74から供給されたDCT係数の逆離散コサイン変換を行い、差分画像データを生成して予測画生成部76に出力する。
予測画生成部76は、差分画像データを用いてローカルデコード画像の画像データを生成する。また、予測画生成部76は、ディレイバッファ50からの画像データを用いてマクロブロック単位で現フレームと時間的に隣接する次フレームとの動き推定を行う。さらに 予測画生成部76は、動き推定結果に基づいてローカルデコード画像の動き補償を行い、予測画像を生成して予測処理部71に出力する。
可変長符号化部77は、量子化データに対してCAVLC方式またはCABAC方式で符号化を行い、符号化ストリームを生成して出力する。可変長符号化部77は、例えばデータ量が少なくなるようにCABAC方式を用いて量子化データの符号化を行い、符号化ストリームを生成する。
このように構成された画像符号化装置10は、前回符号化が行われている画像データを符号化するとき、前回の符号化が行われたときと等しくなるようにピクチャタイプを設定して画像データの符号化を行う。また、前回の符号化で用いられた量子化情報を用いて画像データの符号化を行う。
<2.第1の実施の形態の動作>
次に、第1の実施の形態の動作について説明する。図5は第1の実施の形態の動作を示すフローチャートである。なお、図5では1GOPの処理を示している。
ステップST1で画像符号化装置10は、ピクチャタイプの設定を行う。画像符号化装置10は、画像データの各フレームに対してGOP(Group of Picture)構造に従いピクチャタイプ設定部11でピクチャタイプを設定してステップST2に進む。
ステップST2で画像符号化装置10は、画像の並べ替えを行う。画像符号化装置10は、ピクチャタイプ設定部11で設定されたピクチャタイプに基づき、画像データを表示順から符号化順に画像並べ替え処理部12で並べ替えてステップST3に進む。
ステップST3で画像符号化装置10は、プレエンコード処理を行う。画像符号化装置10は、設定されたピクチャタイプで画像データの符号化をプレエンコード部20で行い発生符号量を算出してステップST4に進む。
ステップST4で画像符号化装置10は、発生符号量が1GOP分となったか否か判別する。画像符号化装置10は、プレエンコード部20で算出された発生符号量が1GOP分となったときステップST7に進み、算出された発生符号量が1GOP分となっていないときステップST3に戻る。
ステップST7で画像符号化装置10は、量子化情報設定処理を行う。画像符号化装置10は、プレエンコード処理を行うことにより得られた発生符号量に基づいて目標発生符号量を実現する量子化情報を設定してステップST8に進む。なお、量子化情報設定処理は後述する。
ステップST8で画像符号化装置10は、バックサーチ処理を行う。画像符号化装置10は、ディレイバッファ50から画像データの読み出しを行い、読み出した画像データの各フレームの画像を参照ピクチャであるIピクチャとしてDCT係数の算出を行う。さらに、ステップST7で設定された量子化情報を基準とした範囲の量子化情報を用いてDCT係数の除算したときの剰余のピクチャ単位の総和が最小となる量子化情報を、前回の符号化で用いた量子化情報と判別してステップST9に進む。
ステップST9で画像符号化装置10は、前回の符号化で用いた量子化情報を判別できたか否か判別する。画像符号化装置10は、バックサーチ処理を行い量子化情報例えば量子化パラメータや量子化マトリクスを判別できた時にはステップST10に進み、判別できなかったときはステップST13に進む。
ステップST10で画像符号化装置10は、ピクチャタイプが一致するか否か判別する。画像符号化装置10は、ピクチャタイプ設定部11で設定したピクチャタイプと量子化情報判別部60で量子化情報が判別されたピクチャタイプが一致していないときステップST11に進み、一致しているときステップST12に進む。
ステップST11で画像符号化装置10は、ピクチャタイプ一致処理を行う。画像符号化装置10は、ピクチャタイプ設定部11でその後のGOPにおけるGOP長を調整して、画像データに対して設定するピクチャタイプと前回符号化が行われたときのピクチャタイプを一致させてステップST12に進む。画像符号化装置10は、前回符号化が行われたときのピクチャタイプが参照ピクチャであるとき画像データに対して設定するピクチャタイプを参照ピクチャとして、前回符号化が行われたときのピクチャタイプが非参照ピクチャであるとき、画像データに対して設定するピクチャタイプを非参照ピクチャとする。
ステップST12で画像符号化装置10は、量子化情報変更処理を行う。画像符号化装置10は、ステップST7で設定された量子化情報をステップST8のバックサーチ処理で判別した量子化情報に変更してステップST13に進む。例えば、ステップST7で設定された量子化パラメータをステップST8で判別した量子化パラメータに変更する。
ステップST13で画像符号化装置10は本エンコード処理を行う。画像符号化装置10は、前回の符号化で用いられている量子化情報が判別されていないときはステップST7で設定された量子化情報を用いて符号化を行う。また、前回の符号化で用いられている量子化情報が判別されたときは、ステップST12で変更された量子化情報、すなわち前回の符号化で用いられている量子化情報を用いて量子化を行う。
図6は、量子化情報設定処理を示すフローチャートを例示している。ステップST21で符号量制御部40は、量子化パラメータの予測を行う。符号量制御部40は、プレエンコード部20で算出された発生符号量に基づいて目標発生符号量を実現する量子化パラメータを予測してステップST22に進む。
図7は量子化パラメータと後述する発生符号量の算出処理を説明するための図である。符号量制御部40は、プレエンコード部20において、固定されている量子化パラメータQP(p)を用いて符号化を行ったときの発生符号量BT(p)に応じてマクロブロックをグループ分けする。また、グループ毎に予め設けられている量子化パラメータと発生符号量の関係を示す複数の予測曲線から、該当するグループの予測曲線例えば予測曲線CBを選択する。さらに、選択した予測曲線CBを用いて、発生符号量が目標発生符号量BT(t)以下で最も近い値となる量子化パラメータを予測する。
ステップST22で符号量制御部40は、1GOP分の発生符号量の算出を行う。符号量制御部40は、予測した量子化パラメータにおける発生符号量の1GOP分を算出してステップST23に進む。
ステップST23で符号量制御部40は、1GOP分の発生符号量が目標発生符号量より大きいか否か判別する。符号量制御部40は、発生符号量が目標発生符号量より大きくないときステップST24に進み、発生符号量が目標発生符号量より大きいときステップST25に進む。
ステップST24で符号量制御部40は、予測した量子化パラメータから本エンコード処理で用いる量子化パラメータを設定する。符号量制御部40は、発生符号量と目標発生符号量との差が小さいとき、予測した量子化パラメータを本エンコード処理で用いる量子化パラメータとして処理を終了する。例えば予測した量子化パラメータの値を「1」減少させたときの発生符号量の増加分よりも小さいとき、予測した量子化パラメータを本エンコード処理で用いる量子化パラメータとして処理を終了する。また、符号量制御部40は、発生符号量と目標発生符号量との差が大きいとき、差が小さくなるように予測した量子化パラメータの値を減少させて、本エンコード処理で用いる量子化パラメータとする。
ステップST25で符号量制御部40は、予測した量子化パラメータの値を増加させる。符号量制御部40は、発生符号量と目標発生符号量との差に応じて増加量を決定して、予測した量子化パラメータの値を増加させてステップST26に進む。
ステップST26で符号量制御部40は、1GOP分の発生符号量の算出を行う。符号量制御部40は、ステップST25で更新された量子化パラメータを用いて、ステップST22と同様に1GOP分の発生符号量の算出を行ってステップST27に進む。
ステップST27で符号量制御部40は、目標発生符号量を実現できるか否か判別する。符号量制御部40は、目標発生符号量を実現できないと判別したときステップST23に戻り、目標発生符号量を実現できると判別したとき、ステップST25で更新した量子化パラメータを、本エンコード処理で用いる量子化パラメータとして処理を終了する。例えば、ステップST25で更新した量子化パラメータを用いたときの発生符号量が目標発生符号量以下であるとする。また、ステップST25で更新した量子化パラメータよりも「1」だけ小さい量子化パラメータを用いたときの発生符号量が目標発生符号量を超えるとする。このとき、符号量制御部40は、目標発生符号量を実現できると判別して、更新した量子化パラメータを本エンコード処理で用いる量子化パラメータとする。
なお、量子化情報設定処理は、図6のフローチャートに示す処理に限られるものではない。例えば、発生符号量と目標発生符号量との差に応じて量子化パラメータの増加量や減少量を設定して再度発生符号量の算出を行う。また、発生符号量と目標発生符号量との差が少なくなったときは、量子化パラメータを「1」ずつ増加または減少させて、目標発生符号量を実現できる量子化パラメータを検索するようにしてもよい。
図8は、1GOP分の発生符号量の算出処理を例示したフローチャートである。ステップST31で符号量制御部40は、予測した量子化パラメータを用いてIピクチャの発生符号量を算出してステップST32に進む。
ステップST32で符号量制御部40は、次のピクチャがIピクチャであるか否か判別する。符号量制御部40は、次のピクチャがIピクチャでないときステップST33に進み、次のピクチャがIピクチャであるとき、1GOP分の発生符号量の算出処理を終了する。
ステップST33で符号量制御部40は、予測した量子化パラメータを用いて非Iピクチャ、すなわちPピクチャまたはBピクチャの発生符号量を算出してステップST32に戻る。
次に、ピクチャ一致処理について、図9〜図11を用いて説明する。図9は、ピクチャタイプ設定部11で設定したピクチャタイプよりも前回の符号化で設定したピクチャタイプの位相が進んでいる場合を示している。すなわち、ピクチャタイプ設定部11で設定したIピクチャよりも前のピクチャで量子化情報が判別された場合を示している。また、図10は、ピクチャタイプ設定部11で設定したピクチャタイプよりも前回の符号化で設定したピクチャタイプの位相が遅れており、この位相の遅れが少ない場合を示している。すなわち、ピクチャタイプ設定部11で設定したIピクチャよりも後のピクチャであって、このIピクチャから僅かに離れているピクチャで量子化情報が判別された場合を示している。さらに、図11は、ピクチャタイプ設定部11で設定したピクチャタイプよりも前回の符号化で設定したピクチャタイプの位相が遅れており、この位相の遅れが大きい場合を示している。すなわち、ピクチャタイプ設定部11で設定したIピクチャよりも後のピクチャであって、このIピクチャから大きく離れているピクチャで量子化情報が判別された場合を示している。なお、図9〜図11において、「Br」は、H.264/AVCの規格によって、参照画像として用いることができるようになったBピクチャを示している。また、図9〜図11は、画像並べ替え処理部12で画像の並べ替えが行われる前の順序でピクチャタイプを示している。
ピクチャタイプ設定部11で設定したGOPにおいて、量子化情報判別部60で量子化情報が判別されたピクチャの番号を検出ピクチャ番号PNBとする。また、検出ピクチャ番号からIピクチャよりも前のBピクチャの数をBピクチャ数BNとする。ピクチャタイプ設定部11は、設定したピクチャタイプと量子化情報判別部60で量子化情報が判別されたピクチャタイプが相違するとき、その後のGOPにおけるGOP長を調整する。ピクチャタイプ設定部11は、GOP長を調整して、画像データに対して設定するピクチャタイプと前回符号化が行われたときのピクチャタイプを一致させる。ピクチャタイプ設定部11は、式(1)の演算を行い、次のGOPのGOP長GLを設定する。
GL=PNB−BN ・・・(1)
図9の(A)は、前回の符号化で設定されたピクチャタイプを示している。また、図9の(B)(C)は、一致処理を行ったときのピクチャタイプを示している。前回の符号化で設定されたピクチャタイプの位相が進んでいる場合、すなわち、GOP長GLがマイナスの値となる場合、マイナス値分だけ次のGOPの先頭からBピクチャを削減する。図9では、前回の符号化で設定したピクチャタイプの位相が例えば1ピクチャ分だけ進んでおり、検出ピクチャ番号PNBは「1」となる。また、Bピクチャ数BNは「2」であることから、GOP長GLは「−1」となる。したがって、図9の(B)に示すように、例えば次のGOPでIピクチャよりも前に位置するBピクチャから1つのピクチャ「B1」を削減する。このように、位相の進んでいるピクチャ数だけ次のGOPから先頭のBピクチャを削減すれば、ピクチャタイプ設定部11で設定したピクチャタイプと前回の符号化で設定したピクチャタイプを一致させることができる。
また、図9の(C)に示すように、例えば次のGOPのGOP長を1ピクチャだけ短くして、最後のピクチャをPピクチャとする。このように、マイナス値分だけ次のGOP長を短くすると、このGOP長を短くしたGOPの次のGOPでは、ピクチャタイプ設定部11で設定されるピクチャタイプを前回の符号化で設定されたピクチャタイプと一致させることができる。
このように、ピクチャタイプ設定部11で設定したピクチャタイプよりも前回の符号化で設定したピクチャタイプの位相が進んでいる場合、進んでいるピクチャ数だけIピクチャよりも前からピクチャ数を削減してGOP長の調整を行うことで、画像データに対して設定するピクチャタイプを前回符号化が行われたときのピクチャタイプと一致させることができる。例えば、画像データに対して設定するIピクチャを前回符号化が行われたときのIピクチャと一致させることができる。
図10の(A)は、前回の符号化で設定されたピクチャタイプを示している。また、図10の(B)(C)(D)は、一致処理を行ったときのピクチャタイプを示している。前回の符号化で設定されたピクチャタイプの位相遅れが少ない場合、次のGOPのGOP長を算出したGOP長GLとする。図10では、量子化パラメータや量子化マトリクスがピクチャ「B4」で最初に検出されており、Iピクチャよりも前のBピクチャ数は「2」であることから、GOP長GLは「4−2=2」となる。したがって、図10の(B)に示すように、例えば次のGOPのGOP長を「2」とする。このように、次のGOPをGOP長GLとすれば、次の次のGOPでは、ピクチャタイプ設定部11で設定されるピクチャタイプを前回の符号化で設定されているピクチャタイプと一致させることができる。
また、位相遅れが少ないとGOP長GLが小さな値となって短いGOPが生成されてしまう。したがって、短いGOPを生じることがないように、ピクチャタイプ設定部11は例えば次のGOPと次の次のGOPのピクチャタイプを調整する。ピクチャタイプ設定部11は、その後のGOPに対してピクチャタイプ設定部11で設定されるピクチャタイプを、前回の符号化で設定されたピクチャタイプと一致させる。この場合、IピクチャとPピクチャの間隔GMを用いて、次のGOPのGOP長を(GOP長GL+間隔GMの整数倍)とする。
例えば、図10において、IピクチャとPピクチャの間隔GMは「3」であり、GOP長GLは「2」であることから、次のGOPのGOP長は図10の(C)に示すように例えば「2+3×2」とする。このようにすれば、次の次のGOPでは、ピクチャタイプ設定部11で設定される参照ピクチャと非参照ピクチャを前回の符号化で設定されたピクチャタイプと一致させることができる。さらに、その後のGOPでは、ピクチャタイプ設定部11で設定したピクチャタイプと前回の符号化で設定したピクチャタイプが一致する。
また、短いGOPを生じることがないように、調整を最小限に抑えてピクチャタイプ設定部11で設定されるピクチャタイプを前回の符号化で設定されたピクチャタイプと一致させてもよい。この場合、GOP長は「通常のGOP数−(間隔GMの整数倍−GL)」とする。図10において、通常のGOP数は「12」、間隔GMは「3」、GOP長GLは「2」であることから、図10の(D)に示すように、次のGOPのGOP長は「12−(3−2)」とする。このようにすれば、調整を最小限に抑えて、次の次のGOPでは、ピクチャタイプ設定部11で設定されるピクチャタイプを前回の符号化で設定されたピクチャタイプと一致させることが可能となり、調整を最小限に抑えて画質の劣化を少なくできる。
図11の(A)は、前回の符号化で設定したピクチャタイプを示している。また、図11の(B)(C)は、一致処理を行ったときのピクチャタイプを示している。前回の符号化で設定したピクチャタイプの位相遅れが大きい場合、次のGOPのGOP長を算出したGOP長GLとする。図11では、量子化情報がピクチャ「B10」で最初に判別されており、Iピクチャよりも前のBピクチャ数は「2」であることから、GOP長GLは「10−2=8」となる。したがって、図11の(B)に示すように、例えば次のGOPのGOP長を「8」とする。このように、次のGOPをGOP長GLとすれば、次の次のGOPでは、ピクチャタイプ設定部11で設定されるピクチャタイプを前回の符号化で設定されたピクチャタイプと一致させることができる。
また、次のGOPをGOP長GLとしたとき、画質の劣化が少なくなるように、次のGOPにおいて前回の符号化で設定したPピクチャがIピクチャまたはピクチャと設定されるようにしてもよい。すなわちGOP長GLがIピクチャとPピクチャの間隔GMの整数倍でないとき、端数の調整を先頭側のBピクチャで行う。図11の(B)に示すように、例えば先頭側のBピクチャである「B1」を削除する。
このように、ピクチャタイプ設定部11で設定したピクチャタイプよりも前回の符号化で設定したピクチャタイプの位相が遅れている場合、図10や図11に示すように、次の1または複数のGOPでピクチャ数を削減してGOP長の調整を行うことで、前記画像データに対して設定する参照ピクチャと非参照ピクチャのピクチャタイプを前回符号化が行われたときのピクチャタイプと一致させることができる。また、例えば図10の(B)や図10の(C)および図11のようにGOP長の調整を行うことで、画像データに対して設定するIピクチャを前回符号化が行われたときのIピクチャと一致させることができる。
このようにピクチャ一致処理を行うと、ピクチャタイプ設定部11では、前回の符号化で設定されているピクチャタイプと一致するようにピクチャタイプの設定を行うことができる。したがって、参照ピクチャと非参照ピクチャで画質の差を設けることで主観的な画質を向上させているとき、参照ピクチャに比べて画質の劣る非参照ピクチャが次の符号化で参照ピクチャに設定されてしまうことを防止することが可能となる。このため、画像データの符号化と復号化を繰り返しても、画質の劣化を少なくできる。
また、量子化情報判別部60で前回の符号化で用いた量子化情報が判別されたときは、量子化情報変更処理が行われて、符号量制御部40で設定された量子化情報が、量子化情報判別部60で判別された量子化情報に変更される。このため、前回の符号化で用いた量子化情報が判別されたときは、判別された量子化情報を用いて本エンコード部70で符号化が行われる。このように、前回の符号化で用いた量子化情報を用いて本エンコード部70で符号化が行われるので、量子化歪みが繰り返し重畳されてしまうことを防止することが可能となり、画像データの符号化と復号化を繰り返しても画質の劣化を少なくできる。
さらに、量子化情報判別部60で前回の符号化で用いた量子化情報の判別では、プレエンコード処理を行うことにより設定された量子化情報を基準として、判別を行う量子化情報の範囲が設定される。このため、全ての量子化情報を用いて演算を行わなくとも、前回の符号化で用いた量子化情報を判別することが可能となり、量子化情報判別部60での演算量を少なくできる。
.第2の実施の形態の構成>
次に、第1の実施の形態よりも精度よく量子化情報の設定を行い、この設定された量子化情報を用いることで、量子化情報判別部60で前回の符号化で用いた量子化情報の判別を更に容易とする場合について説明する。なお、第2の実施の形態では、符号量制御部で量子化マトリクスの設定も合わせて行う場合について説明する。
第2の実施の形態では、第3の符号化部であるイントラプレエンコード部30を更に設けて、イントラプレエンコード部30で算出された発生符号量を用いて量子化パラメータ等の予測精度を向上させる。
図12は、第2の実施の形態の構成を示している。画像符号化装置10aは、ピクチャタイプ設定部11、画像並べ替え処理部12、第1の符号化部であるプレエンコード部20、第3の符号化部であるイントラプレエンコード部30、符号量制御部40a、ディレイバッファ50、量子化情報判別部60、量子化情報決定部65、第2の符号化部である本エンコード部70を備えている。なお、図12において、プレエンコード部20と本エンコード部70は、第1の実施の形態と同様な構成であり、図12ではプレエンコード部20と本エンコード部70を簡略化して示している。
イントラプレエンコード部30は、画面内予測処理部31、DCT部32、量子化部33、逆量子化部34、IDCT部35、イントラ予測画生成部36、符号長計算部37を備えている。また、量子化部33は複数段の量子化部33-1〜33-nで構成されており、符号長計算部37は複数段の符号長計算部37-1〜37-nで構成されている。
このような構成において、ピクチャタイプ設定部11は、上述のようにロングGOP構造に従って入力画像の画像データの各フレームに対してピクチャタイプを設定する。また、設定したピクチャタイプと量子化情報判別部60で量子化情報が判別されたピクチャタイプが相違するときは、その後のピクチャタイプの設定を制御してピクチャタイプを一致させる。
画像並べ替え処理部12、ピクチャタイプ設定部11で設定されたピクチャタイプに応じて、入力画像の画像データを表示順から符号化順にピクチャの順序を並べ替える。プレエンコード部20は、画像データを固定の量子化パラメータを用いて符号化を行ったときの発生符号量の算出を行い、算出した発生符号量を符号量制御部40aに出力する。
イントラプレエンコード部30は、画像データを全てIピクチャとして、複数の量子化情報で符号化を行い、量子化情報毎に発生符号量を算出して符号量制御部40aに出力する。イントラプレエンコード部30の画面内予測処理部31は、入力画像の画像データと後述するイントラ予測画生成部36で生成された予測画像データとの誤差を示す差分画像データを生成してDCT部32に出力する。
DCT部32は、差分画像データに対して離散コサイン変換を行い、DCT係数を生成して量子化部33に出力する。
量子化部33は、複数段例えば9段の量子化部33-1〜33-9で構成されている。量子化部33-1〜33-9は、複数の量子化情報例えば異なる3つの量子化パラメータQP(i0),QP(i1),QP(i2)と異なる3つの量子化マトリクスQMF,QMN,QMSを組み合わせて、9つの条件で量子化を行う。量子化部33-1〜33-9は、DCT係数の量子化を行って得られた量子化データを符号長計算部37に出力する。また、量子化部33は量子化部33-1〜33-9で生成された量子化データの1つを選択して逆量子化部34に出力する。
図13は、量子化マトリクスQMF,QMN,QMSを例示している。図13の(A)は量子化マトリクスQMFを示している。量子化マトリクスQMFはマトリクス値が全て等しい値とされている。すなわち、量子化マトリクスQMFは、フラットな特性の量子化マトリクスである。図13の(B)は量子化マトリクスQMNを示している。量子化マトリクスQMNは高域成分のマトリクス値が低域成分のマトリクス値よりも大きくされている。すなわち、量子化マトリクスQMNは、高域成分の削減が行われる一般的な量子化マトリクスである。図13の(C)は量子化マトリクスQMSを示している。量子化マトリクスQMSは、量子化マトリクスQMNに比べて高域成分のマトリクス値がさらに大きな値とされている。すなわち、量子化マトリクスQMSは、量子化マトリクスQMNに比べて高域成分の削減をさらに多くした特性の量子化マトリクスである。
逆量子化部34は、量子化部33から供給された量子化データに対して逆量子化を行い、DCT係数データを生成してIDCT部35に出力する。
IDCT部35は、逆量子化部34から供給されたDCT係数データの逆離散コサイン変換を行い、ローカルデコード画像の画像データを生成してイントラ予測画生成部36に出力する。
イントラ予測画生成部36は、差分画像データを用いてローカルデコード画像の画像データを生成する。また、イントラ予測画生成部36は、ローカルデコード画像の画像データを予測画像データとして画面内予測処理部31に出力する。
符号長計算部37は、量子化部33と対応させて複数段例えば9段の符号長計算部37-1〜37-9で構成されている。符号長計算部37-1〜37-9は、プレエンコード部20の符号長計算部27と等しい方式を用いて符号化を行い、マクロブロック毎に発生符号量を算出して符号量制御部40aに出力する。
符号量制御部40aは、イントラプレエンコード部30で算出された発生符号量から高域成分が多いか否かを識別可能とする識別値を算出して、この識別値が閾値よりも大きく高域成分が多いと判別したときは、高域成分を削減する量子化マトリクスを選択する。また識別値が閾値以下で高域成分が少ないと判別したときは、高域成分の削減が少ない量子化マトリクスを選択する。
また、符号量制御部40aは、ビットレートとGOP構造の関係から、1GOPに割り当てられる目標発生符号量を決定する。符号量制御部40aは、プレエンコード部20で算出された発生符号量の1GOP分に基づいて目標発生符号量を実現する量子化パラメータと、この量子化パラメータを用いたときの発生符号量を予測する。すなわち、符号量制御部40aは、1GOPの発生符号量が目標発生符号量以下で最も目標発生符号量に近くなる量子化パラメータと、この量子化パラメータを用いたときの発生符号量を予測する。
また、符号量制御部40aは、予測した発生符号量をイントラプレエンコード部30で算出された発生符号量に応じて補正する。さらに、符号量制御部40aは、補正後の発生符号量から目標発生符号量を実現する量子化パラメータと量子化マトリクスを設定する。ここで、プレエンコード部20で用いられている量子化マトリクスと異なる量子化マトリクスを設定したとき、符号量制御部40aは補正係数を算出する。さらに、符号量制御部40aは、予測した発生符号量を、補正係数を用いて補正する。符号量制御部40aは、例えばイントラプレエンコード部30で算出された発生符号量から、プレエンコード部20で用いられている量子化マトリクスを用いたときの発生符号量BTと、選択した量子化マトリクスを用いたときの発生符号量を選択する。符号量制御部40は、選択した2つの発生符号量から補正係数を算出する。
ディレイバッファ50は、符号量制御部40で量子化情報の設定に要する時間だけ入力画像の画像データを遅延させて、遅延後の画像データを量子化情報判別部60と本エンコード部70に出力する。
量子化情報判別部60は、画像データの各フレームの画像を参照ピクチャであるIピクチャとしてDCT係数の算出を行う。さらに、量子化情報判別部60は、符号量制御部40aで決定された量子化情報を基準とした範囲の量子化情報を用いてDCT係数の除算を行い、剰余のピクチャ単位の総和が最小となる量子化情報を、前回符号化が行われたときに用いた量子化情報と判別する。
本エンコード部70は、符号量制御部40aで設定された量子化情報を用いて、ピクチャタイプ設定部11で設定されたピクチャタイプに基づき画像データの符号化を行う。また、本エンコード部70は、量子化情報判別部60で量子化情報が判別されたとき、符号量制御部40aで設定された量子化情報が量子化情報決定部65によって量子化情報判別部60で判別された量子化情報に変更されたとき、この変更された量子化情報を用いて画像データの符号化を行う。
.第2の実施の形態の動作>
次に、第2の実施の形態の動作について説明する。図14は、第2の実施の形態の動作を示すフローチャートである。なお、図5に示す画像符号化装置の動作と対応する処理は同一のステップ番号を付している。
ステップST1で画像符号化装置10aは、ピクチャタイプの設定を行いステップST2に進む。ステップST2で画像符号化装置10は、画像の並べ替えを行う。ステップST3で画像符号化装置10aは、プレエンコード処理を行う。ステップST4で画像符号化装置10aは、プレエンコード処理で算出された発生符号量が1GOP分となったか否か判別する。画像符号化装置10aは、プレエンコード部20で算出された発生符号量が1GOP分となったときステップST7に進み、算出された発生符号量が1GOP分となっていないときステップST3に戻る。
ステップST5で画像符号化装置10aは、イントラプレエンコード処理を行う。画像符号化装置10は、画像データの各フレームをIピクチャとしてイントラプレエンコード部30で符号化を行い発生符号量を算出してステップST6に進む。また、画像符号化装置10は、イントラプレエンコード処理において、複数の量子化情報例えば異なる3つの量子化パラメータQP(i0),QP(i1),QP(i2)と異なる3つの量子化マトリクスQMF,QMN,QMSを組み合わせて、9つの条件で符号化を並列に行って発生符号量を算出する。
ステップST6で画像符号化装置10aは、発生符号量が1GOP分となったか否か判別する。画像符号化装置10aは、イントラプレエンコード部30で算出された発生符号量が1GOP分となったときステップST7に進む。また、画像符号化装置10aは、算出された発生符号量が1GOP分となっていないときステップST5に戻る。
ステップST7で画像符号化装置10aは、量子化情報設定処理を行う。ステップST8で画像符号化装置10aは、バックサーチ処理を行う。ステップST9で画像符号化装置10aは、前回の符号化で用いた量子化情報が得られたか否か判別する。画像符号化装置10aは、バックサーチ処理を行い量子化情報例えば量子化パラメータや量子化マトリクスを判別できた時にはステップST10に進み、判別できなかったときはステップST13に進む。ステップST10で画像符号化装置10aは、ピクチャタイプが一致するか否か判別する。画像符号化装置10aは、ピクチャタイプ設定部11で設定したピクチャタイプと量子化情報判別部60で量子化情報が判別されたピクチャタイプが一致していないときステップST11に進み、一致しているときステップST12に進む。ステップST11で画像符号化装置10aは、ピクチャタイプ一致処理を行う。ステップST12で画像符号化装置10aは、量子化情報変更処理を行う。ステップST13で画像符号化装置10aは本エンコード処理を行う。
さらに、画像符号化装置10aは図6に示す量子化情報設定処理、および図8に示す1GOP分の発生符号量の算出処理等を行い、目標発生符号量を実現する量子化情報の設定を精度よく行う。次に、第2の実施の形態における発生符号量の算出処理について説明する。
図15は イントラプレエンコード部30を設けた場合における量子化パラメータと後述する発生符号量の算出処理を説明するための図である。符号量制御部40は、プレエンコード部20において、固定されている量子化パラメータQP(p)を用いて符号化を行ったときの発生符号量BT(p)に応じてマクロブロックをグループ分けする。また、上述したように、グループ毎に予め設けられている量子化パラメータと発生符号量の関係を示す複数の予測曲線から、該当するグループの予測曲線例えば予測曲線CBを選択する。さらに、図15に示すように、選択した予測曲線CBを用いて、発生符号量が目標発生符号量BT(t)以下で最も近い値となる量子化パラメータQP(t)を予測する。この予測した量子化パラメータQP(t)を用いてIピクチャの発生符号量と非Iピクチャの発生符号量を予測する。
予測した量子化パラメータを用いてIピクチャの発生符号量を予測する場合、符号量制御部40は、プレエンコード処理の発生符号量に基づいて、予測した量子化パラメータを用いたときの発生符号量を予測する。この予測した発生符号量を第1の発生符号量という。また、符号量制御部40は、イントラプレエンコード処理で得られた発生符号量から、予測した量子化パラメータを用いたときの発生符号量を算出する。この算出した発生符号量を第2の発生符号量という。
符号量制御部40は、第1の発生符号量と第2の発生符号量から補正係数を算出する。さらに、符号量制御部40は、算出した補正係数で第1の発生符号量を補正して、補正後の第1の発生符号量を、予測した量子化パラメータを用いたときのIピクチャの発生符号量とする。また、符号量制御部40は、Iピクチャにおける高域成分の状態を示す高域成分コストを算出して、算出した高域成分コストを用いて第1の発生符号量の補正を行う。
予測した量子化パラメータを用いて非Iピクチャの発生符号量を予測する場合、符号量制御部40は、プレエンコード処理の発生符号量に基づいて、予測した量子化パラメータを用いたときの発生符号量を予測する。この予測した発生符号量を第3の発生符号量とする。また、符号量制御部40は、非Iピクチャにおける補正係数を算出して、この補正係数を用いて第3の発生符号量の補正を行い、補正後の第3の発生符号量を予測した量子化パラメータを用いたときの非Iピクチャの発生符号量とする。
図16は、予測した量子化パラメータを用いたときのIピクチャの発生符号量算出処理を示すフローチャートである。
ステップST41で符号量制御部40は、第1の発生符号量を予測する。符号量制御部40は、予測した量子化パラメータを用いたときの発生符号量を予測して第1の発生符号量としてステップST42に進む。例えば、図15に示すように、選択した予測曲線CBを用いて、発生符号量が目標発生符号量BT(t)以下で最も近い値となる量子化パラメータが予測されて、この予測された量子化パラメータを用いたときの発生符号量を予測する。すなわち、予測した量子化パラメータQP(t)における発生符号量BT(pt)を第1の発生符号量としてステップST42に進む。なお、量子化パラメータQP(p)は、量子化パラメータQP(p)を用いて符号化を行ったときの発生符号量が、目標発生符号量よりも大きくなるように予め小さな値に設定しておく。このように量子化パラメータQP(p)を設定すれば、発生符号量を小さくして目標発生符号量以下で最も符号量が近くなる基本量子化パラメータを設定することができるようになる。
ステップST42で符号量制御部40は、量子化マトリクスの選択動作を行う。図17は量子化マトリクスの選択動作を示すフローチャートである。ステップST51で符号量制御部40は、プレエンコード部20の発生符号量が上限値以上であるか否か判別する。符号量制御部40は発生符号量が上限値以上でないときステップST52に進み、上限値以上であるときステップST54に進む。
ステップST52で符号量制御部40はプレエンコード部20の発生符号量が下限値以下であるか否か判別する。符号量制御部40は発生符号量が下限値以下でないときステップST53に進み、下限値以下であるときステップST56に進む。
ステップST53で符号量制御部40は、高域成分が多いか否かを判別する。符号量制御部40は、イントラプレエンコード部30の発生符号量から高域成分が多いか否かを識別可能とする識別値を算出する。符号量制御部40は、例えば量子化マトリクスQMFを用いたときの発生符号量に対して量子化マトリクスQMNを用いたときの発生符号量の割合を算出して識別値とする。符号量制御部40は、算出した識別値が閾値THvaよりも大きく高域成分が多いと判別したときはステップST55に進み、閾値THva以下で高域成分が少ないと判別したときステップST56に進む。
ステップST54で符号量制御部40は、量子化マトリクスQMSを選択する。符号量制御部40は、プレエンコード部20の発生符号量が上限値以上であることから、図13の(C)に示す量子化マトリクスQMSを選択する。このように量子化マトリクスQMSを選択すれば、高域成分が大きく削減されて発生符号量が少なくなる。
ステップST55で符号量制御部40は、量子化マトリクスQMNを選択する。符号量制御部40は、プレエンコード部20の発生符号量が上限値と下限値の範囲内であり、高域成分が少ないと判断されていないことから、一般的に用いる図13の(B)に示す量子化マトリクスQMNを選択する。
ステップST56で符号量制御部40は、量子化マトリクスQMFを選択する。符号量制御部40は、プレエンコード部20の発生符号量が下限値以下、または発生符号量が上限値と下限値の範囲内であっても高域成分が少ないと判断されていることから、図13の(A)に示す量子化マトリクスQMFを選択する。このように量子化マトリクスQMFを選択すれば、低域成分や高域成分が削減されてしまうことを防止できる。
符号量制御部40は、このように高域成分が多いと判別したときは高域成分を削減する量子化マトリクスQMNを選択して、高域成分が少ないと判別したときは量子化マトリクスQMNよりも高域成分の削減が少ない量子化マトリクスQMFを選択する。したがって、例えば符号化と復号化処理が既に行われて高域成分が削減されている画像に対して、高域成分を削減する量子化マトリクスを用いた符号化が行われることがなく、画質が悪化してしまうことを防止できる。また、プレエンコード部20で算出された発生符号量が上限値以上であるとき、量子化マトリクスQMNよりも高域成分の削減が多い量子化マトリクスQMSが選択されるので、発生符号量が少なくなる量子化マトリクスを選択することができる。
なお、図17に示す量子化マトリクスの選択動作では、発生符号量に応じて量子化マトリクスを選択しているが、図16のステップST41で算出した量子化パラメータQP(t)の値に応じて、発生符号量に応じて量子化マトリクスの選択を行うようにしてもよい。例えばステップST51では、量子化パラメータQP(t)の値が予め設定した第1のパラメータ値よりも小さいとき、ステップST54で量子化マトリクスQMSを選択する。また、ステップST51では、量子化パラメータQP(t)のパラメータ値が予め設定した第2の値(第1の値よりも大きい値)よりも大きいとき、ステップST56で量子化マトリクスQMFを選択するようにしてもよい。
符号量制御部40は、図16のステップST42で量子化マトリクスの設定動作を行いステップST43に進む。
ステップST43で符号量制御部40は、量子化マトリクスの切り換え制限処理を行う。符号量制御部40は、例えばGOP内で似たような画像に対して異なる量子化マトリクスが選択されてしまい、量子化マトリクスの切り換えが頻繁に行われて画質が不安定となってしまうことがないように、量子化マトリクスの切り換え制限処理を行う。
図18は、量子化マトリクスの切り換え制限処理を示すフローチャートである。ステップST61で符号量制御部40は、GOP内の全ピクチャは同じ量子化マトリクスを選択しているか否かを判別する。符号量制御部40は、GOP内の全ピクチャが同じ量子化マトリクスでないときステップST62に進む。また、符号量制御部40は、GOP内の全ピクチャで同じ量子化マトリクスであるとき切り換え制限処理を終了する。
ステップST62で符号量制御部40は、一番多く用いられている最多量子化マトリクスを探索する。符号量制御部40は、GOP内で一番多く用いられている量子化マトリクスを最多量子化マトリクスQMmxとしてステップST63に進む。
ステップST63で符号量制御部40は、最多量子化マトリクスQMmxが複数であるか否かを判別する。符号量制御部40は、最多量子化マトリクスQMmxが複数であるときステップST64に進み、最多量子化マトリクスQMmxが1つであるときステップST66に進む。
ステップST64で符号量制御部40は、最多量子化マトリクスQMmxに量子化マトリクスQMNが含まれているか判別する。符号量制御部40は、最多量子化マトリクスQMmxに量子化マトリクスQMNが含まれているときステップST65に進む。また、符号量制御部40は、最多量子化マトリクスQMmxに量子化マトリクスQMNが含まれていないとき、すなわち最多量子化マトリクスQMmxとして量子化マトリクスQMFと量子化マトリクスQMSが選択されている場合、安定化制御動作を終了する。最多量子化マトリクスQMmxとして量子化マトリクスQMFと量子化マトリクスQMSが選択されている場合、量子化マトリクスQMFを選択したピクチャと量子化マトリクスQMSを選択したピクチャでは、発生符号量が全く異なり、画像が似ていないと推定される。したがって、安定化制御動作を終了する。
ステップST65で符号量制御部40は、量子化マトリクスQMNを最多量子化マトリクスQMmxに設定してステップST66に進む。
ステップST66で符号量制御部40は、GOPの先頭から量子化マトリクスの再検査を行いステップST67に進む。
ステップST67で符号量制御部40は、量子化マトリクスQMが最多量子化マトリクスQMmxと等しいか否か判別する。符号量制御部40は、ピクチャの量子化マトリクスQMが最多量子化マトリクスQMmxと等しくないときステップST68に進み、等しいときステップST70に進む。
ステップST68で符号量制御部40は、量子化マトリクスQMと最多量子化マトリクスQMmxのどちらかが量子化マトリクスQMNであるか否か判別する。符号量制御部40は、ピクチャの量子化マトリクスQMと最多量子化マトリクスQMmxのいずれかが量子化マトリクスQMNであるときはステップST69に進む。また、符号量制御部40は、いずれも量子化マトリクスQMNでないときステップST70に進む。すなわち、符号量制御部40は、量子化マトリクスQMと最多量子化マトリクスQMmxの一方が量子化マトリクスQMFで他方が量子化マトリクスQMSであるとき、上述したように画像が似ていないと推定されるのでステップST70に進む。
ステップST69で符号量制御部40は、判定条件を変更して量子化マトリクスの再選択を行う。符号量制御部40は、最多量子化マトリクスが選択された画像と似ている画像で最多量子化マトリクスが選択されるように判定条件を補正して、再度量子化マトリクスの選択を行いステップST70に進む。符号量制御部40は、図17のステップST51で用いた上限値またはステップST53で用いた閾値THvaを、最多量子化マトリクスQMmxが選択されやすくなる方向に補正して再度量子化マトリクスの選択を行いステップST70に進む。
ステップST70で符号量制御部40は、GOPの最後のピクチャであるか否か判別する。符号量制御部40は、GOPの最後のピクチャでないときステップST67に戻り、GOPの最後のピクチャであるとき切り換え制限処理を終了する。
このように量子化マトリクスの切り換え制限処理を行うと、GOP内において似ている画像は同じ量子化マトリクスが選択されるので量子化マトリクスの切り換えが少なくなり、画質を安定させることができる。
図16のステップST44で符号量制御部40は、第2の発生符号量の算出を行う。符号量制御部40は、イントラプレエンコード部30で算出された発生符号量から、量子化パラメータQP(t)における発生符号量BT(it)を検出して第2の発生符号量とする。ここで、プレエンコード部20で量子化マトリクスQMNが用いられている場合、符号量制御部40は、量子化パラメータQP(i0)〜QP(i2)と量子化マトリクスQMNを用いて符号化を行ったときの発生符号量BT(i0N),BT(i1N),BT(i2N)から、量子化パラメータQP(t)における発生符号量BT(it)を検出して第2の発生符号量とする。
図19は、第2の発生符号量の検出処理を示すフローチャートである。ステップST81で符号量制御部40は、イントラプレエンコーダ処理で用いられている量子化パラメータから、予測した量子化パラメータと一番近い量子化パラメータを検出する。符号量制御部40は、例えば量子化パラメータQP(i0)〜QP(i2)のなかで量子化パラメータQP(t)と一番近い量子化パラメータを検出して、量子化パラメータQP(ia)としてステップST82に進む。
ステップST82で符号量制御部40は、イントラプレエンコーダ処理で用いられている量子化パラメータから、予測した量子化パラメータと二番目に近い量子化パラメータを検出する。符号量制御部40は、例えば量子化パラメータQP(i0)〜QP(i2)のなかで量子化パラメータQP(t)に二番目に近い量子化パラメータを検出して、量子化パラメータQP(ib)としてステップST83に進む。
ステップST83で符号量制御部40は、予測した量子化パラメータを用いたときの発生符号量を算出する。符号量制御部40は、量子化パラメータQP(ia)と量子化マトリクスQMNを用いたときの発生符号量BT(iaN)と、量子化パラメータQP(ib)と量子化マトリクスQMNを用いたときの発生符号量BT(ibN)を用いて補間処理を行う。符号量制御部40は、補間処理として直線補間または曲線補間等を行い、予測した量子化パラメータQP(t)の発生符号量BT(it)を算出する。
符号量制御部40は、このように第2の発生符号量BT(it)を算出して、図16のステップST44からステップST45に進む。
ステップST45で符号量制御部40は、第1の補正係数を算出する。符号量制御部40は、プレエンコード処理結果から検出した第1の発生符号量BT(pt)と、イントラプレエンコード処理結果から検出した第2の発生符号量BT(it)を用いて式(2)の演算を行い、第1の補正係数C(i)を算出してステップST46に進む。
C(i)=BT(it)/BT(pt) ・・・(2)
ステップST46で符号量制御部40は、高域成分コストを算出する。符号量制御部40は、Iピクチャにおける高域成分の状態を示す高域成分コストH(i)を算出する。
図20は高域成分コスト演算の動作を示すフローチャートである。また、図21はイントラプレエンコード部からの出力を示している。
図20において、ステップST91で符号量制御部40は、イントラプレエンコード処理における量子化パラメータの最小値を選択する。例えば図21に示すように、イントラプレエンコード処理で量子化パラメータQP(i0),QP(i1),QP(i2)(QP(i0)<QP(i1)<QP(i2))が用いられている場合、符号量制御部40は、量子化パラメータQP(i0)を選択してステップST92に進む。
ステップST92で符号量制御部40は、最も小さい量子化パラメータと、低域から高域までの量子化ステップがフラットである量子化マトリクスを用いたときの発生符号量を選択する。例えば、量子化マトリクスQMFは、マトリクス値が一定値とされており低域から高域までの量子化ステップがフラットとなるマトリクスとする。量子化マトリクスQMNは、高域のマトリクス値が低域よりも大きな値とされており低域に比べて高域を粗く量子化するマトリクスとする。量子化マトリクスQMSは、高域のマトリクス値が量子化マトリクスQMNに比べてさらに大きな値とされており、量子化マトリクスQMNよりも高域の減衰がスティープな状態である量子化するマトリクスとする。この場合、符号量制御部40は、最も小さい量子化パラメータとして量子化パラメータQP(i0)が選択されていることから、量子化パラメータQP(i0)と量子化マトリクスQMFを用いたときの発生符号量BT(i0F)を選択してステップST93に進む。
ステップST93で符号量制御部40は、最も小さい量子化パラメータと、低域に比べて高域を粗く量子化する通常の量子化マトリクスを用いたときの発生符号量を選択する。例えば、符号量制御部40は、量子化パラメータQP(i0)と量子化マトリクスQMNを用いたときの発生符号量BT(i0N)を選択してステップST94に進む。
ステップST94で符号量制御部40は、高域成分コストを算出する。符号量制御部40は、式(3)の演算を行い高域成分コストH(i)を算出する。
H(i)=BT(i0F)/BT(i0N) ・・・(3)
このようにして高域成分コストを算出すると、図16のステップST46からステップST47に進み、符号量制御部40は、第2の補正係数の算出を行う。第2の補正係数は、予測した発生符号量を本エンコード部70で用いる量子化マトリクスを用いたときの発生符号量に補正するための補正係数である。なお、本エンコード部70で用いる量子化マトリクスとは、ステップST42とステップST43によってピクチャ毎に選択した量子化マトリクスであり、量子化マトリクスQMWとして以下の説明を行う。
図22は、第2の補正係数の算出動作を示すフローチャートである。ステップST101で符号量制御部40は、選択した量子化マトリクスQMWが量子化マトリクスQMNであるか否か判別する。符号量制御部40は、選択した量子化マトリクスQMWが量子化マトリクスQMNでないときステップST102に進み、選択した量子化マトリクスQMWが量子化マトリクスQMNであるときステップST108に進む。
ステップST102で符号量制御部40は、量子化パラメータの読み込みを行う。符号量制御部40は、ステップST41で予測した量子化パラメータQP(t)を読み込みステップST103に進む。
ステップST103で符号量制御部40は、イントラプレエンコード部30で用いられている量子化パラメータから最も近い量子化パラメータを選択する。符号量制御部40は、例えば量子化パラメータQP(i0)〜QP(i2)のなかで量子化パラメータQP(t)に最も近いパラメータを選択して、量子化パラメータQP(ia)としてステップST104に進む。
ステップST104で符号量制御部40は、量子化パラメータQP(ia)における係数Maを算出する。符号量制御部40は、量子化パラメータQP(ia)おいて量子化マトリクスQMNを用いたときの発生符号量をBT(iaN)とする。また、量子化パラメータQP(ia)において、量子化マトリクス選択動作で選択した量子化マトリクスQMMを用いたときの発生符号量をBT(iaM)とする。符号量制御部40は、式(4)を用いて係数Maを算出してステップST105に進む。
Ma=BT(iaN)/BT(iaM) ・・・(4)
ステップST105で符号量制御部40は、イントラプレエンコード部30で用いられている量子化パラメータから二番目に近い量子化パラメータを選択する。符号量制御部40は、例えば量子化パラメータQP(i0)〜QP(i2)のなかで量子化パラメータQP(t)に二番目に近いパラメータを選択して、量子化パラメータQP(ib)としてステップST106に進む。
ステップST106で符号量制御部40は、量子化パラメータQP(ib)における係数Mbを算出する。符号量制御部40は、量子化パラメータQP(ib)において量子化マトリクスQMNを用いたときの発生符号量をBT(ibN)とする。また、量子化パラメータQP(ib)において、量子化マトリクス選択動作で選択した量子化マトリクスQMMを用いたときの発生符号量をBT(ibM)とする。符号量制御部40は、式(5)を用いて係数Mbを算出してステップST107に進む。
Mb=BT(ibN)/BT(ibM) ・・・(5)
ステップST107で符号量制御部40は、係数Ma,Mbから量子化パラメータQP(t)に対する第2の補正係数Mtを算出する。符号量制御部40は、係数Maと係数Mbを用いて補間処理例えば式(6)に示す直線補間を行い第2の補正係数Mtを算出する。
Mt=Ma+(Mb−Ma)×(QP(t)−QP(ia))
/(QP(ib)−QP(ia))・・・(6)
ステップST108で符号量制御部40は、第2の補正係数Mtを「1」とする。符号量制御部40は、プレエンコード部20で用いる量子化マトリクスと本エンコード部70で用いる量子化マトリクスが共に量子化マトリクスQMNであることから、第2の補正係数Mtを「1」として処理を終了する。
このようにして第2の補正係数を算出すると、例えば図21に示すように量子化パラメータQP(t)に最も近いパラメータが量子化パラメータQP(i1)、二番目に近いパラメータが量子化パラメータQP(i0)であり、量子化マトリクスQMSが選択された場合、BT(iaN)=BT(i1N),BT(iaM)=BT(i1S),BT(ibN)=BT(i0N),BT(ibN)=BT(i0N),BT(ibM)=BT(i0S),QP(ia)=QP(i1),QP(ib)=QP(i0)として式(4)〜(6)の演算を行うことで、第2の補正係数Mtを算出できる。
このようにして、符号量制御部40は、図16のステップST47で第2の補正係数を算出するとステップST48に進み、第1の発生符号量の補正を行う。符号量制御部40は、発生符号量BT(pt)と補正係数C(i)を用いて式(7)の演算を行い、補正された発生符号量BT(itc)を算出する。
BT(itc)=BT(pt)×C(i)×Mt ・・・(7)
次に、予測した量子化パラメータを用いたときの非Iピクチャの発生符号量算出処理について、図23に示すフローチャートを用いて説明する。ステップST111で符号量制御部40は、第3の発生符号量の検出を行う。符号量制御部40は、プレエンコード部20において、固定されている量子化パラメータQP(p)を用いて符号化を行ったときの発生符号量BT(p)に応じてマクロブロックをグループ分けする。また、グループ毎に予め設けられている量子化パラメータと発生符号量の関係を示す複数の予測曲線から、該当するグループの予測曲線を選択する。さらに、選択した予測曲線を用いて、既に予測されている量子化パラメータQP(t)における発生符号量BT(ut)を第3の発生符号量としてステップST112に進む。
ステップST112で符号量制御部40は、非Iピクチャにおける高域成分コストを算出する。符号量制御部40は、上述の図12に示す高域成分コスト演算と同様な処理を行い、非Iピクチャにおける高域成分コストH(u)を算出する。この場合、高域成分H(u)の算出は式(8)を用いて行う。
H(u)=BT(i0F)/BT(i0N) ・・・(8)
なお、式(8)において、発生符号量BT(i0F),BT(i0N)は、高域成分コストを算出する非Iピクチャの画像データをIピクチャとしてイントラプレエンコード処理したときの発生符号量である。
このようにステップST112で高域成分コストを算出すると、符号量制御部40は、ステップST113に進み、第1の補正係数を算出する。符号量制御部40は、Iピクチャで算出した補正係数C(i)と高域成分コストH(i)およびステップST112で算出した高域成分コストH(u)を用いて式(9)の演算を行い、補正係数C(ic)を算出してステップST114に進む。
C(ic)=C(i)×H(i)/H(u) ・・・(9)
ステップST114で符号量制御部40は、第2の補正係数の算出動作を行う。符号量制御部40は、非Iピクチャに対応するイントラプレエンコード部30のIピクチャで算出した発生符号量から、図22を用いて説明した第2の補正係数の算出動作を行い、非Iピクチャに対応する第2の補正係数Mtuを算出してステップST115に進む。
ステップST115で符号量制御部40は、第3の発生符号量の補正を行う。符号量制御部40は、発生符号量BT(ut)と補正係数C(ic),Mtuを用いて式(10)の演算を行い、補正された発生符号量BT(utc)を算出する。なお、補正係数Mtuは、非Iピクチャの発生符号量を用いてIピクチャと同様にして算出した補正係数である。
BT(utc)=BT(ut)×C(ic)×Mtu ・・・(10)
このようにして、非Iピクチャの発生符号量の補正を行う。さらに、1GOPにおける補正後の発生符号量の合計が目標発生符号量以下で最も目標発生符号量に近くなる量子化パラメータを決定する。本エンコード部70は、符号量制御部40で決定された量子化パラメータと量子化マトリクスを用いて画像データの符号化を行い符号化データを出力する。
以上のような動作を第2の実施の形態で行えば、プレエンコード処理とイントラプレエンコード処理を行うことにより、精度の良い量子化情報の設定を行うことができる。したがって、この設定された量子化情報を基準とすることで、前回の符号化で用いた量子化情報の判別を行う範囲をより最適に設定することができるようになる。
また、符号化が行われていない原画の画像データが入力されたとき、符号量制御部40で設定された量子化パラメータと量子化マトリクスを用いて符号化が本エンコード部で行われる。このため、発生符号量が目標発生符号量以下であって画像の劣化の少ない符号化データを出力することができる。また、プレエンコード部20で算出された発生符号量と、イントラプレエンコード部30で算出された発生符号量を用いた高域成分の判別結果に基づいて、複数の異なる量子化マトリクスから量子化マトリクスが選択される。このため、量子化パラメータのみで目標発生符号量を実現する場合に比べて画質の劣化をさらに軽減できる。
また、プレエンコード処理を行い、目標発生符号量を実現する量子化パラメータを用いたときの予測した発生符号量が、イントラプレエンコード処理を行うことにより算出された発生符号量に応じて補正される。さらに、補正後の発生符号量が目標発生符号量を実現するように量子化パラメータが決定される。このため、マクロブロックの発生符号量と量子化パラメータの関係が画像に応じて変化する場合でも、発生符号量の予測を精度よく行うことができる。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送する。コンピュータは、このようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、本発明は、上述した発明の実施の形態に限定して解釈されるべきではない。この発明の実施の形態は、例示という形態で本発明を開示しており、本発明の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。
この発明の画像符号化装置と画像符号化方法は、予め設定した量子化情報を用いて、参照ピクチャと非参照ピクチャを所定の順番で含むGOP(Group of Picture)単位で画像データの符号化が行われて発生符号量が算出される。また、算出された発生符号量に基づいて目標発生符号量を実現する量子化情報の設定が行われる。さらに、画像データの各フレームの画像を参照ピクチャであるIピクチャ(Intra符号化画像)としてDCT(Discrete Cosine Transform)係数の算出を行い、判別された量子化情報を基準とした範囲の量子化情報を用いてDCT係数の除算したときの剰余のピクチャ単位の総和が最小となる量子化情報が前回符号化が行われたときに用いた量子化情報と判別される。画像データに対してはGOP単位でピクチャタイプの設定が行われて、該設定したピクチャタイプと前回符号化が行われたときの量子化情報が判別されたピクチャタイプが相違するときは、その後のピクチャタイプの設定を制御してピクチャタイプが一致される。さらに、判別された量子化情報を用いて、設定されたピクチャタイプに基づき画像データの符号化が行われる。このため、参照ピクチャと非参照ピクチャを所定の順番で含むGOP構造を採用して画像データの符号化と復号化を繰り返しても、画質の劣化を少なくできるようになる。したがって、したがって、画像データの記録装置や画像データの記録再生等を行う編集装置等に適している。
10,l0a・・・画像符号化装置、11・・・ピクチャタイプ設定部、12・・・画像並べ替え処理部、20・・・プレエンコード部、21・・・予測モード決定部、22,32,62,72・・・DCT部、23,33,33-1〜33-9,73・・・量子化部、24,34,74・・・逆量子化部、25,35,75・・・IDCT部、26,76・・・予測画生成部、27,37,37-1〜37-9・・・符号長計算部、30・・・イントラプレエンコード部、31・・・画面内予測処理部、36・・・イントラ予測画生成部、40,40a・・・符号量制御部、50・・・ディレイバッファ、60・・・量子化情報判別部、61・・・予測処理部、63・・・バックサーチ部、65・・・量子化情報決定部、70・・・本エンコード部、71・・・予測処理部、77・・・可変長符号化部、631・・・剰余計算部、632・・・評価値決定部、633・・・判定部、

Claims (8)

  1. 予め設定した量子化情報を用い、参照ピクチャと非参照ピクチャを所定の順番で含むGOP(Group of Picture)単位で画像データの符号化を行い発生符号量を算出する第1の符号化部と、
    前記第1の符号化部で算出された発生符号量に基づいて目標発生符号量を実現する量子化情報の設定を行う符号量制御部と、
    前記画像データの各フレームの画像を参照ピクチャであるIピクチャ(Intra符号化画像)としてDCT(Discrete Cosine Transform)係数の算出を行い、前記符号量制御部で決定された量子化情報を基準とした範囲の量子化情報を用いて前記DCT係数の除算したときの剰余のピクチャ単位の総和が最小となる量子化情報を、前回符号化が行われたときに用いた量子化情報と判別する量子化情報判別部と、
    前記画像データに対して前記GOP単位でピクチャタイプの設定を行い、該設定したピクチャタイプと前記量子化情報判別部で量子化情報が判別されたピクチャタイプが相違するときは、その後のピクチャタイプの設定を制御してピクチャタイプを一致させるピクチャタイプ設定部と、
    符号量制御部で設定された前記量子化情報を用いて、前記ピクチャタイプ設定部で設定されたピクチャタイプに基づき前記画像データの符号化を行う第2の符号化部と
    を有する画像符号化装置。
  2. 前記ピクチャタイプ設定部は、GOP長を調整して、前記画像データに対して設定するピクチャタイプと前回符号化が行われたときのピクチャタイプを一致させる
    請求項1記載の画像符号化装置。
  3. 前記ピクチャタイプ設定部は、前記量子化情報判別部で判別されたIピクチャが前記画像データに設定するIピクチャよりも位相が進んでいるとき、進んでいるピクチャ数だけ前記量子化情報判別部でその後に判別されるIピクチャよりも前からピクチャ数を削減してGOP長の調整を行い、前記画像データに対して設定するピクチャタイプを前回符号化が行われたときのピクチャタイプと一致させる
    請求項2記載の画像符号化装置。
  4. 前記ピクチャタイプ設定部は、前記量子化情報判別部で判別されたIピクチャが前記画像データに設定するIピクチャよりも位相が遅れているとき、次の1または複数のGOPでピクチャ数を削減してGOP長の調整を行い、前記画像データに対して設定する参照ピクチャと非参照ピクチャのピクチャタイプを前回符号化が行われたときのピクチャタイプと一致させる
    請求項2記載の画像符号化装置。
  5. 前記ピクチャタイプ設定部は、前記画像データに対して設定するIピクチャを前回符号化が行われたときのIピクチャと一致させる
    請求項2記載の画像符号化装置。
  6. 前記量子化情報判別部で前記量子化情報が判別されたとき、前記符号量制御部で設定された量子化情報を前記量子化情報判別部で判別された量子化情報に変更する量子化情報決定部を更に備え、
    前記第2の符号化部は、前記量子化情報決定部で決定された量子化情報を用いて前記画像データの符号化を行う
    請求項1記載の画像符号化装置。
  7. 複数の異なる量子化情報を用いて、前記画像データの各フレームの画像をIピクチャとして前記量子化情報毎に符号化を行い発生符号量を算出する第3の符号化部をさらに有し、
    前記符号量制御部は、前記第1の符号化部で算出された発生符号量に基づいて目標発生符号量を実現する量子化情報と該量子化情報を用いたときの発生符号量の予測を行い、該予測した発生符号量を前記第3の符号化部で算出された発生符号量に応じて補正して、該補正後の発生符号量が前記目標発生符号量を実現する量子化情報の設定を行う
    請求項1記載の画像符号化装置。
  8. 第1の符号化部で、予め設定した量子化情報を用い、参照ピクチャと非参照ピクチャを所定の順番で含むGOP(Group of Picture)単位で画像データの符号化を行い発生符号量を算出するステップと、
    符号量制御部で、前記第1の符号化部で算出された発生符号量に基づいて目標発生符号量を実現する量子化情報の設定を行うステップと、
    量子化情報判別部で、前記画像データの各フレームの画像を参照ピクチャであるIピクチャ(Intra符号化画像)としてDCT(Discrete Cosine Transform)係数の算出を行い、前記符号量制御部で決定された量子化情報を基準とした範囲の量子化情報を用いて前記DCT係数の除算したときの剰余のピクチャ単位の総和が最小となる量子化情報を、前回符号化が行われたときに用いた量子化情報と判別するステップと、
    前記ピクチャタイプ設定部で、前記画像データに対して前記GOP単位でピクチャタイプの設定を行い、該設定したピクチャタイプと前記量子化情報判別部で量子化情報が判別されたピクチャタイプが相違するときは、その後のピクチャタイプの設定を制御してピクチャタイプを一致させるステップと、
    第2の符号化部で、前記符号量制御部で設定された前記量子化情報を用いて、前記ピクチャタイプ設定部で設定されたピクチャタイプに基づき前記画像データの符号化を行うステップと
    を具備する画像符号化方法。
JP2009173907A 2009-07-27 2009-07-27 画像符号化装置と画像符号化方法 Expired - Fee Related JP5282692B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009173907A JP5282692B2 (ja) 2009-07-27 2009-07-27 画像符号化装置と画像符号化方法
EP20100168912 EP2282545A1 (en) 2009-07-27 2010-07-08 Image encoding device and image encoding method
CN2010102339055A CN101969554B (zh) 2009-07-27 2010-07-20 图像编码装置和图像编码方法
US12/840,739 US8483494B2 (en) 2009-07-27 2010-07-21 Image encoding device and image encoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009173907A JP5282692B2 (ja) 2009-07-27 2009-07-27 画像符号化装置と画像符号化方法

Publications (3)

Publication Number Publication Date
JP2011029953A JP2011029953A (ja) 2011-02-10
JP2011029953A5 JP2011029953A5 (ja) 2012-08-23
JP5282692B2 true JP5282692B2 (ja) 2013-09-04

Family

ID=42710500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009173907A Expired - Fee Related JP5282692B2 (ja) 2009-07-27 2009-07-27 画像符号化装置と画像符号化方法

Country Status (4)

Country Link
US (1) US8483494B2 (ja)
EP (1) EP2282545A1 (ja)
JP (1) JP5282692B2 (ja)
CN (1) CN101969554B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011029954A (ja) * 2009-07-27 2011-02-10 Sony Corp 画像符号化装置と画像符号化方法
JP5484083B2 (ja) * 2010-01-14 2014-05-07 株式会社メガチップス 画像処理装置
JP6056124B2 (ja) * 2011-09-05 2017-01-11 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP5900163B2 (ja) * 2012-05-30 2016-04-06 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
AU2013281946B2 (en) * 2012-06-29 2017-03-02 Sony Group Corporation Decoding device, and decoding method
JP5947641B2 (ja) * 2012-07-06 2016-07-06 キヤノン株式会社 動画像符号化装置及びその制御方法、コンピュータプログラム
US10496975B2 (en) * 2014-07-23 2019-12-03 Square, Inc. Point of sale system with secure and unsecure modes
WO2017107207A1 (zh) * 2015-12-25 2017-06-29 王晓光 视频软件的编码方法及***
EP3324628B1 (en) * 2016-11-18 2021-12-29 Axis AB Method and encoder system for encoding video
CN107295353B (zh) * 2017-08-15 2019-12-31 电子科技大学 视频编码参考块滤波方法
CN109819252B (zh) * 2019-03-20 2021-05-18 福州大学 一种不依赖gop结构的量化参数级联方法
CN112422964B (zh) * 2020-10-30 2024-05-17 西安万像电子科技有限公司 一种渐进式编码方法及装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1007808A3 (nl) * 1993-11-30 1995-10-24 Philips Electronics Nv Inrichting voor het coderen van een videosignaal.
JPH08214313A (ja) * 1995-02-01 1996-08-20 Sony Corp 映像装置
KR100381830B1 (ko) * 1995-03-09 2003-08-02 소니 가부시끼 가이샤 화상신호의부호화방법및그장치
EP0847650A4 (en) * 1996-07-03 2000-01-05 Motorola Inc METHOD AND DEVICE FOR LIMIT-VALUE-BASED ADAPTIVE ENTROPY CODING AND DECODING
JP4114210B2 (ja) * 1996-12-12 2008-07-09 ソニー株式会社 映像データ圧縮装置およびその方法
KR100599017B1 (ko) * 1996-12-12 2006-12-13 소니 가부시끼 가이샤 영상 데이터 압축 장치 및 그 방법
GB2347039A (en) * 1999-02-19 2000-08-23 Nds Ltd Estimating encoding parameters
US6567554B1 (en) * 1999-03-12 2003-05-20 Victor Company Of Japan, Limited Data coding method and apparatus therefor
JP3951839B2 (ja) * 2002-07-15 2007-08-01 ソニー株式会社 画像データ再生装置及び方法
JP2005080301A (ja) * 2003-09-01 2005-03-24 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
PL1709801T3 (pl) * 2004-01-30 2013-02-28 Panasonic Ip Corp America Sposób dekodowania video z wykorzystaniem adaptacyjnych macierzy kwantyzacji
JP4464719B2 (ja) * 2004-03-11 2010-05-19 株式会社日立製作所 画像データ送信システム
US7796825B2 (en) * 2007-02-16 2010-09-14 Cisco Technology, Inc. Losslessly improving compression of compressed image data
GB2447057A (en) * 2007-02-28 2008-09-03 Tandberg Television Asa Picture encoding type detection.
JP4569840B2 (ja) * 2007-09-12 2010-10-27 ソニー株式会社 画像符号化装置、画像符号化方法
WO2009035149A1 (ja) * 2007-09-12 2009-03-19 Sony Corporation 画像処理装置及び画像処理方法
JP5212372B2 (ja) * 2007-09-12 2013-06-19 ソニー株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US8483494B2 (en) 2013-07-09
JP2011029953A (ja) 2011-02-10
EP2282545A1 (en) 2011-02-09
US20110019930A1 (en) 2011-01-27
CN101969554B (zh) 2013-06-19
CN101969554A (zh) 2011-02-09

Similar Documents

Publication Publication Date Title
JP5282692B2 (ja) 画像符号化装置と画像符号化方法
JP2011029953A5 (ja)
JP4361613B2 (ja) 可変ビットレートビデオ符号化方法及び対応するビデオ符号化装置
JP4569840B2 (ja) 画像符号化装置、画像符号化方法
US8238423B2 (en) Image processing apparatus and method
US7688234B2 (en) Coding apparatus, coding method, program for executing the method, and recording medium storing the program
US20130177074A1 (en) Image Processing Apparatus
JP2001501430A (ja) 可変ビットレート・ビデオ符号化方法および対応するビデオ符号器
JP2003018603A (ja) 動画像符号化方法及び装置
US8861596B2 (en) Image encoding device and image encoding method
JP5900163B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20080187052A1 (en) Video coding device, video recording device, video coding method, and video coding program
JP4795223B2 (ja) 画像処理装置
JP2011029956A (ja) 画像符号化装置および画像符号化方法
US8774268B2 (en) Moving image encoding apparatus and method for controlling the same
JP2012054818A (ja) 画像処理装置と画像処理方法
JP5251774B2 (ja) 画像符号化装置および画像符号化方法
JP2005012249A (ja) 画像処理装置および画像処理方法、情報処理装置、記録媒体、並びに、プログラム
JP6111556B2 (ja) 動画像再符号化装置、方法及びプログラム
WO2020137904A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP3884410B2 (ja) ディジタル信号符号化の量子化ステップサイズ決定方法およびディジタル信号符号化装置
JPH11355774A (ja) 画像符号化装置および方法
JP2002152735A (ja) 画像再符号化装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130513

LAPS Cancellation because of no payment of annual fees