JP2010287917A - 画像符号化/画像復号化装置及び方法 - Google Patents

画像符号化/画像復号化装置及び方法 Download PDF

Info

Publication number
JP2010287917A
JP2010287917A JP2007249654A JP2007249654A JP2010287917A JP 2010287917 A JP2010287917 A JP 2010287917A JP 2007249654 A JP2007249654 A JP 2007249654A JP 2007249654 A JP2007249654 A JP 2007249654A JP 2010287917 A JP2010287917 A JP 2010287917A
Authority
JP
Japan
Prior art keywords
image
edge
edge component
unit
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007249654A
Other languages
English (en)
Inventor
Tadashi Wada
直史 和田
Takeshi Nakajo
健 中條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007249654A priority Critical patent/JP2010287917A/ja
Priority to PCT/JP2008/066000 priority patent/WO2009041243A1/ja
Priority to TW97135352A priority patent/TW200922338A/zh
Publication of JP2010287917A publication Critical patent/JP2010287917A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】エッジ成分に代表される空間的な画素値変化に基づく特徴を含む符号化対象領域の再現性を高めた予測画像を生成し、予測残差を低減可能な動画像符号化装置を提供する。
【解決手段】原画像から第1エッジ成分画像を抽出する抽出部121と;参照画像を、第2エッジ成分画像とエッジ除去画像とに分離する分離部130と;前記第2エッジ成分画像から前記第1エッジ成分画像を予測するための補助情報を生成する補助情報生成部122と;前記補助情報を用いて前記第2エッジ成分画像から第3エッジ成分画像を予測する予測部141と;前記エッジ除去画像と前記第3エッジ成分画像とを合成して予測画像を生成する予測画像生成部142と;を具備する。
【選択図】図2

Description

本発明は、画像の符号化及び復号化に関する。
従来、動画像符号化方式としてMPEG−2やH.264/MPEG4 AVC(以下、単にH.264と称する)が知られている。これらの動画像符号化方式では、原画像を所定の大きさのブロックに分割し、このブロック単位で動き推定及び動き補償によるフレーム間予測を行って予測画像を生成する。更に、上記動画像符号化方式では、この予測画像と原画像との間の予測残差に離散コサイン変換(以下、単にDCTと称する)、量子化及びエントロピー符号化を行って、符号化データを生成する。
また、H.264における動き推定では、多数のブロックサイズ(16×16画素、16×8画素、8×16画素、8×8画素、8×4画素、4×8画素、4×4画素)から物体の形状や動きの複雑さに応じて適切なブロックサイズを選択するため、MPEG−2などに比べて予測効率が高い。しかしながら、このようなブロックサイズの選択を伴う動き推定は、剛体が画面内を平行移動する場合のフレーム間予測には適しているものの、例えばフレーム間で物体の変形が生じる場合には予測に失敗し、予測残差が発生する。特に、エッジ及びテクスチャなどの空間的な画素値変化の激しい箇所では予測残差が発生しやすく、この予測残差は復号画像においてモスキート雑音などの視認されやすい画質劣化を引き起こす。
上記予測残差は、動き推定においてより小さなブロックサイズを選択することにより低減させることができるものの、小さなブロックサイズを選択すれば動きベクトルを含むヘッダ情報の符号量が増大する。更に、エッジやテクスチャなどの空間的な画素値変化の激しい箇所は、例えばDCTなどの直交変換後の変換係数が高周波成分に散在しやすく、この変換係数の量子化誤差によって復号画像においてエッジ鮮鋭度の劣化やテクスチャ情報の欠落が起こる。また、局所復号画像に含まれる予測残差が以降のフレーム間予測において参照される際に伝搬してしまう。
特許文献1では、原画像からエッジ成分を予め抽出して、エッジ成分が除去された画像をMPEG−2やH.264などの既存のブロックベース符号化により符号化するとともに、エッジ成分のみの画像を別途正確に(予測残差が発生しないように)符号化する。このように、視覚上重要なエッジ成分を単独で正確に符号化することにより、従来の動画像符号化方式に比べてエッジ周辺における符号化歪を低減させることができるので、復号画像におけるモスキート雑音の発生を抑えられる。従って、特に高圧縮な再生画像における主観的な画質改善が期待できる。
特許文献2では、動き補償を行う際に、物体の平行移動、回転及び伸縮などを考慮した射影変換を行っており、この射影変換パラメータを決定するために、原画像から抽出した上記物体の輪郭情報が補助情報として用いられる。従って、フレーム間で物体の変形が生じる場合でも、上記輪郭情報に基づいて参照画像に幾何学的な変形を加えた予測画像を生成できるので、予測残差を低減できる。また、原画像から抽出した輪郭情報を符号化するのでなく、上記輪郭情報と既に符号化済みの参照画像から抽出した輪郭情報との残差を符号化するため、符号量を抑えられる。
特開平7−240925号公報 特許第3233185号公報
特許文献1では、エッジ成分のみの画像を単独で正確に符号化するため、画像全体をまとめて符号化する場合に比べて発生符号量が増大する。また、エッジ成分のみの画像の符号化はエッジ成分を除いた画像に対する符号化とは別に行われるため、両方の符号化データの符号量及び画質のバランスを考慮した制御が困難である。例えば、エッジ成分のみの画像による発生符号量が増大した場合、全体の符号量を保つためにはエッジ成分以外の画像の画質が劣化し、全体の画質を保つためにはエッジ成分以外の画像による発生符号量が増大する。
また、特許文献2では、射影変換パラメータを決定するための補助情報として輪郭情報を用いているが、輪郭情報にはエッジの形状情報は反映されるものの、被写体の動きによる輪郭のぼけや量子化誤差によって生じるエッジ鮮鋭度の劣化は反映されない。従って、輪郭情報を用いて射影変換パラメータを決定したとしても、エッジ鮮鋭度の再現性は向上させられない。
従って、本発明は、エッジ成分に代表される空間的な画素値変化に基づく特徴を含む符号化対象領域の再現性を高めた予測画像を生成し、予測残差を低減可能な動画像符号化/復号化装置を提供することを目的とする。
本発明の一態様に係る画像符号化装置は、原画像から第1エッジ成分画像を抽出する抽出部と;参照画像を、第2エッジ成分画像とエッジ除去画像とに分離する分離部と;前記第2エッジ成分画像から前記第1エッジ成分画像を予測するための補助情報を生成する補助情報生成部と;前記補助情報を用いて前記第2エッジ成分画像から第3エッジ成分画像を予測する予測部と;前記エッジ除去画像と前記第3エッジ成分画像とを合成して予測画像を生成する予測画像生成部と;前記原画像と前記予測画像との間の予測残差を求める予測残差計算部と;前記予測残差及び前記補助情報を符号化する符号化部と;を具備する。
本発明の他の態様に係る画像復号化装置は、入力された符号化データを復号化して、対象画像の予測残差および前記対象画像の第1エッジ成分画像を予測するための補助情報を求める復号化部と;既に復号化された参照画像を当該参照画像の第2エッジ成分画像と、当該参照画像から第2エッジ成分を除去したエッジ除去画像とに分離する分離部と;前記補助情報を用いて前記第2エッジ成分画像から前記第1エッジ成分画像を予測する予測部と;前記エッジ除去画像と前記第2エッジ成分画像とを合成して、予測画像を生成する合成部と;前記予測残差と前記予測画像とを用いて、前記対象画像の復号画像を生成する復号画像生成部と;を具備する。
本発明によれば、エッジ成分に代表される空間的な画素値変化に基づく特徴を含む符号化対象領域の再現性を高めた予測画像を生成し、予測残差を低減可能な動画像符号化/復号化装置を提供できる。
以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1に示すように、本発明の第1の実施形態に係る画像符号化装置は符号化部100及び符号化制御部150を有し、符号化部100は減算器101、変換・量子化部102、逆変換・逆量子化部103、エントロピー符号化器104、加算器105、フレームメモリ106、動き推定・動き補償部107及び予測部110を含む。
符号化部100は、符号化制御部150によって制御され、入力された動画像の原画像信号10に対して、ハイブリッド符号化と呼ばれる動画像符号化処理を行って符号化データ14を出力する。即ち、符号化部100は、既に符号化済みの参照画像信号から予測した予測画像信号と原画像信号10との間の予測残差信号を変換・量子化して、量子化された変換係数をエントロピー符号化して符号化データ14を出力する。以下、符号化部100において、原画像信号10は図示しないブロックスキャン変換器によって所定の大きさのブロックに分割され、当該ブロック単位で処理が行われるものとして説明するが、フレームまたはフィールド単位で処理が行われてもよい。
減算器101は、原画像信号10より、後述する予測部110からの第2予測画像信号19を減算して予測残差信号11を算出し、変換・量子化部102に渡す。
変換・量子化部102は減算器101からの予測残差信号11に例えばDCTなどの変換を行って、符号化制御部150によって設定される量子化パラメータに基づいて量子化し、量子化された変換係数12を逆変換・逆量子化部103及びエントロピー符号化器104に渡す。尚、変換・量子化部102が予測残差信号11に行う変換はDCTに限らず、例えばウェーブレット変換または独立成分分析でもよいし、その他の直交変換であってもよい。
逆変換・逆量子化部103は、量子化された変換係数12を上記量子化パラメータに基づいて逆量子化し、例えばIDCTなどの逆変換を行って、復号予測残差信号13を加算器105に渡す。尚、逆変換・逆量子化部103が量子化された変換係数12に行う逆変換はIDCTに限らないが、変換・量子化部102で予測残差信号11に行われた変換の逆変換であるものとする。
エントロピー符号化器104は、変換・量子化部102からの量子化された変換係数12、後述する動き推定・動き補償部107からの動きベクトル18及び予測部110からの補助情報20に、例えばハフマン符号化または算術符号化などのエントロピー符号化を行い、符号化データ14として出力する。また、エントロピー符号化器104は、量子化パラメータや予測モード情報についても同様に符号化する。
加算器105は、逆変換・逆量子化部103からの復号予測残差信号13と、後述する予測部110からの第2予測画像信号19とを加算し、局所復号画像信号15としてフレームメモリ106に渡す。
フレームメモリ106は、加算器105からの局所復号画像信号15を参照画像信号16として一時的に保存する。この参照画像信号16は、後述する動き推定・動き補償部107によって参照される。尚、フレームメモリ106の前段にデブロッキングフィルタを設け、局所復号画像信号15からブロック歪を除去しておいてもよい。
動き推定・動き補償部107は、原画像信号10と、フレームメモリ106に保存されている参照画像信号16とを用いて、動き推定・動き補償処理を行って第1予測画像信号17を生成すると共に、動きベクトル18を生成する。第1予測画像信号17は予測部110に入力され、動きベクトル18はエントロピー符号化器104に入力される。
動き推定・動き補償部107が行う動き推定・動き補償処理は、例えば所定の大きさのブロック単位で行うものであり、原画像信号10の符号化対象ブロックと参照画像信号16との間でブロックマッチングを行う。上記ブロックマッチングの結果、符号化コストが最小となる参照画像信号16のブロックが第1予測画像信号17として出力され、当該第予測画像信号17の参照画像信号16における位置を示す動きベクトル18が生成される。尚、上記符号化コストは、例えば原画像信号10と第1予測画像信号17との差分の絶対値和(SAD)を用いる。
また、参照画像信号16は既に符号化済みであるから、時間的に未来のフレームまたは複数のフレームに基づいて予測を行ってもよく、次に示す数式に基づいて符号化コストを求めてもよい。
Figure 2010287917
ここで、Kは符号化コスト、SADは差分の絶対値和、λは量子化幅や量子化パラメータの値に基づいて決められる定数、OHは動きベクトル及び参照するフレームを示すインデックスなどのヘッダ情報を夫々示す。また、符号化コストKとしてヘッダ情報OHのみを用いてもよいし差分をアダマール変換または近似してもよい。その他、原画像信号10のアクティビティを用いてコスト関数を作成してもよい。
予測部110は、動き推定・動き補償部107からの第1予測画像信号17を取得し、例えばエッジなどの画像内の空間的な画素値変化に基づく特徴成分の再現性を高めた第2予測画像信号19を生成し、当該第2予測画像信号19を減算器101及び加算器105に渡す。また、予測部110は第1予測画像信号17から第2予測画像信号19を予測するための補助情報20をエントロピー符号化器104に渡す。尚、以下の説明では特徴成分の一例としてエッジについて説明するが、本実施形態に係る符号化器が適用可能な特徴成分はエッジに限らず、例えばテクスチャ、コントラスト及びノイズであってもよい。
図2に示すように、予測部110は、特徴抽出部121、補助情報生成部122、特徴分離部130、特徴予測部141及び信号合成部142を含む。
特徴分離部130は、動き推定・動き補償部107からの第1予測画像信号17から特徴成分を抽出して第1特徴信号21を生成すると共に、第1予測画像信号17から第1特徴信号21を除去した特徴除去信号22を生成する。即ち、特徴分離部130は、第1予測画像信号17を第1特徴信号21と特徴除去信号22とに分離する。第1特徴信号21は補助情報生成部122及び特徴予測部141に入力され、特徴除去信号22は信号合成部142に入力される。図2に示すように、特徴分離部130の一例は、特徴抽出部131及び減算器132を含む。
特徴抽出部131は、動き推定・動き補償部107からの第1予測画像信号17に対して例えばエッジ抽出処理やフィルタリング処理を行ってエッジ成分を抽出し、第1特徴信号21を生成して、減算器132、特徴予測部141及び信号合成部142に渡す。特徴抽出部131は、画像処理において一般的な微分オペレータによるエッジ検出手法を用いてよく、例えば1次微分であるSobelオペレータまたは2次微分であるラプラシアンオペレータなどを用いてもよい。
減算器132は、動き推定・動き補償部107からの第1予測画像信号17より、特徴抽出部131からの第1特徴信号21を減算し、特徴除去信号22を信号合成部142に渡す。
尚、特徴分離部130は図2に示す構成に限らず、例えば図3Aまたは図3Bに示す構成であってもよい。
図3Aに示すように、特徴分離部130の一変形例は平滑化フィルタ133及び減算器134を含む。
平滑化フィルタ133は、例えば移動平均フィルタ、加重平均フィルタ、メディアンフィルタまたはガウシアンフィルタなどの画像処理で一般的に用いられる平滑化フィルタである。平滑化フィルタ133は、動き推定・動き補償部107からの第1予測画像信号17より高周波成分を除去する。一般に、画像を周波数変換するとエッジは主に高周波成分に含まれるので、第1予測画像信号17から高周波成分を除去することにより、特徴除去信号22が生成される。平滑化フィルタ133は、特徴除去信号22を減算器134及び信号合成部142に渡す。
減算器134は、動き推定・動き補償部107からの第1予測画像信号17より、平滑化フィルタ133からの特徴除去信号22を減算して第1特徴信号21を生成し、補助情報生成部122及び特徴予測部141に渡す。
図3Bに示すように、特徴分離部130の他の変形例は帯域分割部135を含む。帯域分割部135は、動き推定・動き補償部107からの第1予測画像信号17に、例えばウェーブレット変換、離散コサイン変換または独立成分分析などの周波数変換を用いた周波数帯域分割を行って、高周波成分と低周波成分に分割する。前述したように、画像を周波数変換するとエッジは主に高周波成分に含まれるので、帯域分割部135は第1予測画像信号17の高周波成分を第1特徴信号21、低周波成分を特徴除去信号22として夫々出力する。第1特徴信号21は補助情報生成部122及び特徴予測部141に入力され、特徴除去信号22は信号合成部142に入力される。
また、特徴分離部130において、エッジを関数によって表現したエッジモデルを用いて、当該エッジモデルと相関が高い部分をエッジ成分として抽出してもよい。その他、特徴分離部130における特徴成分の抽出は、復号化装置において同様に実施可能であれば多様な方法を用いることができる。
特徴抽出部121は、原画像信号10から特徴成分を抽出して第2特徴信号23を生成し、補助情報生成部122に渡す。特徴抽出部121は、前述した特徴分離部130と同様に、フィルタリング処理や周波数帯域分割処理など様々な手法によって特徴成分を抽出してよい。
補助情報生成部122は、特徴分離部130からの第1特徴信号21及び特徴抽出部121からの第2特徴信号23を取得し、上記第1特徴信号21から第2特徴信号23を予測するためのパラメータとして用いられる補助情報20を生成する。補助情報20は、特徴予測部141及びエントロピー符号化器104に入力される。尚、補助情報20の詳細な説明は後述する。
特徴予測部141は、補助情報生成部122からの補助情報20を用いて、特徴分離部130からの第1特徴信号23より上記第2特徴信号21を予測して特徴予測信号24を生成し、信号合成部142に渡す。
信号合成部142は、特徴分離部130からの特徴除去信号22と、特徴予測部141からの特徴予測信号24とを合成して第2予測画像信号19を生成し、減算器101及び加算器105に渡す。
尚、原画像信号10または第1予測画像信号17から抽出して予測または合成する特徴信号は1つに限らず、複数の特徴信号を抽出して夫々予測し、全ての特徴信号を一括して合成してもよい。また、第1予測画像信号17から複数の第1特徴信号21を抽出した場合、抽出した全ての第1特徴信号21に関して補助情報20を生成する必要はない。即ち、一部の第1特徴信号21については補助情報20を生成せずに、抽出した第1特徴信号21を特徴予測信号24として特徴除去信号22に合成してもよい。
符号化制御部150は、発生符号量のフィードバック制御、量子化特性制御、動き推定精度の制御及び特徴予測精度の制御を含む符号化部100全体の制御を行う。
次に、図4及び図5A乃至Jを用いて予測部110の動作例について説明する。ここでは、図5Aに示す原画像信号10及びこれに対応する図5Cに示す第1予測画像信号17から図5Jに示す第2予測画像信号19を生成するまでの処理の流れについて説明する。
まず、特徴分離部130は、図5Cの第1予測画像信号17を動き推定・動き補償部107より取得する(ステップS201)。次に、特徴分離部130は、ステップS201において取得した図5Cの第1予測画像信号17から図5Dに示す第1特徴信号21を抽出する(ステップS202)。次に、特徴分離部130は、ステップS201において取得した図5Cの第1予測画像信号17より、ステップS202において取得した図5Dの第1特徴信号21を除去し、図5Eに示す特徴除去信号22を生成する(ステップS203)。ここで、ステップS202及びステップS203の行われる順序は上記に限らない。例えば、図3Aに示す特徴分離部130であればステップS202及びステップS203の行われる順序を入れ替えてもよいし、図3Bに示す特徴分離部130であればステップS202及びステップS203が同時に行われてもよい。
一方、特徴抽出部121は、図5Aの原画像信号10を取得する(ステップS204)。次に、特徴抽出部121は、図5Aの原画像信号10から図5Bに示す第2特徴信号23を抽出する(ステップS205)。ここで、ステップS201乃至ステップS203と、ステップS204及びステップS205とが行われる順序は上記に限らず、順序を入れ替えてもよいし、同時に行われてもよい。
次に、補助情報生成部122は、ステップS202において抽出した図5Dの第1特徴信号21及びステップS205において抽出した図5Eの第2特徴信号23から補助情報20を生成する(ステップS206)。以下、補助情報20について詳しく述べる。本実施形態では、エッジが形状、強度及び広がりの3つの情報で表現されるものとしており、補助情報20は、第1特徴信号21及び第2特徴信号23の間における上記3つの情報の少なくとも1つの差分を示す。
まず、形状に関する補助情報20の生成について説明する。補助情報生成部122は、形状に関する補助情報20を生成するために、第1特徴信号21及び第2特徴信号23に対して細線化処理を行ってエッジ中心線を検出する。尚、補助情報生成部122が、第1特徴信号21及び第2特徴信号23に対して行う細線化処理は、画像処理で一般に用いられる手法でよい。補助情報生成部122が図5Dの第1特徴信号21及び図5Bの第2特徴信号23に対して細線化処理を行うことにより、図5Fに示すエッジ中心線が得られる。図5Fにおいて、図5Dの第1特徴信号21から得られるエッジ中心線を実線、図5Bの第2特徴信号23から得られるエッジ中心線を破線で夫々示している。補助情報生成部122は、両エッジ中心線の形状誤差を形状に関する補助情報20として生成する。尚、形状誤差は例えばチェインコードやBスプライン曲線などの高次のパラメトリック曲線を用いて表すことができる。
次に、強度及び広がりに関する補助情報20の生成について説明する。図5Gに示すように、補助情報生成部122は、強度及び広がりに関する補助情報20を生成するために、エッジに対して垂直方向に隣接する2点を始点及び終点とする複数の垂線を引いて当該垂線上でのエッジの強度分布を夫々求め、当該複数の強度分布を平均化して1つの強度分布を求める。補助情報生成部122が図5Dの第1特徴信号21及び図5Bの第2特徴信号23に対して上記強度分布を求めると、図5Hに示す強度分布が得られる。図5Hにおいて、横軸が上記垂線上での相対位置を示し、縦軸が当該垂線上の位置におけるエッジ強度を示し、図5Dの第1特徴信号21から得られる強度分布が実線、図5Bの第2特徴信号23から得られる強度分布が破線で夫々表されている。図5Hにおいて、各位置におけるエッジ強度は、当該位置における画素値と上記始点及び終点における画素値との差分の絶対値で表されている。
補助情報生成部122は、両強度分布の差分を強度及び広がりに関する補助情報20として生成する。補助情報生成部122は、強度分布を何らかの関数を用いて近似して扱う。例えば図5Hに示す強度分布であれば、横軸で表される垂線上の位置をx、当該位置におけるエッジ強度をf(x)とすると、次の式で表すことができる。
Figure 2010287917
ここで、Eはエッジの強度、σはエッジの広がり(分散)、aはエッジの中心座標を夫々表す。補助情報生成部122は、第1特徴信号21から得られる強度分布及び第2特徴信号23から得られる強度分布の夫々について、数式(2)で表される分布との誤差が最も小さくなる強度E及び広がりσを求め、これらの差分値を強度及び広がりに関する補助情報20として生成する。尚、強度分布を近似するための関数は、数式(2)に限られず例えば上記始点及び終点の間を描くBスプライン曲線などのパラメトリック曲線で近似してもよいし、その他の関数で近似してもよい。また、固定の関数で近似するのではなく、複数の関数から近似に適した関数を選択するようにしてもよい。
また、補助情報生成部122は、第1特徴信号21及び第2特徴信号23を用いて動き推定・動き補償処理を行い、補助情報20として動きベクトルを生成してもよい。
次に、特徴予測部141は、ステップS206において生成した補助情報20及びステップS202において抽出した図5Dの第1特徴信号21を用いて図5Iに示す特徴予測信号24を生成する(ステップS207)。
次に、信号合成部142は、ステップS203において生成した図5Eの特徴除去信号22及びステップS207において生成した図5Iの特徴予測信号24を合成して、図5Jに示す第2予測画像信号19を生成する(ステップS208)。
以上説明したように、本実施形態に係る動画像符号化装置では、第1予測画像信号から抽出した第1特徴信号及び補助情報を用いて、原画像信号の第2特徴信号を予測して特徴予測信号を生成し、第1予測画像信号から第1特徴信号を除去した特徴除去信号に特徴予測信号を合成して第2予測画像信号を生成し、原画像信号との間の予測残差信号を補助情報と共に符号化している。従って、本実施形態に係る動画像符号化装置によれば、第1予測画像信号と原画像信号との間の予測残差を符号化する場合に比べて、特徴信号の再現性を高め、予測残差を低減させられる。
また、本実施形態に係る動画像符号化装置では、第2特徴信号をそのまま符号化するのではなく、第1予測画像信号から抽出した第1特徴信号及び補助情報を用いて上記第2特徴信号を予測するようにしているため、符号量を削減することができる。また、特徴信号の再現性の高低は上記補助情報の内容で決まるが、補助情報による発生符号量は符号化制御部が設定する量子化パラメータなどによって制御することができるので、特徴信号の再現性と発生符号量のバランスを容易に制御できる。
尚、本実施形態に係る動画像符号化装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。即ち、減算器101、変換・量子化部102、逆変換・逆量子化部103、エントロピー符号化器104、加算器105、動き推定・動き補償部107、予測部110及び符号化制御部150は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、本実施形態に係る動画像符号化装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、フレームメモリ106は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
また、本実施形態に係る動画像符号化装置は動画像の符号化に限らず、既に符号化済みの画像から予測画像信号を生成し、入力画像信号と予測画像信号との間の予測残差信号を符号化する符号化方式であれば、静止画像の符号化に対しても適用できる。
なお、本実施形態を変形して、動き推定・動き補償部107と予測部110とを統合しても構わない。この変形例では、フレームメモリ106から参照画像をフレーム単位で予測部110に入力する。予測部110で特徴毎に分離する。分離した成分を用いて補助情報生成部122で動き推定・動き補償を行う。そして、補助情報20として動きベクトル18を送信する。
(第2の実施形態)
図6に示すように、本発明の第2の実施形態に係る復号化装置は、復号化部300及び復号化制御部320を有し、復号化部300はエントロピー復号化器301、逆変換・逆量子化部302、加算器303、フレームメモリ304、動き補償部305及び予測部310を含む。
復号化部300は、復号化制御部320によって制御され、入力された符号化データ30をエントロピー復号化し、逆量子化・逆直交変換を行って予測残差信号を復号し、この復号予測残差信号に既に復号化済みの参照画像信号を用いて予測した予測画像信号を加算して復号画像信号35を生成する。
エントロピー復号化器301は、所定のデータ構造に従って符号化データ30を復号化し、量子化された変換係数31、補助情報32、動きベクトル33、量子化パラメータ及び予測モード情報などを復元する。エントロピー復号化器301は、量子化された変換係数31を逆変換・逆量子化部302に渡し、補助情報32を予測部310に渡し、動きベクトル33を動き補償部305に渡す。
逆変換・逆量子化部302は、エントロピー復号化器301からの量子化された変換係数31を復元された量子化パラメータに従って逆量子化し、例えばIDCTなどの逆変換を行って、復号予測残差信号34を加算器303に渡す。尚、逆変換・逆量子化部302が量子化された変換係数31に行う逆変換はIDCTに限らず、例えば逆ウェーブレット変換やその他の逆直交変換であってもよいが、符号化側で予測残差信号に対して行われた変換の逆変換であるものとする。
加算器303は、逆変換・逆量子化部302からの復号予測残差信号34と、後述する予測部310からの第2予測画像信号38とを加算し、復号画像信号35を生成する。生成された復号画像信号35は出力されると共に、フレームメモリ304に渡される。
フレームメモリ304は、加算器303からの復号画像信号35を参照画像信号36として一時的に保存する。この参照画像信号36は、後述する動き補償部305によって参照される。尚、フレームメモリ304の前段にデブロッキングフィルタを設け、復号画像信号35からブロック歪を除去してもよい。
動き補償部305は、フレームメモリ304に保存されている参照画像信号36を取得し、エントロピー復号化器301からの動きベクトル33によって示される参照画像信号36の領域を第1予測画像信号37として予測部310に渡す。
予測部310は、動き補償部305のから第1予測画像信号37及びエントロピー符号化器301からの補助情報32を取得し、例えばエッジなどの画像内の空間的な画素値変化に基づく特徴成分の再現性を高めた第2予測画像信号38を生成し、当該第2予測画像信号38を加算器303に渡す。尚、以下の説明では特徴成分の一例としてエッジについて説明するが、本実施形態に係る符号化器が適用可能な特徴成分はエッジに限らず、例えばテクスチャ、コントラスト及びノイズであってもよい。図7に示すように、予測部310は、特徴分離部311、特徴予測部312及び信号合成部313を含む。
特徴分離部311は、特徴分離部130と同様、動き補償部305からの第1予測画像信号37から特徴成分を抽出して第1特徴信号39を生成すると共に、第1予測画像信号37から第1特徴信号39を除去した特徴除去信号40を生成する。第1特徴信号39は特徴予測部312に入力され、特徴除去信号40は信号合成部313に入力される。尚、特徴分離部311は、図2、図3Aまたは図3Bのいずれかに示す特徴分離部130と同じ構成であってもよいし、その他の構成であってもよい。
特徴予測部312は、エントロピー復号化器301からの補助情報32を用いて、特徴分離部311からの第1特徴信号39より特徴予測信号41を生成し、信号合成部313に渡す。
信号合成部313は、特徴分離部311からの特徴除去信号40と、特徴予測部312からの特徴予測信号41とを合成して第2予測画像信号38を生成し、加算器303に渡す。
復号化制御部320は、復号化タイミングの制御を含む復号化部300全体の制御を行う。
次に、図8を用いて予測部310の動作について説明する。
まず、特徴分離部311は、第1予測画像信号37を動き補償部305より取得する(ステップS401)。次に、特徴分離部311は、ステップS401において取得した第1予測画像信号37から第1特徴信号39を抽出する(ステップS402)。次に、特徴分離部311は、ステップS401において取得した第1予測画像信号37より、ステップS402において取得した第1特徴信号39を除去し、特徴除去信号40を生成する(ステップS403)。ここで、ステップS402及びステップS403の行われる順序は上記に限らない。例えば、図3Aに示す特徴分離部130と同様の特徴分離部311であればステップS402及びステップS403の行われる順序を入れ替えてもよいし、図3Bに示す特徴分離部130と同様の特徴分離部311であればステップS402及びステップS403が同時に行われてもよい。
次に、特徴予測部312は、エントロピー復号化器301からの補助情報32を取得する(ステップS404)。次に、特徴予測部312はステップS404において取得した補助情報32及びステップS402において抽出した第1特徴信号39を用いて特徴予測信号41を生成する(ステップS405)。
次に、信号合成部313は、ステップS403において生成した特徴除去信号40及びステップS405において生成した特徴予測信号41を合成して、第2予測画像信号38を生成する(ステップS406)。
以上説明したように、本実施形態に係る動画像復号化装置では、第1予測画像信号から抽出した第1特徴信号及び符号化データから復元した補助情報を用いて、原画像信号の第2特徴信号を予測して特徴予測信号を生成し、第1予測画像信号から第1特徴信号を除去した特徴除去信号に特徴予測信号を合成して第2予測画像信号を生成し、符号化データから復元した予測残差信号と第2予測画像信号とを加算して復号画像信号を生成している。従って、本実施形態に係る動画像復号化装置によれば、第1予測画像信号と予測残差信号とを加算して復号画像信号を生成する場合に比べて、特徴信号の再現性を高め、予測残差を低減させられる。
尚、本実施形態に係る動画像復号化装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。即ち、エントロピー復号化器301、逆変換・逆量子化部302、加算器303、動き補償部305、予測部310及び復号化制御部320は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、本実施形態に係る動画像復号化装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、フレームメモリ304は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
尚、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。
その他、本発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。
第1の実施形態に係る動画像符号化装置を示すブロック図。 図1の予測部を示すブロック図。 図2の特徴分離部の一変形例を示すブロック図。 図2の特徴分離部の他の変形例を示すブロック図。 図2の予測部の動作を示すフローチャート。 原画像信号の一例を示す図。 図5Aの原画像信号から抽出される第2特徴信号の一例を示す図。 図5Aの原画像信号に動き推定・動き補償を行った第1予測画像信号の一例を示す図。 図5Cの第1予測画像信号から抽出される第1特徴信号の一例を示す図。 図5Cの第1予測画像信号から図5Dの第1特徴信号を除去した特徴除去信号の一例を示す図。 図5Dの第1特徴信号と図5Bの第2特徴信号のエッジ中心線を示す図。 エッジの強度分布の求め方の一例を示す図。 図5Dの第1特徴信号と図5Bの第2特徴信号の強度分布を示すグラフ図。 図5Dの第1特徴信号と補助情報を用いて生成した特徴予測信号の一例を示す図。 図5Eの特徴除去信号と図5Iの特徴予測信号を合成した第2予測画像信号の一例を示す図。 第2の実施形態に係る動画像復号化装置を示すブロック図。 図6の予測部を示すブロック図。 図7の予測部の動作を示すフローチャート。
符号の説明
10・・・原画像信号
11・・・予測残差信号
12・・・量子化された変換係数
13・・・復号予測残差信号
14・・・符号化データ
15・・・局所復号画像信号
16・・・参照画像信号
17・・・第1予測画像信号
18・・・動きベクトル
19・・・第2予測画像信号
20・・・補助情報
21・・・第1特徴信号
22・・・特徴除去信号
23・・・第2特徴信号
24・・・特徴予測信号
30・・・符号化データ
31・・・量子化された変換係数
32・・・補助情報
33・・・動きベクトル
34・・・復号予測残差信号
35・・・復号画像信号
36・・・参照画像信号
37・・・第1予測画像信号
38・・・第2予測画像信号
39・・・第1特徴信号
40・・・特徴除去信号
41・・・特徴予測信号
100・・・符号化部
101・・・減算器
102・・・変換・量子化部
103・・・逆変換・逆量子化部
104・・・エントロピー符号化器
105・・・加算器
106・・・フレームメモリ
107・・・動き推定・動き補償部
110・・・予測部
121・・・特徴抽出部
122・・・補助情報生成部
130・・・特徴分離部
131・・・特徴抽出部
132・・・減算器
133・・・平滑化フィルタ
134・・・減算器
135・・・帯域分割部
141・・・特徴予測部
142・・・信号合成部
150・・・符号化制御部
300・・・復号化部
301・・・エントロピー復号化器
302・・・逆変換・逆量子化部
303・・・加算器
304・・・フレームメモリ
305・・・動き補償部
310・・・予測部
311・・・特徴分離部
312・・・特徴予測部
313・・・信号合成部
320・・・復号化制御部

Claims (11)

  1. 原画像から第1エッジ成分画像を抽出する抽出部と、
    参照画像を、第2エッジ成分画像とエッジ除去画像とに分離する分離部と、
    前記第2エッジ成分画像から前記第1エッジ成分画像を予測するための補助情報を生成する補助情報生成部と、
    前記補助情報を用いて前記第2エッジ成分画像から第3エッジ成分画像を予測する予測部と、
    前記エッジ除去画像と前記第3エッジ成分画像とを合成して予測画像を生成する予測画像生成部と、
    前記原画像と前記予測画像との間の予測残差を求める予測残差計算部と、
    前記予測残差及び前記補助情報を符号化する符号化部と、
    を具備することを特徴とする画像符号化装置。
  2. 前記補助情報は、前記第1エッジ成分画像に含まれる第1エッジと前記第2エッジ成分画像に含まれる第2エッジとの間の形状、強度及び広がりのうち少なくとも1つの差分を示す情報を含むことを特徴とする請求項1記載の画像符号化装置。
  3. 前記分離部は、
    前記参照画像から前記第2エッジ成分画像を抽出する第2の抽出部と、
    前記参照画像から前記第2エッジ成分画像を減算して、前記エッジ除去画像を生成する減算器と
    を含むことを特徴とする請求項1記載の画像符号化装置。
  4. 前記分離部は、
    前記参照画像から前記エッジ除去画像を抽出する平滑化フィルタと、
    前記参照画像から前記エッジ除去画像を減算して、前記第2エッジ成分を生成する減算器と
    を含むことを特徴とする請求項1記載の画像符号化装置。
  5. 前記分離部は、前記参照画像を高周波成分と低周波成分とに分割し、前記高周波成分を前記第2エッジ成分画像として出力し、前記低周波成分を前記エッジ除去画像として出力することを特徴とする請求項1記載の画像符号化装置。
  6. 入力された符号化データを復号化して、対象画像の予測残差および前記対象画像の第1エッジ成分画像を予測するための補助情報を求める復号化部と、
    既に復号化された参照画像を当該参照画像の第2エッジ成分画像と、当該参照画像から第2エッジ成分を除去したエッジ除去画像とに分離する分離部と、
    前記補助情報を用いて前記第2エッジ成分画像から前記第1エッジ成分画像を予測する予測部と、
    前記エッジ除去画像と前記第2エッジ成分画像とを合成して、予測画像を生成する合成部と、
    前記予測残差と前記予測画像とを用いて、前記対象画像の復号画像を生成する復号画像生成部と、
    を具備することを特徴とする画像復号化装置。
  7. 前記補助情報は、前記第1エッジ成分画像に含まれる第1エッジと前記第2エッジ成分画像に含まれる第2エッジとの間の形状、強度及び広がりのうち少なくとも1つの差分を示す情報を含むことを特徴とする請求項6記載の画像復号化装置。
  8. 原画像から第1エッジ成分画像を抽出し、
    参照画像を、第2エッジ成分画像とエッジ除去画像とに分離し、
    前記第2エッジ成分画像から前記第1エッジ成分画像を予測するための補助情報を生成し、
    前記補助情報を用いて前記第2エッジ成分画像から第3エッジ成分画像を予測し、
    前記エッジ除去画像と前記第3エッジ成分画像とを合成して予測画像を生成し、
    前記原画像と前記予測画像との間の予測残差を求め、
    前記予測残差及び前記補助情報を符号化する
    ことを特徴とする画像符号化方法。
  9. 前記補助情報は、前記第1エッジ成分画像に含まれる第1エッジと前記第2エッジ成分画像に含まれる第2エッジとの間の形状、強度及び広がりのうち少なくとも1つの差分を示す情報を含むことを特徴とする請求項8記載の画像符号化方法。
  10. 入力された符号化データを復号化して、対象画像の予測残差および前記対象画像の第1エッジ成分画像を予測するための補助情報を求め、
    既に復号化された参照画像を当該参照画像の第2エッジ成分画像と、当該参照画像から第2エッジ成分を除去したエッジ除去画像とに分離し、
    前記補助情報を用いて前記第2エッジ成分画像から前記第1エッジ成分画像を予測し、
    前記エッジ除去画像と前記第2エッジ成分画像とを合成して、予測画像を生成し、
    前記予測残差と前記予測画像とを用いて、前記対象画像の復号画像を生成する復号画像生成する
    ことを特徴とする画像復号化方法。
  11. 前記補助情報は、前記第1エッジ成分画像に含まれる第1エッジと前記第2エッジ成分に含まれる第2エッジとの間の形状、強度及び広がりのうち少なくとも1つの差分を示す情報を含むことを特徴とする請求項10記載の画像復号化方法。
JP2007249654A 2007-09-26 2007-09-26 画像符号化/画像復号化装置及び方法 Pending JP2010287917A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007249654A JP2010287917A (ja) 2007-09-26 2007-09-26 画像符号化/画像復号化装置及び方法
PCT/JP2008/066000 WO2009041243A1 (ja) 2007-09-26 2008-09-04 画像符号化/画像復号化装置及び方法
TW97135352A TW200922338A (en) 2007-09-26 2008-09-15 Image encoding/decoding device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007249654A JP2010287917A (ja) 2007-09-26 2007-09-26 画像符号化/画像復号化装置及び方法

Publications (1)

Publication Number Publication Date
JP2010287917A true JP2010287917A (ja) 2010-12-24

Family

ID=40511132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007249654A Pending JP2010287917A (ja) 2007-09-26 2007-09-26 画像符号化/画像復号化装置及び方法

Country Status (3)

Country Link
JP (1) JP2010287917A (ja)
TW (1) TW200922338A (ja)
WO (1) WO2009041243A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015506010A (ja) * 2011-11-23 2015-02-26 ロッサト、ルカ 過渡情報の信号解析及び生成

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101452859B1 (ko) 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
CN103780904B (zh) * 2014-01-23 2016-11-09 西安电子科技大学 基于边缘的高光谱图像自适应无损预测编码***及方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04277982A (ja) * 1991-03-06 1992-10-02 Matsushita Electric Ind Co Ltd 映像信号の高能率符号化装置
JP3169147B2 (ja) * 1992-09-02 2001-05-21 日本電信電話株式会社 動画像データの高能率符号化装置
CN100518315C (zh) * 2001-10-26 2009-07-22 皇家飞利浦电子股份有限公司 采用清晰度增强技术的空间可缩放的压缩方案的编解码器及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015506010A (ja) * 2011-11-23 2015-02-26 ロッサト、ルカ 過渡情報の信号解析及び生成
US10321161B2 (en) 2011-11-23 2019-06-11 V-Nova International Limited Signal analysis and generation of transient information

Also Published As

Publication number Publication date
TW200922338A (en) 2009-05-16
WO2009041243A1 (ja) 2009-04-02

Similar Documents

Publication Publication Date Title
JP5194833B2 (ja) 符号化装置および方法、記録媒体、並びにプログラム
KR101311402B1 (ko) 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
KR101200865B1 (ko) 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
WO2010001916A1 (ja) 画像処理装置および方法
EP2063644A2 (en) Image encoding device and encoding method, and image decoding device and decoding method
JP4533081B2 (ja) 画像符号化装置及びその方法
US9167271B2 (en) Image processing device, method, and program, dynamic image encoding device, method, and program, dynamic image decoding device, method, and program, and encoding/decoding system and method
RU2559839C1 (ru) Способ и устройство для компенсации движения с предсказанием
JP2009060153A (ja) 面内予測モード決定方法及び装置及びプログラム
JP2006157481A (ja) 画像符号化装置及びその方法
US20070160298A1 (en) Image encoder, image decoder, image encoding method, and image decoding method
KR20090098214A (ko) 영상의 부호화, 복호화 방법 및 장치
JP4931214B2 (ja) 画像処理装置及びその方法
JP5055078B2 (ja) 画像処理装置及びその方法
JP2004215275A (ja) 動き補償に基づいた改善されたノイズ予測方法及びその装置とそれを使用した動画符号化方法及びその装置
JP2008301336A (ja) 画像処理装置、画像符号化装置及び画像復号化装置
WO2008072500A1 (ja) 動画像符号化装置および動画像復号装置
JPWO2006100946A1 (ja) 画像信号再符号化装置及び画像信号再符号化方法
JP2010287917A (ja) 画像符号化/画像復号化装置及び方法
JP7309959B2 (ja) 画像復号装置及び画像復号方法
JP5180550B2 (ja) 画像処理装置及び画像処理方法
JP6016488B2 (ja) 映像圧縮フォーマット変換装置、映像圧縮フォーマット変換方法、およびプログラム
JP2011130192A (ja) エンコーダおよび画像変換装置
WO2010061515A1 (ja) 動画像符号化装置及び符号化方法、動画像復号化装置及び復号化方法
JP4250553B2 (ja) 画像データ処理方法及び装置