JP5055078B2 - 画像処理装置及びその方法 - Google Patents

画像処理装置及びその方法 Download PDF

Info

Publication number
JP5055078B2
JP5055078B2 JP2007258037A JP2007258037A JP5055078B2 JP 5055078 B2 JP5055078 B2 JP 5055078B2 JP 2007258037 A JP2007258037 A JP 2007258037A JP 2007258037 A JP2007258037 A JP 2007258037A JP 5055078 B2 JP5055078 B2 JP 5055078B2
Authority
JP
Japan
Prior art keywords
block
motion vector
difference
image
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007258037A
Other languages
English (en)
Other versions
JP2009089177A (ja
Inventor
正 大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007258037A priority Critical patent/JP5055078B2/ja
Priority to US12/242,469 priority patent/US8565311B2/en
Publication of JP2009089177A publication Critical patent/JP2009089177A/ja
Application granted granted Critical
Publication of JP5055078B2 publication Critical patent/JP5055078B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、例えばMPEG(Moving Picture Experts Group)方式などにより、非可逆圧縮符号化された画像データを復号した画像に含まれるノイズ部分を検出して除去する画像処理装置及びその方法に関するものである。
従来、画像の符号化方式として、フレーム内符号化方式であるMotion JPEGやデジタルビデオ等の符号化方式や、フレーム間予測符号化を用いたH.261,H.263,MPEG−1,MPEG−2がある。また近年では、H.264等の符号化方式が知られている。これらの符号化方式は、ISO(国際標準化機構)やITU(国際電気通信連合)によって国際標準化されている。
符号化方式で代表的なMPEG−2は非可逆符号化と呼ばれ、符号化画像データを復号しても完全に元の画像データに戻らない。これは符号化時に、DCT変換の後に量子化を行うことに起因している。これら符号化方式は、画像信号の統計的な性質を利用し、その信号に含まれる冗長性を取り除くことで情報量の削減を図っている。即ち、人間の視覚は画像の高周波成分に鈍感であるため、その高周波成分を粗く量子化して冗長性を削除し、高い符号化効率を得るようにしている。
しかし、この種のDCT変換を行なう非可逆符号化では、高周波成分を制限することによってデータ圧縮を行っているために、画像のエッジ部、或は移動物体の周囲でモスキートノイズと呼ばれるノイズが発生し、復元した画像の画質劣化の原因となっている。このモスキートノイズを低減する方法が提案されており、例えば、入力画像信号のエッジ部を検出し、ノイズ除去フィルタによって画像信号のエッジ部をフィルタリング処理して、モスキートノイズを低減した画像信号を得る方法が提案されている(特許文献1)。尚、その他のMPEG等の詳細内容については、ISO/IECによる国際標準を参照されたい。
特開2001−218210号公報
しかしながら上述の従来技術では、画像信号中のモスキートノイズの有無に関係無く画像信号のエッジ部分でモスキートノイズ除去のフィルタリング処理が行われるため、モスキートノイズが発生していない部分では画像を劣化させてしまう。また、細かなエッジが含まれるテクスチャの領域があった場合、この領域をエッジと誤って判断してテクスチャの情報を削除していた。このため画質を劣化させる結果となっていた。
これらの問題点は、周波数変換及び非可逆圧縮符号化された画像データを復号した画像に含まれるモスキートノイズなどのノイズ部分を正確に検出することなく、画像信号のエッジ部にノイズ除去処理を施することに起因して生じていた。また画像信号の細かなエッジを含むテクスチャ領域をノイズ部分とみなしてノイズ除去処理を施していたことにも起因している。
本発明の目的は、上述した従来の問題点を解決することにある。
本願発明の一態様に係る特徴は、周波数変換および非可逆圧縮符号化を行なうことにより生成された画像ストリームを復号した復号画像データに含まれるモスキートノイズなどのノイズ発生部分を除去することにある。
上記目的を達成するために本発明の一態様に係る画像処理装置は以下のような構成を備える。即ち、
非可逆符号化により生成された画像ストリームを復号した復号画像データのノイズ成分を除去する画像処理装置であって、
フレーム画像を入力してブロックごとに格納する格納手段と、
前記格納手段に格納されたフレーム画像と、新たに入力されたフレーム画像とに基づいて、各ブロックごとに動きベクトルを検出する動きベクトル検出手段と、
前記動きベクトル検出手段により検出された対象ブロックの動きベクトルと、当該対象ブロックの周辺ブロックの動きベクトルを1フレーム分格納する手段と、
前記格納された周辺ブロックのそれぞれの動きベクトルと前記対象ブロックの動きベクトルとの差分を算出して差分値マップを生成する差分算出手段と、
前記差分算出手段で算出した前記差分値マップを微分フィルタにより微分した値が所定の閾値以上である場合に、前記フレーム画像に含まれる輪郭領域として抽出する輪郭抽出手段と、
前記輪郭抽出手段で抽出された前記輪郭領域に対して、各ブロックごとに帯域制限を施す帯域制限手段と、を有することを特徴とする。
上記目的を達成するために本発明の一態様に係る画像処理装置は以下のような構成を備える。即ち、
非可逆符号化により生成された画像ストリームを復号した復号画像データのノイズ成分を除去する画像処理装置であって、
非可逆符号化により生成された画像ストリームを復号する復号手段と、
前記復号手段により復号されたフレーム画像をブロックごとに格納する格納手段と、
対象ブロックの動きベクトルと、当該対象ブロックの周辺ブロックの動きベクトルを1フレーム分格納する手段と、
前記格納された周辺ブロックのそれぞれの動きベクトルと前記対象ブロックの動きベクトルとの差分を算出して差分値マップを生成する差分算出手段と、
前記差分算出手段で算出した前記差分値マップを微分フィルタにより微分した値が所定の閾値以上である場合に前記フレーム画像に含まれる輪郭領域として抽出する輪郭抽出手段と、
前記輪郭抽出手段で抽出された前記輪郭領域に対して、各ブロックごとに帯域制限を施す帯域制限手段と、を有することを特徴とする。
上記目的を達成するために本発明の一態様に係る画像処理方法は以下のような工程を備える。即ち、
非可逆符号化により生成された画像ストリームを復号した復号画像データのノイズ成分を除去する画像処理方法であって、
フレーム画像を入力してブロックごとにフレームメモリに格納する格納工程と、
前記フレームメモリに格納されたフレーム画像と、新たに入力されたフレーム画像とに基づいて、各ブロックごとに動きベクトルを検出する動きベクトル検出工程と、
前記動きベクトル検出工程で検出された対象ブロックの動きベクトルと、当該対象ブロックの周辺ブロックの動きベクトルを1フレーム分格納する工程と、
前記格納された周辺ブロックのそれぞれの動きベクトルと前記対象ブロックの動きベクトルとの差分を算出して差分値マップを生成する差分算出工程と、
前記差分算出工程で算出した前記差分値マップを微分フィルタにより微分した値が所定の閾値以上である場合に、前記フレーム画像に含まれる輪郭領域として抽出する輪郭抽出工程と、
前記輪郭抽出工程で抽出された前記輪郭領域に対して、各ブロックごとに帯域制限を施す帯域制限工程と、を有することを特徴とする。
上記目的を達成するために本発明の一態様に係る画像処理方法は以下のような工程を備える。即ち、
非可逆符号化により生成された画像ストリームを復号した復号画像データのノイズ成分を除去する画像処理方法であって、
非可逆符号化により生成された画像ストリームを復号する復号工程と、
対象ブロックの動きベクトルと、当該対象ブロックの周辺ブロックの動きベクトルを1フレーム分格納する工程と、
前記格納された周辺ブロックのそれぞれの動きベクトルと前記対象ブロックの動きベクトルとの差分を算出して差分値マップを生成する差分算出工程と、
前記差分算出工程で算出した前記差分値マップを微分フィルタにより微分した値が所定の閾値以上である場合に前記フレーム画像に含まれる輪郭領域として抽出する輪郭抽出工程と、
前記輪郭抽出工程で抽出された前記輪郭領域に対して、各ブロックごとに帯域制限を施す帯域制限工程と、を有することを特徴とする。
本発明によれば、画像データに含まれるノイズの発生部分を的確に検出して、画像が持つテクスチャを保持しつつ、その画像のノイズ発生部分に対してのみノイズ除去処理を施すことができる。
以下、添付図面を参照して本発明の好適な実施の形態を詳しく説明する。尚、以下の実施の形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施の形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
<実施の形態1>
図1は、本発明の実施の形態1に係る画像処理装置の主要部の構成を示すブロック図である。尚、本実施の形態1では、画像データの処理の単位を4×4画素とし、これを対象ブロックと称する。
フレームメモリ105,100は、この画像処理装置に入力された画像データ(Vin)、或は帯域制限フィルタ104から出力される画素データを1フレーム分格納する。尚、ここで入力される画像データは、MPEG圧縮処理された画像データの復号データを例にして説明する。動きベクトル検出器(ME)101は、フレームメモリ100に格納された過去のフレーム画像の対象ブロックと、この装置に入力された対象ブロックに該当する画素データとから動きベクトルを検出する。尚、この動きベクトル検出器101による動きベクトルの検出範囲は、外部(例えばユーザ)から任意に設定できるものとする。110は、外部より入力される動きベクトルの検出範囲を指定する情報を示している。本実施の形態1では、この検出範囲を8×8画素サイズとする。
動きベクトル分散マップ生成器102は、動きベクトル検出器101で検出された動きベクトル(MV)を入力して格納し、対象ブロック周辺の既処理ブロックの動きベクトルを用いて、動きベクトルの分散値のマップを生成する。尚、この動きベクトル分散マップ生成器102は分散算出手段として機能しており、1フレーム分の動きベクトルを格納できるメモリを有している。輪郭抽出器103は、動きベクトル分散マップ生成器102で生成された動きベクトル分散値マップに基づいて分散値マップの輪郭周辺を抽出して輪郭領域情報を出力する。尚、この輪郭抽出器103は、抽出時に、入力或は指示された抽出レベルの閾値111に応じて、輪郭を抽出する度合を調整することができる。帯域制限フィルタ104は、輪郭抽出器103から供給される輪郭領域情報に基づいて、抽出された輪郭領域対してのみ帯域制限を行う。尚、この帯域制限フィルタ104は、帯域制限を行わずに、入力した画素データをそのままスルーで出力する系も有している。
次に図1に示す装置の動作を図2及び図3のフローチャートを参照して説明する。
本実施の形態1では、先頭フレームとそれ以降のフレームとで処理を切り替えるものとする。
図2は、先頭フレームの処理を説明するフローチャートである。
図2では、ステップS1で、対象ブロックがフレームメモリ105、及び帯域制限フィルタ104を通過して出力される(Vout)とともに、フレームメモリ100へ格納される。
図3は、先頭フレーム以降のフレームの処理を説明するフローチャートである。
まずステップS11で、入力されたフレーム画像を、1フレーム分だけフレームメモリ105へ格納する。次にステップS12に進み、動きベクトル検出器101が、設定された検出範囲110に従って、フレームメモリ100に格納された過去のフレーム画像と、フレームメモリ105に格納された現時点のフレーム画像とを比較して動きベクトル(MV)を検出する。次にステップS13に進み、ステップS12で検出した動きベクトルを動きベクトル分散マップ生成器102へ出力して、動きベクトル分散マップ生成器102のメモリ(不図示)に格納する。こうして動きベクトル分散マップ生成器102は、入力した動きベクトルをメモリに格納し、その入力した動きベクトルと、既に格納済みの周辺の動きベクトルとに基づいて、動きベクトルの分散値を算出する。そして、その算出した分散値の1フレーム分のマップを生成する。
この分散値の算出例を説明する。
既に入力された動きベクトルMV1(MV1x,MV1y)と、対象ブロックの動きベクトルMV2(MV2x,MV2y)とから、規定の乗数Kを用いて分散値DiffVを算出する。
Vlast=MV1x+MV1y×K
Vtar =MV2x+MV2y×K
DiffV=|Vlast−Vtar|
次にステップS14に進み、輪郭抽出器103は、動きベクトル分散マップ生成器102から動きベクトルの分散値マップを入力して分散値の輪郭領域を抽出する。この時の抽出レベルの閾値111は、外部(例えばユーザ)から設定されるものとする。尚、この輪郭抽出処理については、規定のゾーベル(Sobel)オペレータを用いたゾーベルフィルタを用いて行われる。そして、このゾーベルフィルタ出力値が、外部から設定された抽出レベルの閾値以上であった場合に輪郭領域と判定する。次にステップS15に進み、ステップS14で抽出された輪郭領域の周辺へ領域を拡張する拡張処理を行う。尚、この拡張処理について図4及び図5を用いて詳細に説明する。
図4及び図5は、処理対象の画像データの一部を示す図である。尚、ここで各桝目は、画像データの処理の単位を示す4×4画素を示している。
ここでは分散値マップから、輪郭領域に含まれるブロックの分散値と、その周辺で縦横方向に隣接した周辺ブロックの分散値とを比較している。そして対象ブロックに比べて周辺ブロックの分散値が低い場合は、そのブロックも輪郭領域と判断して輪郭領域を拡張する。一方、対象ブロックに比べて周辺ブロックの分散値が高い場合は、そのブロックの方向に輪郭領域を拡張しないようにしている。
図4では、400〜402は輪郭領域に位置しているエッジブロックを示し、そのうちの400が対象ブロックである。ここでは対象ブロック400の分散値に比べて、左ブロック403と下ブロック404の分散値が低いため、それらブロック403,404を輪郭領域に含むように拡張している。
図5は、図4に示す拡張処理を行った結果を示す図である。
これは、対象ブロック400の左側のブロックの分散値が低い場合の例を示し、拡張ブロック403,404で示すように輪郭領域が拡張されている。ここではエッジブロック400〜402の右側に位置しているブロックは、エッジブロック400〜402よりも分散値が高いため、右方向への拡張処理は行わない。
以上説明した輪郭抽出処理により、1フレーム分の輪郭領域マップが生成される。
次にステップS16に進み、ステップS14で求めた輪郭領域マップから、帯域制限フィルタ104により、輪郭領域に対してフィルタ処理を実行する。本実施の形態1では、この帯域フィルタとしてεフィルタを用いる。
このεフィルタは、注目画素を、その注目画素の近傍にある近傍画素を用いて帯域制限するが、その際に近傍画素の画素値がパラメータεに応じて設定される。即ち、注目画素の画素値を中心とするεの範囲内に近傍画素の画素値がない場合、近傍画素の画素値を注目画素の画素値に置き換えて帯域制限が行われる。また近傍画素の画素値がεの範囲内にある場合は、その近傍画素の画素値をそのまま用いて帯域制限が行われる。従って、注目画素がエッジである度合が大である(周辺画素の画素値との差が大)と、パラメータεも大とされる。一方、エッジである度合が小である(周辺画素の画素値との差が小)と、パラメータεも小とされる。これにより、そのエッジ部に生じるモスキートノイズを除去することができる。また平坦部や有意なテクスチャ部の画素については、パラメータεが小となる。このため、有意なテクスチャ部の詳細が維持された状態でフィルタリング結果を得ることができる。
このように帯域制限フィルタ104は、輪郭抽出器103から供給される輪郭領域情報に従って、輪郭領域であると判断した場合はパラメータεを大とし、それ以外ではパラメータεを小として帯域制限を行う。
次にステップS17に進み、フィルタ処理後の1フレームを出力する。またこれとともに、その処理後の1フレームをフレームメモリ100へ格納する。
以上説明したように本実施の形態1によれば、画像データに含まれるモスキートノイズのような符号化ノイズの発生部分を的確に検出することができる。そして、そのノイズ発生部分に対してのみノイズ除去処理を施すことができる。
尚、本実施の形態では、処理の対象ブロックを4×4画素としたが本発明はこれに限定されるものでなく、例えば8×4,4×8,8×8画素等でもかまわない。
また動きベクトル分散マップ生成器102における分散値の算出処理では、既に入力された動きベクトルのみを用いたが本発明はこれに限定されない。例えば、対象ブロックの全ての周辺ブロック、計8ブロックのベクトルを用いて周辺ブロックの動きベクトルの平均値を算出し、その周辺ブロックの動きベクトルと、その平均値との差分を累積したものを分散値としてもよい。
更に、輪郭抽出器103の処理で、輪郭抽出処理をゾーベルフィルタとしたが、その他の微分フィルタでもかまわない。
更に、輪郭抽出器103の処理で、拡張処理を縦横方向としたが、斜めを含めた方向でもかまわない。
またフレームメモリ100,105は、フレーム画像を格納するものとしたが、フィールド画像を格納するフィールドメモリでもかまわない。
また帯域制限フィルタ104にεフィルタを用いたが、そのほかの簡便なローパスフィルタでもかまわない。
更に、動きベクトル検出器101の検出範囲は、水平のみでもよく、またフレーム毎に可変に設定してもかまわない。
更に輪郭抽出器103における閾値は、フレーム毎に可変に設定してもかまわない。
<実施の形態2>
図6は、本発明の実施の形態2に係る画像処理装置の主要部の構成を示すブロック図である。尚、本実施の形態2では、画像データの処理の単位を4×4画素とし、これを対象ブロックと称する。尚、この図6では、前述の実施の形態1と同じ機能を有する部分については同じ番号を付して、その説明を省略する。尚、動きベクトル検出器(ME)101は、前述の実施の形態1の機能に加えて、動きベクトルを検出した際、直前フレームの予測ブロックを出力する機能を有している。
パターンレベル設定器200は、輪郭抽出器103から供給される輪郭領域情報に基づいて、抽出された輪郭領域に対して、帯域制限をするための帯域と制限量を設定する。
図7を参照して、この帯域と制限量について説明する。
図7は、実施の形態2に係る画像処理装置で処理する周波数ブロックのパターンを示す図で、処理の対象となる1ブロック(4×4画素)を示している。
ここで処理の対象は、アダマール変換後の周波数領域へ変換されたブロックとしている。よって、ここでは除去すべきノイズの周波数成分を設定する。図7では、斜線部を除去対象の成分とする。同時に、これら除去対象の成分に対して、乗算器203によりノイズ成分と乗算するレベルを設定する。従って、レベル1ではノイズ成分をそのまま通過させ、レベルが0に近くなるほどノイズ成分を除去することとなる。
差分器201は、フレームメモリ105から読み出した対象ブロックの画素データと、動きベクトル検出器101から出力される予測ブロックの画素データとの差分を求めて周波数変換器(T:ここでは2次元アダマール変換器)202に出力する。この差分器201は、予測ブロックと、実際のブロックとの差分である差分ブロックを求める差分ブロック生成手段として機能している。この周波数変換器202は、差分器201から供給される1ブロックの差分データを周波数領域ブロックへ変換する。乗算器203は、周波数変換器202から供給される周波数領域のブロックと、パターンレベル設定器200で設定されたパターンレベルとを、周波数成分毎に乗算する。逆周波数変換器(IT:2次元逆アダマール変換器)204は、乗算器203による乗算結果を入力し、周波数領域ブロックから画素領域ブロックへ逆変換する。加算器205は、フレームメモリ105から読み出された対象ブロックの画素データから、逆周波数変換器204で変換された画素領域ブロックの画素データを減算する。
図8は、本実施の形態2に係る先頭フレーム以降のフレームの処理を説明するフローチャートである。尚、本実施の形態2では前述の実施の形態1と同様に、先頭フレームとそれ以外のフレームで処理を切り替えるものとする。
先頭フレームの処理では、前述の図2のフローチャートのように、対象ブロックがフレームメモリ105に格納され、加算器205をパスして出力されるとともにフレームメモリ100へ格納される。
次に本発明の実施の形態2に係る、先頭フレーム以降のフレームの処理について図8のフローチャートを参照して説明する。
まずステップS21で、入力されたフレーム画像を、1フレーム分だけフレームメモリ105へ格納する。次にステップS22に進み、動きベクトル検出器101が、設定された検出範囲に従って、フレームメモリ100に格納された過去のフレーム画像と、フレームメモリ105に格納された現時点のフレーム画像とを比較して動きベクトル(MV)を検出する。次にステップS23に進み、動きベクトル検出器101が、動きベクトルとともに予測ブロックを出力する。次にステップS24に進み、ステップS22で検出した動きベクトルを動きベクトル分散マップ生成器102へ出力して、動きベクトル分散マップ生成器102のメモリ(不図示)に格納する。こうして動きベクトル分散マップ生成器102は、入力した動きベクトルをメモリに格納し、既に格納済みの周辺の動きベクトルとから、動きベクトルの分散値を算出する(ステップS25)。そして、その算出した分散値の1フレーム分のマップを生成する。
この分散値の算出例を説明する。
既に入力された動きベクトルMV1(MV1x,MV1y)と、対象ブロックの動きベクトルMV2(MV2x,MV2y)とから、規定の乗数Kを用いて分散値DiffVを算出する。
Vlast=MV1x+MV1y×K
Vtar =MV2x+MV2y×K
DiffV=|Vlast−Vtar|
次にステップS26に進み、輪郭抽出器103は、動きベクトルの分散値マップを入力して分散値の輪郭領域を抽出する。この時の抽出レベルの閾値は、外部(例えばユーザ)から設定されるものとする。尚,この輪郭抽出処理については、規定のゾーベルオペレータを用いたゾーベルフィルタを用いる。そして、このゾーベルフィルタ出力値が、外部から設定された抽出レベルの閾値111以上であった場合に輪郭領域と判定する。
次にステップS27に進み、輪郭抽出器103から出力される輪郭領域マップから、輪郭領域に対し、パターンレベル設定器200により、除去すべき周波数ブロックのパターンレベルを設定して乗算器203に出力する。パターンは図7の斜線部とし、各斜線部にKを設定する。ここでKの値は0以上、1以下の定数である。
次にステップS28に進み、差分器201により、フレームメモリ105から供給される対象ブロックの画素データと、動きベクトル検出器101から出力される予測ブロックの画素データとの差分を求めて差分ブロックを生成する。次にステップS29に進み、差分器201で求めた差分ブロックを周波数変換器(T)202により周波数ブロックへ変換する。
次にステップS30に進み、乗算器203にて、その周波数ブロックに対し、パターンレベル設定器200から供給されるパターンレベルを乗算して、その結果を逆周波数変換器(IT)204へ出力する。次にステップS31に進み、逆周波数変換器204により、乗算器203から出力されるブロックを逆変換して画素データを得る。そしてステップS32で、加算器205により、対象ブロックの画素データと、逆周波数変換器204から供給されるブロックの画素データとを加算して、その結果を出力する。
以上説明したように本実施の形態2によれば、画像データに含まれるモスキートノイズのような符号化ノイズの発生部分を的確に検出できる。またそのノイズ発生部分に対してのみノイズ除去処理を施すことができるだけでなく、フレーム間で発生したアナログノイズを除去することができる。
尚、本実施の形態では、処理の対象ブロックを4×4画素としたが本発明はこれに限定されるものでなく、例えば8×4,4×8,8×8画素等でもかまわない。
また動きベクトル分散マップ生成器102の分散値の算出処理では、既に入力された動きベクトルのみを用いたが本発明はこれに限定されない。例えば、対象ブロックの全ての周辺ブロック、計8ブロックのベクトルを用いて周辺ブロックの動きベクトルの平均値を算出し、その周辺ブロックの動きベクトルと、その平均値との差分を累積したものを分散値としてもよい。
更に、輪郭抽出器103の処理では、輪郭抽出処理をゾーベルフィルタとしたが、そのほかの微分フィルタでもかまわない。
更に、輪郭抽出器103の処理では拡張処理を縦横方向としたが、斜めを含めた方向でもかまわない。
またフレームメモリ100,105は、フレーム画像を格納するものとしたが、フィールド画像を格納するフィールドメモリでもかまわない。
また帯域制限フィルタ104にεフィルタを用いたが、そのほかの簡便なローパスフィルタでもかまわない。
更に、動きベクトル検出器101の検出範囲は、水平のみでもよく、またフレーム毎に可変に設定してもかまわない。
更に輪郭抽出器103における閾値は、フレーム毎に可変に設定してもかまわない。
また周波数変換器202及び逆周波数変換器204は、アダマール変換を用いたが本発明はこれに限定されるものでなく、例えばDCTなどの別の周波数変換処理でもかまわない。
更にパターンレベル設定器200のレベルは、全ての周波数でKとしたが、これを周波数毎に異なる値に設定してもかまわない。
<実施の形態3>
図9は、本発明の実施の形態3に係る画像処理装置の主要部の構成を示すブロック図である。尚、本実施の形態3では、制御の単位を画像の復号画像の基本単位である16×16画素とし、これを対象ブロックとする。
デコーダ(復号器)1100は、この画像処理装置に入力されたストリームから画像を復号する。フレームメモリ1101は、復号器1100で復号された画像を1フレーム分格納する。動きベクトル分散マップ生成器102は、検出された動きベクトルを格納し、対象ブロックの周辺の既処理ブロックの動きベクトルを用いて、動きベクトルの分散値のマップを生成する。尚、この動きベクトル分散マップ生成器102は、動きベクトルを1フレーム分格納できるメモリを持つ。輪郭抽出器103は、生成された動きベクトル分散値マップに基づいて分散値マップの輪郭周辺を抽出して輪郭領域情報を出力する。尚、この輪郭抽出器103は、抽出時に抽出レベルの閾値111を入力し、その閾値111に応じて抽出の程度を調整することができる。帯域制限フィルタ104は、輪郭抽出器103から供給される輪郭領域情報に従って、抽出された輪郭領域に対してのみ帯域制限を行う。尚、この帯域制限フィルタ104は、帯域制限を行わずに、入力データをそのまま出力するパスの系も持つ。
次に図9の装置の動作について図10及び図11のフローチャートを参照して説明する。尚、本実施の形態3において、前述の実施の形態と同様に、先頭フレームとそれ以外のフレームとで処理を切り替えるものとする。
図10は、実施の形態3に係る先頭フレームの処理を示すフローチャートである。
また図11は、先頭フレーム以降のフレームの処理を示すフローチャートである。
図10の先頭フレームの処理では、先ずステップS41で、復号器1100により、入力したストリームの1フレーム分を復号する。そしてステップS42に進み、その復号したフレームを、フレームメモリ1101及び帯域制限フィルタ104を通過させて出力する。
次に、以降のフレームの処理について図11を参照して説明する。
まずステップS51で、復号器1100により、入力したストリームの1フレーム分を復号する。次にステップS52で、その復号した結果をフレームメモリ1101へ格納する。次にステップS53に進み、その復号した動きベクトル(MV)を動きベクトル分散マップ生成器102へ出力する。これにより動きベクトル分散マップ生成器102は、その入力した動きベクトルをメモリ(不図示)に格納し、その入力した動きベクトルと、既に格納済みの周辺の動きベクトルとから動きベクトルの分散を算出する。そしてステップS54に進み、分散の1フレーム分のマップを生成する。
以下、この分散値の算出処理の具体例を説明する。
既に入力された動きベクトルMV1(MV1x,MV1y)と対象ブロックの動きベクトルMV2(MV2x,MV2y)とから、規定の乗数Kを用いて分散値DiffVを算出する。
Vlast=MV1x+MV1y×K
Vtar =MV2x+MV2y×K
DiffV=|Vlast−Vtar|
次にステップS55に進み、輪郭抽出器103は、動きベクトルの分散値マップを入力して分散値の輪郭領域を抽出する。この時、抽出レベルは外部(例えばユーザ)から設定される抽出レベルの閾値111に従う。
尚、この輪郭抽出処理については、規定のゾーベルオペレータを用いたゾーベルフィルタを用いる。ゾーベルフィルタ出力値が外部から設定された抽出レベル閾値以上であった場合、輪郭領域とする。
そしてステップS56に進み、その抽出された輪郭領域の周辺へ領域を拡張する拡張処理を行う。尚、この拡張処理は、前述の図4及び図5を参照して説明した通りである。こうして輪郭抽出処理を実行して、1フレーム分の輪郭領域マップが生成される。
次にステップS57に進み、その輪郭領域マップから、輪郭領域に対して帯域制限フィルタ104によるフィルタ処理を実行する。本実施の形態3では、その帯域制限フィルタとしてεフィルタを用いる。
このεフィルタは、注目画素を、その注目画素の近傍にある近傍画素を用いて帯域制限するが、その際に近傍画素の画素値がパラメータεに応じて設定される。即ち、注目画素の画素値を中心とするεの範囲内に近傍画素の画素値がない場合、近傍画素の画素値を注目画素の画素値に置き換えて帯域制限を行う。また近傍画素の画素値がεの範囲内にある場合、その近傍画素の画素値をそのまま用いて帯域制限を行う。従って、注目画素がエッジである度合が大であると、パラメータεも大に設定される。またエッジである度合が小であると、パラメータεが小に設定される。こうしてそのエッジ部に生じるモスキートノイズを除去することができる。また、平坦部や有意なテクスチャ部の画素についてはパラメータεが小となり、有意なテクスチャ部のディテールを維持したフィルタリング結果を得ることができる。
こうして輪郭抽出器103から供給される輪郭領域情報に基づいて、輪郭領域の場合はパラメータεを大とし、それ以外ではパラメータεを小として帯域制限を行う。そしてステップS58に進み、フィルタ処理後の1フレームを出力する。
<その他の実施形態>
図12は、前述した実施の形態1〜3に係る画像処理装置のハードウェア構成を説明するブロック図である。
1000はコンピュータ全体の制御、及び種々の処理を行う中央演算装置(CPU)である。メモリ1001は、この画像処理装置の動作制御に必要なオペレーティングシステム(OS)、ソフトウエア、データ、演算に必要な記憶領域を提供するメモリである。また、CPU1000が各種の制御処理を行う際のワークエリアとしても用いられる。よって、上述したフローチャートの各処理ステップは、このメモリ1001に記憶されたプログラムとCPU1000との協働により実現される。システムバス1002は、CPU1000と各部とを接続し、それらの間でデータや制御信号などをやりとりする。1003は各種ソフトウエアを蓄積する記憶装置で、例えばハードディスクなどである。1004は動画像データを蓄積する記憶装置で、例えばハードディスクやMO等が含まれる。表示部1005は、画像やメッセージなどを表示するのに使用される。通信インターフェース1007は、通信回路1008を介してデータの送受信を行っており、装置外部のLAN、公衆回線、無線回線、放送電波等と接続されている。操作部1006は、この画像処理装置を起動したり、各種条件を設定したりするのに使用される。
メモリ1001には、この画像処理装置全体の動作を制御し、各種ソフトウエアを動作させるためのOSやソフトウエアを格納し、画像データを読み込むエリア、各種演算のパラメータ等を格納しておくワーキングエリアが存在する。
このような構成において、処理に先立ち、操作部1006から記憶装置1004に蓄積されている動画像データから符号化する動画像データを選択し、コンピュータの起動が指示される。すると記憶装置1003に格納されているソフトウエアがバス1002を介してメモリ1001に展開され、ソフトウエアが起動される。そしてCPU1000による記憶装置1004に格納されている動画像データの符号化動作は、図3から図7に示したフローチャートに従ったプログラムコード(前述のソフトウエア)が実行されることになる。
以上の構成により本実施の形態に係る画像処理装置は、前述の実施の形態1〜3に係るノイズ除去を実現する装置として機能する。
本発明の実施の形態1に係る画像処理装置の主要部の構成を示すブロック図である。 実施の形態に係る画像処理装置による先頭フレームの処理を説明するフローチャートである。 実施の形態に係る画像処理装置による先頭フレーム以降のフレームの処理を説明するフローチャートである。 実施の形態に係る処理対象の画像データの一部を示す図である。 図4に示す拡張処理を行った結果を示す図である。 本発明の実施の形態2に係る画像処理装置の主要部の構成を示すブロック図である。 実施の形態2に係る画像処理装置で処理する周波数ブロックのパターンを示す図である。 本実施の形態2に係る先頭フレーム以降のフレームの処理を説明するフローチャートである。 本発明の実施の形態3に係る画像処理装置の主要部の構成を示すブロック図である。 実施の形態3に係る先頭フレームの処理を示すフローチャートである。 実施の形態3に係る画像処理装置における先頭フレーム以降のフレームの処理を示すフローチャートである。 実施の形態1〜3に係る画像処理装置のハードウェア構成を説明するブロック図である。

Claims (11)

  1. 非可逆符号化により生成された画像ストリームを復号した復号画像データのノイズ成分を除去する画像処理装置であって、
    フレーム画像を入力してブロックごとに格納する格納手段と、
    前記格納手段に格納されたフレーム画像と、新たに入力されたフレーム画像とに基づいて、各ブロックごとに動きベクトルを検出する動きベクトル検出手段と、
    前記動きベクトル検出手段により検出された対象ブロックの動きベクトルと、当該対象ブロックの周辺ブロックの動きベクトルを1フレーム分格納する手段と、
    前記格納された周辺ブロックのそれぞれの動きベクトルと前記対象ブロックの動きベクトルとの差分を算出して差分値マップを生成する差分算出手段と、
    前記差分算出手段で算出した前記差分値マップを微分フィルタにより微分した値が所定の閾値以上である場合に、前記フレーム画像に含まれる輪郭領域として抽出する輪郭抽出手段と、
    前記輪郭抽出手段で抽出された前記輪郭領域に対して、各ブロックごとに帯域制限を施す帯域制限手段と、
    を有することを特徴とする画像処理装置。
  2. 非可逆符号化により生成された画像ストリームを復号した復号画像データのノイズ成分を除去する画像処理装置であって、
    非可逆符号化により生成された画像ストリームを復号する復号手段と、
    前記復号手段により復号されたフレーム画像をブロックごとに格納する格納手段と、
    対象ブロックの動きベクトルと、当該対象ブロックの周辺ブロックの動きベクトルを1フレーム分格納する手段と、
    前記格納された周辺ブロックのそれぞれの動きベクトルと前記対象ブロックの動きベクトルとの差分を算出して差分値マップを生成する差分算出手段と、
    前記差分算出手段で算出した前記差分値マップを微分フィルタにより微分した値が所定の閾値以上である場合に前記フレーム画像に含まれる輪郭領域として抽出する輪郭抽出手段と、
    前記輪郭抽出手段で抽出された前記輪郭領域に対して、各ブロックごとに帯域制限を施す帯域制限手段と、
    を有することを特徴とする画像処理装置。
  3. 前記輪郭領域に含まれる対象ブロックに比べて周辺ブロックの前記差分が低い場合に、当該周辺ブロックを前記輪郭領域に含ませる拡張手段を更に有することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記動きベクトル検出手段が動きベクトルを検出する検出範囲を指定する指定手段を更に有することを特徴とする請求項1に記載の画像処理装置。
  5. 前記閾値を指定する手段を更に有することを特徴とする請求項1又は2に記載の画像処理装置。
  6. 前記動きベクトルに基づいて、直前フレームの予測ブロックを求める手段を更に有し、
    前記帯域制限手段は、
    前記新たに入力されたフレーム画像のブロックと、前記予測ブロックとの差分をとる差分ブロック生成手段と、
    前記差分ブロック生成手段により生成されたブロックに対して周波数変換を施して周波数ブロックを出力する周波数変換手段と、
    前記輪郭抽出手段で抽出された輪郭領域に応じて、前記周波数ブロックに対するパターンレベルを設定するパターンレベル設定手段と、
    前記周波数ブロックに対し前記パターンレベルを乗算する乗算手段と、
    前記乗算手段による乗算結果を逆周波数変換する逆周波数変換手段と、
    前記新たに入力されたフレーム画像のブロックから前記逆周波数変換した結果を差し引く減算手段と、
    を有することを特徴とする請求項1又は2に記載の画像処理装置。
  7. 非可逆符号化により生成された画像ストリームを復号した復号画像データのノイズ成分を除去する画像処理方法であって、
    フレーム画像を入力してブロックごとにフレームメモリに格納する格納工程と、
    前記フレームメモリに格納されたフレーム画像と、新たに入力されたフレーム画像とに基づいて、各ブロックごとに動きベクトルを検出する動きベクトル検出工程と、
    前記動きベクトル検出工程で検出された対象ブロックの動きベクトルと、当該対象ブロックの周辺ブロックの動きベクトルを1フレーム分格納する工程と、
    前記格納された周辺ブロックのそれぞれの動きベクトルと前記対象ブロックの動きベクトルとの差分を算出して差分値マップを生成する差分算出工程と、
    前記差分算出工程で算出した前記差分値マップを微分フィルタにより微分した値が所定の閾値以上である場合に、前記フレーム画像に含まれる輪郭領域として抽出する輪郭抽出工程と、
    前記輪郭抽出工程で抽出された前記輪郭領域に対して、各ブロックごとに帯域制限を施す帯域制限工程と、
    を有することを特徴とする画像処理方法。
  8. 非可逆符号化により生成された画像ストリームを復号した復号画像データのノイズ成分を除去する画像処理方法であって、
    非可逆符号化により生成された画像ストリームを復号する復号工程と、
    対象ブロックの動きベクトルと、当該対象ブロックの周辺ブロックの動きベクトルを1フレーム分格納する工程と、
    前記格納された周辺ブロックのそれぞれの動きベクトルと前記対象ブロックの動きベクトルとの差分を算出して差分値マップを生成する差分算出工程と、
    前記差分算出工程で算出した前記差分値マップを微分フィルタにより微分した値が所定の閾値以上である場合に前記フレーム画像に含まれる輪郭領域として抽出する輪郭抽出工程と、
    前記輪郭抽出工程で抽出された前記輪郭領域に対して、各ブロックごとに帯域制限を施す帯域制限工程と、
    を有することを特徴とする画像処理方法。
  9. 前記動きベクトル検出工程で動きベクトルを検出する検出範囲を指定する指定工程を更に有することを特徴とする請求項7に記載の画像処理方法。
  10. 前記閾値を指定する工程を更に有することを特徴とする請求項7又は8に記載の画像処理方法。
  11. 前記動きベクトルに基づいて、直前フレームの予測ブロックを求める工程を更に有し、
    前記帯域制限工程は、
    前記新たに入力されたフレーム画像のブロックと、前記予測ブロックとの差分をとる差分ブロック生成工程と、
    前記差分ブロック生成工程により生成されたブロックに対して周波数変換を施して周波数ブロックを出力する周波数変換工程と、
    前記輪郭抽出工程で抽出された輪郭領域に応じて、前記周波数ブロックに対するパターンレベルを設定するパターンレベル設定工程と、
    前記周波数ブロックに対し前記パターンレベルを乗算する乗算工程と、
    前記乗算工程による乗算結果を逆周波数変換する逆周波数変換工程と、
    前記新たに入力されたフレーム画像のブロックから前記逆周波数変換した結果を差し引く減算工程と、
    を有することを特徴とする請求項7又は8に記載の画像処理方法。
JP2007258037A 2007-10-01 2007-10-01 画像処理装置及びその方法 Expired - Fee Related JP5055078B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007258037A JP5055078B2 (ja) 2007-10-01 2007-10-01 画像処理装置及びその方法
US12/242,469 US8565311B2 (en) 2007-10-01 2008-09-30 Image processing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007258037A JP5055078B2 (ja) 2007-10-01 2007-10-01 画像処理装置及びその方法

Publications (2)

Publication Number Publication Date
JP2009089177A JP2009089177A (ja) 2009-04-23
JP5055078B2 true JP5055078B2 (ja) 2012-10-24

Family

ID=40508278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007258037A Expired - Fee Related JP5055078B2 (ja) 2007-10-01 2007-10-01 画像処理装置及びその方法

Country Status (2)

Country Link
US (1) US8565311B2 (ja)
JP (1) JP5055078B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011191943A (ja) * 2010-03-12 2011-09-29 Omron Corp 画像処理装置および画像処理プログラム
CN102238380B (zh) * 2010-04-22 2013-07-17 奇景光电股份有限公司 分层运动估计的方法与***
US8879000B2 (en) * 2010-12-22 2014-11-04 Broadcom Corporation Method and system for detecting analog noise in the presence of mosquito noise
CN105519117A (zh) * 2013-09-06 2016-04-20 三菱电机株式会社 动态图像编码装置、动态图像转码装置、动态图像编码方法、动态图像转码方法以及动态图像流传输***
US10129547B2 (en) 2015-02-26 2018-11-13 Mitsubishi Electric Corporation Image processing apparatus
US11611773B2 (en) * 2018-04-06 2023-03-21 Qatar Foundation For Education, Science And Community Development System of video steganalysis and a method for the detection of covert communications

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03129987A (ja) * 1989-10-14 1991-06-03 Sony Corp 映像信号符号化装置及び映像信号符号化方法
TW293227B (ja) * 1994-11-24 1996-12-11 Victor Company Of Japan
CN100366089C (zh) * 1998-03-05 2008-01-30 松下电器产业株式会社 图像编码方法、图像编码译码方法、图像编码装置或图像记录再生装置
JP2001218210A (ja) 2000-02-02 2001-08-10 Sony Corp ノイズ検出方法、ノイズ検出装置、画像データ処理装置、記録媒体
JP2002077917A (ja) * 2000-06-13 2002-03-15 Sony Corp 画像データ処理装置及び画像データ処理方法
JP4613909B2 (ja) * 2004-02-20 2011-01-19 日本電気株式会社 画像符号化方法、その装置及びその制御プログラム
JP4444161B2 (ja) * 2005-05-20 2010-03-31 日本放送協会 画像信号処理装置
US7570309B2 (en) * 2005-09-27 2009-08-04 Samsung Electronics Co., Ltd. Methods for adaptive noise reduction based on global motion estimation
US9071844B2 (en) * 2005-12-16 2015-06-30 Texas Instruments Incorporated Motion estimation with motion vector penalty

Also Published As

Publication number Publication date
US20090086821A1 (en) 2009-04-02
JP2009089177A (ja) 2009-04-23
US8565311B2 (en) 2013-10-22

Similar Documents

Publication Publication Date Title
EP2323407A1 (en) Video image encoding method, video image decoding method, video image encoding apparatus, video image decoding apparatus, program and integrated circuit
JP5542680B2 (ja) 画像加工装置、方法及びプログラム、動画像符号化装置、方法及びプログラム、動画像復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
US20100086225A1 (en) Image re-encoding device, image re-encoding method, and image encoding program
JPH06311506A (ja) フレーム間符号化処理方式及びフレーム間符号化処理方法及び符号化制御方式
JP6729170B2 (ja) 画像処理システム及び画像復号装置
JP5055078B2 (ja) 画像処理装置及びその方法
JP2003244702A (ja) ブロッキング効果を除去するためのフィルタリング方法及びその装置
JP2010512039A (ja) 画像データ及び深度データの組合せを処理する画像処理システム
JP2004215257A (ja) Dct基盤の改善された動映像符号化方法及びその装置
JP2015095764A (ja) 符号化装置および符号化方法
JP2005159419A (ja) 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP4931214B2 (ja) 画像処理装置及びその方法
JP4931215B2 (ja) 画像処理装置及びその方法
US9055292B2 (en) Moving image encoding apparatus, method of controlling the same, and computer readable storage medium
US9930352B2 (en) Reducing noise in an intraframe appearance cycle
JP2006067302A (ja) 画像符号化装置、画像符号化方法および画像符号化プログラム
JP5951144B2 (ja) 画像符号化装置
JP2012104969A (ja) 動きベクトル生成装置、動きベクトル生成方法及びコンピュータプログラム
CN105357494B (zh) 视频编解码方法、装置
JP2010287917A (ja) 画像符号化/画像復号化装置及び方法
JP5913929B2 (ja) 動画像符号化装置及びその制御方法、コンピュータプログラム
KR101780444B1 (ko) 영상 신호의 노이즈 제거 방법
JP3560958B2 (ja) 動画符号化制御方法および装置
JP2001094996A (ja) ブロック歪低減方法及びブロック歪低減装置
JP2012124851A (ja) 動き補償符号化装置、動き補償符号化方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120702

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120730

R151 Written notification of patent or utility model registration

Ref document number: 5055078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees