JP2007110672A - 符号化方法 - Google Patents

符号化方法 Download PDF

Info

Publication number
JP2007110672A
JP2007110672A JP2006182515A JP2006182515A JP2007110672A JP 2007110672 A JP2007110672 A JP 2007110672A JP 2006182515 A JP2006182515 A JP 2006182515A JP 2006182515 A JP2006182515 A JP 2006182515A JP 2007110672 A JP2007110672 A JP 2007110672A
Authority
JP
Japan
Prior art keywords
motion vector
frame
motion
unit
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006182515A
Other languages
English (en)
Other versions
JP4243286B2 (ja
Inventor
Hiroo Ishii
裕夫 石井
Takeshi Watanabe
剛 渡邉
Shinichiro Okada
伸一郎 岡田
Shigeyuki Okada
茂之 岡田
Hideki Yamauchi
英樹 山内
Haruhiko Murata
治彦 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006182515A priority Critical patent/JP4243286B2/ja
Priority to US11/520,859 priority patent/US20070064809A1/en
Publication of JP2007110672A publication Critical patent/JP2007110672A/ja
Application granted granted Critical
Publication of JP4243286B2 publication Critical patent/JP4243286B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】動きベクトル情報に起因する符号量を削減する。
【解決手段】動き補償部60は、既に検出した後方参照フレームの動きベクトル情報を動きベクトル保持部61に保持する。動きベクトル計算部63は、後方参照フレームの動きベクトルの情報を動きベクトル保持部61から参照して、符号化対象フレーム内の各マクロブロックについて、異なる算出モードにしたがって複数の動きベクトルを計算する。動き補償予測部64は、算出モード毎に求められた動きベクトルを使用して動き補償を行い予測画像を生成し、符号量推定部65に出力する。符号量推定部65は、算出モード毎に、予測画像と原画像との差分である差分画像を符号化したときの符号量を推定する。動きベクトル選択部67は、差分画像の符号量を比較し、符号量が最小となる動きベクトルを選択する。
【選択図】図3

Description

本発明は、動画像を符号化する符号化方法に関する。
ブロードバンドネットワークが急速に発展しており、高品質な動画像を利用したサービスに期待が集まっている。また、DVDなど大容量の記録媒体が利用されており、高画質の画像を楽しむユーザ層が広がっている。動画像を通信回線で伝送したり、記録媒体に蓄積するために不可欠な技術として圧縮符号化がある。動画像圧縮符号化技術の国際標準として、MPEG4の規格やH.264/AVC規格がある。また、ひとつのストリームにおいて高画質のストリームと低画質のストリームを併せもつSVC(Scalable Video Codecのような次世代画像圧縮技術がある。
高解像度の動画像をストリーム配信したり、記録媒体に蓄積する場合、通信帯域を圧迫しないように、あるいは、記憶容量が大きくならないように、動画ストリームの圧縮率を高める必要がある。動画像の圧縮効果を高めるために、動き補償フレーム間予測符号化が行われる。動き補償フレーム間予測符号化では、符号化対象フレームをブロックに分割し、既に符号化された参照フレームからの動きをブロック毎に予測して動きベクトルを検出し、差分画像とともに動きベクトル情報を符号化する。
特許文献1には、残差動きベクトルと残りフレーム数より予想される予測動きベクトルがフレーム間の動きベクトルの近傍に存在する場合、フレーム間の動きベクトルの近傍にある予測動きベクトルを動きベクトルとし、予測動きベクトルがフレーム間の動きベクトルの近傍に存在しないときは、フレーム間の動きベクトルを動きベクトルとする、動き補償予測符号化方式が記載されている。
特開平2−219391号公報
H.264/AVC規格では、動き補償において、よりきめ細かな予測を行うために、動き補償のブロックサイズを可変にしたり、動き補償の画素精度を1/4画素精度まで細かくすることができるようになっており、動きベクトルに関する符号量が多くなる。また、次世代画像圧縮技術であるSVC(Scalable Video Coding)では、時間的スケーラビリティを高めるために、MCTF(Motion Compensated Temporal Filtering、動き補償時間方向フィルタ)技術が検討されている。これは、時間軸方向のサブバンド分割に動き補償を組み合わせたものであり、階層的な動き補償を行うため、動きベクトルの情報が非常に多くなる。このように最近の動画圧縮符号化技術では、動きベクトルに関する情報量が増えることにより動画ストリーム全体のデータ量が増大する傾向にあり、動きベクトル情報に起因する符号量を削減する技術が一層求められている。
本発明はこうした状況に鑑みてなされたもので、その目的は、符号化効率が高い動画像の符号化技術を提供することにある。
上記課題を解決するために、本発明のある態様の符号化方法は、動画像のピクチャを符号化する方法であって、符号化対象ピクチャ内の各ブロックに対して、参照ピクチャ内のブロックと符号化対象ピクチャ内のブロックとのマッチングによって求められる第1動きベクトルと、それ以外の方法で定義された少なくともひとつの第2動きベクトルとを含む複数の動きベクトルを準備し、該複数の動きベクトルの中から選択されたひとつの動きベクトルを定義する情報を動画像の符号化データに含める。
「ピクチャ」は符号化の単位であり、その概念にはフレーム、フィールド、VOP(Video Object Plane)などを含む。また、「符号化対象ピクチャ内の各ブロック」は、マクロブロックやオブジェクトなど一定の範囲に含まれる複数の画素からなり、動き補償予測時のマッチング対象となりうるものをいう。
この態様によると、各ブロックについて準備された複数の動きベクトルの中からひとつの動きベクトルを選択するので、目的に応じた動きベクトルを用いて動画像の符号化を実行できる。
なお、動きベクトルの選択方法として、複数の動きベクトルをそれぞれ利用してピクチャ間予測を実行し、その結果得られる予測画像と原画像の差分である差分画像の符号量が最小となる動きベクトルを選択するようにしてもよい。これによれば、それぞれの動きベクトルを用いて求められた差分画像の符号量が最小となる動きベクトルを選択することで、動画像の符号化データのデータ量を削減して符号化効率を向上することができる。
第1の参照ピクチャを基準とする動きベクトルが求められている第2の参照ピクチャが存在する場合に、前記第2の動きベクトルは、前記第2の参照ピクチャ内のブロックの動きベクトルを利用して、前記符号化対象ピクチャ内のブロックについて求められるベクトルであってもよい。
これによると、先に動きベクトルが計算されている参照ピクチャの動きベクトルを利用して、符号化対象ピクチャの動きベクトルを表現するので、動きベクトルデータ自体の符号量を削減することができる。
一例として、「第1動きベクトル」は実施の形態における算出モード1のMVに対応し、「第2動きベクトル」は実施の形態における算出モード2〜5の動きベクトルのいずれかに対応する。
なお、第1動きベクトルと第2動きベクトルのうち、それぞれのベクトルを利用した結果得られる差分画像の符号量が小さい方の動きベクトルを選択するようにしてもよい。これによると、それぞれの動きベクトルを用いて求められた差分画像の符号量が最小となる動きベクトルを選択するので、動画像の符号化データのデータ量を削減して、符号化効率を向上することができる。
第2の参照ピクチャ内のブロックとそのブロックに対応する参照動きベクトルとにしたがって、符号化対象ピクチャ内で動き補償予測の対象となるブロックを特定し、参照動きベクトルに、第2の参照ピクチャと符号化対象ピクチャ間の時間的距離に基づいた比例係数を乗じて、特定されたブロックの第2動きベクトルを算出してもよい。
「時間的距離に基づいた比例係数」とは、ブロックが等速度運動または等加速度運動をしていると仮定したときに、参照ピクチャと符号化対象ピクチャの間の時間間隔とブロックの速度または加速度から求められる係数をいう。
これによれば、比例係数のみで動きベクトルを定義できるので、動きベクトルデータの符号量をさらに削減することができる。
第1動きベクトルと第2動きベクトルの間のずれ量を推定した調整ベクトルを求め、調整ベクトルと第2動きベクトルとを合成した合成ベクトルが、複数の動きベクトルの中に含まれてもよい。これによれば、調整ベクトルを加えることで動き補償予測の精度が高まるので、動画像の符号化データのデータ量を削減することができる。
符号化対象ピクチャについて選択された動きベクトルを新たな参照動きベクトルとして、別の符号化対象ピクチャの動きベクトルの定義に利用してもよい。これによれば、符号化対象ピクチャの動きベクトルを定義する際に、既に他の参照ピクチャの動きベクトルを利用して定義された動きベクトルを利用することで、符号化対象ピクチャの動きベクトルデータの符号量を削減することができ、動画像の符号化効率を高めることができる。
符号化データに、複数の動きベクトルのうちいずれを使用したかを示すモード情報を含めてもよい。これによれば、モード情報と動きベクトルの比例係数および調整ベクトルが符号化データに存在すれば動きベクトルを定義できるので、動きベクトルデータの符号量削減することができる。
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、動きベクトルデータの符号量を削減することができる。
図1は、実施の形態に係る符号化装置100の構成図である。これらの構成は、ハードウェア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされた画像符号化機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
本実施の形態の符号化装置100は、国際標準化機関であるISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)によって標準化されたMPEG(Moving Picture Experts Group)シリーズの規格(MPEG−1、MPEG−2およびMPEG−4)、電気通信に関する国際標準機関であるITU−T(International Telecommunication Union-Telecommunication Standardization Sector)によって標準化されたH.26xシリーズの規格(H.261、H.262およびH.263)、もしくは両方の標準化機関によって合同で標準化された最新の動画像圧縮符号化標準規格であるH.264/AVC(両機関における正式勧告名はそれぞれMPEG-4 Part 10: Advanced Video CodingとH.264)に準拠して動画像の符号化を行う。
MPEGシリーズの規格では、フレーム内符号化を行う画像フレームをI(Intra)フレーム、過去のフレームを参照画像として順方向のフレーム間予測符号化を行う画像フレームをP(Predictive)フレーム、過去と未来のフレームを参照画像として双方向のフレーム間予測符号化を行う画像フレームをBフレームという。
一方、H.264/AVCでは、参照画像として利用できるフレームは、時間の先後を問わず、過去の2枚のフレームを参照画像としてもよく、未来の2枚のフレームを参照画像としてもよい。また、参照画像として利用できるフレームの枚数も問わず、3枚以上のフレームを参照画像として用いることもできる。したがって、MPEG−1/2/4では、Bフレームは双方向予測(Bi-directional prediction)フレームのことを指していたが、H.264/AVCでは、Bフレームは、参照画像の時間の先後は問わないため、双予測(Bi-predictive prediction)フレームのことを指すことに留意する。
なお、本願明細書では、フレームとピクチャを同じ意味で用いており、Iフレーム、Pフレーム、Bフレームは、それぞれIピクチャ、Pピクチャ、Bピクチャとも呼ばれている。
また、本願明細書では、符号化の単位としてフレームを例に挙げて説明するが、符号化の単位はフィールドであってもよい。また、符号化の単位はMPEG−4におけるVOPであってもよい。
符号化装置100は、フレーム単位で動画像の入力を受け取り、動画像を符号化し、符号化ストリームを出力する。
ブロック生成部10は、入力された画像フレームをマクロブロックに分割する。画像フレームの左上から右下方向の順にマクロブロックが形成される。ブロック生成部10は生成したマクロブロックを差分器12と動き補償部60に供給する。
差分器12は、ブロック生成部10から供給される画像フレームがIフレームであれば、そのままDCT部20に出力するが、PフレームまたはBフレームであれば、動き補償部60から供給される予測画像との差分を計算してDCT部20に供給する。
動き補償部60は、フレームメモリ80に格納されている過去または未来の画像フレームを参照画像として利用し、ブロック生成部10から入力されたPフレームまたはBフレームの各マクロブロックについて、誤差の最も小さい予測領域を参照画像から探索し、マクロブロックから予測領域へのずれを示す動きベクトルを求める。動き補償部60は、動きベクトルを用いてマクロブロック毎に動き補償を行い、予測画像を生成する。動き補償部60は、生成した動きベクトルを可変長符号化部90に供給し、予測画像を差分器12と加算器14に供給する。
動き補償部60では、双方向予測と片方向予測のいずれも適用可能である。動き補償部60は、片方向予測では、前方参照フレームに対する動きを示す順方向動きベクトルを生成する。双方向予測では、順方向動きベクトルに加えて、後方参照フレームに対する動きを示す逆方向動きベクトルの2つの動きベクトルを生成する。
差分器12は、ブロック生成部10から出力される現在の画像(つまり、符号化対象の画像)と、動き補償部60から出力される予測画像との差分を求め、DCT部20に出力する。DCT部20は、差分器12から与えられた差分画像を離散コサイン変換(DCT)し、DCT係数を量子化部30に与える。
量子化部30は、DCT係数を量子化し、可変長符号化部90に与える。可変長符号化部90は、動き補償部60から与えられた動きベクトルとともに差分画像の量子化されたDCT係数を可変長符号化し、符号化ストリームを生成する。可変長符号化部90は、符号化ストリームを生成する際、符号化されたフレームを時間順序に並べ替える処理を行う。
量子化部30は、画像フレームの量子化されたDCT係数を逆量子化部40に供給する。逆量子化部40は、与えられた量子化データを逆量子化し、逆DCT部50に与え、逆DCT部50は、与えられた逆量子化データを逆離散コサイン変換する。これにより、符号化された画像フレームが復元される。復元された画像フレームは加算器14に入力される。
加算器14は、逆DCT部50から供給される画像フレームがIフレームであれば、そのままフレームメモリ80に格納する。加算器14は、逆DCT部50から供給される画像フレームがPフレームまたはBフレームであれば、それは差分画像であるため、逆DCT部50から供給された差分画像と動き補償部60から供給される予測画像とを加算することにより、元の画像フレームを再構成し、フレームメモリ80に格納する。
PフレームもしくはBフレームの符号化処理の場合は、上述のように動き補償部60が動作するが、Iフレームの符号化処理の場合は、動き補償部60は動作せず、ここでは図示しないが、Iフレームはフレーム内予測が行われた後、DCT部20に供給される。
次に、従来の動きベクトルの計算について説明し、その後、本発明の一実施形態による動きベクトルの計算について説明する。
図2は、従来の動きベクトルの計算を説明する図である。同図は、左から右を時間の流れとして5枚のフレームを表示時間順に示しており、Iフレーム201、Bフレーム202、Bフレーム203、Bフレーム204、Pフレーム205の順に表示がなされる。符号化の順序はこの表示順序とは異なり、まず同図のIフレーム201が符号化され、次に5番目のPフレーム205がIフレーム201を参照画像として動き補償が行われて符号化される。その後、Bフレーム203が符号化され、Bフレーム202、Bフレーム204の順に動き補償が行われて符号化される。
Pフレームを符号化する際の参照フレームは、時間的に前のIフレームまたはPフレームを用いる。また、Bフレームを符号化する際の参照フレームは、前のIフレーム、または時間的に前後のPフレームを用いる。Pフレームの動き補償予測の場合、予測単位は例えば16×16のマクロブロックでありひとつの動きベクトルを利用する。また、Bフレームは、順方向、逆方向、双方向の予測のうち最適なものを選択して動き補償が行われる。なお、Iフレーム201はPフレームであってもよい。また、Pフレーム205はIフレームであってもよい。
現時点で、Iフレーム201、Pフレーム205の符号化が完了し、B〜Bフレーム202〜204を符号化する段階であるとする。このB〜Bフレーム202〜204を「符号化対象フレーム」と呼び、符号化対象フレームより前に表示されるIフレーム201を「前方参照フレーム」と、符号化対象フレームより後に表示されるPフレーム205を「後方参照フレーム」と呼ぶことにする。また、Pフレーム205の動きベクトルを「MV」、B〜Bフレームの動きベクトルを「MVB1〜MVB3」と表記する。
なお、図2では、二次元画像を一次元的に示しているが、実際の動きベクトルは画像の水平方向と垂直方向の二次元成分を持つ。
図2に示すように、Pフレーム205内のマクロブロック215について、前方参照フレーム201のマクロブロック211を指し示す動きベクトルMV225を求める。次に、符号化対象フレーム203内のマクロブロック213について、前方参照フレーム201または後方参照フレーム205のいずれかのマクロブロックを指し示す動きベクトルMVB2222を求める。図2では、前方参照フレーム201を指した場合を示す。続いて、符号化対象フレーム202内のマクロブロック212について、前方参照フレーム201または後方参照フレーム205のいずれかのマクロブロックを指し示す動きベクトルMVB1221を求める。
これに対し、本実施の形態では、Bフレーム内の各マクロブロックに対して、異なる方法で定義された複数の動きベクトルを算出する。この算出には、既に動きベクトルが検出されている後方参照フレームの動きベクトルを利用する。これによって、Bフレームの動きベクトルデータの符号量を削減することができる。
さらに、本実施の形態では、複数の動きベクトルを利用してBフレームの動き補償を実行し予測画像を求め、予測画像と原画像との差分である差分画像の符号量が最小となる動きベクトルを選択する。これによって、動画像の符号化データの符号量を削減し、符号化効率を向上させることができる。
図3は、本実施の形態に係る動き補償部60の構成を説明する図である。
動き補償部60は、後方参照フレーム205の動き補償を行ったときに、後方参照フレーム205の各マクロブロックの動きベクトルを検出しており、既に検出した後方参照フレーム205の動きベクトル情報を動きベクトル保持部61に保持する。
動きベクトル計算部63は、後方参照フレーム205の動きベクトルの情報を動きベクトル保持部61から参照して、符号化対象フレーム202〜204内の各マクロブロックについて、異なる方法で定義された複数の動きベクトルを計算する。本実施の形態では、動きベクトルの定義を「算出モード」と表現する。この算出モードは、算出モード指定部62から動きベクトル計算部63に供給される。
動き補償予測部64は、算出モード毎に求められた動きベクトルを使用して動き補償を行い、予測画像を生成し、符号量推定部65、差分器12、加算器14に出力する。
符号量推定部65は、算出モード毎に、予測画像と原画像との差分である差分画像を符号化したときの符号量を推定する。推定した符号量は、算出モードに対応づけて符号量保持部66に保持される。
動きベクトル選択部67は、符号量保持部66に保持された差分画像の符号量を比較し、符号量が最小となる動きベクトルを選択する。選択された動きベクトルの情報は、可変長符号化部90に出力される。動きベクトルの情報は、画像とともに可変長符号化されて符号化ストリームに含められる。
図4は、算出モード指定部62により指定される動きベクトルの算出モードの一例を示す。この実施の形態では、算出モード1〜6の6種類が定義されている。算出モード1では、符号化対象フレーム202〜204の動きベクトルMVをそのまま使用する。算出モード2では、既に計算されている後方参照フレーム205の動きベクトルMVに比例係数αを乗じた動きベクトルを使用する。算出モード3では、算出モード2の動きベクトルに調整ベクトルβを加算した動きベクトルを使用する。算出モード4では、算出モード3の動きベクトル全体に対して比例係数αを乗じた動きベクトルを使用する。算出モード5では、算出モード4の動きベクトルに調整ベクトルβを加算したベクトルを使用する。最後に、算出モード6では、後方参照フレーム205の動きベクトルMVをそのまま使用する。
図5ないし図7を参照して、上述の算出モード1〜6にしたがって、B2フレーム203またはB1フレーム202を符号化対象フレームとしたときの動きベクトルの算出について説明する。なお、図5ないし図7は、従来の動きベクトルについて説明した図2と同じ符号を用いており、図2と共通する説明は省略する。
算出モード1は、従来の方法で検出される動きベクトルMVである。図2を例とすれば、符号化対象フレーム203内のマクロブロック213について、誤差の最も小さい予測領域を前方参照フレーム201内からマッチングにより探索し、マクロブロック213から予測領域へのずれを示す動きベクトルMVB2を求める。
算出モード2は、既に動きベクトルが検出されている後方参照フレーム205内のマクロブロック(以下、「参照マクロブロック」ともいう)の動きベクトル(以下、「参照動きベクトル」ともいう)MVを、フレーム間の時間的距離に比例して配分する方法である。このときの比例係数を「α」で表す。
図5を参照すると、後方参照フレーム205内のマクロブロック215と、その参照動きベクトルMV225とにしたがって、符号化対象フレーム203内で動き補償予測の対象となるマクロブロック214を特定する。そして、特定したマクロブロック214の動きベクトルを、α・MVとして算出する。
なお、後方参照フレームのマクロブロックと、その動きベクトルとにしたがって、符号化対象フレーム内で動き補償予測の対象となるマクロブロックを特定するには、以下の手順で行う。まず、通常のブロックマッチングなどの手法により、符号化対象フレームのマクロブロックの動きベクトル(以下、この項において「通常動きベクトル」という)を求める。続いて、符号化対象フレーム上でこの通常動きベクトルが指している位置を含む一定の範囲を定める。そして、定めた範囲内を通過する、後方参照フレームの動きベクトルを抽出する。複数の動きベクトルが抽出された場合には、先に求めた通常動きベクトルが指している位置に最も近い位置を通過する動きベクトルを選択する。このようにして抽出または選択された動きベクトルが、符号化対象フレームのマクロブロックが参照すべき参照動きベクトルMVと考えることができる。この参照動きベクトルMVを基に、符号化対象フレームのマクロブロックの動きベクトルを算出する。
図8は、線形動きモデルにおいて、αの値を具体的に説明する図である。後方参照フレーム205の参照マクロブロック215(図5参照)の動きベクトルMVは、後方参照フレーム205と前方参照フレーム201との時間差tの間に、参照マクロブロック215が動く量と方向を示すものであるから、マクロブロックが等速度運動していると仮定する場合、すなわち線形動きモデルにしたがえば、符号化対象フレーム203の対象マクロブロック214は、符号化対象フレーム203と前方参照フレーム201の時間差trの間に、MV×(tr/t)の動きを示すことが予測される。したがって、Bフレーム202ではα=0.25、Bフレーム203ではα=0.5、Bフレーム204ではα=0.75となる。
線形動きモデル以外、例えば、マクロブロックが等加速度運動していると仮定してもよい。図9は、等加速度運動の場合のαの値を示す。図9においては、αは、フレーム間の時間間隔の二乗に比例した係数となる。つまり、Bフレーム202ではα=0.0625、Bフレーム203ではα=0.25、Bフレーム204ではα=0.5625となる。
算出モード3は、算出モード2で求めた動きベクトルα・MVに調整ベクトルβを加算した合成ベクトルを用いる。すなわち、α・MV+βとなる。
この調整ベクトルβは、算出モード1のMVと算出モード2のα・MVとの誤差に相当する。すなわち、実際にはマクロブロックの動きの速度が複数フレーム間で一定であるとは限らないため、動きベクトル計算部63は、対象マクロブロック214の線形予測された移動位置と実際の移動位置との差分を表す調整ベクトルβを求める。
βの算出方法としては、所定値を使用するか、または、近隣マクロブロックについて求めた誤差の平均値を使用してもよい。または、後述するように、αとβを所与の範囲内で網羅的に探索して、最もマッチングのよいもの、すなわち、差分画像の符号量が最も少ないものを選択するようにしてもよい。
算出モード4は、算出モード3で求めた動きベクトルに、さらに比例係数「α」を乗じて動きベクトルを算出する。これについて図6を参照して説明する。
現時点で、Bフレーム203のマクロブロック213について、算出モード3の動きベクトルα・MV+βが算出済みであるとし、続いて、Bフレーム(符号化対象フレーム)202のマクロブロック216について動きベクトルを算出することを考える。
フレーム203のマクロブロックと動きベクトルにしたがって、符号化対象フレーム202の対応するマクロブロック216を特定する。このマクロブロック216の動きベクトルは、後方参照フレーム205の動きベクトルMV225を基準としても考えられるし、Bフレーム203を後方参照フレームとして、動きベクトル(α・MV+β)222を基準としても考えられる。このうち、前者については、算出モード1にしたがってα・MVで表すことができる。後者については、比例係数αを用いて、
α・(α・MV+β
と表すことができる。
別の実施例として、算出モード1のMVB2を使用して、算出モード4の動きベクトルを、α・MVB2と定義してもよい。こうすると、動きベクトル情報としてαとβを符号化する必要がなくなるので、動きベクトル情報の符号量をさらに低下させることができる。
このように、ある符号化対象フレームについて符号量が最小になるとして選択された動きベクトルを、別の符号化対象フレームの動きベクトルの算出に利用することも可能である。
算出モード5は、算出モード3と同様に、算出モード4で求めた動きベクトルα・(α・MV+β)に調整ベクトルβを加算した合成ベクトルを用いる。この調整ベクトルβは、算出モード1の動きベクトルMVB1と算出モード4の動きベクトルα・(α・MV+β)との誤差に相当する。調整ベクトルβは、βと同様にして求められる。
つまり、算出モード5の動きベクトルは、以下のように表せる。
α・(α・MV+β)+β
別の実施例として、算出モード1のMVB2を使用して、算出モード5の動きベクトルを、α・MVB2+βと定義してもよい。こうすると、動きベクトル情報としてαとβを符号化する必要がなくなるので、動きベクトル情報の符号量をさらに低下させることができる。
算出モード6では、後方参照フレーム205の動きベクトルMV225をそのまま使用する。
可変長符号化部90は、算出モード1〜6にしたがった複数の動きベクトルのうちいずれを使用したかを示すモード情報を、符号化データに含める。
なお、動きベクトル選択部67は、算出モード指定部62により指定された全ての算出モードについて、それぞれの算出モードの動きベクトルを利用して求めた差分画像の符号量を比較する代わりに、通常の手順で求められる動きベクトルMVよりも差分画像の符号量が減少する場合にのみ、異なる算出モードにしたがった動きベクトルを選択するようにしてもよい。
具体的には、まず、動き補償予測部64は、算出モード1にしたがって動きベクトルMVを計算し、符号量推定部65は、動きベクトルMVを利用して予測画像を生成したときの差分画像の符号量を算出する。続いて、動き補償予測部64は、算出モード2にしたがって動きベクトルα・MVを計算し、符号量推定部65は、動きベクトルα・MVを利用して予測画像を生成したときの差分画像の符号量を算出する。そして、2つの差分画像の符号量を比較して、算出モード2の動きベクトルα・MVの方が符号量が小さいときに、動きベクトル選択部67は算出モード2の動きベクトルを選択する。
算出モード1の動きベクトルMVの方が小さいときは、さらに動き補償予測部64は算出モード3にしたがって動きベクトルα・MV+βを計算し、符号量推定部は、動きベクトルα・MV+βを利用して予測画像を生成したときの差分画像の符号量を算出する。そして、算出モード1の場合と算出モード3の場合の差分画像の符号量を比較して、算出モード3の動きベクトルα・MV+βの方が符号量が小さいときに、動きベクトル選択部67は算出モード3の動きベクトルを選択する。
以下、同様の計算および比較を、算出モード4、算出モード5についても実行する。比較演算は、算出モード1以外の動きベクトルが選択された時点で終了する。
これによって、符号化に要する演算量を抑制しつつ、動画像の符号化効率の高い動きベクトルを選択することができる。
図10は、最適動きベクトルの選択方法を示すフローチャートである。まず、動き補償部60は、後方参照フレーム205内の各マクロブロックについて、前方参照フレーム201を基準とする動きベクトルを計算し、得られた動きベクトルを動きベクトル保持部61に格納する(S10)。動きベクトル計算部63は、動きベクトル保持部61内の後方参照フレーム205内のマクロブロックの動きベクトルを利用して、符号化対象フレーム203の各マクロブロックについて、算出モード指定部62により指定された算出モードの動きベクトルを求める(S12)。動き補償予測部64は、算出モード毎に、S12で求めた動きベクトルを使用した場合の予測画像を計算する(S14)。符号量推定部65は、動き補償予測部64で計算された予測画像と原画像との差分である差分画像の符号量を推定する(S16)。この推定は、予め準備されている解析プログラムによって符号量を推定してもよいし、または、その差分画像を、DCT部20、量子化部30、可変長符号化部90を経由して実際に符号化した後に、その符号量についての情報を可変長符号化部90から受け取るようにしてもよい。推定された符号量は、算出モード毎に符号量保持部66に格納される。
そして、動きベクトル選択部67は、符号量保持部66内の符号量を比較して、符号量が最小である算出モードを決定し、当該算出モードにおいて計算された動きベクトルを選択する(S18)。動きベクトル選択部67は、選択した動きベクトルの算出モードに加えて、存在する場合は、比例係数α、α、調整ベクトルβ、βを可変長符号化部90に出力する(S20)。出力された算出モード、比例係数、調整ベクトルのデータは、符号化ストリームに含められる。
図11は、算出モード3において、比例係数α、調整ベクトルβを可変とした場合に最適の組み合わせを求める方法の一例を示す。α、βについては、予め取りうる値の範囲が定められており、図11では、それぞれ、α≦α≦α、β≦β≦βであるとする。
まず動きベクトル計算部63は、αに初期値αを代入し(S30)、続いてβに初期値βを代入する(S32)。これらのα、βを使用して動きベクトルαMV+βが作られ、符号量推定部65は、この動きベクトルを用いたときの差分画像の符号量を推定する(S34)。動きベクトル計算部63は、αが上限値αを越えたか否かをチェックし(S36)、上限値以下であれば、続いて、βが上限値βを越えたか否かをチェックする(S38)。βが上限値βに達していなければ(S38のN)、予め定められている増分Bを現在値に加えた値を新たにβとする(S40)。βが上限値βに達していれば(S38のY)、予め定められている増分Aを現在値に加えた値を新たにαとし(S42)、βを初期値βに戻した動きベクトルについての計算を継続する。αが上限値αに達すると(S36のY)、このルーチンを終了する。
これによって、α、βの組み合わせを変化させた動きベクトルを使用したときの、参照画像との差分誤差が最小となる動きベクトルを選択することができるため、動画像の符号量が削減され、符号化効率が向上する。
図12は、実施の形態に係る復号装置300の構成図である。これらの機能ブロックもハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現することができる。
復号装置300は、符号化ストリームの入力を受け取り、符号化ストリームを復号して出力画像を生成する。
可変長復号部310は、入力された符号化ストリームを可変長復号し、復号された画像データを逆量子化部320に供給し、動きベクトル情報を動き補償部360に供給する。
逆量子化部320は、可変長復号部310により復号された画像データを逆量子化し、逆DCT部330に供給する。逆量子化部320により逆量子化された画像データはDCT係数である。逆DCT部330は、逆量子化部320により逆量子化されたDCT係数を逆離散コサイン変換(IDCT)することにより、元の画像データを復元する。逆DCT部330により復元された画像データは、加算器312に供給される。
加算器312は、逆DCT部330から供給された画像データがIフレームである場合、そのIフレームの画像データをそのまま出力するとともに、PフレームやBフレームの予測画像を生成するための参照画像として、フレームメモリ380に格納する。
加算器312は、逆DCT部330から供給された画像データがPフレームである場合、その画像データは差分画像であるから、逆DCT部330から供給された差分画像と動き補償部360から供給される予測画像を加算することにより、元の画像データを復元し出力する。
動き補償部360は、可変長復号部310から供給される動きベクトル情報と、フレームメモリ380に格納された参照画像を用いて、PフレームまたはBフレームの予測画像を生成し、加算器312に供給する。
図13は、動き補償部360の構成図である。以下、本実施の形態で符号化されたBフレームを復号するための動き補償部360の動作を説明する。動き補償部360は、後方参照フレームの動き補償を行ったときに、後方参照フレームの各マクロブロックの動きベクトルを検出しており、既に検出した後方参照フレームの動きベクトル情報やマクロブロックの情報を動きベクトル保持部364に保持しておく。
動きベクトル取得部361は、可変長復号部310から動きベクトル情報を取得する。この動きベクトル情報には、上述した算出モード、比例係数αおよび調整ベクトルβが含まれる。動きベクトル取得部361は、動きベクトル情報を動きベクトル計算部362に与える。算出モードを符号化ストリームに含めることによって、ひとつの符号化対象フレーム内に複数の算出モードが含まれていても、動き補償部360において、比例係数αおよび調整ベクトルβから元の動きベクトルを復元することができる。
動きベクトル計算部362は、動きベクトル保持部364から後方参照Pフレームのマクロブロックの動きベクトルを取得し、符号化対象フレームの動きベクトルを計算する。計算された動きベクトルは、動き補償予測部366に与えられるとともに、他のフレームの動きベクトルの計算に使用するために、動きベクトル保持部364に保持される。
動き補償予測部366は、受け取った動きベクトルを用いて符号化対象フレームの予測画像を生成して加算器312に出力する。
以上説明したように、本実施の形態によれば、符号化に際して使用する動きベクトルを予め複数用意しておき、参照画像との差分誤差が最小となる動きベクトルを選択するようにしたので、動画像の符号量が削減され、符号化効率が向上する。
また、先に動きベクトルが計算されている参照フレームの動きベクトルを利用して、符号化対象フレームの動きベクトルを表現するので、動きベクトルデータ自体の符号量を削減することができる。
最近の高画質の圧縮符号化では、1/4画素精度での動きベクトルの探索が行われることが多く、動きベクトル情報の符号量が一掃増大する。本実施形態では、後方参照フレーム(Pフレーム)の動きベクトルを利用して、符号化対象フレーム(Bフレーム)の動きベクトルを予測するため、Bフレームについては、動きベクトルそのものを符号化する必要がなく、比例係数αと調整ベクトルβ、および動きベクトルの算出モードだけを符号化すればよい。しかも、αを等速度または等加速度で指定した場合には、αの値はフレーム間隔の比率で求められることから、αについても符号化する必要がなく、動きベクトル算出モードのみ符号化すれば十分である。
この方法によって、符号化に要する計算処理量は増加するが、効率の良い動きベクトルが求められるので、符号化ストリームのデータ量が削減され、動画像の符号化効率が向上する。
なお、以上の説明では、Bフレームの順方向予測の場合について述べたが、逆方向予測についても、同様の手順で本実施形態を適用することができる。また、片方向の動き予測のみならず、双方向予測の場合にも、前方参照フレーム、後方参照フレームのそれぞれに対する動きを示す2つの独立した動きベクトルの符号化について、本実施形態を適用することができる。すなわち、順方向予測、逆方向予測のそれぞれについて、実施の形態と同様にして複数の動きベクトルを用意してやればよい。
また、ひとつの動きベクトルから順方向、逆方向の動きベクトルが線形予測されるダイレクトモードにおいても、生成される動きベクトルの符号化について、本実施形態を適用することができる。すなわち、ダイレクトモードの線形動きモデルにしたがって線形的に求められるベクトルに調整ベクトルβを加えた合成ベクトルを求めてやることで、複数の動きベクトルを用意することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記の説明では、符号化装置100および復号装置300は、MPEGシリーズの規格(MPEG−1、MPEG−2およびMPEG−4)、H.26xシリーズの規格(H.261、H.262およびH.263)、もしくはH.264/AVCに準拠して動画像の符号化および復号を行ったが、本発明は、時間的スケーラビリティをもつ階層的な動画像の符号化および復号を行う場合にも適用することができる。特にMCTF技術を用いた場合の動きベクトルの符号化において、動きベクトルの符号量を削減するために本発明は有効である。
上述した動きベクトルの算出モードは一例であって、他の方法によって定義された動きベクトルについても、最適の動きベクトルを選択する対象としてもよい。一例として、他のフレームについての動きベクトルをそのまま使用したり、または適当な係数をかけて使用してもよい。また、準備されている算出モードの全てを必ず使用する必要はない。算出モード指定部62は、計算処理量の大小やプロセッサの使用状況などに応じて、一部の算出モードの使用を許可したり制限したりして、動きベクトルの検出に要する計算量を調整するようにしてもよい。
上記の説明では、符号化対象フレーム内の各マクロブロックについて、複数の動きベクトルの算出モードの中から差分画像の符号量を最小とする算出モードを決定することを述べた。しかしながら、マクロブロック単位でなくそれ以外のフレーム内の領域、例えば、符号化単位としてのスライスや、図示しないROI領域設定部が動画像上に設定する注目領域(Region of Interest:ROI)について、複数の動きベクトルの算出モードの中から差分画像の符号量を最小とする算出モードを決定するようにしてもよい。この場合の算出モードは、図4で示したのと同じものを使用できる。
具体的には、動き補償部60は、後方参照フレーム205内のスライスまたは注目領域について、前方参照フレーム201を基準とする動きベクトルを計算し、得られた動きベクトルを動きベクトル保持部61に格納する。動きベクトル計算部63は、動きベクトル保持部61内の後方参照フレーム205内のスライスまたは注目領域の動きベクトルを利用して、符号化対象フレーム203の各スライスまたは注目領域について、算出モード指定部62により指定された算出モードの動きベクトルを求める。動き補償予測部64は、算出モード毎に、動きベクトル計算部63で求めた動きベクトルを使用した場合の予測画像を計算する。符号量推定部65は、動き補償予測部64で計算された予測画像と原画像との差分である差分画像の符号量を推定する。推定された符号量は、算出モード毎に符号量保持部66に格納される。
そして、動きベクトル選択部67は、符号量保持部66内の符号量を比較して符号量が最小である算出モードを決定し、当該算出モードにおいて計算された動きベクトルを選択する。動きベクトル選択部67は、選択した動きベクトルの算出モードに加えて、存在する場合は、比例係数α、α、調整ベクトルβ、βを可変長符号化部90に出力する。出力された算出モード、比例係数、調整ベクトルのデータは、スライスまたは注目領域毎に符号化ストリームに含められる。
さらに、符号化対象フレーム内のマクロブロック毎に動きベクトルの算出モードを決定する代わりに、フレーム単位またはGOP単位で動きベクトルの算出モードを決定してもよい。この場合、以下の2つの手順がある。
手順1.動き補償部60は、候補となる動きベクトルの算出モード毎に、フレーム単位またはGOP単位で符号化を実行する。つまり、ひとつの算出モードの動きベクトルを全てのマクロブロックまたはフレーム内領域について適用して符号化を実行する。この段階では符号化データを出力せず、符号化データの符号量のみを符号量保持部66に保持しておく。全ての動きベクトルの算出モードについて符号化データの符号量を計算した後、動きベクトル選択部67は、符号量が最小となる算出モードを選択する。そして、動き補償予測部64は、選択された動きベクトル算出モードにしたがって改めて符号化を実行し、この段階で符号化データが出力される。
手順2.動き補償部60は、候補となる動きベクトルの算出モード毎に、フレーム単位またはGOP単位で符号化を実行する。つまり、ひとつの算出モードの動きベクトルを全てのマクロブロックまたはフレーム内領域について適用して符号化を実行する。この段階では符号化データを出力しないが、符号化データそのものと符号化データの符号量とを符号量保持部66に保持しておく。全ての動きベクトルの算出モードについて符号化データの符号量を計算した後、動きベクトル選択部67は、符号量が最小となる算出モードを選択する。そして、選択された動きベクトル算出モードに対応する符号化データが符号量保持部66から出力される。
手順1、2のうち、動きベクトル算出モードの選択後に改めて符号化をし直す分だけ、手順1の方が手順2よりも符号化に要する計算量が多くなる。しかし、手順2の方は、動きベクトル算出モード毎に符号化データ自体と符号量とを保持しておく必要があるため、手順1より多くの記憶領域が必要となる。このように、手順1と手順2とはトレードオフの関係にあるので、状況に応じて適切な方を選択すればよい。
さらに、上述のMCTF技術にしたがった符号化において、MCTFにより生成される符号化階層に含まれる複数のフレーム間の動きベクトルについて本発明の方法を適用することができる。
これについて、図14を参照して説明する。図14は、4つのフレーム101〜104をMCTF技術にしたがって符号化する様子を表しており、各階層で出力される画像と動きベクトルとを示している。
図示しないMCTF処理部は、連続する二枚のフレーム101、102を順次取得して、高域フレーム111と低域フレーム112とを生成する。また、二枚のフレーム103、104を順次取得して高域フレーム113と低域フレーム114とを生成する。これらを階層1と称する。また、MCTF処理部は、二枚のフレーム101、102から動きベクトルMV1aを検出し、フレーム103、104から動きベクトルMV1bを検出する。
また、MCTF処理部は、階層1の低域フレーム112、114からさらに高域フレーム121と低域フレーム122とを生成する。これらを階層2と称する。MCTF処理部は、二枚の低域フレーム112、114から動きベクトルMVを検出する。
なお、図14では、説明を簡単にするためにフレーム単位で動きベクトルを検出しているが、マクロブロック単位で動きベクトルを検出してもよいし、ブロック(8×8画素または4×4画素)単位で動きベクトルを検出してもよい。
図14に示すようなMCTFの階層があるとき、階層1の動きベクトルMV1aとMV1bの符号化に上記方法を適用する。階層1の動きベクトルMV1aとMV1bとは、時間上の距離が階層0の動きベクトルMVの半分であるので、動きも半分と推定される。そこで、動きベクトルMV1aとMV1bとを以下の計算式で算出する。
MV1a=(1/2)・MV+β
MV1b=(1/2)・MV+β
ここで、β、βは予測値とのずれを表す調整ベクトルである。したがって、階層1の動きベクトルMV1aとMV1bを符号化する代わりに、階層0の動きベクトルMVと調整ベクトルβ、βを符号化すればよい。
なお、上記計算式から分かるように、階層0の動きベクトルMVが求められるまで階層1を符号化することはできない。そこで、階層0の動きベクトルMVを求めるまでの間、階層1の動きベクトル情報と差分情報とを保持しておく必要がある。
MCTFの階層が3段以上ある場合でも、階層0以外の階層における動きベクトルに対して本発明の方法を適用できる。
実施の形態に係る符号化装置の構成図である。 従来の動きベクトルの計算順序を説明する図である。 図1の動き補償部の構成を説明する図である。 動きベクトルの算出モードの一例を示す図である。 動きベクトルの計算方法を説明する図である。 動きベクトルの計算方法を説明する図である。 動きベクトルの計算方法を説明する図である。 等速度運動時の比例係数αを説明する図である。 等加速度運動時の比例係数αを説明する図である。 最適動きベクトルの選択方法を示すフローチャートである。 所定の範囲内の比例係数αおよび調整ベクトルβの組み合わせた動きベクトルの符号量を求める方法を示すフローチャートである。 実施の形態に係る復号装置の構成を示す図である。 図12の動き補償部の構成図である。 4つのフレームをMCTF技術にしたがって符号化する様子を示す図である。
符号の説明
10 ブロック生成部、 12 差分器、 14 加算器、 20 DCT部、 30 量子化部、 40 逆量子化部、 50 逆DCT部、 60 動き補償部、 61 動きベクトル保持部、 62 算出モード指定部、 63 動きベクトル計算部、 64 動き補償予測部、 65 符号量推定部、 66 符号量保持部、 67 動きベクトル選択部、 80 フレームメモリ、 90 可変長符号化部、 100 符号化装置、 201 Iフレーム(前方参照フレーム)、 203 Bフレーム(符号化対象フレーム)、 205 Pフレーム(後方参照フレーム)、 300 復号装置、 310 可変長復号部、 312 加算器、 320 逆量子化部、 330 逆DCT部、 360 動き補償部、 361 動きベクトル取得部、 362 動きベクトル計算部、 364 動きベクトル保持部、 366 動き補償予測部、 380 フレームメモリ。

Claims (7)

  1. 動画像のピクチャを符号化する方法であって、
    符号化対象ピクチャ内の各ブロックに対して、参照ピクチャ内のブロックと符号化対象ピクチャ内のブロックとのマッチングによって求められる第1動きベクトルと、それ以外の方法で定義された少なくともひとつの第2動きベクトルとを含む複数の動きベクトルを準備し、該複数の動きベクトルの中から選択されたひとつの動きベクトルを定義する情報を動画像の符号化データに含めることを特徴とする符号化方法。
  2. 第1の参照ピクチャを基準とする動きベクトルが求められている第2の参照ピクチャが存在する場合に、
    前記第2動きベクトルは、前記第2の参照ピクチャ内のブロックの動きベクトルを利用して、前記符号化対象ピクチャ内のブロックについて求められるベクトルであることを特徴とする請求項1に記載の符号化方法。
  3. 前記第2の参照ピクチャ内のブロックとそのブロックに対応する参照動きベクトルとにしたがって、前記符号化対象ピクチャ内で動き補償予測の対象となるブロックを特定し、
    前記参照動きベクトルに、前記第2の参照ピクチャと前記符号化対象ピクチャ間の時間的距離に基づいた比例係数を乗じて、特定されたブロックの第2動きベクトルを算出することを特徴とする請求項2に記載の符号化方法。
  4. 前記第1動きベクトルと前記第2動きベクトルの間のずれ量を推定した調整ベクトルを求め、
    前記調整ベクトルと前記第2動きベクトルとを合成した合成ベクトルが、前記複数の動きベクトルの中に含まれることを特徴とする請求項2または3に記載の符号化方法。
  5. 前記符号化対象ピクチャについて選択された動きベクトルを新たな参照動きベクトルとして、別の符号化対象ピクチャの動きベクトルの定義に利用することを特徴とする請求項3または4に記載の符号化方法。
  6. 前記符号化データに、前記複数の動きベクトルのうちいずれを使用したかを示すモード情報を含めることを特徴とする請求項1ないし5のいずれかに記載の符号化方法。
  7. 動画像のピクチャを符号化する方法であって、
    参照ピクチャと符号化対象ピクチャとのマッチングによって求められる第1動きベクトルを定義する動きベクトル算出モードと、それ以外の方法で定義された少なくともひとつの第2動きベクトルを定義する動きベクトル算出モードとを含む複数の算出モードを準備し、該複数の算出モードの中からピクチャまたは複数のピクチャ単位でひとつの算出モードを選択し、選択した算出モードを表す情報を動画像の符号化データに含めることを特徴とする符号化方法。
JP2006182515A 2005-09-14 2006-06-30 符号化方法 Expired - Fee Related JP4243286B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006182515A JP4243286B2 (ja) 2005-09-14 2006-06-30 符号化方法
US11/520,859 US20070064809A1 (en) 2005-09-14 2006-09-14 Coding method for coding moving images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005267646 2005-09-14
JP2006182515A JP4243286B2 (ja) 2005-09-14 2006-06-30 符号化方法

Publications (2)

Publication Number Publication Date
JP2007110672A true JP2007110672A (ja) 2007-04-26
JP4243286B2 JP4243286B2 (ja) 2009-03-25

Family

ID=38036138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006182515A Expired - Fee Related JP4243286B2 (ja) 2005-09-14 2006-06-30 符号化方法

Country Status (1)

Country Link
JP (1) JP4243286B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128208A1 (ja) * 2008-04-16 2009-10-22 株式会社日立製作所 動画像符号化装置、動画像復号化装置、動画像符号化方法、および動画像復号化方法
WO2010064396A1 (ja) * 2008-12-03 2010-06-10 株式会社日立製作所 動画像復号化方法および動画像符号化方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128208A1 (ja) * 2008-04-16 2009-10-22 株式会社日立製作所 動画像符号化装置、動画像復号化装置、動画像符号化方法、および動画像復号化方法
JPWO2009128208A1 (ja) * 2008-04-16 2011-08-04 株式会社日立製作所 動画像符号化装置、動画像復号化装置、動画像符号化方法、および動画像復号化方法
WO2010064396A1 (ja) * 2008-12-03 2010-06-10 株式会社日立製作所 動画像復号化方法および動画像符号化方法
JP5277257B2 (ja) * 2008-12-03 2013-08-28 株式会社日立製作所 動画像復号化方法および動画像符号化方法
US9560368B2 (en) 2008-12-03 2017-01-31 Hitachi Maxell, Ltd. Moving picture decoding method and moving picture encoding method
US9906808B2 (en) 2008-12-03 2018-02-27 Hitachi Maxell, Ltd. Moving picture decoding method and moving picture encoding method
US10382775B2 (en) 2008-12-03 2019-08-13 Maxell, Ltd. Moving picture decoding method and moving picture encoding method
US10764599B2 (en) 2008-12-03 2020-09-01 Maxell, Ltd. Moving picture decoding method and moving picture encoding method
US11134263B2 (en) 2008-12-03 2021-09-28 Maxell, Ltd. Moving picture decoding method and moving picture encoding method
US11546627B2 (en) 2008-12-03 2023-01-03 Maxell, Ltd. Moving picture decoding method and moving picture encoding method

Also Published As

Publication number Publication date
JP4243286B2 (ja) 2009-03-25

Similar Documents

Publication Publication Date Title
US8665960B2 (en) Real-time video coding/decoding
JP3072035B2 (ja) 2ステージビデオフィルム圧縮方法及びシステム
US20070025444A1 (en) Coding Method
JP5061179B2 (ja) 照明変化補償動き予測符号化および復号化方法とその装置
US20070025442A1 (en) Coding method for coding moving images
US20070064809A1 (en) Coding method for coding moving images
US20070047649A1 (en) Method for coding with motion compensated prediction
JP4401336B2 (ja) 符号化方法
JP2006279573A (ja) 符号化装置と方法、ならびに復号装置と方法
KR20070011225A (ko) 인터-코딩에 사용된 기준 화상의 수를 최소화하기 위한방법 및 장치
JP2005191706A (ja) 動画像符号化方法及びその装置
JP2008011455A (ja) 符号化方法
US8755436B2 (en) Method of coding, decoding, coder and decoder
JP2007266749A (ja) 符号化方法
JP7343817B2 (ja) 符号化装置、符号化方法、及び符号化プログラム
US20070160143A1 (en) Motion vector compression method, video encoder, and video decoder using the method
JP2007036888A (ja) 符号化方法
US8194740B2 (en) Apparatus and method for compression-encoding moving picture
JP2004215275A (ja) 動き補償に基づいた改善されたノイズ予測方法及びその装置とそれを使用した動画符号化方法及びその装置
JP2007036889A (ja) 符号化方法
JP4243286B2 (ja) 符号化方法
JP4401341B2 (ja) 符号化方法
JP4169767B2 (ja) 符号化方法
JP2007036887A (ja) 符号化方法
JP4243205B2 (ja) 動画像符号化装置、その方法及びそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081226

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4243286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees