JP3784086B2 - Video signal encoding / decoding device and encoding / decoding method - Google Patents

Video signal encoding / decoding device and encoding / decoding method Download PDF

Info

Publication number
JP3784086B2
JP3784086B2 JP29129194A JP29129194A JP3784086B2 JP 3784086 B2 JP3784086 B2 JP 3784086B2 JP 29129194 A JP29129194 A JP 29129194A JP 29129194 A JP29129194 A JP 29129194A JP 3784086 B2 JP3784086 B2 JP 3784086B2
Authority
JP
Japan
Prior art keywords
area
motion vector
motion
encoding
encoding target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP29129194A
Other languages
Japanese (ja)
Other versions
JPH08149481A (en
Inventor
正 加瀬沢
喜子 幡野
隆 篠原
幸治 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP29129194A priority Critical patent/JP3784086B2/en
Publication of JPH08149481A publication Critical patent/JPH08149481A/en
Application granted granted Critical
Publication of JP3784086B2 publication Critical patent/JP3784086B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Processing (AREA)

Description

【0001】
【産業上の利用分野】
この発明は、動き補償予測を用いて映像信号の符号化・復号化を行う映像信号符号化・復号化装置及び符号化・復号化方法に関するものである。
【0002】
【従来の技術】
映像信号符号化・復号化装置における符号化手段として、動き補償予測とDCT(離散コサイン変換)を併用したものがよく使われている。以下に説明する従来例もこれを用いたものである。
【0003】
図11乃至図15は、例えば、ISO/IEC 13818-2 Draft International Standardに示されたような、従来の映像信号符号化装置及び該符号化装置により符号化された映像信号を再生する復号化装置について説明するための図である。
ここに、図11は映像信号符号化装置の概略構成を示すブロック図、図12は映像信号復号化装置の概略構成を示すブロック図であり、また、図13,図14は映像信号の符号化に際して行われる動き補償予測の概念を示すための概念図、図15は符号化のためのベクトルコードを示す図(なお、同図ではいくつかの探索範囲におけるベクトルコードのみを示している。)である。
また、図16は後述する動きベクトルの差分値とその出現確率との関係を示した図である。
【0004】
一般に、動き補償予測とDCTを用いた符号化では、1枚の画像情報を格子状の複数の小領域(以下、符号化対象領域と呼ぶ。)に分割し、かかる小領域毎に符号化を行う。
この動き補償予測と呼ばれるものは、現在符号化しようとしている画像(以下、符号化対象画像と呼ぶ。)の符号化対象領域に対して、過去に符号化したいくつかの画像(以下、参照画像と呼ぶ。)における最も類似し、かつ符号化対象領域と同じ大きさの領域(以下、予測領域と呼ぶ。)を検出し、当該予測領域と符号化対象領域との差信号のみを符号化して伝送するものである。
【0005】
この際、どの領域が当該予測領域であるかという情報も同時に復号化手段に伝送することが必要であるが、この情報を動きベクトルと呼び、インタレース画像とノンインタレース画像とでは異なるが、本従来例では、説明上、水平動きベクトルと垂直動きベクトルの2つのベクトルによって構成されるものとする。
この動き補償予測を概念的に示したものが図14である。
【0006】
一方、復号化手段では、伝送されてきた上述の動きベクトルと再生された参照画像とから予測領域を検出し、該予測領域の映像信号に伝送されてきた差信号を加えるようにされており、ここに元の符号化対象領域の信号を再生できる。
【0007】
また、予測領域は、図13に示すように、参照画像において符号化対象画像の符号化対象領域と同じ水平/垂直位置を中心として水平方向に±h画素、垂直方向に±vライン分拡張した領域(以下、探索領域と呼ぶ。)内から選択される。
一般に、動きの速い映像に対して符号化効率を上げるためにはその探索領域を広げることが必要である。そこで、従来の装置ではこの探索領域の大きさを適宜選択可能にし得るように構成されている。
【0008】
では、従来の映像信号符号化装置の具体的な構成について、図11に基づき説明する。
図において、1aは映像信号の入力端子、2aは符号化された映像信号の出力端子、3aは減算手段、4aは情報圧縮のため映像信号を水平/垂直の空間周波数に変換するDCT手段、5aは量子化手段、6aは逆量子化手段、7aは周波数変換された映像信号を元の映像信号に再変換するIDCT(逆離散コサイン変換)手段、8aは加算手段、9aはメモリ手段、12aはスイッチ(切替)手段、13aは可変長符号化手段、14aは送信バッファ手段、15aは符号量制御手段、18aは動き検出手段である。
【0009】
入力端子1aから入力された映像信号101は、動きベクトル生成のため、その一部が動き検出手段18aに入力されるとともに、減算手段3aにおいて予測領域の信号との差信号102とされる。
この差信号102は、DCT手段4aにおいて周波数変換され、さらに量子化手段5aによって量子化される。
【0010】
そして、量子化された差信号104の一部は逆量子化手段6a及び逆DCT手段7aを介して再変換されて元の差信号とされ、加算手段8aで予測領域の信号が加算されて元の映像信号となり、メモリ手段9aに参照画像として蓄えられる。 一方、残りの差信号104は可変長符号化手段13aにおいて、動き検出手段18aで生成された動きベクトル112とともに符号化され、多重化される。
ここで、可変長符号化とは、出現確率の高いシンボルには短い符号語を、出現確率の低いシンボルには長い符号語を割り当てる符号化手法の一つである。
【0011】
そして、多重化信号114は送信バッファ手段14aを経て、出力端子2aより伝送、あるいは、図示せぬ記録媒体に記録されることになる。
なお、符号量制御手段15aは、送信バッファ手段14aにおけるメモリ残量等の信号を受けて、オーバーフローが発生しないよう、量子化手段5aの量子化ステップを適応的に変化させている。
【0012】
一方、メモリ手段9aに蓄えられた参照画像はスイッチ手段12aの第1の端子に入力されるとともに、動き検出手段18aにも入力される。(スイッチ手段12aの第2の端子には零信号が入力されている。)
【0013】
動き検出手段18aでは、入力された参照画像108、及び、映像信号(符号化対象画像)101から符号化対象画像の符号化対象領域毎に、上述したような動きベクトル112を検出する(図13,図14参照)。
検出された動きベクトル112は可変長符号化手段13aに送出され、ここで隣接する符号化対象領域の動きベクトルとの差分値が算出され、これを可変長符号化したベクトルコードは、可変長符号化された差信号104に多重化される。
【0014】
また、動き検出手段18aの出力110は、スイッチ手段12aの切替信号としても用いられ、かかる信号に基づき参照画像の映像信号は予測領域の信号109に変換されて減算手段3a及び加算手段8aに入力される。さらに、かかる信号110は可変長符号化手段13aにおいて、差信号104と動きベクトルの符号化切替信号としても用いられる。
【0015】
次に、上述のごとく符号化された映像信号を復号化する映像信号復号化装置の具体的構成について、図12に基づき説明する。
図において、1bは符号化された映像信号の入力端子、2bは復号化された映像信号の出力端子、14bは受信バッファ手段、13bは可変長復号化手段、5bは逆量子化手段、4bはIDCT手段、8bは加算手段、9bはメモリ手段、12bはスイッチ手段である。
【0016】
入力端子1bから入力された符号化映像信号201は、受信バッファ手段14bを介して、可変長復号化手段13bに入力される。可変長復号化手段13bではこの符号化映像信号202を復号化し、動きベクトル213と差信号203とに分離する。
分離された差信号203は逆量子化手段5bで逆量子化され、IDCT手段4bで元の差信号205に変換される。さらに、この差信号205は、加算手段8bにおいて予測領域の信号208と加算されて元の符号化対象領域の信号206に戻され、その一部がメモリ手段9bに蓄えられるとともに、元の符号化対象画像として出力端子2bから出力される。
【0017】
一方、メモリ手段9bは加算手段8bからの符号化対象領域信号206と可変長復号化手段で復号化された動きベクトル213とから予測領域の信号207を生成し、該予測領域信号207を可変長復号化手段で生成した動き補償予測のための切替信号209に基づいて切り替えられるスイッチ手段12bを介して加算手段8bに入力させるように構成されている。なお、スイッチ手段12bの一端には零信号が入力されており、この端子が選択されている場合には動き補償予測のなされていない信号が8bより出力される。
【0018】
【発明が解決しようとする課題】
従来の映像信号符号化・復号化装置は以上のように構成されており、動きの速い映像に対する符号化効率を上げるため、探索領域の大きさを適宜設定することができるように構成されていた。
【0019】
しかし、図16に示すように、探索領域の大きさが異なると、それに伴って動きベクトルの差分値の出現確率が異なってくる。このため、可変長符号化手段13aにおいて動きベクトルのベクトルコードを作成する際にはその探索領域の大きさに応じてベクトルコードを異ならせることが必要となる。
【0020】
そこで、従来の装置では、図15に示すように、motion code(ある定められた可変長コード)と、motion residual(探索範囲に応じて符号長の定められたコード)の2つのコードを組み合わせることによってベクトルコードを作成するように構成されており、これらを組み合わせることで探索領域の大きさに応じた異なるベクトルコードを作成していた。
【0021】
ここで、動きベクトルの差分値は、図16に示されるように、その探索領域の大きさにかかわらず、ベクトルの差分値の小さいものの出現確率が高いという特徴を有している。しかし、従来のベクトルコードではこの点を全く考慮していなかったため、図15に示すように、探索領域が大きくなるにしたがって、ベクトル差分値の小さい値を示すベクトルコードの符号長が長くなるという特徴を持っている。
【0022】
このことは、動きの速い映像に対して符号化効率を上げるために探索領域を広げているのにもかかわらず、広げたことによりベクトルコードの平均語長が長くなってしまい、その結果、符号化効率が悪化し、画質を劣化させてしまうという問題を生じさせていた。
【0023】
また、従来の装置では、motion codeと、motion residualの2つのコードを組み合わせることによって探索領域の大きさに応じて異なるベクトルコードを作成するようにしているため、あらゆる探索領域に対して最適なベクトルコードを得るために探索領域の大きさに対応した複数種類のベクトルコードを並列的に持つことが必要となる。従って、ハードウェア/ソフトウェア規模が必然的に大きくならざるを得ず、実用的ではないという問題点もあった。
【0024】
本発明は、以上述べたような従来装置の問題点を解消するためになされたものであり、探索領域を広げても、符号化効率が劣化しない、また、ハードウェア/ソフトウェア規模を小規模のものとすることができる、映像信号符号化・復号化装置及び符号化・復号化方法を得ることを目的としている。
【0025】
【課題を解決するための手段】
本発明に係る映像信号符号化装置は、1枚の画像情報に対応する領域を複数の領域に分割した上位符号化対象領域の時間的な動きを示す第1の動きベクトルを検出する第1の動き検出手段と、前記上位符号化領域を複数の領域に分割した符号化対象領域の時間的な動きを示す第2の動きベクトルを検出する第2の動き検出手段と、前記第1および第2の動き検出手段から出力される前記第1および第2の動きベクトルを符号化する可変長符号化手段とを備える。
また、第2の動きベクトルは、第1の動きベクトルで指定される領域を中心とした所定の探索領域内において検出されることを特徴とする。
また、第1および第2の動きベクトルがそれぞれに対応するベクトルコードによってコード化されることを特徴とする。
また、隣接する上位符号化対象領域及び符号化対象領域における第1および第2の動きベクトルの差分値をベクトルコードによりコード化することを特徴とする。
また、第1の動き検出手段は、符号化対象画像の低域成分を出力する低域通過フィルタ手段と、該低域通過フィルタ手段からの出力をサブサンプリングするサブサンプリング手段と、該サブサンプリング手段からのサブサンプリングされた映像信号を参照画像として蓄積するメモリ手段と、該メモリ手段から出力される前記参照画像出力と前記サブサンプリング手段から出力される前記符号化対象画像のサブサンプリング出力とに基づいて第1の動きベクトルを出力する代表ベクトル検出手段とを備える。
【0026】
また、第n画像及び第n+m画像の第1の動きベクトルをもとに、当該第n画像及び第n+m画像の間にある第n+y画像における過去の画像に対する第1の動きベクトルvfと未来の画像に対する第1の動きベクトルvbとを下記の式により作成することを特徴とする。
vf= { y/m } ×v
vb= { (m−y)/m } ×(−v)
また、符号化対象画像のうちの一の上位符号化対象領域に対する第1の動きベクトルを他の上位符号化対象領域に対する第1の動きベクトルとすることを特徴とする。
本発明に係る映像信号符号化方法は、1枚の画像情報に対応する領域を複数の領域に分割した上位符号化対象領域の時間的な動きを示す第1の動きベクトルを検出する第1の動き検出工程と、前記上位符号化領域を複数の領域に分割した符号化対象領域の時間的な動きを示す第2の動きベクトルを検出する第2の動き検出工程と、前記第1および第2の動き検出工程によって得られる前記第1および第2の動きベクトルを符号化する可変長符号化工程とを含む。
また、第2の動きベクトルは、第1の動きベクトルで指定される領域を中心とした所定の探索領域内において検出されることを特徴とする。
また、第1および第2の動きベクトルがそれぞれに対応するベクトルコードによってコード化されることを特徴とする。
また、隣接する上位符号化対象領域及び符号化対象領域における第1および第2の動きベクトルの差分値をベクトルコードによりコード化することを特徴とする。
【0028】
本発明に係る映像信号復号化装置は、1枚の画像情報に対応する領域を複数の領域に分割した上位符号化対象領域の時間的な動きを示す第1の動きベクトルおよび前記上位符号化対象領域を複数の領域に分割した符号化対象領域の時間的な動きを示す第2の動きベクトルを含む符号化映像信号から前記第1および第2の動きベクトルの各々に対応する各ベクトルコードを分離し復号する可変長復号化手段と、該可変長復号化手段から出力される前記第1および第2の動きベクトルコードに対応する前記第1および第2の動きベクトルに基づいて動きベクトルを出力する動きベクトル再生手段と、該動きベクトル再生手段から出力される前記動きベクトルに基づいて前記1枚の画像情報を再生する画像情報再生手段とを備える。
また、第1および第2の動きベクトルをベクトル合成することにより動きベクトルを再生することを特徴とする。
【0030】
【作用】
本発明によれば、画像情報の大域的な動きを示す第1の動きベクトルと局所的な動きを示す第2の動きベクトルとの組み合わせによって、画像情報の符号化対象領域の動きベクトルを表すようにしているので、第1の動きベクトルの符号量を小さくできるとともに、第2の動きベクトルの検出のために複数の探索領域を設けておく必要がなくなる。
【0031】
また、本発明によれば、第1の動きベクトルが検出されない場合にも、パンニング等、通常の画像情報の特徴及び人間の視覚特性に基づいて、他の第1の動きベクトルを用いて当該第1の動きベクトルの作成あるいは検出された第1の動きベクトルによる代用をさせることができる。
【0032】
【実施例】
実施例1.
以下、本発明の実施例について図に基づき説明する。
図1乃至図8は、本発明の第1の実施例にかかる映像信号符号化装置及び該符号化装置により符号化された映像信号を再生する復号化装置について説明するための図である。
【0033】
ここに、図1は映像信号符号化装置の概略構成を示すブロック図、図2は映像信号復号化装置の概略構成を示すブロック図、図3は第1の動き検出手段の構成の一例を示すブロック図である。また、図4は本実施例における符号化対象領域と上位符号化対象領域の概念を示す概念図、図5,図6は本実施例の映像信号の符号化に際して行われる動き補償予測の概念を示すための概念図、図7は符号化のためのベクトルコードを示す図、図8は本実施例の第1の動きベクトルと画像との関係を示す概念図である。
【0034】
上述の図16で説明したように、通常の画像における動きベクトルの差分値は、その探索領域の大きさにかかわらず、ベクトル差分値の小さいものの出現確率が非常に高い。これは、通常の画像の時間的な動きは、カメラのパンニング等に代表されるように、あるまとまった領域においては同じような動きをすることが多いことを意味している。よって、動きの速い画像の場合、その動きベクトル自体は大きな値をとるとしても、動きベクトルの差分値については大部分は小さな値をとることになる。
また、人間の視覚特性を考慮すると、このパンニングのような、あるまとまった領域毎の速い動きに対しては、人間の視覚特性は比較的良好であるのに対し、逆に画面の局所的な速い動きに対しては、人間の視覚特性は極度に劣化するという特徴がある。
【0035】
本発明はかかる画像及び人間の視覚特性の特徴を利用したものであり、本実施例においては、まず、図4に示したような、上位符号化対象領域というものを定義する。これは、従来の符号化対象領域を複数集めることで構成されるものである。
そして、図5に示すように、この符号化対象画像を構成する全ての上位符号化対象領域に対して、大域的な動きを示す第1の動きベクトルをそれぞれ検出する。その後、図6に示すように、第1の動きベクトルの検出された上位符号化対象領域に含まれた符号化対象領域の各々に対し、第1の動きベクトルにて指定された位置を中心とする所定の探索領域内における第2の動きベクトルを検出し、これらの動きベクトルを各々符号化するようにしている。
【0036】
このような本実施例によれば、第1の動きベクトルは広い領域に対して検出されるため、全体の符号量に対する第1の動きベクトルの符号量は非常に少ないものとなる。また、第2の動きベクトルは既に第1の動きベクトルにより広い領域の動きを検出しているため、動きの速い画像であっても、限られた範囲の中での局所的な動き検出を行えば十分であり、予め適当な1つの探索領域を設定しておき、この探索領域内において第2の動きベクトルを検出すればよい。従って、従来のように複数のベクトルコードを並列的に設ける必要はなくなる。
【0037】
では、本実施例の具体的な装置構成について以下、説明する。図1は、このような本発明の第1の実施例にかかる映像信号符号化装置の構成を示すブロック図である。
図において、1cは映像信号の入力端子、2cは符号化された映像信号の出力端子、3cは減算手段、4cは情報圧縮のため映像信号を水平/垂直の空間周波数に変換するDCT手段、5cは量子化手段、6cは逆量子化手段、7cは周波数変換された映像信号を元の映像信号に再変換するIDCT(逆離散コサイン変換)手段、8cは加算手段、9cはメモリ手段、10cは第1の動き検出手段、12cはスイッチ(切替)手段、13cは可変長符号化手段、14cは送信バッファ手段、15cは符号量制御手段、18cは第2の動き検出手段である。
【0038】
入力端子1cから入力された映像信号301は、その一部が第1の動き検出手段10c及び第2の動き検出手段18cに入力されるとともに、減算手段3c入力されて予測領域の信号309との差信号302とされる。
この差信号302は、DCT手段4cにおいて周波数変換され、さらに量子化手段5cによって量子化される。
【0039】
そして、量子化された差信号304の一部は逆量子化手段6c及び逆DCT手段7cを介して再変換されて元の差信号とされ、加算手段8cで予測領域の信号309が加算されて元の映像信号となり、メモリ手段9cに参照画像として蓄えられる。
一方、残りの差信号304は可変長符号化手段13cにおいて、第1の動き検出手段10c及び第2の動き検出手段18cで生成された第1,第2の動きベクトル312,313とともに符号化され、多重化される。
【0040】
そして、多重化信号314は送信バッファ手段14cを経て、出力端子2cより伝送、あるいは、図示せぬ記録媒体に記録されることになる。
なお、符号量制御手段15cは、送信バッファ手段14cにおけるメモリ残量等の信号を受けて、オーバーフローが発生しないよう、量子化手段5cの量子化ステップを適応的に変化させている。
【0041】
一方、メモリ手段9cに蓄えられた参照画像はスイッチ手段12cの第1の端子に入力されるとともに、第2の動き検出手段18cにも入力される。(スイッチ手段12cの第2の端子には零信号が入力されている。)
【0042】
第2の動き検出手段18cでは、入力された参照画像308、映像信号(符号化対象画像)301及び第1の動き検出手段10cで生成された第1の動きベクトル313から符号化対象画像の符号化対象領域毎に、上位符号化対象領域の第1の動きベクトルで指定される領域を中心とした所定の探索領域内において動き検出されて第2の動きベクトルを検出する(図6参照)。
検出された第1の動きベクトル313及び第2の動きベクトル312は可変長符号化手段13cに送出され、ここでそれぞれ隣接する上位符号化対象領域及び符号化対象領域における動きベクトルとの差分値が算出され、これを図7に示すようなベクトルコードによりベクトルコード化し、可変長符号化された差信号304に多重化される。
【0043】
また、第2の動き検出手段18cの出力310は、スイッチ手段12cの切替信号としても用いられ、かかる信号に基づき参照画像の映像信号308は予測領域の信号309に変換されて減算手段3c及び加算手段8cに入力され、また、かかる信号310は可変長符号化手段13cにおいて、差信号304と第1,第2の動きベクトルとの符号化切替信号としても用いられる。
【0044】
なお、図7に示すように、本実施例では第1の動きベクトルのベクトルコードと、第2の動きベクトルのベクトルコードとにより動きベクトルがコード化される。
また、本実施例では第1の動きベクトルのベクトルコードとして8ビット固定長のコードを示したが、これに限られるものではなく、他のビット長でも、可変長コードでもよい。
さらに、本実施例では第2の動きベクトルのベクトルコードとして従来例に示した基準探索範囲におけるベクトルコードを示したが、これに限られるものではなく、他の探索範囲におけるベクトルコードとしてもよい。
【0045】
次に、上述のごとく符号化された映像信号を復号化する映像信号復号化装置について、図2に基づき説明する。
図において、1dは符号化された映像信号の入力端子、2dは復号化された映像信号の出力端子、14dは受信バッファ手段、13dは可変長復号化手段、5dは逆量子化手段、4dはIDCT手段、8dは加算手段、9dはメモリ手段、12dはスイッチ手段、17dは動きベクトル再生手段である。
【0046】
入力端子1dから入力された符号化映像信号401は、受信バッファ手段14dを介して、可変長復号化手段13dに入力される。可変長復号化手段13dではこの符号化映像信号402を復号化し、第1の動きベクトル410と第2の動きベクトル411と差信号403とに分離する。
分離された差信号403は逆量子化手段5dで逆量子化され、IDCT手段4dで元の差信号405に変換される。さらに、この差信号405は、加算手段8dにおいて予測領域の信号408と加算されて元の符号化対象領域の信号406に戻され、その一部がメモリ手段9dに蓄えられるとともに、元の符号化対象画像として出力端子2dから出力される。
【0047】
一方、メモリ手段9dは加算手段8dからの符号化対象領域信号406と可変長復号化手段で復号化され、動きベクトル再生手段17dでベクトル合成された動きベクトル412とから予測領域の信号407を生成し、該予測領域信号407を可変長復号化手段で生成した動き補償予測のための切替信号409に基づいて切り替えられるスイッチ手段12dを介して加算手段8dに入力させるように構成されている。なお、スイッチ手段12dの一端には零信号が入力されており、この信号端子が選択されている場合には動き補償予測のなされていない再生信号が加算手段8dより出力されることになる。
【0048】
次に、本実施例における第1の動きベクトルの検出方法について説明する。図3は、図1に示した第1の動き検出手段10cの具体的構成の一例を示す図である。
図において、19cは低域通過フィルタ(LPF)手段、20cはサブサンプリング手段、21cはメモリ手段、22cは代表ベクトル検出手段である。
【0049】
第1の動き検出手段10cに入力された映像信号301は、LPF手段19cを通過することにより高周波成分が除去されるとともに、サブサンプリング手段20cによりハードウェア規模を縮小するためにサブサンプリングされる。この際、サブサンプリングの前処理としてLPF手段19cを施しているので、動き検出に与える折り返し歪の影響を除去することができる。
サブサンプリングされた映像信号は、メモリ手段21cにおいて参照画像として蓄えられるとともに、代表ベクトル検出手段22cに直接与えられる。代表ベクトル検出手段22cでは、入力された映像信号から構成される符号化対象画像の上位符号化対象領域とメモリ手段21cからの参照画像を基に、図5で説明したように第1の動きベクトルを検出する。
【0050】
また、図8は本実施例における第1の動きベクトルと画像との関係を示す図である。
図において、縦線は各画像、横の短線は上位符号化対象領域の境界、矢印は第1の動きベクトルを示している。
同図からわかるように、第1の動きベクトルはすべての上位符号化対象領域に対して検出される。
【0051】
実施例2.
次に、本発明の第2の実施例を説明する。
図9は第1の動きベクトルと画像との間の第1の関係を示す図である。
【0052】
上述の実施例1では、符号化対象画像のすべての上位符号化対象領域に対して第1の動きベクトルが検出される場合について説明したが、第1の動きベクトルは、その画像の動きの早さや上位符号化対象領域の大きさの取り方によっては検出されない場合がある。
【0053】
本実施例は、このような第1の動きベクトルが検出されない上位符号化対象領域における第1の動きベクトルの作成方法に関するものであり、符号化装置と復号化装置との間に定められた一定の規則に基づき、他の上位符号化対象領域の第1の動きベクトルから当該上位符号化対象領域の第1の動きベクトルを作成する。
【0054】
図9は、ある画像間隔をおいて、第1の動きベクトルが検出された場合である。 同図では、m枚の画像毎に第1の動きベクトルが検出される。この際、第1の動きベクトルが検出されなかった画像では、第1の動きベクトルの検出された最も近接する未来の画像における当該第1の動きベクトルから、以下のような方法で第1の動きベクトルを作成する。
【0055】
すなわち、第n画像及び第n+m画像の第1の動きベクトルが検出されている時、第n+m画像における第1の動きベクトルをvとすると、第n+y画像では過去の画像に対する第1の動きベクトルvfと未来の画像に対する第1の動きベクトルvbを以下のように作成する。
vf={y/m}×v
vb={(m−y)/m}×(−v)
【0056】
なお、第1のベクトル作成方法としては、基本的には符号化装置と復号化装置との間で共通の規則に従って定められた方法であれば良く、上記式以外の方法であっても良い。
【0057】
実施例3.
図10は本発明の第3の実施例を示す図であり、第1の動きベクトルと画像との間の第2の関係を示すものである。
【0058】
本実施例は、上記実施例2とは異なり、符号化対象画像のうち1つの上位符号化対象画像に対してのみ第1の動きベクトルが検出された場合である。このような場合、本実施例では、他の上位符号化対象画像の第1の動きベクトルとして、この検出された第1の動きベクトルを代用するようにしている。
このようにしたとしても、上述したように、通常の画像は、パンニング等、画面全体を一つの塊として移動することが多いため、大きな問題とはならない。
【0059】
なお、上述の実施例2及び実施例3において、第1の動きベクトルが検出されない上位符号化対象領域ではかかる第1の動きベクトルのベクトルコードを第2の動きベクトルや差信号のベクトルコードに多重化して伝送する必要のないことはいうまでもない。
また、上記各実施例においては、第1,第2の動きベクトルの検出に際して1枚の画像すなわち、TVにおけるフレーム画像を単位としていたが、フィールド画像を単位に第1,第2の動きベクトルを検出するようにしてもよい。
【0060】
【発明の効果】
以上のように、本発明によれば、画像情報の動きをその大域的な動きを示す第1の動きベクトルと、局所的な動きを示す第2の動きベクトルとにより2段階の動き補償予測を行うようにしているため、ハードウェア/ソフトウェア規模を小規模なものとしながら、動きの早い画像にあっても符号化効率の高い映像信号符号化・復号化装置及び符号化・復号化方法が得られるという効果がある。
【0061】
また、本発明によれば、第1の動きベクトルが検出できない上位符号化対象領域があったとしても、容易にこれに代わる第1の動きベクトルを得ることができ、また、本発明により得た第1の動きベクトルは、パンニング等の画像情報の特徴及び人間の視覚特性に基づいて得たものであるため、再生画質の劣化も僅かなものに押さえた映像信号符号化・復号化装置及び符号化・復号化方法が得られるという効果がある。
【図面の簡単な説明】
【図1】 本発明の映像信号符号化・復号化装置における符号化装置の概略構成を示すブロック図である。
【図2】 本発明の映像信号符号化・復号化装置における復号化装置の概略構成を示すブロック図である。
【図3】 本発明の映像信号符号化・復号化装置における第1の動き検出手段の構成を示すブロック図である。
【図4】 本発明の映像信号符号化・復号化装置における符号化対象領域及び上位符号化対象領域の概念を示す概念図である。
【図5】 本発明の映像信号符号化・復号化装置における第1の動きベクトル検出の概念を示す概念図である。
【図6】 本発明の映像信号符号化・復号化装置における第2の動きベクトル検出の概念及び第1,第2の動きベクトルの関係を示す概念図である。
【図7】 本発明の映像信号符号化・復号化装置におけるベクトルコードを示す図である。
【図8】 本発明の映像信号符号化・復号化装置における第1の動きベクトルと各画像間の関係を示す図である。
【図9】 本発明の映像信号符号化・復号化装置において検出されなかった第1の動きベクトルを作成する方法を示す図である。
【図10】 本発明の映像信号符号化・復号化装置において検出されなかった第1の動きベクトルを検出された他の第1の動きベクトルで代用する方法を示す図である。
【図11】 従来の映像信号符号化・復号化装置における符号化装置の概略構成を示すブロック図である。
【図12】 従来の映像信号符号化・復号化装置における復号化装置の概略構成を示すブロック図である。
【図13】 従来の映像信号符号化・復号化装置において動きベクトルを検出するための探索領域の概念を示す概念図である。
【図14】 従来の映像信号符号化・復号化装置における動きベクトル検出の概念を示す概念図である。
【図15】 従来の映像信号符号化・復号化装置におけるベクトルコードを示す図である。
【図16】 従来の映像信号符号化・復号化装置における動きベクトルの差分値とその出現確率との関係を示す図である。
【符号の説明】
1a,1b,1c,1d:入力端子、2a,2b,2c,2d:出力端子、3a,3c:減算手段、4a,4c:DCT(離散コサイン変換)手段、4b:IDCT(逆離散コサイン変換)手段、5a,5c:量子化手段、5b,5d:逆量子化手段、6a,6c:逆量子化手段、7a,7c:IDCT手段、8a,8b,8c,8d:加算手段、9a,9b,9c,9d:メモリ手段、10c:第1の動き検出手段、12a,12b,12c,12d:スイッチ(切替)手段、13a,13c:可変長符号化手段、13b,13d:可変長復号化手段、14a,14c:送信バッファ手段、14b,14d:受信バッファ手段、15a,15c:符号量制御手段、17d:動きベクトル再生手段、18a,18c:第2の動き検出手段、19c:低域通過フィルタ(LPF)手段、20c:サブサンプリング手段、21c:メモリ手段、22c:代表ベクトル検出手段
[0001]
[Industrial application fields]
The present invention relates to a video signal encoding / decoding device and encoding / decoding method for encoding / decoding a video signal using motion compensation prediction.
[0002]
[Prior art]
As an encoding means in a video signal encoding / decoding device, a combination of motion compensated prediction and DCT (discrete cosine transform) is often used. The conventional example described below also uses this.
[0003]
11 to 15 show, for example, a conventional video signal encoding apparatus and a decoding apparatus for reproducing a video signal encoded by the encoding apparatus, as shown in ISO / IEC 13818-2 Draft International Standard. It is a figure for demonstrating.
FIG. 11 is a block diagram showing a schematic configuration of the video signal encoding apparatus, FIG. 12 is a block diagram showing a schematic configuration of the video signal decoding apparatus, and FIGS. 13 and 14 show encoding of the video signal. FIG. 15 is a diagram showing a vector code for encoding (only the vector codes in some search ranges are shown in FIG. 15). is there.
FIG. 16 is a diagram showing a relationship between a difference value of a motion vector, which will be described later, and its appearance probability.
[0004]
In general, in coding using motion compensation prediction and DCT, one piece of image information is divided into a plurality of grid-like small areas (hereinafter referred to as coding target areas), and coding is performed for each small area. Do.
What is referred to as motion compensated prediction is that several images (hereinafter referred to as reference images) encoded in the past with respect to the encoding target area of an image to be encoded (hereinafter referred to as an encoding target image). The area that is most similar and the same size as the encoding target area (hereinafter referred to as the prediction area) is detected, and only the difference signal between the prediction area and the encoding target area is encoded. To be transmitted.
[0005]
At this time, it is necessary to simultaneously transmit information on which region is the prediction region to the decoding means, but this information is referred to as a motion vector and is different between an interlaced image and a non-interlaced image. In this conventional example, for the sake of explanation, it is assumed to be composed of two vectors, a horizontal motion vector and a vertical motion vector.
FIG. 14 conceptually shows this motion compensation prediction.
[0006]
On the other hand, the decoding means detects the prediction region from the transmitted motion vector and the reproduced reference image, and adds the difference signal transmitted to the video signal of the prediction region. Here, the original signal of the encoding target area can be reproduced.
[0007]
Further, as shown in FIG. 13, the prediction area is extended by ± h pixels in the horizontal direction and ± v lines in the vertical direction around the same horizontal / vertical position as the encoding target area of the encoding target image in the reference image. The region is selected from the region (hereinafter referred to as a search region).
In general, it is necessary to widen the search area in order to increase the coding efficiency for fast moving images. Therefore, the conventional apparatus is configured so that the size of the search area can be appropriately selected.
[0008]
Now, a specific configuration of the conventional video signal encoding apparatus will be described with reference to FIG.
In the figure, 1a is an input terminal for a video signal, 2a is an output terminal for an encoded video signal, 3a is a subtracting means, 4a is a DCT means for converting the video signal to a horizontal / vertical spatial frequency for information compression, 5a Is quantization means, 6a is inverse quantization means, 7a is IDCT (Inverse Discrete Cosine Transform) means for reconverting the frequency-converted video signal to the original video signal, 8a is addition means, 9a is memory means, and 12a is Switch (switching) means, 13a is variable length coding means, 14a is transmission buffer means, 15a is code amount control means, and 18a is motion detection means.
[0009]
A part of the video signal 101 input from the input terminal 1a is input to the motion detection means 18a to generate a motion vector, and is also made a difference signal 102 from the prediction region signal in the subtraction means 3a.
The difference signal 102 is frequency-converted by the DCT means 4a and further quantized by the quantization means 5a.
[0010]
Then, a part of the quantized difference signal 104 is retransformed through the inverse quantization means 6a and the inverse DCT means 7a to be the original difference signal, and the signal in the prediction region is added by the addition means 8a. And is stored as a reference image in the memory means 9a. On the other hand, the remaining difference signal 104 is encoded and multiplexed together with the motion vector 112 generated by the motion detector 18a in the variable length encoder 13a.
Here, variable-length coding is one of coding methods in which a short code word is assigned to a symbol with a high appearance probability and a long code word is assigned to a symbol with a low appearance probability.
[0011]
The multiplexed signal 114 is transmitted from the output terminal 2a via the transmission buffer means 14a or recorded on a recording medium (not shown).
The code amount control means 15a adaptively changes the quantization step of the quantization means 5a in response to a signal such as the remaining memory capacity in the transmission buffer means 14a so that overflow does not occur.
[0012]
On the other hand, the reference image stored in the memory means 9a is input to the first terminal of the switch means 12a and also input to the motion detection means 18a. (A zero signal is input to the second terminal of the switch means 12a.)
[0013]
The motion detection means 18a detects the motion vector 112 as described above for each encoding target area of the encoding target image from the input reference image 108 and the video signal (coding target image) 101 (FIG. 13). , FIG. 14).
The detected motion vector 112 is sent to the variable length coding means 13a, where a difference value from the motion vector of the adjacent encoding target region is calculated, and a vector code obtained by variable length coding this is a variable length code. The difference signal 104 is multiplexed.
[0014]
The output 110 of the motion detection means 18a is also used as a switching signal for the switch means 12a. Based on this signal, the video signal of the reference image is converted into the signal 109 of the prediction area and input to the subtraction means 3a and the addition means 8a. Is done. Further, the signal 110 is also used as a difference signal 104 and a motion vector coding switching signal in the variable length coding means 13a.
[0015]
Next, a specific configuration of the video signal decoding apparatus that decodes the video signal encoded as described above will be described with reference to FIG.
In the figure, 1b is an input terminal for an encoded video signal, 2b is an output terminal for a decoded video signal, 14b is a reception buffer means, 13b is a variable length decoding means, 5b is an inverse quantization means, and 4b is an inverse quantization means. IDCT means, 8b is addition means, 9b is memory means, and 12b is switch means.
[0016]
The encoded video signal 201 input from the input terminal 1b is input to the variable length decoding unit 13b via the reception buffer unit 14b. The variable length decoding means 13 b decodes the encoded video signal 202 and separates it into a motion vector 213 and a difference signal 203.
The separated difference signal 203 is inversely quantized by the inverse quantization means 5b and converted to the original difference signal 205 by the IDCT means 4b. Further, the difference signal 205 is added to the prediction area signal 208 in the adding means 8b and returned to the original encoding target area signal 206, and a part of the difference signal 205 is stored in the memory means 9b. The target image is output from the output terminal 2b.
[0017]
On the other hand, the memory unit 9b generates a prediction region signal 207 from the encoding target region signal 206 from the addition unit 8b and the motion vector 213 decoded by the variable length decoding unit, and the prediction region signal 207 is variable length. The adder 8b is configured to input the signal via the switch unit 12b that is switched based on the switching signal 209 for motion compensation prediction generated by the decoding unit. Note that a zero signal is input to one end of the switch means 12b. When this terminal is selected, a signal not subjected to motion compensation prediction is output from 8b.
[0018]
[Problems to be solved by the invention]
The conventional video signal encoding / decoding device is configured as described above, and is configured so that the size of the search area can be set as appropriate in order to increase the encoding efficiency for fast moving video. .
[0019]
However, as shown in FIG. 16, when the size of the search area is different, the appearance probability of the difference value of the motion vector is different accordingly. For this reason, when the vector code of the motion vector is created in the variable length coding means 13a, it is necessary to make the vector code different according to the size of the search area.
[0020]
Therefore, in the conventional apparatus, as shown in FIG. 15, two codes of motion code (a predetermined variable length code) and motion residual (a code length determined according to the search range) are combined. The vector code is generated according to the above, and by combining these, a different vector code corresponding to the size of the search area is generated.
[0021]
Here, as shown in FIG. 16, the difference value of the motion vector has a feature that the appearance probability of the vector having a small difference value is high regardless of the size of the search area. However, since the conventional vector code did not consider this point at all, as shown in FIG. 15, the code length of the vector code indicating a smaller vector difference value becomes longer as the search area becomes larger. have.
[0022]
This means that although the search area has been expanded to increase the coding efficiency for fast moving images, the average word length of the vector code becomes longer due to the expansion. As a result, there has been a problem that the conversion efficiency deteriorates and the image quality deteriorates.
[0023]
Further, in the conventional apparatus, different vector codes are generated according to the size of the search area by combining the two codes of motion code and motion residual, so that the optimal vector for any search area In order to obtain a code, it is necessary to have a plurality of types of vector codes corresponding to the size of the search area in parallel. Therefore, there is a problem that the hardware / software scale is inevitably large and is not practical.
[0024]
The present invention has been made to solve the problems of the conventional apparatus as described above. Even if the search area is expanded, the encoding efficiency does not deteriorate, and the hardware / software scale is reduced. An object of the present invention is to obtain a video signal encoding / decoding device and encoding / decoding method.
[0025]
[Means for Solving the Problems]
The video signal encoding apparatus according to the present invention detects a first motion vector indicating a temporal motion of an upper encoding target area obtained by dividing an area corresponding to one piece of image information into a plurality of areas. Motion detection means; second motion detection means for detecting a second motion vector indicating temporal motion of an encoding target area obtained by dividing the upper encoding area into a plurality of areas; and the first and second Variable length encoding means for encoding the first and second motion vectors output from the motion detection means.
The second motion vector is detected in a predetermined search area centered on the area specified by the first motion vector.
Further, the first and second motion vectors are encoded by vector codes corresponding to the first and second motion vectors, respectively.
In addition, the difference value between the first and second motion vectors in the adjacent upper encoding target region and the encoding target region is encoded by a vector code.
The first motion detection means includes a low-pass filter means for outputting a low-frequency component of the encoding target image, a sub-sampling means for sub-sampling the output from the low-pass filter means, and the sub-sampling means Based on a memory means for storing a subsampled video signal from the memory means as a reference image, the reference image output output from the memory means and the subsampling output of the encoding target image output from the subsampling means Representative vector detecting means for outputting the first motion vector.
[0026]
Further, based on the first motion vectors of the nth image and the n + m image, the first motion vector vf for the past image and the future image in the n + y image between the nth image and the n + m image. The first motion vector vb for is generated by the following equation.
vf = { y / m } × v
vb = { (My) / m } × (−v)
In addition, the first motion vector for one upper encoding target region of the encoding target image is set as a first motion vector for another upper encoding target region.
The video signal encoding method according to the present invention detects a first motion vector indicating a temporal motion of an upper encoding target region obtained by dividing a region corresponding to one piece of image information into a plurality of regions. A motion detection step, a second motion detection step of detecting a second motion vector indicating temporal motion of an encoding target region obtained by dividing the upper encoding region into a plurality of regions, and the first and second And a variable length encoding step for encoding the first and second motion vectors obtained by the motion detection step.
The second motion vector is detected in a predetermined search area centered on the area specified by the first motion vector.
Further, the first and second motion vectors are encoded by vector codes corresponding to the first and second motion vectors, respectively.
In addition, the difference value between the first and second motion vectors in the adjacent upper encoding target region and the encoding target region is encoded by a vector code.
[0028]
The video signal decoding apparatus according to the present invention includes a first motion vector indicating temporal motion of an upper encoding target area obtained by dividing an area corresponding to one piece of image information into a plurality of areas, and the upper encoding target. Each vector code corresponding to each of the first and second motion vectors is separated from an encoded video signal including a second motion vector indicating temporal motion of the encoding target region obtained by dividing the region into a plurality of regions. Variable length decoding means for decoding and outputting a motion vector based on the first and second motion vectors corresponding to the first and second motion vector codes output from the variable length decoding means A motion vector reproducing unit; and an image information reproducing unit configured to reproduce the one piece of image information based on the motion vector output from the motion vector reproducing unit.
Also, the present invention is characterized in that a motion vector is reproduced by vector synthesis of the first and second motion vectors.
[0030]
[Action]
According to the present invention, the motion vector of the encoding target area of the image information is represented by the combination of the first motion vector indicating the global motion of the image information and the second motion vector indicating the local motion. Therefore, the code amount of the first motion vector can be reduced, and it is not necessary to provide a plurality of search areas for detecting the second motion vector.
[0031]
Further, according to the present invention, even when the first motion vector is not detected, the first motion vector is used by using the other first motion vector based on the characteristics of normal image information such as panning and human visual characteristics. It is possible to create one motion vector or substitute the detected first motion vector.
[0032]
【Example】
Example 1.
Embodiments of the present invention will be described below with reference to the drawings.
1 to 8 are diagrams for explaining a video signal encoding apparatus and a decoding apparatus for reproducing a video signal encoded by the encoding apparatus according to the first embodiment of the present invention.
[0033]
FIG. 1 is a block diagram showing a schematic configuration of the video signal encoding device, FIG. 2 is a block diagram showing a schematic configuration of the video signal decoding device, and FIG. 3 shows an example of the configuration of the first motion detection means. It is a block diagram. FIG. 4 is a conceptual diagram showing the concept of the encoding target region and the upper encoding target region in the present embodiment, and FIGS. 5 and 6 illustrate the concept of motion compensation prediction performed when the video signal is encoded in the present embodiment. FIG. 7 is a diagram illustrating a vector code for encoding, and FIG. 8 is a conceptual diagram illustrating a relationship between a first motion vector and an image according to the present embodiment.
[0034]
As described above with reference to FIG. 16, the motion vector difference value in a normal image has a very high appearance probability of a small vector difference value regardless of the size of the search region. This means that the normal temporal movement of the image often moves in the same manner in a certain area as represented by camera panning and the like. Therefore, in the case of an image with fast motion, even if the motion vector itself takes a large value, the difference value of the motion vector mostly takes a small value.
In addition, considering human visual characteristics, human visual characteristics are relatively good for fast movements in a certain area such as panning, but on the contrary, the local characteristics of the screen For fast movement, human visual characteristics are extremely deteriorated.
[0035]
  The present invention utilizes the characteristics of such an image and human visual characteristics. In the present embodiment, first, an upper encoding target region as shown in FIG. 4 is defined. This is configured by collecting a plurality of conventional encoding target areas.
  Then, as shown in FIG. 5, the first motion vector indicating the global motion is detected for each of the upper encoding target areas constituting the encoding target image. Thereafter, as shown in FIG. 6, for each of the encoding target areas included in the upper encoding target area in which the first motion vector is detected,The position specified by the first motion vectorThe second motion vector in a predetermined search area centered on is detected, and each of these motion vectors is encoded.
[0036]
According to this embodiment, since the first motion vector is detected for a wide area, the code amount of the first motion vector with respect to the entire code amount is very small. In addition, since the second motion vector has already detected a motion of a wide area by the first motion vector, local motion detection within a limited range is performed even for a fast motion image. It is sufficient to set an appropriate search area in advance and detect the second motion vector in this search area. Therefore, there is no need to provide a plurality of vector codes in parallel as in the prior art.
[0037]
The specific apparatus configuration of this embodiment will be described below. FIG. 1 is a block diagram showing the configuration of such a video signal encoding apparatus according to the first embodiment of the present invention.
In the figure, 1c is an input terminal for a video signal, 2c is an output terminal for an encoded video signal, 3c is a subtracting means, 4c is a DCT means for converting the video signal into a horizontal / vertical spatial frequency for information compression, 5c Is quantization means, 6c is inverse quantization means, 7c is IDCT (Inverse Discrete Cosine Transform) means for reconverting the frequency-converted video signal to the original video signal, 8c is addition means, 9c is memory means, and 10c is memory means First motion detection means, 12c is switch (switching) means, 13c is variable length coding means, 14c is transmission buffer means, 15c is code amount control means, and 18c is second motion detection means.
[0038]
A part of the video signal 301 inputted from the input terminal 1c is inputted to the first motion detecting means 10c and the second motion detecting means 18c, and also inputted to the subtracting means 3c to obtain the signal 309 of the prediction region. The difference signal 302 is used.
The difference signal 302 is frequency-converted by the DCT means 4c and further quantized by the quantization means 5c.
[0039]
Then, a part of the quantized difference signal 304 is retransformed through the inverse quantization means 6c and the inverse DCT means 7c to be the original difference signal, and the signal 309 in the prediction region is added by the addition means 8c. The original video signal is stored as a reference image in the memory means 9c.
On the other hand, the remaining difference signal 304 is encoded together with the first and second motion vectors 312 and 313 generated by the first motion detecting unit 10c and the second motion detecting unit 18c in the variable length encoding unit 13c. Is multiplexed.
[0040]
The multiplexed signal 314 is transmitted from the output terminal 2c via the transmission buffer means 14c or recorded on a recording medium (not shown).
Note that the code amount control means 15c adaptively changes the quantization step of the quantization means 5c in response to a signal such as the remaining memory capacity in the transmission buffer means 14c so that overflow does not occur.
[0041]
On the other hand, the reference image stored in the memory means 9c is input to the first terminal of the switch means 12c and also input to the second motion detection means 18c. (A zero signal is input to the second terminal of the switch means 12c.)
[0042]
In the second motion detection unit 18c, the code of the encoding target image is determined from the input reference image 308, the video signal (encoding target image) 301, and the first motion vector 313 generated by the first motion detection unit 10c. For each encoding target region, motion detection is performed within a predetermined search region centered on the region specified by the first motion vector of the higher-order encoding target region to detect a second motion vector (see FIG. 6).
The detected first motion vector 313 and second motion vector 312 are sent to the variable length coding means 13c, where the difference values between the motion vector in the adjacent higher coding target region and coding target region are respectively determined. This is calculated, converted into a vector code by a vector code as shown in FIG. 7, and multiplexed on a variable length encoded difference signal 304.
[0043]
The output 310 of the second motion detection means 18c is also used as a switching signal for the switch means 12c. Based on this signal, the video signal 308 of the reference image is converted into a signal 309 in the prediction area, and the subtraction means 3c and addition are performed. The signal 310 is inputted to the means 8c, and the signal 310 is also used as a coding switching signal between the difference signal 304 and the first and second motion vectors in the variable length coding means 13c.
[0044]
As shown in FIG. 7, in this embodiment, the motion vector is coded by the vector code of the first motion vector and the vector code of the second motion vector.
In the present embodiment, an 8-bit fixed length code is shown as the vector code of the first motion vector. However, the present invention is not limited to this, and other bit lengths or variable length codes may be used.
Further, in the present embodiment, the vector code in the reference search range shown in the conventional example is shown as the vector code of the second motion vector, but the present invention is not limited to this, and may be a vector code in another search range.
[0045]
Next, a video signal decoding apparatus for decoding the video signal encoded as described above will be described with reference to FIG.
In the figure, 1d is an input terminal for an encoded video signal, 2d is an output terminal for a decoded video signal, 14d is a reception buffer means, 13d is a variable length decoding means, 5d is an inverse quantization means, and 4d is an inverse quantization means. IDCT means, 8d is addition means, 9d is memory means, 12d is switch means, and 17d is motion vector reproduction means.
[0046]
The encoded video signal 401 input from the input terminal 1d is input to the variable length decoding unit 13d via the reception buffer unit 14d. The variable length decoding means 13d decodes the encoded video signal 402 and separates it into a first motion vector 410, a second motion vector 411, and a difference signal 403.
The separated difference signal 403 is inversely quantized by the inverse quantization means 5d and converted to the original difference signal 405 by the IDCT means 4d. Further, this difference signal 405 is added to the prediction region signal 408 in the adding means 8d and returned to the original encoding target region signal 406, and a part of the difference signal 405 is stored in the memory means 9d and the original encoding is performed. The target image is output from the output terminal 2d.
[0047]
On the other hand, the memory unit 9d generates a prediction region signal 407 from the encoding target region signal 406 from the addition unit 8d and the motion vector 412 decoded by the variable length decoding unit and vector-combined by the motion vector reproduction unit 17d. The prediction area signal 407 is input to the adding means 8d via the switching means 12d that is switched based on the switching signal 409 for motion compensation prediction generated by the variable length decoding means. Note that a zero signal is input to one end of the switch means 12d. When this signal terminal is selected, a reproduction signal for which motion compensation prediction is not performed is output from the adder means 8d.
[0048]
Next, the first motion vector detection method in the present embodiment will be described. FIG. 3 is a diagram showing an example of a specific configuration of the first motion detecting unit 10c shown in FIG.
In the figure, 19c is a low-pass filter (LPF) means, 20c is sub-sampling means, 21c is memory means, and 22c is representative vector detection means.
[0049]
The video signal 301 input to the first motion detection unit 10c passes through the LPF unit 19c to remove high frequency components, and is subsampled by the subsampling unit 20c to reduce the hardware scale. At this time, since the LPF means 19c is applied as the pre-processing of the sub-sampling, the influence of aliasing distortion on the motion detection can be removed.
The subsampled video signal is stored as a reference image in the memory means 21c and is directly given to the representative vector detecting means 22c. In the representative vector detection unit 22c, the first motion vector as described with reference to FIG. 5 is based on the upper encoding target region of the encoding target image composed of the input video signal and the reference image from the memory unit 21c. Is detected.
[0050]
FIG. 8 is a diagram showing the relationship between the first motion vector and the image in this embodiment.
In the figure, vertical lines indicate the respective images, horizontal short lines indicate the boundaries of the upper encoding target area, and arrows indicate the first motion vector.
As can be seen from the figure, the first motion vector is detected for all the upper coding target regions.
[0051]
Example 2
Next, a second embodiment of the present invention will be described.
FIG. 9 is a diagram illustrating a first relationship between the first motion vector and the image.
[0052]
In the above-described first embodiment, the case where the first motion vector is detected for all the upper coding target regions of the coding target image has been described. However, the first motion vector is a fast motion of the image. In some cases, it may not be detected depending on the size of the upper encoding target area.
[0053]
The present embodiment relates to a method for creating a first motion vector in a higher-order encoding target region in which such a first motion vector is not detected, and is a constant defined between an encoding device and a decoding device. Based on the above rule, the first motion vector of the higher coding target region is created from the first motion vector of the other higher coding target region.
[0054]
FIG. 9 shows a case where the first motion vector is detected at a certain image interval. In the figure, the first motion vector is detected for every m images. At this time, in the image in which the first motion vector is not detected, the first motion vector is detected from the first motion vector in the closest future image in which the first motion vector is detected by the following method. Create a vector.
[0055]
That is, when the first motion vector of the nth image and the n + m image is detected, if the first motion vector in the n + m image is v, the first motion vector vf for the past image in the n + y image. The first motion vector vb for the future image is created as follows.
vf = {y / m} × v
vb = {(my) / m} * (-v)
[0056]
The first vector generation method may be basically a method determined according to a common rule between the encoding device and the decoding device, and may be a method other than the above formula.
[0057]
Example 3 FIG.
FIG. 10 is a diagram showing a third embodiment of the present invention, and shows a second relationship between the first motion vector and the image.
[0058]
Unlike the second embodiment, the present embodiment is a case where the first motion vector is detected only for one higher-order encoding target image among the encoding target images. In such a case, in the present embodiment, the detected first motion vector is substituted as the first motion vector of the other higher-order encoding target image.
Even if it does in this way, as above-mentioned, since a normal image often moves the whole screen as one lump, such as panning, it is not a big problem.
[0059]
In the second and third embodiments, the first motion vector vector code is multiplexed on the second motion vector or the difference signal vector code in the upper coding target region where the first motion vector is not detected. Needless to say, it is not necessary to transmit the data.
In each of the above-described embodiments, one image, that is, a frame image on TV is used as a unit when detecting the first and second motion vectors. However, the first and second motion vectors are used as a unit of field image. You may make it detect.
[0060]
【The invention's effect】
As described above, according to the present invention, two-stage motion compensation prediction is performed on the motion of image information by using the first motion vector indicating the global motion and the second motion vector indicating the local motion. Therefore, it is possible to obtain a video signal encoding / decoding device and encoding / decoding method having high encoding efficiency even in a fast-moving image while reducing the hardware / software scale. There is an effect that it is.
[0061]
Further, according to the present invention, even if there is a higher coding target area where the first motion vector cannot be detected, the first motion vector can be easily obtained instead of the first target vector, and the first motion vector obtained by the present invention can be obtained. Since the first motion vector is obtained on the basis of the characteristics of image information such as panning and human visual characteristics, the video signal encoding / decoding device and the code that suppress the deterioration of the reproduction image quality to a slight extent There is an effect that an encoding / decoding method is obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an encoding device in a video signal encoding / decoding device of the present invention.
FIG. 2 is a block diagram showing a schematic configuration of a decoding device in the video signal encoding / decoding device of the present invention.
FIG. 3 is a block diagram showing a configuration of first motion detecting means in the video signal encoding / decoding device of the present invention.
FIG. 4 is a conceptual diagram showing the concept of an encoding target region and a higher encoding target region in the video signal encoding / decoding device of the present invention.
FIG. 5 is a conceptual diagram showing a concept of first motion vector detection in the video signal encoding / decoding device of the present invention.
FIG. 6 is a conceptual diagram showing the concept of second motion vector detection and the relationship between the first and second motion vectors in the video signal encoding / decoding device of the present invention.
FIG. 7 is a diagram showing a vector code in the video signal encoding / decoding device of the present invention.
FIG. 8 is a diagram illustrating a relationship between a first motion vector and each image in the video signal encoding / decoding device of the present invention.
FIG. 9 is a diagram illustrating a method of creating a first motion vector that has not been detected by the video signal encoding / decoding device of the present invention.
FIG. 10 is a diagram showing a method of substituting the first motion vector that has not been detected by the detected other first motion vector with the video signal encoding / decoding device of the present invention.
FIG. 11 is a block diagram showing a schematic configuration of an encoding device in a conventional video signal encoding / decoding device.
FIG. 12 is a block diagram showing a schematic configuration of a decoding device in a conventional video signal encoding / decoding device.
FIG. 13 is a conceptual diagram showing the concept of a search area for detecting a motion vector in a conventional video signal encoding / decoding device.
FIG. 14 is a conceptual diagram showing a concept of motion vector detection in a conventional video signal encoding / decoding device.
FIG. 15 is a diagram illustrating a vector code in a conventional video signal encoding / decoding device.
FIG. 16 is a diagram illustrating a relationship between a motion vector difference value and its appearance probability in a conventional video signal encoding / decoding device.
[Explanation of symbols]
1a, 1b, 1c, 1d: input terminal, 2a, 2b, 2c, 2d: output terminal, 3a, 3c: subtraction means, 4a, 4c: DCT (discrete cosine transform) means, 4b: IDCT (inverse discrete cosine transform) Means, 5a, 5c: quantization means, 5b, 5d: inverse quantization means, 6a, 6c: inverse quantization means, 7a, 7c: IDCT means, 8a, 8b, 8c, 8d: addition means, 9a, 9b, 9c, 9d: memory means, 10c: first motion detection means, 12a, 12b, 12c, 12d: switch (switching) means, 13a, 13c: variable length encoding means, 13b, 13d: variable length decoding means, 14a, 14c: transmission buffer means, 14b, 14d: reception buffer means, 15a, 15c: code amount control means, 17d: motion vector reproduction means, 18a, 18c: second motion detection means, 1 c: a low pass filter (LPF) means, 20c: sub-sampling means, 21c: memory means, 22c: the representative vector detecting means

Claims (2)

<A1> 上位符号化対象領域を、現在符号化しようとしている1枚の画像情報に対応する領域を複数の領域に分割した領域と定義し、
<A2> 参照領域を、過去に符号化した画像である参照画像内において、前記上位符号化対象領域と同一の大きさを有する任意の領域と定義したときに、
<A3> 前記上位符号化対象領域が、前記参照画像内の複数の参照領域のいずれをシフトしたものであるかを示す第1の動きベクトルを検出する第1の動き検出手段を有し、
<B1> 符号化対象領域を、前記上位符号化対象領域を複数に分割した領域と定義し、
<B2> 探索領域を、前記参照画像内において前記第1の動きベクトルで指定される位置を中心とした所定の大きさの領域と定義したときに、
<B3> 前記符号化対象領域が、前記探索領域内で前記符号化対象領域と同一の大きさを有する任意の領域のうち、いずれをシフトしたものかを示す第2の動きベクトルを検出する第2の動き検出手段と、
<C> 前記第1および第2の動き検出手段から出力される前記第1および第2の動きベクトルを符号化する可変長符号化手段と
を有し、
前記第1の動き検出手段は、
符号化対象画像の低域成分を出力する低域通過フィルタ手段と、
該低域通過フィルタ手段からの出力をサブサンプリングするサブサンプリング手段と、
該サブサンプリング手段からのサブサンプリングされた映像信号を参照画像として蓄積するメモリ手段と、
該メモリ手段から出力される前記参照画像出力と前記サブサンプリング手段から出力される前記符号化対象画像のサブサンプリング出力とに基づいて第1の動きベクトルを出力する代表ベクトル検出手段とを備える映像信号符号化装置。
<A1> An upper encoding target area is defined as an area obtained by dividing an area corresponding to one piece of image information to be encoded into a plurality of areas.
<A2> When a reference area is defined as an arbitrary area having the same size as the upper encoding target area in a reference image that is an image encoded in the past,
<A3> First motion detecting means for detecting a first motion vector indicating which one of the plurality of reference regions in the reference image is shifted as the upper coding target region,
<B1> An encoding target area is defined as an area obtained by dividing the upper encoding target area into a plurality of areas,
<B2> When the search area is defined as an area having a predetermined size centered on the position specified by the first motion vector in the reference image,
<B3> A second motion vector that detects which one of the arbitrary regions having the same size as the encoding target region in the search region is shifted is detected in the search region. Two motion detection means;
<C> Variable length encoding means for encoding the first and second motion vectors output from the first and second motion detection means,
The first motion detection means includes
Low-pass filter means for outputting a low-frequency component of the encoding target image;
Sub-sampling means for sub-sampling the output from the low-pass filter means;
Memory means for storing the subsampled video signal from the subsampling means as a reference image;
A video signal comprising: representative vector detection means for outputting a first motion vector based on the reference picture output outputted from the memory means and the sub-sampling output of the encoding target picture outputted from the sub-sampling means Encoding device.
<A1> 上位符号化対象領域を、現在符号化しようとしている1枚の画像情報に対応する領域を複数の領域に分割した領域と定義し、
<A2> 参照領域を、過去に符号化した画像である参照画像内において、前記上位符号化対象領域と同一の大きさを有する任意の領域と定義したときに、
<A3> 前記上位符号化対象領域が、前記参照画像内の複数の参照領域のいずれをシフトしたものであるかを示す第1の動きベクトルを検出する第1の動き検出工程を有し、
<B1> 符号化対象領域を、前記上位符号化対象領域を複数に分割した領域と定義し、
<B2> 探索領域を、前記参照画像内において前記第1の動きベクトルで指定される位置を中心とした所定の大きさの領域と定義したときに、
<B3> 前記符号化対象領域が、前記探索領域内で前記符号化対象領域と同一の大きさを有する任意の領域のうち、いずれをシフトしたものかを示す第2の動きベクトルを検出する第2の動き検出工程と、
<C> 前記第1および第2の動き検出手段から出力される前記第1および第2の動きベクトルを符号化する可変長符号化工程と
を含み、
前記第1の動き検出工程は、
符号化対象画像の低域成分を出力する低域通過フィルタ工程と、
該低域通過フィルタ工程によって得られる出力をサブサンプリングするサブサンプリング工程と、
該サブサンプリング工程からのサブサンプリングされた映像信号を参照画像として蓄積するメモリ工程と、
該メモリ工程により出力される前記参照画像出力と前記サブサンプリング工程によって得られる前記符号化対象画像のサブサンプリング出力とに基づいて第1の動きベクトルを出力する代表ベクトル検出工程とを含む映像信号符号化方法。
<A1> An upper encoding target area is defined as an area obtained by dividing an area corresponding to one piece of image information to be encoded into a plurality of areas.
<A2> When a reference area is defined as an arbitrary area having the same size as the upper encoding target area in a reference image that is an image encoded in the past,
<A3> a first motion detection step of detecting a first motion vector indicating which one of the plurality of reference regions in the reference image is shifted as the upper encoding target region;
<B1> An encoding target area is defined as an area obtained by dividing the upper encoding target area into a plurality of areas,
<B2> When the search area is defined as an area having a predetermined size centered on the position specified by the first motion vector in the reference image,
<B3> A second motion vector that detects which one of the arbitrary regions having the same size as the encoding target region in the search region is shifted is detected in the search region. 2 motion detection steps;
<C> a variable length encoding step for encoding the first and second motion vectors output from the first and second motion detection means,
The first motion detection step includes
A low-pass filter step for outputting a low-frequency component of the image to be encoded;
A subsampling step of subsampling the output obtained by the low pass filter step;
A memory step of storing the subsampled video signal from the subsampling step as a reference image;
A video signal code including a representative vector detection step of outputting a first motion vector based on the reference image output output by the memory step and the sub-sampling output of the encoding target image obtained by the sub-sampling step Method.
JP29129194A 1994-11-25 1994-11-25 Video signal encoding / decoding device and encoding / decoding method Expired - Lifetime JP3784086B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29129194A JP3784086B2 (en) 1994-11-25 1994-11-25 Video signal encoding / decoding device and encoding / decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29129194A JP3784086B2 (en) 1994-11-25 1994-11-25 Video signal encoding / decoding device and encoding / decoding method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003426272A Division JP3907623B2 (en) 2003-12-24 2003-12-24 Video signal encoding / decoding device and encoding / decoding method

Publications (2)

Publication Number Publication Date
JPH08149481A JPH08149481A (en) 1996-06-07
JP3784086B2 true JP3784086B2 (en) 2006-06-07

Family

ID=17766988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29129194A Expired - Lifetime JP3784086B2 (en) 1994-11-25 1994-11-25 Video signal encoding / decoding device and encoding / decoding method

Country Status (1)

Country Link
JP (1) JP3784086B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3540142B2 (en) * 1998-01-30 2004-07-07 株式会社東芝 Motion vector detection circuit and motion vector detection method
JP3753578B2 (en) 1999-12-07 2006-03-08 Necエレクトロニクス株式会社 Motion vector search apparatus and method
JP2007142521A (en) * 2005-11-15 2007-06-07 Sharp Corp Apparatus and method for calculating motion vector
JP4606311B2 (en) * 2005-11-21 2011-01-05 シャープ株式会社 Image coding apparatus and image coding method

Also Published As

Publication number Publication date
JPH08149481A (en) 1996-06-07

Similar Documents

Publication Publication Date Title
US5657087A (en) Motion compensation encoding method and apparatus adaptive to motion amount
JP2924431B2 (en) Coding method
JP3529432B2 (en) Video encoding / decoding device
JPH04177992A (en) Picture coder having hierarchical structure
JPH1175180A (en) Image processing device and method, and transmission medium and method
JP3201079B2 (en) Motion compensated prediction method, coding method and apparatus for interlaced video signal
JP3676525B2 (en) Moving picture coding / decoding apparatus and method
JP3784086B2 (en) Video signal encoding / decoding device and encoding / decoding method
JP3946781B2 (en) Image information conversion apparatus and method
JP3907623B2 (en) Video signal encoding / decoding device and encoding / decoding method
JP2000036963A (en) Image coder, image coding method and image decoder
JPH0730903A (en) Integrated memory circuit for picture processing
JP2947103B2 (en) Moving picture coding apparatus and moving picture coding method
JP3063380B2 (en) High efficiency coding device
JP3164056B2 (en) Moving image encoding / decoding device, moving image encoding / decoding method, and moving image code recording medium
JP3173508B2 (en) Moving picture decoding method and moving picture decoding apparatus
JP3085289B2 (en) Moving picture coding method and moving picture coding apparatus
JP2007110748A (en) Motion compensation prediction method, video signal decoding method and video signal decoding apparatus
JPH06153185A (en) Motion compensation device and coder using the device
JP3653287B2 (en) Image information conversion apparatus and image information conversion method
JP2624718B2 (en) Image coding device
JP3186406B2 (en) Image synthesis coding method and image synthesis apparatus
JP3154454B2 (en) Coding of interlaced image signals
JPH10136371A (en) Moving image decoder and method therefor
JP4042121B2 (en) Image information processing apparatus and image information processing method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20031028

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20040423

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060314

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100324

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100324

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110324

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110324

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120324

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130324

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130324

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140324

Year of fee payment: 8

EXPY Cancellation because of completion of term