JP4261630B2 - 画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体 - Google Patents

画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体 Download PDF

Info

Publication number
JP4261630B2
JP4261630B2 JP02327998A JP2327998A JP4261630B2 JP 4261630 B2 JP4261630 B2 JP 4261630B2 JP 02327998 A JP02327998 A JP 02327998A JP 2327998 A JP2327998 A JP 2327998A JP 4261630 B2 JP4261630 B2 JP 4261630B2
Authority
JP
Japan
Prior art keywords
image
encoding
target
encoded
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02327998A
Other languages
English (en)
Other versions
JPH11225329A (ja
Inventor
充 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP02327998A priority Critical patent/JP4261630B2/ja
Priority to US09/241,871 priority patent/US6798977B2/en
Publication of JPH11225329A publication Critical patent/JPH11225329A/ja
Application granted granted Critical
Publication of JP4261630B2 publication Critical patent/JP4261630B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像符号化装置及び方法、画像復号化装置及び方法、画像符号化処理プログラムが記録されたコンピュータ可読記録媒体及び画像復号化処理プログラムが記録されたコンピュータ可読記録媒体に関するものである。
【0002】
【従来の技術】
従来、動画像の符号化方式として、H.261、MPEG-1、MPEG-2などが知られている。これらの符号化方式はITU(International Telecommunication Union:国際電気通信連合)やISO(International Organization for Standardization:国際標準化機構)によって国際標準化されており、それぞれ、H.264勧告、ISO11172、13818として文書化されている。また、静止画符号化(例えば、JPEG(Joint Photographic Coding Experts Group)符号化)を各フレームに適応させることで符号化するMotion JPEG符号化も知られている。
【0003】
以下、図21を用いて、ビデオ信号をMPEG-1で符号化する符号化システムについて説明する。
【0004】
図21において、TVカメラ1001により供給されたビデオ信号は、入力端子1003によって動画像符号化装置1002に入力される。
【0005】
入力端子1003から入力されたビデオ信号は、A/D変換器1004によってディジタル信号に変換され、ブロック形成器1005に入力される。
【0006】
ブロック形成器1005では、16×16画素で構成されるマクロブロックを画像の左上から右下方向の順に形成する。
【0007】
MPEG-1では画像データを3つの符号化モードで符号化することができる。フレーム内符号化を行うI−フレームモード(以下、I―フレーム)、過去のフレームからフレーム間符号化を行うP−フレームモード(以下、P―フレーム)、過去と未来のフレームからフレーム間符号化を行うB−フレームモード(以下、B―フレーム)とがある。
【0008】
上記したフレームのモード決定はフレームモード器1017によって行われる。フレームモードは符号化のビットレート、DCT(Discrete Cosine Transform:離散コサイン変換)の演算誤差の蓄積による画質劣化の防止、画像の編集やシーンチェンジを考慮して決定される。
【0009】
まず、I−フレームの符号化処理について述べる。
【0010】
I−フレームでは動き補償器1006は作動せず、動き補償器1006からは“0”を出力する。差分器1007ではブロック形成器1005の出力から動き補償器1006からの出力を引き、DCT変換器1008へ供給する。
【0011】
DCT変換器1008では、差分器1007から供給された差分データを8×8画素のブロック単位にDCT変換を行い、量子化器1009へ供給する。
【0012】
量子化器1009ではDCT変換器1008によって変換された変換データを量子化し、符号化器1010へ供給する。
【0013】
符号化器1010では量子化器1009によって量子化された量子化データを1次元に並び替え、0ラン長と値で符号を決定し、その符号化データを出力端子1011へ供給し出力される。
【0014】
また、量子化器1009によって量子化された量子化データは、逆量子化器1012にも供給される。逆量子化器1012は、供給された量子化データを逆量子化して逆DCT変換器1013に供給する。逆DCT変換器1013では逆量子化されたデータを逆DCT変換して加算器1014に供給する。加算器1014では、動き補償器1006の出力“0”と逆DCT変換器1013の出力とが加算され、フレームメモリ1015又は1016に記憶される。
【0015】
次に、P−フレームの符号化処理について述べる。
【0016】
P−フレームでは動き補償器1006を作動させ、ブロック形成器1005の出力は動き補償器1006に入力され、フレームメモリ1015又は1016から時間的に直前のフレームの画像も動き補償器1006に入力され、動き補償器1006では入力された画像データを用いて動き補償を行い動きベクトルと予測マクロブロックを出力する。
【0017】
差分器1007は、ブロック形成器1005からの出力と予測マクロブロックとの差分を求め、DCT変換し、量子化して符号器1010で動きベクトルとともに符号を決定し端子1011から出力される。
【0018】
また、量子化器1009によって量子化された量子化データは逆量子化器1012にも供給される。逆量子化器1012では供給された量子化データを逆量子化して逆DCT変換器1013に供給する。逆DCT変換器1013では逆量子化されたデータを逆DCT変換して加算器1014に供給する。加算器1014では逆DCT変換器1013からの出力と動き補償器1006から出力される予測マクロブロックデータとが加算され、フレームメモリ1015又は1016に記憶される。
【0019】
次に、B−フレームの符号化処理について述べる。
【0020】
B―フレームではP―フレームと同様に動き補償を行うが、動き補償器1006はフレームメモリ1015及び1016の両方から動き補償を行い、予測マクロブロックを生成し、符号化を行う。
【0021】
【発明が解決しようとする課題】
しかしながら、上述したような画像全体を符号化する方法では、動きの無い背景部分等を繰り返して送る必要があり、符号長を無駄に使用している。例えば、テレビ電話やテレビ会議等での画像では実際に動いているのは人物だけであり、背景は動いていない。一定の時間毎に送られるI−フレームでは動いていない背景画像も送られており、無駄な符号(背景画像の符号データ)が生じている。
【0022】
図22にテレビ会議等の画像の一例を示す。
【0023】
図22は部屋で人物がテレビカメラに向かっている図である。人物1050と背景1051は同じフレーム内で同じ符号化方法により符号化されている。
【0024】
背景1051には動きはないため、動き補償を行えば符号はほとんど発生しないが、I−フレームでは多大な符号が発生する。
【0025】
このため、動きがない部分に関しても多大な符号化データを繰り返し送ることになり、無駄である。また、人物1050の動きが大きく、符号化で大きな符号量を発生した後のI−フレームによる符号化処理では十分な符号量が得られず、量子化係数を荒くする必要が生じ、動きのない背景の画質まで低下させてしまうという欠点を持っている。尚、上記した人物1050のように動きがある物体を以下では対象と呼ぶ。
【0026】
従って、本発明は前記課題を考慮して符号化効率の高い画像符号化装置及び方法並びに画像符号化プログラムが記録されたコンピュータ可読記録媒体、及びその符号化データを復号化するための画像復号化装置及び方法並びに画像復号化プログラムが記録されたコンピュータ可読記録媒体を提供することを目的としている。
【0027】
【課題を解決するための手段】
本発明の画像符号化装置は、動画像を形成する複数のフレームを入力する入力手段と、前記入力手段によって入力された複数のフレームを背景画像と複数の対象画像とに分離する分離手段と、前記分離手段によって分離された背景画像を第一の符号化方法で符号化する第一の符号化手段と、前記分離手段によって分離された複数の対象画像のそれぞれを第2の符号化方法で符号化する第2の符号化手段と、前記符号化された背景画像の符号量を前記入力された複数のフレーム全体の目標符号量から引いた値に基づいて、前記第2の符号化手段で符号化される前記複数の対象画像の目標符号量を制御する制御手段とを有し、前記第2の符号化手段は量子化手段を含み、前記第2の符号化手段は符号化対象の前記対象画像の符号量と前記対象画像の目標符号量の大小比較の結果に基づいて、次の符号化対象となる次フレームの対象画像の量子化ステップを、前フレームの対象画像の量子化ステップを最小単位で変化させることで決定することを特徴とする。
【0028】
本発明の画像符号化方法は、動画像を形成する複数のフレームを入力する入力工程と、前記入力工程によって入力された複数のフレームを背景画像と複数の対象画像とに分離する分離工程と、前記分離工程によって分離された背景画像を第一の符号化方法で符号化する第一の符号化工程と、前記分離工程によって分離された複数の対象画像のそれぞれを第2の符号化方法で符号化する第2の符号化工程と、前記符号化された背景画像の符号量を前記入力された複数のフレーム全体の目標符号量から引いた値に基づいて、前記第2の符号化工程で符号化される前記複数の対象画像の目標符号量を制御する制御工程とを有し、前記第2の符号化工程は量子化工程を含み、前記第2の符号化工程は符号化対象の前記対象画像の符号量と前記対象画像の目標符号量の大小比較の結果に基づいて、次の符号化対象となる次フレームの対象画像の量子化ステップを、前フレームの対象画像の量子化ステップを最小単位で変化させることで決定することを特徴とする。
【0029】
本発明の画像符号化プログラムが記録されたコンピュータ可読記録媒体は、動画像を形成する複数のフレームを入力する入力手順と、前記入力手順によって入力された複数のフレームを背景画像と複数の対象画像とに分離する分離手順と、前記分離手順によって分離された背景画像を第一の符号化方法で符号化する第一の符号化手順と、前記分離手順によって分離された複数の対象画像のそれぞれを第2の符号化方法で符号化する第2の符号化手順と、前記符号化された背景画像の符号量を前記入力された複数のフレーム全体の目標符号量から引いた値に基づいて、前記第2の符号化手順で符号化される前記複数の対象画像の目標符号量を制御する制御手順とを記録し、前記第2の符号化手順は量子化手順を含み、前記第2の符号化手順は符号化対象の前記対象画像の符号量と前記対象画像の目標符号量の大小比較の結果に基づいて、次の符号化対象となる次フレームの対象画像の量子化ステップを、前フレームの対象画像の量子化ステップを最小単位で変化させることで決定することを特徴とする。
【0045】
【発明の実施の形態】
<第1の実施例>
以下、図面を参照しながら本発明の好適な実施形態を詳細に説明する。
【0046】
図1は、本発明にかかる第1の実施例の動画像符号化装置の構成を示すブロック図である。尚、本実施例では、動画像の入力手段としてVTRを用い、CD−ROMに符号化データを書き込むシステムの場合について説明する。
【0047】
図1において、101は動画像シーケンスを蓄積してあるビデオテープレコーダ(VTR)である。尚、VTR101は動画像の入力手段であってTVカメラや他の記憶媒体等の動画像入力手段でもよい。
【0048】
102は本発明に係るところの動画像符号化装置である。103はVTRから出力される動画像のアナログ画像信号を入力する入力端子、104はアナログ画像信号をディジタル画像信号に変換するA/D変換器、105は画像の背景画像を格納する背景メモリである。
【0049】
106は背景画像を静止画像の符号化方式で符号化する静止画像符号化部である。静止画像符号化部106で使用される符号化方式は、本実施例ではJPEG符号化方式を用いている。尚、静止画像符号化部106で使用する符号化方式はこれに限定されず、Wavelet符号化やDPCM符号化、ベクトル量子化等の静止画像を符号化する方式等も適用できる。また、画像のI−フレームの符号化方式を用いてももちろんかまわない。
【0050】
107はフレームメモリであり、1画面分の画像データを格納する。108は背景メモリ105とフレームメモリ108から符号化する対象を抽出する対象抽出器、109は抽出された対象を格納する対象メモリ、110は抽出された対象に動き補償を用いない符号化を行う動画像符号化部、111は静止画像符号化部106と動画像符号化部110で生成される符号の符号長を入力し、発生する符号長の制御を行う符号長制御部、112は静止画像符号化部106と動画像符号化部110で生成される符号化データを合成して1つの符号化データを生成する符号合成部、113は符号合成部112によって生成された符号化データを出力する出力端子、114は符号化データをCD−ROMに記録するCD−ROM書き込み装置、115はVTR101に格納されている動画像シーケンスの長さ等の情報を入力する端子、116はCD−ROMの記憶可能容量等の情報を入力する端子、117はユーザーが所望するフレームレートを入力するためのフレームレート入力部である。
【0051】
以下、上述のように構成された装置の動作を説明する。
【0052】
まず、VTR101の動画像シーケンスにおいては先頭に対象が全く写っていないフレームが入っているものとする。
【0053】
VTR101から入力端子115を介して符号化する動画像シーケンスの長さ(時間)Tsを入力し、符号長制御部111に入力する。また、CD−ROM書き込み装置114からはCD−ROMの空き容量Ccを入力する。この空き容量Ccが符号化時の目標符号長になる。
【0054】
次に、VTR101から対象が写っていないフレームの画像データ(つまり、背景画像のみ写っている)を、入力端子103を介して入力し、A/D変換器104でディジタル信号に変換し、背景メモリ105に格納する。図22の画像に対して図2に示す画像が背景画像であったとする。この画像が背景メモリ105に格納される。
【0055】
背景メモリ105に背景画像が入力されたら、静止画像符号化部106は背景画像をJPEG符号化方式で比較的細かな量子化ステップで符号化し、符号合成部112に供給する。また、この時発生した符号長Lbを符号長制御部111へ供給する。符号長制御部111で動画像シーケンスの長さTs、空き容量Cc、背景画像の符号長Lbから動画像シーケンスの符号化レートRoを下式に従って算出する。
【0056】
Ro =(Cc−Lb)/Ts/F …(1)
ここで変数Fはフレームレート入力部117によって入力された動画像のフレームレートである。つまり、フレームレート入力部117によりフレームレートを可変に設定することができる。従って、符号化レートRoは1枚のフレームに費やすことのできる符号長を表している。
【0057】
次に、対象が含まれるフレームをVTR101から時間順にフレームの画像データを入力する。入力端子103を介して入力されたアナログ信号はA/D変換器104でディジタル信号に変換され、フレームメモリ107に入力される。フレームメモリ107に1画面分の画像データが蓄積されたら、対象抽出器108はフレームメモリ107と背景メモリ105の画像データから対象を抽出する。つまり、対象抽出器108は画像中に含まれる複数種のオブジェクト(背景、人物)を分離していることになる。
【0058】
対象の抽出の一つとして以下の方法が考えられる。例えば、フレームメモリ107及び背景メモリ105に記憶された画像データを同期して読み出し、その画像データ同士の画素差分を求める。画素差分が閾値以下であれば背景に含まれる画素とし0そうでなければ対象に含まれる画素とする。画面1面分の閾値比較が終了したら、複数の対象に含まれる画素の固まりを対象の候補とする。以前に対象の抽出を行っている場合は、対象メモリ109に格納されている各対象の画像データと比較し、もっとも類似度の高いものを同じ対象とする。類似度は、対象の位置、大きさ、濃度(輝度)平均等を考慮して決定すればよい。また、複数画素で構成されたブロックにより動きベクトルを検出し、その動きベクトルが同じような動きをしている固まりは同一のオブジェクトであると判断するようにしてもよい。
【0059】
対象が特定できたら、その位置や大きさといった情報を符号化し、符号合成部112に供給する。抽出された対象は矩形に切り出された画像データとその位置の背景画素/対象画素を表す閾値比較結果(以下、背景/対象判定結果と称す)を対象メモリ109に格納する。図22を例にとれば図3の対象を含む矩形が切り出され、図4の背景/対象判定結果とともに格納される。これらの情報は動画像符号化部110に供給される。
【0060】
図5は、動画像符号化部110の構成の一例を示す図である。尚、動画像符号化部110では説明を簡単にするためにフレーム単位で固定長の符号化をする符号化方式を例にとって説明する。
【0061】
図5において、120は図1の対象メモリ109から符号化する対象の矩形の画像データを入力する端子、121はその背景/対象判定結果を入力する端子、122は入力された背景/対象判定結果を符号化する背景/対象判定符号化器である。符号化方式はたとえば2値符号化である、JBIG符号化方式を用いればよい。また、MMR符号化方式や同じような符号化であれば問題はない。
【0062】
123は背景/対象判定符号化器122で生成された符号化データを外部に送出する端子であり、符号合成部112に接続している。124は各フレームの符号長の目標値Roを入力する端子であり、符号長制御部111に接続している。
【0063】
125は背景/対象判定符号化器122で生成された符号長Loを目標値Roから引いた値を算出する差分器、126は差分器125の出力値を格納するラッチ、127は対象の画像データの平均値mを求める平均値算出器、128は切り出された矩形の中の背景を表す画素の値を平均値mに置換する背景画素置換器、129は背景画素置換器128の出力データを格納するメモリ、130はメモリ129をブロック分割し、DCT変換を行うDCT変換器である。
【0064】
131は量子化系数算出器、132は量子化係数算出器131によって算出された量子化値によってDCT変換器130の出力を量子化する量子化器である。量子化はJPEG符号化やMPEG符号化で用いられているのと同様であり、DCT係数に対応する量子化マトリックスに量子化係数Qを積算したもので量子化する。
【0065】
133は量子化結果を1次元に整列し、0ラン長と値に対して符号を割り当て、符号長を算出する符号器、135は生成された符号化データを最終的に出力する端子、134は算出された符号長をカウントする符号長カウンタ、136は対象の大きさの情報を対象抽出器108から入力する端子である。
【0066】
以下、上述のように構成された動画像符号化部110の動作を説明する。
【0067】
あるフレームの対象の画像データを符号化するに先立ち、端子121から背景/対象判定結果を入力し、背景/対象判定符号化器122でJBIG符号化を行う。得られた符号化データは端子123を介して符号合成部112へ供給される。
【0068】
また、背景/対象判定符号化器122で符号化された符号化データの符号長Loは差分器125に入力され、目標値Roとの差分Ooが求められる。その差分値Ooはラッチ126に保持される。
【0069】
符号長カウンタ134はその内容のLtを0にリセットし、量子化係数算出器131は対象画像の矩形の大きさ、矩形の符号長の目標値である差分Ooから量子化器132の量子化係数Qの初期値を決定する。これは過去の経験からある程度決められるものであり、矩形のサイズが大きければ同じ符号長にするためには量子化係数が大きくなる傾向があり、これを鑑みて初期値を算出する。
【0070】
対象の画像データを端子120から、端子121から背景/対象判定結果を同期して読み込む。平均値算出器127は入力された画素の背景/対象判定結果が対象画素を表していればその内容を加算し、対象画素の数Nをカウントアップする。尚、背景画素を表す場合、この処理は行わない。
【0071】
対象の画像データのすべてについて判定と加算、カウントアップが終了したら、その加算値を対象画素の数Nで割って、対象の平均値mを算出する対象の画像データのすべてについて判定と加算、カウントアップが終了したら、その加算値を対象画素の数Nで割って、対象の平均値mを算出する。次に、背景画素置換器128は対象の画像データと背景/対象判定結果を同期して読み込み、入力された画素の背景/対象判定結果が背景画素を表していれば平均値mを出力し、そうでなければ入力された画素値をそのまま出力する。この出力はメモリ129に格納される。
【0072】
対象の矩形内の全画素について処理がされ、メモリ129にその結果が蓄積された後、メモリ129からブロック毎に画像が読み出される。同期して背景/対象判定結果が読み出され、ブロック内に対象画素が含まれているブロックのみがDCT変換器130でDCT変換され、その係数は量子化器132で量子化係数Qに基づく量子化係数で量子化される。量子化結果は符号器133で符号を割り当てられ、その長さを符号長カウンタ134でLtに加算する。
【0073】
図6に上述した処理の様子を表す。図6で濃い網点がかかったブロックは符号化されず、対象を含むブロックのみが符号化される。そのうち、背景画素を含むもののみについて、背景画素は平均値mで置き換えられている(図6中の薄い網点部)。対象の矩形内の全画素について符号化されたとき、量子化係数算出器131はラッチ126の内容と符号長カウンタ134の内容Ltとを比較し、新たな量子化係数Q’を次式で算出する。
【0074】
If (Lt<Oo) Q’=Q−1
Else if (Lt>Oo)Q’=Q+1 …(2)
Else Q’=Q
【0075】
Q’がQと等しければ量子化係数Q’が最適な量子化係数であり、メモリ129から符号化の対象となるブロックを順に読み出し、DCT変換後、量子化器132で量子化係数Q’によって量子化され、符号器133で符号化され、端子135から出力される。この時の量子化係数Q’は、符号化した次フレームの量子化係数Qの初期値とするため、これを対象毎に保持しておく。Q’がQと等しくなければQ’を過去の量子化係数Qoと比較し、Q’がQoと等しければ量子化係数Q’が最適な量子化係数とされ、上記と同様に対象画像を符号化して端子135から出力し、量子化係数Qを保持する。Q’がQoと等しくなければ量子化係数Qを過去の量子化係数Qoとして保持する。上述の処理を繰り返し、最適な量子化係数が求まるまで繰り返す。
【0076】
上述したような動作により動画像符号化部110で符号化された符号化データは符号合成部112に入力され、各部で生成された符号化データを合成して1つの符号化データを生成する。
【0077】
図22の画像について符号合成器112から出力される符号化データの例を図7に示す。図22の画像には対象が1つなので、符号合成部112では符号化データの先頭に対象が1つであることを含めたシーケンスヘッダが備わり。次に、静止画像符号化部106から出力された背景画像の符号化データエリアが備わる。その後には各対象の各フレーム単位の符号化データエリアが続く。本実施例では人物1050の第1フレームから第(Ts×F)フレームの符号化データが含まれる。
【0078】
各フレームの符号化データでは、対象抽出器108から出力された対象の大きさを表す符号化データと対象の背景画像の中での位置を表す符号化データを含むフレームヘッダが先頭に格納される。続いて、図5中の動画像符号化部110の背景/対象判定符号化器122で生成された背景/対象判定結果の符号化データが格納される。最後に、図5中の符号器133で生成された対象画像の符号化データが格納される。生成された符号化データは端子113を介してCD−ROM書き込み装置114でCD−ROMに書き込まれていく。
【0079】
尚、対象が複数ある場合は、対象の符号化時に、目標値Roを各対象に分配する。分配の方法としてはたとえば、各対象の大きさ(対象の画素数、矩形の大きさ等)の比によって分配すればよい。図8に示すようにシーケンス内に含まれるオブジェクトの数をシーケンスヘッダに書き込み、背景画像につづいて、フレーム単位で、抽出された複数の対象(対象1、対象2…)の画像符号化データが格納される。すなわち、背景画像符号化データの直後には対象1の第1フレームの符号化データ、対象2の第1フレームの符号化データ…と続き、全対象の第1フレームの符号化データが格納されたら、以下、対象1の第2フレームの符号化データ、対象2の第2フレームの符号化データ…と格納されていく。
【0080】
図9に第1の実施例で生成された符号化データを復号してモニタに表示するシステムの構成を示す。
【0081】
図9において、150はCD−ROM書き込み器114で書き込まれた符号化データをCD−ROMから読み出すCD−ROM読み出し器、151は動画像復号装置である。
【0082】
152は符号化データを読み込む端子、153は符号化データから各符号を分離する符号分離部、154は背景画像の画像データを復号する静止画像復号部、155は再生された背景画像を格納する背景メモリ、156は各対象の符号化データを復号する動画像復号部、157は復号化された対象の画像データを格納する対象メモリ、156は背景メモリ155の内容に各対象の画像データを各対象の位置に合成して最終的な復号画像を得る対象合成器、159は対象合成器158で生成された画像を格納するフレームメモリ、160はフレームメモリ159からのディジタル画像信号をアナログ画像信号に変換するD/A変換器、161は前記アナログ画像信号を外部に出力する端子、162は前記アナログ画像信号を表示するモニタである。
【0083】
以下、上述のように構成された装置における動作を説明する。
【0084】
CD−ROM読み出し器150は符号化データを先頭から逐次読み出し、端子152を介して動画像復号装置151に供給する。端子152を介して入力された符号化データは符号分離部153で各ヘッダを解釈し、各符号に分離して後段に出力する。最初にシーケンスヘッダを入力し、オブジェクトの数を検出し、動画像復号部156、対象メモリ157、対象合成器158の各所を初期化する。
【0085】
続いて、背景画像符号化データを入力し、静止画像復号部154に供給する。静止画像復号部154は入力された背景画像符号化データをJPEG符号化方式の復号手順に従って、復号し、結果を背景メモリ155に格納する。
【0086】
その後、各対象の各フレーム画像の符号化データを入力する。この符号化データから、対象の位置の符号を復号して、各フレームでの各対象毎に対象合成器158に供給する。また、それ以外の符号化データに関しては動画像復号部156に供給する。動画像復号部156では各対象の符号化データから背景/対象判定結果をJBIG符号化方式の復号手順に従って、復号し、結果を対象メモリ157に格納する。
【0087】
また、対象画像符号化データも逆量子化を経た後、逆DCT変換され、画像データに復号化され、背景/対象判定結果を参照して対象メモリ157の該当する位置に格納される。
【0088】
対象合成器158は背景メモリ155の画像の上に対象メモリ157に格納された対象の画像データと背景/対象判定結果を読み出し、背景/対象判定結果が背景画素を表している画素については対象の画素値は使用せず、背景画像の画素値を使用し、対象画素を表している画素については対象の画素値を使用する。復号化された対象は各位置にしたがって配置され、最終的な再生画像を生成し、フレームメモリ159に格納する。復号画像は読み出され、D/A変換器160でアナログ画像信号に変換され、端子161を介してモニタ162に供給し、表示する。
【0089】
上述のような一連の動作により背景画像と対象画像とを分離し、それぞれについて符号化することで符号化効率を向上させるとともに、背景画像と対象画像、対象画像の画像データと背景/対象判定結果をそれぞれ符号化する際に背景画像の符号長と背景/対象判定結果の符号長を考慮して対象画像の画像データの符号化を制御することで、容易に量子化制御を行うことができる。そして、所望する符号長の符号化データを得ることが可能になる。
【0090】
尚、第1の実施例においては、動画像符号化部110でフレーム単位で固定長の符号化を行う方式を例にとって説明を行ったが、MPEG符号化方式のように複数フレームの符号化結果が一定の符号長に収まるような符号化を行ってもかまわない。
【0091】
また、第1の実施例においては、背景画像として先頭のフレームを利用したが、同一の効果が得られるのであればその方法はなんでもかまわない。図10に示すように別途前処理手段を設けてもかまわない。前処理器180は複数のフレームから背景画像を求めるのに、各画素について平均値を求めて背景画素の値とするように動作してもかまわないし、全てのフレームから全く動きがない画素について背景画素とすることも可能である。
【0092】
また、第1の実施例においては、背景画素置換器128を分離させて動作させたが、メモリ読み出し後に対象を含むブロック毎に置換処理を行ってもよい。
【0093】
<第2の実施例>
図11は本発明にかかる第2の実施例の動画像通信装置の構成を示すブロック図である。尚、図1と同様の構成要素については同一番号を付してその詳細な説明は省略する。
【0094】
図11において、201は動画像を入力するためのビデオカメラであり、カメラの向いている方向を検出する機能がついたものである。これはモータ等で雲台を駆動させて方向を変化させるカメラで代用することが出来る。
【0095】
202は本発明に係る動画像符号化装置、203はビデオカメラ201から動画像のアナログ信号を入力する端子、204はカメラの方向情報を入力する端子、205は背景抽出器、206は抽出された対象に動き補償を用いた符号化を行う動画像符号化部、207は符号長制御部、209は外部の通信回線と接続している通信インターフェース、208は通信インターフェース209に接続されている通信回線の容量(伝送ビットレート)を入力する端子である。
【0096】
上述のように構成された装置の動作を説明する。
【0097】
まず、ビデオカメラ201は初期状態で図2に示すように対象となる人が写っていない画像を入力する。ビデオカメラ201から端子203を介してA/D変換器104でディジタル信号に変換し、背景抽出器205に供給する。
【0098】
背景抽出器205は動作せずに入力データをそのまま背景メモリ105に格納する。また、背景メモリ105に背景画像が入力されたら、静止画像符号化部106は背景画像をJPEG-LS符号化方式で劣化のない可逆な符号化で符号を生成し、符号合成部112に供給する。尚、第1の実施例と同様に静止画像符号化部106の符号化方式は同じ機能を果たすものであればよい。
【0099】
符号合成部112は端子113を介して通信インターフェース208により背景符号化データを外部へ送出する。
【0100】
また、端子209を介して通信回線の容量Noが符号長制御部207へ供給されている。回線容量Noが符号化時の目標符号長になる。符号長制御部207で通信回線容量NoとフレームレートFからフレーム毎の符号化レートRfを下式にしたがって算出する。
【0101】
Rf = No/F … (3)
【0102】
次に、対象がビデオカメラ201の視野に入った状態から画像の符号化を開始する。この状態では、人物1050の位置移動はなく、ビデオカメラ201もカメラの向きは固定されている。この時、背景抽出器205は動作しない。A/D変換器104、フレームメモリ107、対象抽出器108、対象メモリ109は第1の実施例と同様の動作を行う。即ち、対象抽出器108から抽出された各対象の矩形に切り出された画像データとその位置の背景/対象判定結果が対象メモリ206に格納される。ここで、動画像符号化部206はMPEG符号化のようにフレーム内符号化を行うI−フレームとフレーム間符号化を行うP−フレームに分けられ、1つのI−フレームと2つのP−フレームを1つの符号化単位とする符号化を行うものとする。つまり、3フレームの符号化データで固定長とする。
【0103】
図12は、動画像符号化部206の構成の一例を示す図である。尚、図5と同様の構成要素については同一番号を付してその詳細な説明は省略する。
【0104】
図12において、220は静止画像符号化器106から背景を符号化した時の符号長Lbを入力する端子、224は各フレームの符号長の目標値Rfを入力する端子であり、符号長制御部207に接続している。
【0105】
227は各フレームの目標符号長を決定する符号長割当器、225は背景/対象判定符号化器122で生成された符号長Loを各フレームの目標符号長から引いた値を算出する差分器、226は差分器225で算出された値を格納するラッチ、228は差分器、229は動き補償器であり、I−フレームの時は動作せず、値0のマクロブロックを出力する。また、動きベクトルは出力しない。また、P−フレームの時は動作し、予測マクロブロックを出力する。また、動きベクトルも出力する。
【0106】
231はフレームのモード毎に量子化値算出する量子化系数算出器、233は符号器であり、量子化結果を1次元に整列し、0ラン長と値に対して符号を割り当て、符号長を算出する。尚、P−フレームの時は動きベクトルも符号化する。
【0107】
232は逆量子化を行う逆量子化器、234は逆DCT変換、236はメモリである。
【0108】
以下、上述のように構成された動画像符号化部206の動作を説明する。
【0109】
まず、端子224を介して各フレームの符号長の目標値Rfを入力する。符号長割当器227は目標値Rfから3フレームからなる符号化単位で費やすことの出来る符号長Rf×3を求め、I−フレームとP−フレームに割り当てる符号長を算出する。ここでは説明を簡略化するためにI−フレームとP−フレームに割り当てる符号長の比をI:P:P=8:1:1とする。
【0110】
従って、各フレームの目標値RoはI−フレームであれば
Ro = Rf×3×8/10 …(4)
P−フレームであれば、
Ro = Rf×3/10 …(5)
【0111】
第1実施例と同様に、背景/対象判定結果は背景/対象判定符号化器122でJBIG符号化され、得られた符号化データは端子123を介して符号合成部112に出力する。差分器225は目標値Roと符号長Loとの差分Ooが求める。差分値Ooはラッチ226に保持される。
【0112】
符号長カウンタ134はその内容のLtを0にリセットし、量子化係数算出器231は各フレームモード毎に、対象画像の矩形の大きさ、差分Ooから、量子化器132の量子化係数Qの初期値を決定する。
【0113】
I−フレームであれば、第1の実施例と同様に、平均値算出器127は対象の平均値mを算出する。背景画素置換器128は対象の画素の背景/対象判定結果が背景画素である画素の値を平均値mに置換し、メモリ129に格納する。メモリ129に結果が蓄積された後、メモリ129からブロック毎に画像が背景/対象判定結果と同期して読み出され、ブロック内に対象画素が含まれているブロックのみが差分器228に入力される。この時の動き補償器229からの出力は0であり、そのままDCT変換器130で8×8画素のブロック単位でDCT変換され、その係数は量子化器132で量子化係数Qに基づく量子化係数で量子化される。量子化結果は符号器233で符号を割り当てられ、その長さを符号長カウンタ134でLtに加算する。
【0114】
符号化されるブロックは図6に示すとおりである。対象の矩形内の全画素について符号化されたとき、量子化係数算出器231は新たな量子化係数Q’を(2)式にしたがって算出する。第1の実施例と同様に、量子化係数Q’とQを比較して、最適な量子化係数が求まるまで操作を行う。最適な量子化係数Qが求まったら、量子化係数Qで量子化し、符号器233で符号化して、端子135から出力する。同時に、量子化器132の出力は逆量子化器232に入力され、逆量子化され、逆DCT変換器234で逆DCT変換され加算器235で動き補償器229の出力と加算され、メモリ236に格納される。
【0115】
次に、P−フレームであれば、第1の実施例と同様に、背景画素の画素値を平均値mで置換した画像をメモリ129に格納する。メモリ129からブロック毎に画像が背景/対象判定結果と同期して読み出され、ブロック内に対象画素が含まれているブロックのみが差分器228に入力される。この時、動き補償器229は時間的に直前フレームの対象の画像が格納されているメモリ236と入力画像データから動き補償を行い、動きベクトルと予測マクロブロックを出力する。
【0116】
差分器228はメモリ129の出力と予測マクロブロックとの差分を求め、DCT変換器130で8×8画素のブロック単位にDCT変換を行い、量子化器132で量子化する。
【0117】
符号器233は、動き補償器229で生成された動きベクトルと量子化データを符号化し、端子135から出力する。同時に、量子化器132の出力は逆量子化器232に入力され、逆量子化され、逆DCT変換器234で逆DCT変換され加算器235で動き補償器229の出力と加算され、メモリ236に格納される。
【0118】
次に、対象が移動した場合について述べる。図22において、人物1050が右に移動した場合、ビデオカメラ201はカメラを人1050の動きに合わせて右にその方向を変化させる。図13にその様子を示す。人1050が右に移動した時のビデオカメラ201の視野は太枠1052で表した部分となる。
【0119】
視野1052にはビデオカメラ201の視野に新たな背景画像が含まれる。新たに入ってきた背景画像は図14に示す部分であり、これはビデオカメラ201の方向を検出することでその方向の移動量と過去の移動の方向や移動量から求めることは容易である。
【0120】
ビデオカメラ201の動きは図11の端子204を介して背景抽出器205に入力される。この時の画像は端子203を介してA/D変換器104でディジタル信号に変換されてフレームメモリ107と背景抽出器205に入力される。背景抽出器205はそのビデオカメラ201の方向の移動量と過去の移動の情報から図14 に示す新たな背景画像を認識し、背景メモリ105に格納されている従来の背景画像に付け加えて新たな背景画像とする。
【0121】
この時の背景画像の内容を図15に示す。また、この移動についての情報を背景抽出器205に保持しておく。この情報は最初のビデオカメラ201による背景画像の入力時に初期化される。
【0122】
背景抽出器205はこの新たに発生した背景画像の画像データを静止画像符号化部106に送り、JPEG-LS符号化方式で符号を生成し、符号合成部112に供給する。同時にその符号長Lbは端子220を介して符号長割当器227に入力される。符号長割当器227は、符号化するフレームがI−フレームであるときに、符号長Lbが入力されたことで新たな背景画像の発生を検知した場合、I−フレームとP−フレームに割り当てる符号長の比をI:P:P=3:1:1と変更する。
【0123】
従って、各フレームの目標値RoはI−フレームについては
Ro = Rf×3×6/10 …(6)
P−フレームについては、
Ro = Rf×3×2/10 …(7)
となる。尚、符号化するフレームがP−フレームであるときに、新たな背景画像の発生を検知した場合は符号長の割当の変更は行わない。また、I−フレームの符号化を行う場合に新たな背景画像の発生がなければ符号長の比を8:1:1に戻す。
【0124】
更に、符号長割当器227は、各フレームで、新たな背景画像が生じた場合は目標値Roから発生した符号長Lbを引いたものをそのフレームの目標値Ro’として更新する。
【0125】
Ro’ = Ro−Lb …(8)
【0126】
以下の処理は、新たな背景の発生がない場合と同様に、背景/対象判定結果は背景/対象判定符号化器122でJBIG符号化され、得られた符号は端子123を介して符号合成部112に出力する。
【0127】
目標値Roと符号長Loとの差分Ooはラッチ226に保持される。量子化係数算出器231が各フレームモード毎に、最適な量子化係数Qを決定する。背景画素の画素値を平均値mで置換した画像をメモリ129に格納する。
【0128】
I−フレームであれば、ブロック内に対象画素が含まれているブロックのみをDCT変換し、量子化係数Qに基づく量子化係数で量子化し、符号器233で符号化して端子135から出力する。同時に、量子化器132の出力は逆量子化器232により逆量子化され、逆DCT変換器234により逆DCT変換されて加算器235で動き補償器229の出力と加算され、メモリ236に格納される。
【0129】
また、P−フレームであれば、動き補償器229は時間的に直前フレームの対象の画像が格納されているメモリ236と入力画像データから動き補償を行い、動きベクトルと予測マクロブロックを出力し、メモリ129の出力と予測マクロブロックとの差分を求め、差分に対してDCT変換を行い、量子化する。符号器233は、動きベクトルと量子化データを符号化し、端子135から出力する。同時に、量子化器132の出力は逆量子化器232により逆量子化され、逆DCT変換器234により逆DCT変換されて加算器235で動き補償器229の出力と加算され、メモリ236に格納される。
【0130】
図11に戻り、上述のようにして動画像符号化部206で符号化して得られた符号化データは符号合成部112に入力され、各部で生成された符号化データを合成して1つの符号化データを生成する。
【0131】
符号合成器112から出力される符号化データの例を図16に示す。
【0132】
符号合成部112は動画像のシーケンスを伝送する前に、予め最初の背景画像の符号化データを別途伝送する。これは図2の内容を符号化したものである。符号合成器112で生成される符号化データは、先頭に背景画像の符号化データであることを表すスタートコード、続いて、背景画像の大きさ等の情報を持つ背景画像ヘッダ、最後にJPEG-LS符号化された符号化データが続く。
【0133】
次に、対象の符号化データの生成を行っていく。先頭に対象画像の符号化データであることを表すスタートコード、続いて、各対象の第1フレームの符号化データが続く。
【0134】
各フレームの符号化データでは、フレーム単位の符号化データに背景画像の符号化データの有無を表す符号、対象抽出器108から出力された対象の大きさを表す符号、対象の背景画像の中での位置を表す符号、フレームの符号化モード(IまたはP)を含むフレームヘッダが先頭に格納される。
【0135】
背景画像が含まれていない場合、フレームヘッダには背景画像が含まれていないことを表す符号が入っている。その他は第1の実施例と同様に、背景/対象判定符号化器122で生成された背景/対象判定結果の符号と対象画像の符号化データが生成される。
【0136】
背景画像が含まれる場合(図16中の第Nフレーム)、フレームヘッダには背景画像が含まれていることを表す符号が入っている。続いて、付け加えられる背景画像の大きさ、元の背景に対する位置等の情報を含む背景画像ヘッダと背景画像の符号化データが生成される。その後に背景/対象判定結果の符号と対象画像の符号化データが生成される。対象が複数ある場合も第1の実施例と同様にフレーム毎に対象の符号化データを生成すればよい。
【0137】
符号合成部112で生成された符号化データは端子113を介して通信インターフェース208により外部へ送出される。
【0138】
復号処理については第1の実施例と同様であるが、符号分離部153が各フレームに含まれる背景画像のヘッダや符号化データを認識し、その符号化データから静止画像復号部154が背景画像を生成し、ヘッダ情報にしたがって背景メモリに書き込めばよい。
【0139】
以上説明したように、第2の実施例によれば、広い背景画像に対して、必要に応じて背景画像を付け加えを行うことができ、符号化の効率を改善することが可能になる。特に、伝送においては最初から広い画像を送らなくてすむので動画像の符号化を開始するまでの遅延を低減することも可能となる。さらに、背景画像の付け加えを行う際に符号長のレートの変換を行うようにすることで背景画像の符号化による一時的な画質の劣化を押さえることも可能になる。
【0140】
尚、第2の実施例においては、最初に伝送する背景画像としてビデオカメラ201の視野の大きさのものを伝送したが、予め視野外の背景領域を含めた領域を符号化し、最初の視野の位置を背景画像ヘッダに書き込んでももちろんかまわない。これによって比較的頻度が高そうな背景を予め送っておき、最初に想定していないような位置にビデオカメラ201が向いた時のみ背景画像の追加を行うことも可能である。
【0141】
更に、第2の本実施例においては、新たな背景の生成のI,Pのいずれのフレームからでも可能としたが、たとえばビデオカメラ201の向きを変える場合は動画像符号化装置202の符号化モードと同期を取って動作させることによって符号長のレートの変換を必ず行うようにすることは簡単に実現でき、これによって背景画像の符号化による一時的な画質の劣化を最小限に押さえることも可能になる。
【0142】
また、第2の実施例においては、動画像符号化でI,Pのフレームモードを使用したが、MPEG符号化のようにBモードを利用することには全く問題はなく、さらには全てをフレーム内符号化するような符号化であってもかまわない。
【0143】
また、第2の本実施例においては、ビデオカメラ201からカメラの向きの変化を捉えて背景画像の付け加えを行ったが、これに限定されない。背景画像の付け加える部分を自動的に抽出してももちろんかまわなし、予め全ての背景画像をメモリに蓄積しておいてもかまわない。
【0144】
<第3の実施例>
図17は、本発明にかかる第3の実施例の動画像通信装置の構成を示すブロック図である。なお、図11と同様の構成要素については同一番号を付してその詳細な説明は省略する。
【0145】
図17において、300は本発明に係るところの動画像符号化装置、301及び302は背景画像を格納する背景メモリであり、背景メモリ301は背景画像の全てを、背景メモリ302はその一部を格納する。
【0146】
以下、上述のように構成された装置の動作を説明する。
【0147】
ビデオカメラ201は初期状態で図18に示すように、対象となる人が写っていない状態で、ビデオカメラ201が動作可能な範囲の全視野の背景画像を入力する。ビデオカメラ201から端子203を介してA/D変換器104でディジタル信号に変換し、ビデオカメラ201の方向から算出される背景画像中の位置をアドレスとして背景メモリ301に格納する。動作可能な範囲の全視野の背景画像を背景メモリ301に格納し終わったら、符号化の動作を開始する。
【0148】
まず、第2の実施例と同様に最初に初期状態の背景画像を伝送する。これは図18では太枠で囲んだ視野領域350である。これを静止画像符号化部106で符号化し、符号合成部112、端子113を介して通信インターフェース208によって外部へ送出される。視野領域350のデータは背景メモリ302に格納され、対象の抽出に用いられる。
【0149】
次に、対象を含む符号化を行う。最初に、符号長制御部207で通信回線の容量NoとフレームレートFからフレーム毎の符号化レートRfを(3)式にしたがって算出する。対象がビデオカメラ201の視野に入った状態(図22)から画像の符号化を開始する。この状態では、人物1050の位置移動はなく、ビデオカメラ201もカメラの向きは固定されている。A/D変換器104、フレームメモリ107、対象抽出器108、対象メモリ109は第2の実施例と同様の動作を行う。即ち、背景メモリ302を参照して対象抽出器108から抽出された各対象の矩形に切り出された画像データとその位置の背景/対象判定結果が対象メモリ206に格納される。ここで、動画像符号化部206は第2の実施例と同様に1つのI−フレームと2つのP−フレームを1つの符号化単位とする符号化を行う。つまり、3フレームの符号化データで固定長とする。
【0150】
第3の実施例では第2の実施例と異なり、最初は人物の位置移動はないが背景メモリ301から動画像の符号化に大きな影響を与えないような符号長で背景画像を細分化した領域を符号化して伝送する。背景メモリ301は伝送済みの背景画像以外の領域を領域351〜360(図18参照)のように細分化して符号化し、各フレームに付加していく。ただし、送出されていない背景画像の領域にビデオカメラ201の視野がかかった場合には第2の実施例と同様にかかった部分を優先する。
【0151】
細分化された領域は静止画像符号化部106に入力され、符号化データは符号合成部112に、符号長Lbが符号長割当器227に入力される。符号長割当器227ではI−フレームとP−フレームに割り当てる符号長の比をI:P:P=14:3:3とする。第2の実施例と同様に背景/対象判定結果を背景/対象判定符号化器122でJBIG符号化し、ラッチ226に保持された差分Ooに最適な量子化パラメータQにしたがって、I−フレームやP−フレームの符号化を行う。
【0152】
対象が移動した場合は、ビデオカメラ201から方向の変化を検出し、背景メモリ302の内容を方向の変化に合わせて必要な対象画像の抽出に必要な背景画像を背景メモリ301から読み出して更新する。
【0153】
静止画像符号化部106と動画像符号化部206で符号化して得られた符号化データは符号合成部112に入力され、各部で生成された符号を合成して1つの符号化データを生成する。
【0154】
符号合成器112から出力される符号化データの例を図19に示す。
【0155】
第2の実施例と同様に、符号合成部112は動画像のシーケンスを伝送する前に、予め最初の背景画像の符号化データを別途伝送する。これは図18の視野領域350の内容を符号化したものである。符号合成器112で生成される符号化データは、先頭に背景画像の符号化データであることを表すスタートコード、続いて、背景画像の大きさ等の情報を持つ背景画像ヘッダ、最後にJPEG-LS符号化された符号化データが続く。
【0156】
次に、符号合成部112は対象の符号化データの合成を行っていく。先頭に対象画像の符号化データであることを表すスタートコード、続いて、各対象の第1フレームの符号化データが続く。
【0157】
各フレームの符号化データでは、フレームヘッダには背景画像が含まれていることを表す符号、対象抽出器108から出力された対象の大きさを表す符号、対象の背景画像の中での位置を表す符号、フレームの符号化モード(IまたはP)を含むフレームヘッダが先頭に格納される。続いて、付け加えられる背景画像の大きさ、元の背景に対する位置等の情報を含む背景画像ヘッダと背景画像の符号化データが生成される。その後に背景/対象判定結果の符号と対象画像の符号化データが生成される。対象が複数ある場合も第1の実施例と同様にフレーム毎に対象の符号化データを生成すればよい。
【0158】
符号合成部112によって生成された符号化データは端子113を介して通信インターフェース208によって外部へ送出される。
【0159】
尚、復号動作については第1の実施例と同様であるが、符号分離部153が各フレームに含まれる背景画像のヘッダや符号化データを認識し、その符号化データから静止画像復号部154が背景画像を生成し、ヘッダ情報にしたがって背景メモリに書き込めばよい。
【0160】
以上説明したように、第3の本実施例によれば、第2の実施例では必要に応じて付け加える部分を伝送していたが、第3の実施例では背景画像を細分化して各フレームに少しずつ付加して送るため、復号側で予め背景画像を用意しておくことが可能となるので、新たな背景が発生した時に一時的に画質が劣化することない効果がある。
【0161】
尚、第3の実施例では画像を横方向のみに細分化したが当然、縦方向に細分化してもかまわない。また、背景画像も説明を簡単にするために横方向にのみ広がりがあるように説明したが、もちろんこれに限定されない。また、細分化の数、符号化の順もこれに限定されないことは言うまでもない。
【0162】
<第4の実施例>
図20は、本発明にかかる第4の実施例の動画像通信装置の構成を示すブロック図である。尚、図17と同様の構成要素については同一番号を付してその詳細な説明は省略する。
【0163】
図20において、400は本発明に係るところの動画像符号化装置、401はビデオカメラであり、第2の実施例のビデオカメラ201から雲台の機能や方向情報の送出機能を省いたものである。
【0164】
402、405は背景画像を格納する背景メモリ、403は静止画像を階層符号化する静止画像符号化部である。静止画像符号化部403では最初に粗い画像を生成して符号化し、続いて、解像度を向上させるための符号化データを段階毎に生成する。たとえばJPEG階層符号化であったり、Wavelet変換やDCT変換等の直交変換のサブバンド符号化であったりする。尚、第4の実施例ではJPEG階層符号化に似た方式で説明する。404は静止画像符号化部403で符号化された符号化データを階層復号する静止画像復号部である。
【0165】
以下、上述のように構成された装置の動作を説明する。
【0166】
まず、第1の実施例と同様に符号化に先立ち、ビデオカメラ401から背景画像を入力し、背景メモリ402に格納する。
【0167】
符号化を開始するにあたり、静止画像符号化部403は背景メモリ402の内容を最初に大きな量子化係数で符号化する。符号化された画像データは符号合成部112に入力される。また、静止画像符号化部403によって符号化された符号化データは静止画像復号部404に入力され、復号され、復号画像は背景メモリ405に格納される。
【0168】
次に、対象を含む符号化を行う。最初に、符号長制御部207でフレーム毎の符号化レートRfを(3)式にしたがって算出する。A/D変換器104、フレームメモリ107、対象抽出器108、対象メモリ109は第3の実施例と同様の動作を行い、対象を抽出して対象メモリ109にその結果を格納する。
【0169】
動画像符号化部206は第2の実施例と同様に1つのI−フレームと2つのP−フレームを1つの符号化単位とする符号化を行う。つまり、3フレームの符号化データで固定長とする。
【0170】
第4の実施例では第3の実施例と異なり、静止画像符号化部403は、フレーム単位で背景メモリ301から動画像の符号化に大きな影響を与えないような符号長で、背景メモリ405の内容を参照しつつ解像度を向上させるための階層符号化データを生成する。符号化された画像データは符号合成部112に入力され、符号長は動画像符号化部206に入力される。動画像符号化部206は第2及び3の実施例と同様に対象を符号化する。
【0171】
符号合成部112は対象の符号化データの合成を行っていく。合成して得られる符号の構造は第3の実施例の図19に示す符号化データの構造と同じである。しかしながら各背景画像ヘッダと背景画像符号化データの内容が異なる。
【0172】
背景画像ヘッダには元の背景に対する位置ではなく、階層の順番を表す階層情報が入っている。背景画像の符号化データも細分化された背景画像の符号化データではなく、解像度を向上させるための階層符号化データである。対象が複数ある場合も第1の実施例と同様にフレーム毎に対象の符号化データを生成すればよい。
【0173】
符号合成部112によって生成された符号化データは端子113を介して通信インターフェース208によって外部へ送出される。
【0174】
尚、復号処理については第1の実施例と同様であるが、符号分離部153が各フレームに含まれる背景画像のヘッダや符号化データを認識し、その符号化データから静止画像復号部154が復号済みの背景画像と復号したデータから背景画像を更新すればよい。
【0175】
以上説明したように、第4の実施例によれば、最初に粗い画像で背景画像を送ることによって、最初に送る背景画像の伝送による遅延を低減する効果がある。画質を向上させるための階層符号化データは動画像の符号化データに比べて少量なので、動画像自体の符号を大きく割くことはなく、画質に与える影響は小さい。
【0176】
また、階層符号の符号長も一定の符号長で送ることが可能なので全体の符号長制御を容易にする効果もある。
【0177】
<その他の実施例>
本発明は複数の機器(たとえばホストコンピュータ、インタフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても一つの機器(たとえば複写機、ファクシミリ装置)からなる装置に適用してもよい。
【0178】
また前述した実施形態の機能を実現する様に各種のデバイスを動作させる様に該各種デバイスと接続された装置あるいはシステム内のコンピュータに、前記実施形態機能を実現するためのソフトウエアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)を格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも本願発明の範疇に含まれる。
【0179】
またこの場合、前記ソフトウエアのプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。
【0180】
かかるプログラムコードを格納する記憶媒体としては例えばフロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM,、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。
【0181】
またコンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合にもかかるプログラムコードは本願発明の実施形態に含まれることは言うまでもない。
【0182】
更に供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本願発明に含まれることは言うまでもない。
【0183】
【発明の効果】
以上の説明から明らかなように、本発明では、動画像から背景画像と対象画像を分離して所望する符号長で符号化することができる。また、対象画像の動きが大きい時に、動きのない背景画像の画質の低下を防ぐことができる。
【図面の簡単な説明】
【図1】本発明にかかる第1の実施例の動画像符号化装置の構成を示すブロック図である。
【図2】本発明にかかる本実施例の背景画像の一例を表す図である。
【図3】本発明にかかる本実施例の対象画像の一例を表す図である。
【図4】本発明にかかる本実施例の対象の背景/対象判定結果の一例を表す図である。
【図5】本発明にかかる第1の実施例の動画像符号化部110の構成を示すブロック図である。
【図6】本発明にかかる第1の実施例における対象の符号化の状態を説明するための図である。
【図7】本発明にかかる第1の実施例における符号化データの構成の一例を表す図である。
【図8】本発明にかかる第1の実施例における符号化データの構成の別な例を表す図である。
【図9】本発明にかかる第1の実施例としての動画像復号化装置の構成を示すブロック図である。
【図10】本発明にかかる第1の実施例の動画像符号化装置の別な構成を示すブロック図である。
【図11】本発明にかかる第2の実施例の動画像通信装置の構成を示すブロック図である。
【図12】本発明にかかる第2の実施例の動画像符号化部206の構成を示すブロック図である。
【図13】本発明にかかる実施例における画像の全体を表す図である。
【図14】本発明にかかる第2の実施例における背景画像の発生の様子を表す図である。
【図15】本発明にかかる第2の実施例における背景画像の合成の様子を表す図である。
【図16】本発明にかかる第3の実施例における符号化データの構成の一例を表す図である。
【図17】本発明にかかる第3の実施例としての動画像通信装置の構成を示すブロック図である。
【図18】本発明にかかる第3の実施例における背景画像の分割の様子を表す図である。
【図19】本発明にかかる第3の実施例における符号化データの構成の一例を表す図である。
【図20】本発明にかかる第4の実施例としての動画像通信装置の構成を示すブロック図である。
【図21】従来の動画像符号化装置の構成を示すブロック図である。
【図22】符号化する画像の内容を表す図である。

Claims (7)

  1. 動画像を形成する複数のフレームを入力する入力手段と、
    前記入力手段によって入力された複数のフレームを背景画像と複数の対象画像とに分離する分離手段と、
    前記分離手段によって分離された背景画像を第一の符号化方法で符号化する第一の符号化手段と、
    前記分離手段によって分離された複数の対象画像のそれぞれを第2の符号化方法で符号化する第2の符号化手段と、
    前記符号化された背景画像の符号量を前記入力された複数のフレーム全体の目標符号量から引いた値に基づいて、前記第2の符号化手段で符号化される前記複数の対象画像の目標符号量を制御する制御手段とを有し、
    前記第2の符号化手段は量子化手段を含み、前記第2の符号化手段は符号化対象の前記対象画像の符号量と前記対象画像の目標符号量の大小比較の結果に基づいて、次の符号化対象となる次フレームの対象画像の量子化ステップを、前フレームの対象画像の量子化ステップを最小単位で変化させることで決定することを特徴とする画像符号化装置。
  2. 更に、前記第1の符号化手段によって符号化された背景画像と前記第2の符号化手段によって符号化された複数の対象画像とを記録媒体に記録する記録手段を備え、
    前記画像全体の目標符号量は、前記記録媒体の記録容量に基づいて設定されることを特徴とする前記請求項1に記載の画像符号化装置。
  3. 更に、前記第1の符号化手段によって符号化された背景画像と前記第2の符号化手段によって符号化された対象画像とを外部に送信する通信手段を備え、
    前記入力された複数のフレーム全体の目標符号量は、前記通信手段の通信データレートに基づいて設定されることを特徴とする前記請求項1に記載の画像符号化装置。
  4. 前記第1の符号化手段によって符号化された背景画像と前記第2の符号化手段によって符号化された複数の対象画像とを合成する合成手段を有することを特徴とする前記請求項1乃至3に記載の画像符号化装置。
  5. 前記合成手段は前記第1の符号化手段によって符号化された背景画像を分割して合成することを特徴とする前記請求項4に記載の画像符号化装置。
  6. 動画像を形成する複数のフレームを入力する入力工程と、
    前記入力工程によって入力された複数のフレームを背景画像と複数の対象画像とに分離する分離工程と、
    前記分離工程によって分離された背景画像を第一の符号化方法で符号化する第一の符号化工程と、
    前記分離工程によって分離された複数の対象画像のそれぞれを第2の符号化方法で符号化する第2の符号化工程と、
    前記符号化された背景画像の符号量を前記入力された複数のフレーム全体の目標符号量から引いた値に基づいて、前記第2の符号化工程で符号化される前記複数の対象画像の目標符号量を制御する制御工程とを有し、
    前記第2の符号化工程は量子化工程を含み、前記第2の符号化工程は符号化対象の前記対象画像の符号量と前記対象画像の目標符号量の大小比較の結果に基づいて、次の符号化対象となる次フレームの対象画像の量子化ステップを、前フレームの対象画像の量子化ステップを最小単位で変化させることで決定することを特徴とする画像符号化方法。
  7. 画像符号化プログラムが記録されたコンピュータ可読記録媒体であって、
    動画像を形成する複数のフレームを入力する入力手順と、
    前記入力手順によって入力された複数のフレームを背景画像と複数の対象画像とに分離する分離手順と、
    前記分離手順によって分離された背景画像を第一の符号化方法で符号化する第一の符号化手順と、
    前記分離手順によって分離された複数の対象画像のそれぞれを第2の符号化方法で符号化する第2の符号化手順と、
    前記符号化された背景画像の符号量を前記入力された複数のフレーム全体の目標符号量から引いた値に基づいて、前記第2の符号化手順で符号化される前記複数の対象画像の目標符号量を制御する制御手順とを記録し
    前記第2の符号化手順は量子化手順を含み、前記第2の符号化手順は符号化対象の前記対象画像の符号量と前記対象画像の目標符号量の大小比較の結果に基づいて、次の符号化対象となる次フレームの対象画像の量子化ステップを、前フレームの対象画像の量子化ステップを最小単位で変化させることで決定することを特徴とする画像符号化プログラムが記録されたコンピュータ可読記録媒体。
JP02327998A 1998-02-04 1998-02-04 画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体 Expired - Fee Related JP4261630B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP02327998A JP4261630B2 (ja) 1998-02-04 1998-02-04 画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体
US09/241,871 US6798977B2 (en) 1998-02-04 1999-02-02 Image data encoding and decoding using plural different encoding circuits

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02327998A JP4261630B2 (ja) 1998-02-04 1998-02-04 画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体

Publications (2)

Publication Number Publication Date
JPH11225329A JPH11225329A (ja) 1999-08-17
JP4261630B2 true JP4261630B2 (ja) 2009-04-30

Family

ID=12106173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02327998A Expired - Fee Related JP4261630B2 (ja) 1998-02-04 1998-02-04 画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体

Country Status (2)

Country Link
US (1) US6798977B2 (ja)
JP (1) JP4261630B2 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6879723B1 (en) * 1999-11-12 2005-04-12 8X8, Inc. Method and apparatus for encoding frames of image data at a varying quality level
JP3603737B2 (ja) * 2000-03-30 2004-12-22 日本電気株式会社 移動体追尾方法及びその装置
JP2001285894A (ja) * 2000-03-31 2001-10-12 Olympus Optical Co Ltd 3次元画像データの掲載方法
JP4355881B2 (ja) 2000-11-08 2009-11-04 日本電気株式会社 動画像符号化方式
US20030007784A1 (en) * 2001-06-20 2003-01-09 Loui Alexander C. System and method for authoring a multimedia enabled disc
US7650058B1 (en) * 2001-11-08 2010-01-19 Cernium Corporation Object selective video recording
US20060165386A1 (en) * 2002-01-08 2006-07-27 Cernium, Inc. Object selective video recording
US20040096102A1 (en) * 2002-11-18 2004-05-20 Xerox Corporation Methodology for scanned color document segmentation
US8638846B1 (en) * 2003-06-23 2014-01-28 At&T Intellectual Property Ii, L.P. Systems and methods for encoding and decoding video streams
JP4612797B2 (ja) * 2004-03-11 2011-01-12 キヤノン株式会社 符号化装置、符号化方法
JP4702928B2 (ja) * 2004-03-12 2011-06-15 キヤノン株式会社 動画像符号化装置及び復号装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2005295505A (ja) * 2004-03-12 2005-10-20 Canon Inc 動画像符号化装置及び動画像復号装置及びそれらの制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US7833187B2 (en) * 2004-04-16 2010-11-16 Nuvue Therapeutics, Inc. Systems and methods for improving image-guided tissue ablation
US7026961B2 (en) * 2004-05-03 2006-04-11 Lsi Logic Corporation Real time binary arithmetic encoding
JP2006074391A (ja) * 2004-09-01 2006-03-16 Canon Inc ファイル記録方法および記録装置
US7751478B2 (en) * 2005-01-21 2010-07-06 Seiko Epson Corporation Prediction intra-mode selection in an encoder
US7830961B2 (en) * 2005-06-21 2010-11-09 Seiko Epson Corporation Motion estimation and inter-mode prediction
US8026945B2 (en) 2005-07-22 2011-09-27 Cernium Corporation Directed attention digital video recordation
KR100765761B1 (ko) * 2005-09-30 2007-10-15 삼성전자주식회사 화상 형성 시스템 및 화상 형성 방법
TWI297994B (en) * 2005-12-08 2008-06-11 Inst Information Industry Encoder, method for adjusting decoding calculation, and computer readable record medium therefor
US7843995B2 (en) * 2005-12-19 2010-11-30 Seiko Epson Corporation Temporal and spatial analysis of a video macroblock
US8170102B2 (en) * 2005-12-19 2012-05-01 Seiko Epson Corporation Macroblock homogeneity analysis and inter mode prediction
JP5082134B2 (ja) * 2007-07-18 2012-11-28 富士フイルム株式会社 画像処理装置、画像処理方法、およびプログラム
US9532001B2 (en) * 2008-07-10 2016-12-27 Avaya Inc. Systems, methods, and media for providing selectable video using scalable video coding
US9215467B2 (en) 2008-11-17 2015-12-15 Checkvideo Llc Analytics-modulated coding of surveillance video
JP4760973B2 (ja) * 2008-12-16 2011-08-31 カシオ計算機株式会社 撮像装置及び画像処理方法
KR101452713B1 (ko) 2009-10-30 2014-10-21 삼성전자주식회사 픽처 경계의 부호화 단위를 부호화, 복호화 하는 방법 및 장치
US8331760B2 (en) * 2010-06-02 2012-12-11 Microsoft Corporation Adaptive video zoom
US9693110B2 (en) * 2010-06-03 2017-06-27 Cox Communications, Inc Dynamic content stream management
US9866877B2 (en) 2011-03-08 2018-01-09 Cox Communications, Inc. Transparent scalable video coding
JP6056124B2 (ja) * 2011-09-05 2017-01-11 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
EP3176729A1 (en) 2011-09-06 2017-06-07 Intel Corporation Analytics assisted encoding
GB201312382D0 (en) 2013-07-10 2013-08-21 Microsoft Corp Region-of-interest aware video coding
US10432877B2 (en) * 2014-06-30 2019-10-01 Nec Corporation Image processing system, image processing method and program storage medium for protecting privacy
JP6672363B2 (ja) * 2018-03-23 2020-03-25 シャープ株式会社 符号化装置、表示装置、符号化装置の制御方法、および制御プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2530090B2 (ja) * 1992-02-28 1996-09-04 三星電子株式会社 映像信号符号化装置
US5283646A (en) * 1992-04-09 1994-02-01 Picturetel Corporation Quantizer control method and apparatus
EP0648400A1 (en) * 1992-06-29 1995-04-19 BRITISH TELECOMMUNICATIONS public limited company Coding and decoding video signals
US5845088A (en) * 1992-11-16 1998-12-01 Multimedia Systems Corporation Method for the production and transmission of enhanced interactive multimedia information
JPH07154798A (ja) * 1993-05-31 1995-06-16 Canon Inc 画像符号化装置および画像符号化方法
JP3258840B2 (ja) * 1994-12-27 2002-02-18 シャープ株式会社 動画像符号化装置および領域抽出装置
US5886743A (en) * 1994-12-28 1999-03-23 Hyundai Electronics Industries Co. Ltd. Object-by information coding apparatus and method thereof for MPEG-4 picture instrument
JP3309642B2 (ja) * 1995-05-31 2002-07-29 ソニー株式会社 画像情報記録方法及びそのシステム
US6023301A (en) * 1995-07-14 2000-02-08 Sharp Kabushiki Kaisha Video coding device and video decoding device
US5883678A (en) * 1995-09-29 1999-03-16 Kabushiki Kaisha Toshiba Video coding and video decoding apparatus for reducing an alpha-map signal at a controlled reduction ratio
JP3249729B2 (ja) * 1995-10-24 2002-01-21 シャープ株式会社 画像符号化装置及び画像復号装置
WO1997029595A1 (en) * 1996-02-07 1997-08-14 Sharp Kabushiki Kaisha Moving image encoding and decoding device
KR100501902B1 (ko) * 1996-09-25 2005-10-10 주식회사 팬택앤큐리텔 영상정보부호화/복호화장치및방법
JP3934712B2 (ja) * 1996-09-27 2007-06-20 日本ビクター株式会社 映像信号符号化方法及び装置
US6173013B1 (en) * 1996-11-08 2001-01-09 Sony Corporation Method and apparatus for encoding enhancement and base layer image signals using a predicted image signal
KR100463004B1 (ko) * 1997-03-20 2005-06-02 주식회사 팬택앤큐리텔 Mpeg-4vop부호화방법
ES2323358T3 (es) * 1997-04-01 2009-07-14 Sony Corporation Codificador de imagenes, metodo de codificacion de imagenes, descodificador de imagenes, metodo de descodificacion de imagenes, y medio de distribucion.
US6233356B1 (en) * 1997-07-08 2001-05-15 At&T Corp. Generalized scalability for video coder based on video objects
KR100251051B1 (ko) * 1997-07-14 2000-04-15 윤종용 임의 형상 부호화 방법
DE69937816T2 (de) 1998-04-28 2008-12-24 Canon K.K. Datenverarbeitungsgerät und Verfahren

Also Published As

Publication number Publication date
US6798977B2 (en) 2004-09-28
JPH11225329A (ja) 1999-08-17
US20030147462A1 (en) 2003-08-07

Similar Documents

Publication Publication Date Title
JP4261630B2 (ja) 画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体
US6683987B1 (en) Method and apparatus for altering the picture updating frequency of a compressed video data stream
US5731850A (en) Hybrid hierarchial/full-search MPEG encoder motion estimation
KR100393125B1 (ko) 동화상의 부호화방법 및 복호화방법
US6628713B1 (en) Method and device for data encoding and method for data transmission
JP4616057B2 (ja) 画像符号化装置及び画像符号化方法
JP2009290463A (ja) 符号化装置/復号化装置、符号化方法/復号化方法及びプログラム
JP3893350B2 (ja) 符号化データ変換装置及びその方法
KR100364748B1 (ko) 영상 변환 부호화 장치
JP2898413B2 (ja) 所要メモリ容量の低減化を伴う圧縮ビデオデータ流の復号化及び符号化のための方法
JP3227674B2 (ja) 動画像符号化装置および方法
JP3599942B2 (ja) 動画像符号化方法、及び動画像符号化装置
JPH0795536A (ja) 動画像逆再生装置及び方法
JP2011055023A (ja) 画像符号化装置及び画像復号化装置
JPH11289515A (ja) 画像信号処理装置及び方法、画像信号記録装置及び方法並びに記録媒体
JP3721972B2 (ja) Mpeg画像データ記録方法
JP3428549B2 (ja) 動画像圧縮装置
JP4359273B2 (ja) 符号化モード選択方法
JP3724662B2 (ja) 画像符号化装置及び画像符号化方法
JP6942504B2 (ja) 符号化装置、撮像装置、符号化方法、及びプログラム
JPH11298902A (ja) 画像符号化装置および方法
JP3721971B2 (ja) Mpeg画像データ記録装置及び記録媒体
JPH07264594A (ja) 動画像の動き補償予測符号化方法
JPH11234675A (ja) 動画像符号化装置及び方法、動画像復号装置及び方法並びに記録媒体
JP2000032467A (ja) 画像処理装置および方法、並びに提供媒体

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080324

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees