JP3578069B2 - 長時間用画像・音声圧縮装置及びその方法 - Google Patents

長時間用画像・音声圧縮装置及びその方法 Download PDF

Info

Publication number
JP3578069B2
JP3578069B2 JP2000277413A JP2000277413A JP3578069B2 JP 3578069 B2 JP3578069 B2 JP 3578069B2 JP 2000277413 A JP2000277413 A JP 2000277413A JP 2000277413 A JP2000277413 A JP 2000277413A JP 3578069 B2 JP3578069 B2 JP 3578069B2
Authority
JP
Japan
Prior art keywords
code
time
audio
video
mpeg
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000277413A
Other languages
English (en)
Other versions
JP2002094384A (ja
Inventor
裕明 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2000277413A priority Critical patent/JP3578069B2/ja
Priority to US09/950,789 priority patent/US7061982B2/en
Publication of JP2002094384A publication Critical patent/JP2002094384A/ja
Application granted granted Critical
Publication of JP3578069B2 publication Critical patent/JP3578069B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8193Monomedia components thereof involving executable data, e.g. software dedicated tools, e.g. video decoder software or IPMP tool
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Discrete Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Television Signal Processing For Recording (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は長時間用画像・音声圧縮装置及びその方法に関し、特に画像や音声を圧縮符号化するための圧縮符号化方法に関する。
【0002】
【従来の技術】
通常、画像や音声をディジタル化して、CD−ROMやハードディスク等の記録媒体に記録する場合、そのデータ量は巨大なものとなるため、通常、画像や音声の圧縮符号化を行ってから記録している。この種の画像や音声の圧縮符号化や記録に対する制御はアプケーションプログラムを実行することによって実現されている。
【0003】
この圧縮符号化方法としては、各種の圧縮符号化方式があり、特に、画像の空間周波数が低周波に集中する性質を利用して圧縮を行うDCT(Discrete Cosine Transform:離散コサイン変換)をベースとした符号化方式が比較的多く使用されている。これはJPEG(Joint Photographic Expert Group)や、MPEG(Moving Pictures Expert Group)1またはMPEG2等の国際標準の符号化方式として採用されている。
【0004】
以下、従来の圧縮動作をMPEGの場合について説明する。まず、画像圧縮処理を行うビデオ圧縮制御部の構成を図2に示す。図2において、ビデオ圧縮制御部4は画像をMPEGで圧縮可能な色信号の形式[YUV形式:輝度信号(Y)と色差信号(Cb,Cr)とに分離した形式]に変換するYUV変換部41と、前/後フレームと現フレームとの画像の動きをブロック(MPEGでは16画素×16画素)の領域毎に検索する動き検索部42と、ブロックの画像を空間周波数に変換するDCT部43と、量子化を行う量子化部44と、量子化から元に戻す逆量子化を行う逆量子化部47と、周波数変換から元に戻す逆DCT部46と、ブロック単位で画像の動きを補償して新たな参照フレームを生成する動き補償部45と、可変長符号化を行う可変長符号化部48とから構成されている。
【0005】
ビデオ圧縮制御部4による画像圧縮処理は、図2に示すように、キャプチャ又はファイルからの原画像をYUV変換部41でYUVデータに変換し、各ピクチャ種別に応じた圧縮を行う。Iピクチャ[intra−coded picture(フレーム内符号化フレーム)]の場合には、YUVデータをブロックに分割して各ブロック毎にDCT部43によって空間周波数に変換し、量子化部44によって量子化してから、可変長符号化部48によって可変長符号化して圧縮符号を出力する。また、量子化したブロックを逆量子化部47で逆量子化し、逆DCT部46で逆周波数変換してから参照フレームを作成する。
【0006】
Pピクチャ[predictive−coded picture(フレーム間符号化フレーム)]の場合には、YUVデータをブロックに分割して各ブロック毎に動き検索部42で参照フレームとして格納されている前フレームのブロックの中で相関が最も高いブロックを求め、相関が最も高い前フレームのブロックとの差分をDCT部43によって空間周波数に変換し、量子化部44によって量子化してから可変長符号化部48によって可変長符号化して圧縮符号を出力する。また、量子化したブロックを逆量子化部47で逆量子化し、逆DCT部46で逆周波数変換してから動き補償部45で動き補償したブロックと加算して参照フレームを作成する。
【0007】
Bピクチャ[bidirectionally predictive−coded picture(フレーム内挿符号化フレーム)]の場合には、YUVデータをブロックに分割して各ブロック毎に動き検索部42で参照フレームとして格納されている前/後フレームのブロックの中で相関が最も高いブロックを求め、相関が最も高い前/後フレームのブロックとの差分をDCT部43によって空間周波数に変換し、量子化部44によって量子化してから可変長符号化部48によって可変長符号化して圧縮符号を出力する。Bピクチャの場合には参照フレームを作成する必要がない。
【0008】
次に、音声圧縮を行うオーディオ圧縮制御部の構成を図3に示す。図3において、オーディオ圧縮制御部5は原音から1AAU(Audio Access Unit)分の原音データを切出す原音切出し部51と、1AAU単位で周波数帯域写像処理を行う32の周波数帯域写像部52と、線形量子化及び符号化を行う量子符号化部53と、符号化されたデータに付加情報を加えて1AAU分の圧縮データを作成するフレーム形成部54と、心理聴覚処理を行う心理聴覚部55とから構成されている。
【0009】
オーディオ圧縮制御部5による音声圧縮処理は、図3に示すように、原音を原音切出し部51で1AAU分(MPEGオーディオレイヤ2の場合には1152サンプル)切出し、AAU単位で圧縮する。32の周波数帯域写像部52は入力信号をサブバンド分析フィルタで32帯域のサブバンド信号に分解し、各サブバンド信号に対してスケール・ファクタを計算してダイナミックレンジを揃える。
【0010】
心理聴覚部55は入力信号を高速フーリエ変換し、その結果を使って心理聴覚のマスキングを計算して各サブバンドに対するビット割当てを計算する。量子化符号化部53は決定したビット割当てにしたがって量子化及び符号化を行う。フレーム形成手段部54は量子化及び符号化を行ったサブバンド信号にヘッダや補助情報を追加し、ビットストリームに整形して圧縮符号として出力する。
【0011】
ビデオ符号とオーディオ符号とを多重化するシステム符号化を行うシステム符号化制御部の構造を図4に示す。図4において、システム符号化制御部6はビデオ符号をパック化するビデオパック生成部61と、オーディオ符号をパック化するオーディオパック生成部62と、パケットヘッダに挿入するタイムスタンプを生成するタイムスタンプ生成部63と、ビットレートを調整するためにデコーダでは読み飛ばされるパディングパックを生成するパディングパック生成部64とから構成されている。
【0012】
システム符号化制御部6によるシステム符号化は、図4に示すように、ビデオ符号とオーディオ符号とを受取ると、ビデオパック生成部61とオーディオパック生成部62とを制御してシステム符号として出力する。ビデオパック生成部61はビデオ符号からパケット分のデータを切出し、パケットヘッダ及びパックヘッダを付加する。また、オーディオパック生成部62はオーディオ符号からパケット分のデータを切出して、パケットヘッダ及びパックヘッダを付加する。
【0013】
この時、ビデオの場合にはパケットのデータにフレームの先頭が含まれていれば、タイムスタンプ生成部63で生成したPTS(Presentation Time Stamp)やDTS(Decoding Time Stamp)を挿入する。オーディオの場合にはパケットのデータにAAUの先頭が含まれていれば、タイムスタンプ生成部63で生成したPTSを挿入する。また、パディングパック生成部64はシステムビットレートが平均するようにパディングパックを挿入する。
【0014】
上記のような画像と音声とを圧縮する方法としては、特開2000−125257号公報に記載された方法がある。この方法では圧縮した画像・音声符号をディスク状の記録媒体に書込んでいる。また、特開平10−79671号公報に記載された方法では記録動作中に圧縮率を変化させて長時間の圧縮を可能としている。
【0015】
【発明が解決しようとする課題】
上記のように、画像と音声とを圧縮することでデータ量を減らすことができるが、圧縮率が大きくても長時間圧縮を続けると、そのデータ量が巨大なものとなる。このため、生成可能なファイルサイズに上限があるシステムでは圧縮した符号をファイルに出力する時にその上限を越えて圧縮を続けることができないという問題がある。
【0016】
また、長時間圧縮したファイルの一部のみを再生装置で再生する場合でも、1本の巨大なファイルをコピーする必要があるので、手間がかかるという問題がある。
【0017】
上記の問題を解決するには圧縮符号を複数のファイルに分割して出力するしかないが、単純に分割した場合には途中のファイルが図5〜図7に示すようなMPEG符号ではなくなるので、標準の再生装置では再生することができなくなるという問題がある。
【0018】
そこで、本発明の目的は上記の問題点を解消し、アプリケーションが画像符号や音声符号やシステム符号の内容を調べることなしに容易に画像符号や音声符号を分割することができる長時間用画像・音声圧縮装置及びその方法を提供することにある。
【0019】
また、本発明の他の目的は、分割された各ファイルが単独で標準の再生装置で再生することができる長時間用画像・音声圧縮装置及びその方法を提供することにある。
【0020】
さらに、本発明の別の目的は、アプリケーションが分割された各ファイルを1本にまとめることで、標準の再生装置で再生することができる長時間用画像・音声圧縮装置及びその方法を提供することにある。
【0021】
【課題を解決するための手段】
本発明による長時間用画像・音声圧縮装置は、生成可能なファイルサイズに上限のあるシステム上で長時間の記録を行い、かつアプリケーションプログラムの実行によって画像や音声の圧縮符号化や記録に対する制御を行う長時間用画像・音声圧縮装置であって、前記アプリケーションプログラムから指定された符号量とフレーム数と時間とのうちのいずれかの単位の予め通知または算出される分割単位でMPEG(Moving Pictures ExpertGroup)符号を分割する分割手段を有し、前記分割手段は、前記画像を符号化したビデオ符号と前記音声を符号化したオーディオ符号とを多重化するシステム符号のパックから始まるように前記MPEG符号を分割するよう構成するとともに、前記ビデオ符号の再生時刻を示すタイムスタンプと前記オーディオ符号の再生時刻を示すタイムスタンプとの差が1フレームの時間以上ありかつ前記ビデオ符号の再生時刻を示すタイムスタンプが前記オーディオ符号の再生時刻を示すタイムスタンプより小さい時に前記タイムスタンプの差に近似の値の時間分のビデオデータを出力させ、前記タイムスタンプとの差が1フレームの時間以上ありかつ前記ビデオ符号の再生時刻を示すタイムスタンプが前記オーディオ符号の再生時刻を示すタイムスタンプより小さくない時に前記タイムスタンプの差に近似の値の時間分のオーディオデータを出力させることで前記ビデオ符号の再生時刻を示すタイムスタンプと前記オーディオ符号の再生時刻を示すタイムスタンプとができるだけ近い値で始まるように前記MPEG符号を分割するよう構成している
【0024】
本発明による長時間用画像・音声圧縮方法は、生成可能なファイルサイズに上限のあるシステム上で長時間の記録を行い、かつアプリケーションプログラムの実行によって画像や音声の圧縮符号化や記録に対する制御を行う長時間用画像・音声圧縮方法であって、前記アプリケーションプログラムから指定された符号量とフレーム数と時間とのうちのいずれかの単位の予め通知または算出される分割単位でMPEG(Moving Pictures ExpertGroup)符号を分割するステップを有し、
前記MPEG符号を分割するステップは、前記画像を符号化したビデオ符号と前記音声を符号化したオーディオ符号とを多重化するシステム符号のパックから始まるように前記MPEG符号を分割するとともに、前記ビデオ符号の再生時刻を示すタイムスタンプと前記オーディオ符号の再生時刻を示すタイムスタンプとの差が1フレームの時間以上ありかつ前記ビデオ符号の再生時刻を示すタイムスタンプが前記オーディオ符号の再生時刻を示すタイムスタンプより小さい時に前記タイムスタンプの差に近似の値の時間分のビデオデータを出力させ、前記タイムスタンプとの差が1フレームの時間以上ありかつ前記ビデオ符号の再生時刻を示すタイムスタンプが前記オーディオ符号の再生時刻を示すタイムスタンプより小さくない時に前記タイムスタンプの差に近似の値の時間分のオーディオデータを出力させることで前記ビデオ符号の再生時刻を示すタイムスタンプと前記オーディオ符号の再生時刻を示すタイムスタンプとができるだけ近い値で始まるように前記MPEG符号を分割するようにしている。
【0027】
すなわち、本発明の画像・音声圧縮装置は生成可能なファイルサイズに上限のあるシステム上で長時間の記録を行う際に、画像や音声の圧縮符号化や記録に対する制御を行うためのアプリケーションプログラム(以下、アプリケーションとする)が圧縮の詳細な制御を行うことなしに、圧縮符号を符号量単位やフレーム単位や時間単位で分割された複数のファイルに出力することを可能とし、さらに分割された各ファイルが単独で標準の再生装置において再生可能なようにする構成を実現することを特徴とする。
【0028】
より具体的に、本発明の画像・音声圧縮装置では、アプリケーションがインタフェース制御部に符号量単位またはフレーム単位、あるいは時間単位の分割単位を渡し、インタフェース制御部に圧縮動作を制御させている。アプリケーションはキャプチャまたはファイルからの原画像・原音声をインタフェース制御部に渡し、生成された符号をファイルに出力する。インタフェース制御部が分割単位にまで符号を生成したことをアプリケーションに知らせることで、アプリケーションは生成された符号を別のファイルに出力する。
【0029】
上記のように、符号化制御装置に画像・音声の圧縮や多重化の制御を集約してアプリケーションが直接圧縮や多重化処理に関与しなくてもよいように構成することで、アプリケーションが画像符号や音声符号やシステム符号の内容を調べることなしに、容易に画像・音声符号を分割するシステムが構築可能となる。
【0030】
また、上記の構成においては、各ファイルがシステム符号のパックヘッダから始り、そのビデオ符号がシーケンスヘッダから始まり、先頭のBピクチャが先頭のGOP(Group Of Picture)内のIピクチャ及びPピクチャのみでデコードできる構成となっており、各ファイルのオーディオ符号はAAU(Audio Access Unit)ヘッダから始まり、各ファイルのビデオ符号とオーディオ符号とのタイムスタンプができるだけ近い値で始まるように分割されるので、各ファイルは完全に独立したMPEG符号となる。よって、分割された各ファイルは単独で標準の再生装置で再生することが可能となる。
【0031】
さらに、各ファイルはMPEG規格に準拠し、単独で再生可能であると同時に、再生時刻を示すタイムスタンプが連続しているので、各ファイルを連続して読込んでデコーダに渡すだけで再生可能となるため、アプリケーションが分割された各ファイルを1本にまとめることで、標準の再生装置で再生可能となる。
【0032】
【発明の実施の形態】
次に、本発明の一実施例について図面を参照して説明する。図1は本発明の一実施例による長時間用画像・音声圧縮装置の構成を示すブロック図である。図1において、本発明の一実施例による長時間用画像・音声圧縮装置はユーザが操作するソフトウェアプログラムであるアプリケーションプログラム(以下、アプリケーションとする)1と、アプリケーション1からの要求にしたがって圧縮動作を制御するインタフェース制御部2と、ビデオ圧縮/符号化及びオーディオ圧縮/符号化を行う圧縮・符号化部3とから構成されている。
【0033】
圧縮・符号化部3はビデオ圧縮を制御するビデオ圧縮制御部4と、オーディオ圧縮を制御するオーディオ圧縮制御部5と、システム符号化を制御するシステム符号化制御部6と、ビデオ符号を一時的に格納するビデオバッファ7と、オーディオ符号を一時的に格納するオーディオバッファ8と、システム符号を一時的に格納するシステムバッファ9とから構成されている。
【0034】
アプリケーション1は図示せぬキャプチャまたはファイルから原画像と原音声とを受取ってインタフェース制御部2に渡し、インタフェース制御部2が生成したシステム符号をシステム符号ファイル(図示せず)に書込む。
【0035】
インタフェース制御部2は圧縮・符号化部3のビデオ圧縮制御部4とオーディオ圧縮制御部5とシステム符号化制御部6とを制御し、生成された符号をビデオバッファ7とオーディオバッファ8とシステムバッファ9とにそれぞれ格納してアプリケーション1に符号を渡す。
【0036】
この時、インタフェース制御部2が分割単位まで出力したことを通知すると、アプリケーション1はシステム符号ファイルに書込んだ後で現在のファイルをクローズして次の新しいファイルをオープンする。
【0037】
このように、インタフェース制御部2が分割すべきかどうかを判断しているので、アプリケーション1は符号の内容を調べなくてもファイルを分割することができる。また、図1ではアプリケーション1が原画像と原音声との受取り及び生成された符号のファイル書込みを行っているが、インタフェース制御部2がこれら処理を行ってもよい。
【0038】
図2は図1のビデオ圧縮制御部4の構成を示すブロック図である。図2において、ビデオ圧縮制御部4は画像をMPEGで圧縮可能な色信号の形式[YUV形式:輝度信号(Y)と色差信号(Cb,Cr)とに分離した形式]に変換するYUV変換部41と、前/後フレームと現フレームとの画像の動きをブロック(MPEGでは16画素×16画素)の領域毎に検索する動き検索部42と、ブロックの画像を空間周波数に変換するDCT部43と、量子化を行う量子化部44と、量子化から元に戻す逆量子化を行う逆量子化部47と、周波数変換から元に戻す逆DCT部46と、ブロック単位で画像の動きを補償して新たな参照フレームを生成する動き補償部45と、可変長符号化を行う可変長符号化部48とから構成されている。
【0039】
ビデオ圧縮制御部4による画像圧縮処理は、図2に示すように、キャプチャ又はファイルからの原画像をYUV変換部41でYUVデータに変換し、各ピクチャ種別に応じた圧縮を行う。Iピクチャ[intra−coded picture(フレーム内符号化フレーム)]の場合には、YUVデータをブロックに分割して各ブロック毎にDCT部43によって空間周波数に変換し、量子化部44によって量子化してから、可変長符号化部48によって可変長符号化して圧縮符号を出力する。また、量子化したブロックを逆量子化部47で逆量子化し、逆DCT部46で逆周波数変換してから参照フレームを作成する。
【0040】
Pピクチャ[predictive−coded picture(フレーム間符号化フレーム)]の場合には、YUVデータをブロックに分割して各ブロック毎に動き検索部42で参照フレームとして格納されている前フレームのブロックの中で相関が最も高いブロックを求め、相関が最も高い前フレームのブロックとの差分をDCT部43によって空間周波数に変換し、量子化部44によって量子化してから可変長符号化部48によって可変長符号化して圧縮符号を出力する。また、量子化したブロックを逆量子化部47で逆量子化し、逆DCT部46で逆周波数変換してから動き補償部45で動き補償したブロックと加算して参照フレームを作成する。
【0041】
Bピクチャ[bidirectionally predictive−coded picture(フレーム内挿符号化フレーム)]の場合には、YUVデータをブロックに分割して各ブロック毎に動き検索部42で参照フレームとして格納されている前/後フレームのブロックの中で相関が最も高いブロックを求め、相関が最も高い前/後フレームのブロックとの差分をDCT部43によって空間周波数に変換し、量子化部44によって量子化してから可変長符号化部48によって可変長符号化して圧縮符号を出力する。Bピクチャの場合には参照フレームを作成する必要がない。
【0042】
図3は図1のオーディオ圧縮制御部5の構成を示すブロック図である。図3において、オーディオ圧縮制御部5は原音から1AAU(Audio Access Unit)分の原音データを切出す原音切出し部51と、1AAU単位で周波数帯域写像処理を行う32の周波数帯域写像部52と、線形量子化及び符号化を行う量子符号化部53と、符号化されたデータに付加情報を加えて1AAU分の圧縮データを作成するフレーム形成部54と、心理聴覚処理を行う心理聴覚部55とから構成されている。
【0043】
オーディオ圧縮制御部5による音声圧縮処理は、図3に示すように、原音を原音切出し部51で1AAU分(MPEGオーディオレイヤ2の場合には1152サンプル)切出し、AAU単位で圧縮する。32の周波数帯域写像部52は入力信号をサブバンド分析フィルタで32帯域のサブバンド信号に分解し、各サブバンド信号に対してスケール・ファクタを計算してダイナミックレンジを揃える。
【0044】
心理聴覚部55は入力信号を高速フーリエ変換し、その結果を使って心理聴覚のマスキングを計算して各サブバンドに対するビット割当てを計算する。量子化符号化部53は決定したビット割当てにしたがって量子化及び符号化を行う。フレーム形成手段部54は量子化及び符号化を行ったサブバンド信号にヘッダや補助情報を追加し、ビットストリームに整形して圧縮符号として出力する。
【0045】
図4は図1のシステム符号化制御部6の構成を示すブロック図である。図4において、システム符号化制御部6はビデオ符号をパック化するビデオパック生成部61と、オーディオ符号をパック化するオーディオパック生成部62と、パケットヘッダに挿入するタイムスタンプを生成するタイムスタンプ生成部63と、ビットレートを調整するためにデコーダでは読み飛ばされるパディングパックを生成するパディングパック生成部64とから構成されている。
【0046】
システム符号化制御部6によるシステム符号化は、図4に示すように、ビデオ符号とオーディオ符号とを受取ると、ビデオパック生成部61とオーディオパック生成部62とを制御してシステム符号として出力する。ビデオパック生成部61はビデオ符号からパケット分のデータを切出し、パケットヘッダ及びパックヘッダを付加する。また、オーディオパック生成部62はオーディオ符号からパケット分のデータを切出して、パケットヘッダ及びパックヘッダを付加する。
【0047】
この時、ビデオの場合にはパケットのデータにフレームの先頭が含まれていれば、タイムスタンプ生成部63で生成したPTS(Presentation Time Stamp)やDTS(Decoding Time Stamp)を挿入する。オーディオの場合にはパケットのデータにAAUの先頭が含まれていれば、タイムスタンプ生成部63で生成したPTSを挿入する。また、パディングパック生成部64はシステムビットレートが平均するようにパディングパックを挿入する。
【0048】
図5はMPEGビデオに準拠した符号フォーマットの構成を示す図であり、図6はMPEGオーディオに準拠した符号フォーマットの構成図を示す図であり、図7はMPEGシステムに準拠したビデオ符号・オーディオ符号の多重化フォーマットの構成を示す図である。これら図5〜図7を参照してMPEG(Moving Picture Experts Group)圧縮方式の場合について説明する。
【0049】
ビデオデータは1個以上のビデオ・シーケンス(VSC)から構成されており、ビデオシーケンスエンドコード(VSE)で終了する[図5(a)参照]。ビデオ・シーケンスはビデオシーケンスヘッダ(VSH)と、1個以上のGOP(Group Of Picture)とから構成されている[図5(b)参照]。
【0050】
GOPは1個以上のピクチャ(Iピクチャ、Bピクチャ、Pピクチャ)から構成され[図5(c)参照]、1つのピクチャが1枚の画像を示している。ピクチャの先頭にはピクチャ種別等の情報を含んだピクチャヘッダが置かれる。ピクチャにはフレーム内符号のみから構成されるIピクチャと、前方向のみのフレーム間符号から構成されるPピクチャと、前後の双方向のフレーム間符号から構成されるBピクチャとの3種類がある。ピクチャは任意の領域に分割された複数のスライスから構成されている[図5(d)参照]。
【0051】
スライスは左から右へ、または上から下への順序で並んだ複数のマクロブロックから構成されている[図5(e)参照]。マクロブロックは大別してフレーム内符号であるイントラブロックと前方向や双方向のフレーム間符号であるインタブロックとの2種類がある。Iピクチャはイントラブロックのみで構成されるが、PピクチャやBピクチャはインタブロックのみでなくイントラブロックも含む場合がある。
【0052】
マクロブロックは16×16ドットのブロックを更に8×8ドットのブロックに分割した輝度成分(Y1,Y2,Y3,Y4)と、輝度成分に一致する領域の8×8ドットのブロックの色差成分(Cb,Cr)との6個のブロックから構成されている[図5(f)参照]。8×8ドットのブロックが符号化の最小単位となる[図5(g)参照]。
【0053】
オーディオデータは1個のオーディオシーケンスから構成されており、オーディオシーケンスは1個以上のAAU(Audio Accesee Unit:オーディオ復号単位)から構成されている[図6(a)参照]。1個のAAUは同期ワード、ビットレート、サンプリング周波数等の情報を含んだAAUヘッダと、圧縮されたオーディオ符号とから構成されている[図6(b)参照]。1個のAAUが符号化の最小単位となる。
【0054】
図7において、ビデオ符号・オーディオ符号は1個のシステムストリームから構成されており、システムストリームは複数のパックから構成されている。パックはパックヘッダと1個以上のパケットから構成されている。パケットにはビデオ・パケットとオーディオパケットとがある。
【0055】
このうちのビデオ・パケットはパケットヘッダとビデオ符号とから構成されている。このビデオ・パケット内のビデオ符号のみを取出して連続すると、一連のビデオシーケンスが構成される。ビデオ・パケットのパケットヘッダはパケット開始コード、パケット長(このパケット長の直後に続くパケットデータの全バイト数)を示すコード、再生出力の時刻を示すPTS(PresentationTime Stamp)、復号の時刻を示すDTS(Decoding Time Stamp)等から構成されている。
【0056】
ビデオ符号ではIピクチャやPピクチャがBピクチャよりも前に符号化されるので、復号する順番と再生する順番とが異なることがある。このため、時刻を示すコードも再生時と復号時との2種類が用意されており、復号の時刻と再生の時刻とが異なる場合にはPTSとDTSとの両方が出力される。復号の時刻と再生の時刻とが同じ場合はPTSのみが出力される。
【0057】
また、オーディオ・パケットはパケットヘッダとオーディオ符号とから構成されている。オーディオパケット内のオーディオ符号のみを取出して連続すると、一連のオーディオシーケンスが構成される。オーディオ・パケットのパケットヘッダはパケット開始コード、パケット長を示すコード、再生出力の時刻を示すPTS等から構成されている。オーディオ符号では復号の順番と再生の順番とが同じなので、PTSのみが出力される。ビデオ・パケットのPTSとオーディオ・パケットのPTSとが一致している場合には、その符号が同時に再生されることになる。
【0058】
図8は図1のアプリケーション1の処理動作を示すフローチャートであり、図9及び図10は図1のインタフェース制御部2の処理動作を示すフローチャートである。図11〜図13は図1及び図2に示すビデオ圧縮制御部4の処理動作を示すフローチャートであり、図14及び図15は図1及び図3に示すシステム符号化制御部6の処理動作を示すフローチャートであり、図16〜図19は本発明の一実施例におけるパック生成処理を示すフローチャートである。
【0059】
これら図1〜図19を参照して本発明の一実施例による長時間用画像・音声圧縮装置の処理動作について説明する。以下、キャプチャまたはファイルから入力される画像と音声とをMPEG圧縮し、複数のファイルに出力する場合の圧縮動作について説明する。
【0060】
アプリケーション1はインタフェース制御部2に符号量単位またはフレーム単位、あるいは時間単位の分割単位を通知し(図8ステップS1)、キャプチャまたはファイルから原画像を1フレーム受取ってインタフェース制御部2に渡し(図8ステップS2)、キャプチャまたはファイルから原音を1フレームの時間分受取ってインタフェース制御部2に渡す(図8ステップS3)。
【0061】
アプリケーション1はインタフェース制御部2からシステム符号と分割単位まで符号を出力したかどうかの通知とを受取ると(図8ステップS4)、システム符号を現在のファイルに出力する(図8ステップS5)。
【0062】
アプリケーション1は分割単位まで出力したかどうかを判断し(図8ステップS6)、分割単位まで出力してないと判断すると、ステップS8へ進む。アプリケーション1は分割単位まで出力したと判断すると、現在のファイルをクローズして新しいファイルをオープンする(図8ステップS7)。アプリケーション1は原画像と原音とが終了したかどうかを判断し(図8ステップS8)、終了していなければステップS1へ戻り、終了していれば処理を終了する。
【0063】
インタフェース制御部2はアプリケーション1から符号量単位またはフレーム単位、あるいは時間単位の分割単位を受取ると(図9ステップS11)、アプリケーション1から指定された分割単位まで1GOP分の空きがあるかどうかを判断する(図9ステップS12)。インタフェース制御部2は空きがあると判断すると、ステップS15へ進む。インタフェース制御部2は空きがないと判断すると、ビデオ圧縮制御部4に通知して分割単位の最終フレームをIピクチャまたはPピクチャに変えて(図9ステップS13)、システム符号化制御部6に通知して分割単位の最終データがパック内にちょうど収まるようにパック化する(図9ステップS14)。
【0064】
インタフェース制御部2はアプリケーション1から1フレームの原画像を受取るとビデオ圧縮制御部4で圧縮し(図9ステップS15)、ビデオ符号をビデオバッファ7に格納する(図9ステップS16)。インタフェース制御部2はアプリケーション1から1フレームの時間分の原音を受取るとオーディオ圧縮制御部5で圧縮し(図9ステップS17)、オーディオ符号をオーディオバッファ8に格納する(図9ステップS18)。インタフェース制御部2はビデオ符号とオーディオ符号とをシステム符号化制御部6で多重化し(図10ステップS19)、システム符号をシステムバッファ9に格納する(図10ステップS20)。
【0065】
インタフェース制御部2はシステム符号化した符号量、フレーム数、時間をカウントし(図10ステップS21)、システム符号と分割単位まで符号を出力したかどうかの通知とをアプリケーション1に渡す(図10ステップS22)。インタフェース制御部2は原画像と原音とが終了したかどうかを判断し(図10ステップS23)、終了していなければステップS12へ戻り、終了していれば処理を終了する。
【0066】
図9及び図10に示す処理動作ではアプリケーション1がインタフェース制御部2に分割単位を指定しているが、以下の計算例のようにインタフェース制御部2が分割単位を計算してアプリケーション1に伝えてもよい。
【0067】
例えば、System Bitrate[システム符号のビットレート(bps)]をSa、Sequence Frame[1シーケンス(シーケンスヘッダから次のシーケンスヘッダまで)に含まれるフレーム数]をSb、FrameRate[ビデオ符号のフレームレート]をf、Max File Size[ファイルサイズの上限(バイト数)]をm、Sequence Size[1シーケンスのサイズ(バイト数)]をSc、Sequence Count[1ファイルに含まれるシーケンス数の上限]をSd、Separate Size[System符号の分割単位(バイト数)]をSeとし、1シーケンス分のシステム符号単位で分割単位を計算すると、
Sc=(Sa/8)×(Sb/f)
Sd=m/Sc (小数点以下は切り捨て)
Se=Sd×Sc×α
となる。ここで、αは1以上の値(装置毎に異なる値)である。
【0068】
具体的に、System Bitrate(Sa)=1228800、Sequence Frame(Sb)=30、Frame Rate(f)=30、Max File Size(m)=2147483648(80000000H)バイト、α=1.05の場合は、以下に示すように、2254855680バイトが分割単位となる。
【0069】
つまり、
Figure 0003578069
となる。
【0070】
ビデオ圧縮制御部4はインタフェース制御部2から受取った原画像をYUV変換部41でYUV変換し(図11ステップS31)、分割単位の最終フレームかどうかを判断する(図11ステップS32)。ビデオ圧縮制御部4は最終フレームでないと判断すると、ステップS34へ進む。ビデオ圧縮制御部4は最終フレームであると判断すると、ピクチャ種別をIピクチャまたはPピクチャに変える(図11ステップS33)。
【0071】
ビデオ圧縮制御部4はピクチャの種別によって各ピクチャ毎の処理を行う(図11ステップS34)。ビデオ圧縮制御部4はIピクチャと判断すると、DCT部43でYUVデータを周波数変換し(図11ステップS35)、DCTデータを量子化部44で量子化し(図11ステップS36)、量子化データを可変長符号化部48で可変長符号化する(図11ステップS37)。
【0072】
ビデオ圧縮制御部4は量子化データを逆量子化部47で逆量子化し(図11ステップS38)、逆量子化データを逆DCT部46で逆周波数変換して参照フレームを作成し(図11ステップS39)、ステップS51へ進む。
【0073】
ビデオ圧縮制御部4はPピクチャと判断すると、動き検索部42で画像のマクロブロックの動きを検索して前フレームとの差分を計算し(図12ステップS40)、DCT部43で周波数変換し(図12ステップS41)、DCTデータを量子化部44で量子化し(図12ステップS42)、量子化データを可変長符号化部48で可変長符号化する(図12ステップS43)。
【0074】
ビデオ圧縮制御部4は量子化データを逆量子化部47で逆量子化し(図12ステップS44)、逆量子化データを逆DCT部46で逆周波数変換し(図12ステップS45)、動き補償部45で前フレームのマクロブロックに差分値を加算して参照フレームを作成し(図12ステップS46)、ステップS51へ進む。
【0075】
ビデオ圧縮制御部4はBピクチャと判断すると、動き検索部42で画像のマクロブロックの動きを検索して前・後フレームとの差分を計算し(図13ステップS47)、DCT部43で周波数変換し(図13ステップS48)、DCTデータを量子化部44で量子化し(図13ステップS49)、量子化データを可変長符号化部48で可変長符号化する(図13ステップS50)。その後に、ビデオ圧縮制御部4はビデオ符号をインタフェース制御部2に渡し(図13ステップS51)、処理を終了する。
【0076】
システム符号化制御部6は出力済みのビデオのDTSが出力済みのオーディオのPTSよりも小さいかどうかを判断し(図14ステップS61)、小さいと判断すると、ビデオパック生成部62で1フレーム分のビデオ符号をパック出力して(図14ステップS62)、オーディオパック生成部61で1フレームの時間分のオーディオ符号をパック出力する(図14ステップS63)。
【0077】
システム符号化制御部6は小さくないと判断すると、オーディオパック生成部61で1フレームの時間分のオーディオ符号をパック出力し(図14ステップS69)、ビデオパック生成部62で1フレーム分のビデオ符号をパック出力する(図14ステップS70)。
【0078】
システム符号化制御部6は分割単位の最終パケットかどうかを判断し(図14ステップS64)、最終パケットでないと判断すると、処理を終了する。システム符号化制御部6は最終パケットであると判断すると、出力済みのビデオのタイムスタンプと出力済みのオーディオのタイムスタンプとの差を計算する(図14ステップS65)。
【0079】
システム符号化制御部6はタイムスタンプの差が1フレームの時間以上であるかどうかを判断し(図15ステップS66)、1フレームの時間以上でないと判断すると、ステップS72へ進む。システム符号化制御部6は1フレームの時間以上であると判断すると、出力済みのビデオのDTSが出力済みのオーディオのPTSよりも小さいかどうかを判断する(図15ステップS67)。
【0080】
システム符号化制御部6は小さいと判断すると、タイムスタンプの差にできるだけ近い値の時間分のビデオデータをビデオパック生成部62でパック出力する(図15ステップS68)。システム符号化制御部6は小さくないと判断すると、タイムスタンプの差にできるだけ近い値の時間分のオーディオデータをオーディオパック生成部61でパック出力する(図15ステップS71)。
【0081】
システム符号化制御部6は出力サイズが分割単位よりも少ないかどうかを判断し(図15ステップS72)、少なくないと判断すると、処理を終了する。システム符号化制御部6は少ないと判断すると、出力サイズを分割単位に揃えるためにパディングパック生成部64で分割単位に足らない分のパディングを出力する(図15ステップS73)。
【0082】
図14及び図15に示す処理動作ではビデオのDTSを使用しているが、最終付近の複数のビデオのPTSから最大となるPTSを使用してもよい。
【0083】
オーディオパック生成部61はパック出力を呼び出して指定されたオーディオ符号を1パック出力し(図16ステップS81)、指定された分を全て出力したかどうかを判断し(図16ステップS82)、全て出力していなければステップS81へ戻り、全て出力していればタイムスタンプ生成部63で出力済みのPTSを計算して記憶する(図16ステップS83)。
【0084】
ビデオパック生成部62はパック出力を呼び出して指定されたビデオ符号を1パック出力し(図17ステップS91)、指定された分を全て出力したかどうかを判断し(図17ステップS92)、全て出力していなければステップS91へ戻り、全て出力していればタイムスタンプ生成部63で出力済みのPTSを計算して記憶する(図17ステップS93)。
【0085】
パディングパック生成部64はパック出力を呼び出して指定されたパディングを1パック出力し(図18ステップS101)、指定された分を全て出力したかどうかを判断し(図18ステップS98)、全て出力していなければステップS101へ戻り、全て出力していれば処理を終了する。
【0086】
システム符号化制御部6はパック出力の際にパックヘッダを出力し(図19ステップS111)、残りデータサイズが予定サイズよりも小さいかどうかを判断する(図19ステップS112)。この予定サイズは予め決めているパケット内に格納するデータサイズであり、通常は2048バイトや2324バイト単位の値からパックヘッダとパケットヘッダの長さを引いた値となるが、任意の値でよい。また、常に固定のサイズとしてもよいし、その都度サイズを変えてもよい。
【0087】
システム符号化制御部6は小さいと判断すると、残りデータサイズがパケット内のデータサイズとなるようにパケット長を計算する(図19ステップS113)。システム符号化制御部6は小さくないと判断すると、予定サイズがパケット内のデータサイズとなるようにパケット長を計算する(図19ステップS120)。
【0088】
システム符号化制御部6はパケットヘッダ開始コードとパケット長とを出力し(図19ステップS114)、タイムスタンプを付けるかどうかを判断する(図19ステップS115)。タイムスタンプはパケット内がビデオの場合にシーケンスヘッダ、GOPヘッダ、ピクチャヘッダの先頭部分が含まれていれば、ビデオ符号に付加され、オーディオの場合にAAUヘッダの先頭部分が含まれていれば、オーディオ符号に付加される。
【0089】
システム符号化制御部6はタイムスタンプを付けないと判断すると、ステップS119へ進む。システム符号化制御部6はタイムスタンプを付けると判断すると、タイムスタンプ生成部63でPTSを計算して出力する(図19ステップS116)。
【0090】
システム符号化制御部6はビデオ符号であり、DTSとPTSとの値が異なるかどうかを判断し(図19ステップS117)、ビデオ符号でないか、あるいはDTSとPTSとの値が異ならないと判断すると、ステップS119へ進む。システム符号化制御部6はビデオ符号であり、DTSとPTSとの値が異なると判断すると、タイムスタンプ生成部63でDTSを計算して出力する(図19ステップS118)。その後に、システム符号化制御部6はパケット内のデータサイズ分のデータを出力する(図19ステップS119)。
【0091】
図20は本発明の一実施例によるビデオ符号を分割する時の符号例を示す図であり、図21は本発明の一実施例によるビデオ符号とオーディオ符号とが多重化されたシステム符号を分割する時の符号例示す図である。これら図20及び図21を参照して本発明の一実施例において生成された符号について説明する。
【0092】
図20においてはビデオ符号を分割する時の符号例を示しており、分かりやすくするために表示順序で示しているが、実際の符号化順序ではBピクチャがIピクチャやPピクチャの後に置かれる。
【0093】
通常、ビデオ符号はI,B,B,P,B,B,P,B,B,…,Iの構成となる。このような構成では最後のいくつかのBピクチャは2つのGOPにまたがって参照するので、GOP単位で分割することができない。そこで、分割単位の最終GOP内の最後の全てのBピクチャはそのGOP内のピクチャのみで参照することができるようにする。
【0094】
図20に示す例では分割単位の符号量またはフレーム数、あるいは時間に相当する最終フレームがBピクチャなので、Pピクチャに変えている。こうすることで、最終部分のBピクチャはその前後のPピクチャを参照するので、次のファイルのピクチャを参照する必要がなくなる。また、分割した後はシーケンスヘッダとGOPヘッダとを付けてIピクチャから始めるので、前のファイルのピクチャから参照される必要がない。このように、分割した2つのビデオ符号は完全に独立しているので、各ビデオ符号は単独で標準の再生装置で再生することができるようになる。
【0095】
さらに、図20に示す例ではBピクチャをPピクチャに変えているが、Iピクチャに変えてもよく、さらにまた、最終フレームがPピクチャの場合にはIピクチャに変えてもよい。
【0096】
図20に示す例では分割された各ビデオ符号の先頭GOP及び最終GOP以外のGOPのフレーム構成を示していないが、分割された各符号の先頭のIピクチャが前の符号のピクチャから参照されなければ、どのようなフレーム構成でもよい。GOPがI,B,B,P,B,B,P,…,PのようにPピクチャで終わるフレーム構成やIピクチャのみのフレーム構成でもよい。
【0097】
図21においてはビデオ符号とオーディオ符号とが多重化されたシステム符号を分割する時の符号例を示しており、ビデオのフレームレートが29.97fps、オーディオのサンプリング周波数が44.1KHzで1AAU分のサンプル数が1152で、分割サイズが2147483648バイトとしている。
【0098】
システム符号を分割する時には同じ再生時刻のビデオ符号とオーディオ符号とを1つにまとめる必要がある。再生時刻を示すタイムスタンプは90000Hzのクロックを元にした値であり、ビデオの場合には、
ピクチャ数×90000/フレームレート
という式で計算される。
【0099】
例えば、フレームレートが29.97fpsの場合には、
90000/29.97=3003
となり、1フレーム毎にタイムスタンプは3003加算される。
【0100】
一方、オーディオの場合には、
AAU数×90000/(サンプリング周波数/1AAU分のサンプル数)という式で計算される。
【0101】
例えば、サンプリング周波数が44.1KHzで、1AAU分のサンプル数が1152の場合には、
90000/(44100/1152)=2351
となり、1AAU毎にタイムスタンプは2351加算される。
【0102】
図21に示す例では1番目のファイルの分割単位の符号量またはフレーム数、あるいは時間に相当する最終VideoパックのDTSが324005287であり、その後に出力されるAudioパックのPTSが323959628であるので、AudioとVideoとの再生時刻の差は、
Figure 0003578069
という値となる。
【0103】
しかしながら、このままでは1番目のファイルでAudioがVideoよりも早く再生が終了することになるので、できるだけ同じ時間分のAudioパックを出力する。Audio符号はAAU単位でデコードされるので、
45659/2351=19.42
という値を四捨五入した値(切り捨てや切り上げでも良い)のAAU数分(19個分)のAudio符号をパック出力する。
【0104】
19個分のAAUをパック出力するので、2番目のファイルのAudioのPTSは、
Figure 0003578069
という値から始まることになる。
【0105】
一方、2番目のファイルの先頭VideoのDTSは、
324005287+3003=324008290
という値から始まることになる。
【0106】
この結果、2番目のファイルのAudioとVideoとの再生時刻の差は、
Figure 0003578069
という値となり、実質上は同じ時刻とみなすことができる。
【0107】
このように、分割単位の最後のビデオ符号のDTSとできるだけ同じ時間分のオーディオ符号のパックを出力するので、再生時刻を合わせるために、次のファイルのビデオ符号やオーディオ符号をデコードする必要がなくなる。
【0108】
また、分割した後はパックヘッダを付けて、ほぼ同じ再生時刻のシーケンスヘッダ付きのビデオ符号とAAUヘッダ付きのオーディオ符号とから始めるので、再生時刻を合わせるために、前のファイルのビデオ符号やオーディオ符号をデコードする必要がない。2つのシステム符号は完全に独立しているので、各システム符号は単独で標準の再生装置で再生することができるようになる。さらに、各システム符号のタイムスタンプは連続しているので、各システム符号を順番に連結するだけで、1本の巨大なMPEG符号とみなすことができる。
【0109】
図21に示す例ではVideoの再生時刻に合わせてAudioをパック出力しているが、これとは逆に、Audioの再生時刻に合わせてVideoをパック出力してもよい。また、図21に示す例ではビデオのDTSを使用しているが、最終付近の複数のビデオのPTSから最大となるPTSを使用してもよい。
【0110】
さらに、図21ではVideoパックやAudioパックの内容を示していないが、VideoとAudioとがほとんど同じ再生時刻から始まるようになっていれば、どのような構成でもよい。パックサイズは任意の値でよいし、1パック1パケットでも、1パック複数パケットでもよい。
【0111】
さらにまた、図21に示す例では出力サイズを揃えるために、分割単位の符号量に足らない分のパディングパックを出力している。Audioパックを出力した後の出力サイズが2147481618バイトであり、分割サイズが2147483648バイトなので、パディングパックの合計サイズは、
2147483648−2147481618=2030(バイト)
という値となる。
【0112】
上記のように、出力サイズを揃えるためにパディングパックを出力するので、アプリケーション1は符号の内容を調べなくても単純に出力された符号サイズから分割単位が分かる。尚、分割単位を符号量にしない場合にはパディングパックを出力しなくてもよい。
【0113】
図22は本発明の一実施例において分割したファイルを1つにまとめて再生する場合の動作を説明するための図である。図22において、アプリケーション1は各ファイルを順番に読込んでデコーダ11に渡し、デコーダ11は渡された符号を順番にデコードして同じPTSのビデオをモニタ12に表示し、同じPTSのオーディオをスピーカ13に出力する。
【0114】
上記のように、図21に示す各システム符号は完全に独立しているが、再生時刻を示すPTSは連続しているので、各ファイルを連結するだけで1つの巨大なMPEGファイルとして再生することができる。
【0115】
このように、符号化制御装置に画像・音声の圧縮や多重化の制御を集約し、アプリケーション1が直接圧縮や多重化処理に関与しなくてもよいように構成することによって、アプリケーション1が画像符号や音声符号やシステム符号の内容を調べることなしに、容易に画像・音声符号を分割するシステムを構築することができる。
【0116】
また、各ファイルが、システム符号のパックヘッダから始り、そのビデオ符号がシーケンスヘッダから始まり、先頭のBピクチャが先頭のGOP内のIピクチャ及びPピクチャのみでデコードすることができる構成とし、オーディオ符号がAAUヘッダから始まり、ビデオ符号とオーディオ符号とのタイムスタンプができるだけ近い値で始まるように分割することによって、各ファイルが完全に独立したMPEG符号となるため、分割された各ファイルを単独で標準の再生装置で再生することができる。
【0117】
さらに、各ファイルをMPEG規格に準拠させ、単独で再生可能であると同時に、再生時刻を示すタイムスタンプを連続させることによって、各ファイルを連続して読込んでデコーダに渡すだけで再生することができるので、アプリケーション1が分割された各ファイルを1本にまとめることで、標準の再生装置で再生することができる。
【0118】
【発明の効果】
以上説明したように本発明の長時間用画像・音声圧縮装置によれば、生成可能なファイルサイズに上限のあるシステム上で長時間の記録を行い、かつアプリケーションプログラムの実行によって画像や音声の圧縮符号化や記録に対する制御を行う長時間用画像・音声圧縮装置において、アプリケーションプログラムから指定された符号量とフレーム数と時間とのうちのいずれかの単位でMPEG符号を分割することによって、アプリケーションが画像符号や音声符号やシステム符号の内容を調べることなしに容易に画像符号や音声符号を分割することができるという効果がある。
【0119】
また、本発明の他の長時間用画像・音声圧縮装置によれば、MPEG符号を分割する際に、画像を符号化したビデオ符号と音声を符号化したオーディオ符号とを多重化するシステム符号のパックから始まるようにすることによって、分割された各ファイルが単独で標準の再生装置で再生することができるという効果がある。
【0120】
さらに、本発明の別の長時間用画像・音声圧縮装置によれば、MPEG符号を分割する際に、ビデオ符号の再生時刻を示すタイムスタンプとオーディオ符号の再生時刻を示すタイムスタンプとができるだけ近い値で始まるようにすることによって、アプリケーションが分割された各ファイルを1本にまとめることで、標準の再生装置で再生することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の一実施例による長時間用画像・音声圧縮装置の構成を示すブロック図である。
【図2】図1のビデオ圧縮制御部の構成を示すブロック図である。
【図3】図1のオーディオ圧縮制御部の構成を示すブロック図である。
【図4】図1のシステム符号化制御部の構成を示すブロック図である。
【図5】MPEGビデオに準拠した符号フォーマットの構成を示す図である。
【図6】MPEGオーディオに準拠した符号フォーマットの構成図を示す図である。
【図7】MPEGシステムに準拠したビデオ符号・オーディオ符号の多重化フォーマットの構成を示す図である。
【図8】図1のアプリケーションの処理動作を示すフローチャートである。
【図9】図1のインタフェース制御部の処理動作を示すフローチャートである。
【図10】図1のインタフェース制御部の処理動作を示すフローチャートである。
【図11】図1及び図2に示すビデオ圧縮制御部の処理動作を示すフローチャートである。
【図12】図1及び図2に示すビデオ圧縮制御部の処理動作を示すフローチャートである。
【図13】図1及び図2に示すビデオ圧縮制御部の処理動作を示すフローチャートである。
【図14】図1及び図3に示すシステム符号化制御部の処理動作を示すフローチャートである。
【図15】図1及び図3に示すシステム符号化制御部の処理動作を示すフローチャートである。
【図16】本発明の一実施例におけるパック生成処理を示すフローチャートである。
【図17】本発明の一実施例におけるパック生成処理を示すフローチャートである。
【図18】本発明の一実施例におけるパック生成処理を示すフローチャートである。
【図19】本発明の一実施例におけるパック生成処理を示すフローチャートである。
【図20】本発明の一実施例によるビデオ符号を分割する時の符号例を示す図である。
【図21】本発明の一実施例によるビデオ符号とオーディオ符号とが多重化されたシステム符号を分割する時の符号例示す図である。
【図22】本発明の一実施例において分割したファイルを1つにまとめて再生する場合の動作を説明するための図である。
【符号の説明】
1 アプリケーション
2 インタフェース制御部
3 圧縮・符号化部
4 ビデオ圧縮制御部
5 オーディオ圧縮制御部
6 システム符号化制御部
7 ビデオバッファ
8 オーディオバッファ
9 システムバッファ
41 YUV変換部
42 動き検索部
43 DCT部
44 量子化部
45 動き補償部
46 逆DCT部
47 逆量子化部
48 可変長符号化部
51 原音切出し部
52 32の周波数帯域写像部
53 量子符号化部
54 フレーム形成部
55 心理聴覚部
61 ビデオパック生成部
64 オーディオパック生成部
63 タイムスタンプ生成部
64 パディングパック生成部

Claims (8)

  1. 生成可能なファイルサイズに上限のあるシステム上で長時間の記録を行い、かつアプリケーションプログラムの実行によって画像や音声の圧縮符号化や記録に対する制御を行う長時間用画像・音声圧縮装置であって、前記アプリケーションプログラムから指定された符号量とフレーム数と時間とのうちのいずれかの単位の予め通知または算出される分割単位でMPEG(Moving Pictures ExpertGroup)符号を分割する分割手段を有し、
    前記分割手段は、前記画像を符号化したビデオ符号と前記音声を符号化したオーディオ符号とを多重化するシステム符号のパックから始まるように前記MPEG符号を分割するよう構成するとともに、
    前記ビデオ符号の再生時刻を示すタイムスタンプと前記オーディオ符号の再生時刻を示すタイムスタンプとの差が1フレームの時間以上ありかつ前記ビデオ符号の再生時刻を示すタイムスタンプが前記オーディオ符号の再生時刻を示すタイムスタンプより小さい時に前記タイムスタンプの差に近似の値の時間分のビデオデータを出力させ、前記タイムスタンプとの差が1フレームの時間以上ありかつ前記ビデオ符号の再生時刻を示すタイムスタンプが前記オーディオ符号の再生時刻を示すタイムスタンプより小さくない時に前記タイムスタンプの差に近似の値の時間分のオーディオデータを出力させることで前記ビデオ符号の再生時刻を示すタイムスタンプと前記オーディオ符号の再生時刻を示すタイムスタンプとができるだけ近い値で始まるように前記MPEG符号を分割するよう構成したことを特徴とする長時間用画像・音声圧縮装置。
  2. 前記分割手段は、前記ビデオ符号がシーケンスヘッダから始まるように前記MPEG符号を分割するよう構成したことを特徴とする請求項記載の長時間用画像・音声圧縮装置。
  3. 前記分割手段は、前記オーディオ符号が少なくとも同期ワードとビットレートとサンプリング周波数とからなる情報を含むAAU(Audio Access Unit)ヘッダから始まるように前記MPEG符号を分割するよう構成したことを特徴とする請求項2記載の長時間用画像・音声圧縮装置。
  4. 前記分割手段は、前記MPEG符号において、前後の双方向のフレーム間符号から構成されるBピクチャが2つのファイルにまたがって参照しなくても良い構成となるように前記MPEG符号を分割するよう構成したことを特徴とする請求項1から請求項のいずれか記載の長時間用画像・音声圧縮装置。
  5. 生成可能なファイルサイズに上限のあるシステム上で長時間の記録を行い、かつアプリケーションプログラムの実行によって画像や音声の圧縮符号化や記録に対する制御を行う長時間用画像・音声圧縮方法であって、前記アプリケーションプログラムから指定された符号量とフレーム数と時間とのうちのいずれかの単位の予め通知または算出される分割単位でMPEG(Moving Pictures ExpertGroup)符号を分割するステップを有し、
    前記MPEG符号を分割するステップは、前記画像を符号化したビデオ符号と前記音声を符号化したオーディオ符号とを多重化するシステム符号のパックから始まるように前記MPEG符号を分割するとともに、
    前記ビデオ符号の再生時刻を示すタイムスタンプと前記オーディオ符号の再生時刻を示すタイムスタンプとの差が1フレームの時間以上ありかつ前記ビデオ符号の再生時刻を示すタイムスタンプが前記オーディオ符号の再生時刻を示すタイムスタンプより小さい時に前記タイムスタンプの差に近似の値の時間分のビデオデータを出力させ、前記タイムスタンプとの差が1フレームの時間以上ありかつ前記ビデオ符号の再生時刻を示すタイムスタンプが前記オーディオ符号の再生時刻を示すタイムスタンプより小さくない時に前記タイムスタンプの差に近似の値の時間分のオーディオデータを出力させることで前記ビデオ符号の再生時刻を示すタイムスタンプと前記オーディオ符号の再生時刻を示すタイムスタンプとができるだけ近い値で始まるように前記MPEG符号を分割するようにしたことを特徴とする長時間用画像・音声圧縮方法。
  6. 前記MPEG符号を分割するステップは、前記ビデオ符号がシーケンスヘッダから始まるように前記MPEG符号を分割するようにしたことを特徴とする請求項記載の長時間用画像・音声圧縮方法。
  7. 前記MPEG符号を分割するステップは、前記オーディオ符号が少なくとも同期ワードとビットレートとサンプリング周波数とからなる情報を含むAAU(Audio Access Unit)ヘッダから始まるように前記MPEG符号を分割するようにしたことを特徴とする請求項6記載の長時間用画像・音声圧縮方法。
  8. 前記MPEG符号を分割するステップは、前記MPEG符号において、前後の双方向のフレーム間符号から構成されるBピクチャが2つのファイルにまたがって参照しなくても良い構成となるように前記MPEG符号を分割するようにしたことを特徴とする請求項5から請求項7のいずれか記載の長時間用画像・音声圧縮方法。
JP2000277413A 2000-09-13 2000-09-13 長時間用画像・音声圧縮装置及びその方法 Expired - Fee Related JP3578069B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000277413A JP3578069B2 (ja) 2000-09-13 2000-09-13 長時間用画像・音声圧縮装置及びその方法
US09/950,789 US7061982B2 (en) 2000-09-13 2001-09-13 Long-hour video/audio compression device and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000277413A JP3578069B2 (ja) 2000-09-13 2000-09-13 長時間用画像・音声圧縮装置及びその方法

Publications (2)

Publication Number Publication Date
JP2002094384A JP2002094384A (ja) 2002-03-29
JP3578069B2 true JP3578069B2 (ja) 2004-10-20

Family

ID=18762744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000277413A Expired - Fee Related JP3578069B2 (ja) 2000-09-13 2000-09-13 長時間用画像・音声圧縮装置及びその方法

Country Status (2)

Country Link
US (1) US7061982B2 (ja)
JP (1) JP3578069B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040215873A1 (en) * 2002-12-13 2004-10-28 Chiyoko Matsumi Recording and reproducing system, recording apparatus, reproducing apparatus, record medium, recording and reproducing method, recording method, reproducing method, program and record medium
US7644170B2 (en) * 2003-08-11 2010-01-05 Teamon Systems, Inc. Communications system providing extensible protocol translation features and related methods
JP4547965B2 (ja) * 2004-04-02 2010-09-22 カシオ計算機株式会社 音声符号化装置、方法及びプログラム
JPWO2006064689A1 (ja) * 2004-12-16 2008-06-12 松下電器産業株式会社 無線通信システム
CN101902628B (zh) * 2005-04-26 2012-05-02 汤姆森许可贸易公司 同步流打包
US7734484B2 (en) * 2005-10-17 2010-06-08 Cfph, Llc Products and processes for managing life instruments
US8130841B2 (en) * 2005-12-29 2012-03-06 Harris Corporation Method and apparatus for compression of a video signal
EP2036204B1 (en) * 2006-06-29 2012-08-15 LG Electronics Inc. Method and apparatus for an audio signal processing
JP4851976B2 (ja) * 2007-03-28 2012-01-11 富士フイルム株式会社 動画圧縮装置およびその動作制御方法
US10694227B2 (en) * 2017-01-13 2020-06-23 Panasonic Intellectual Property Management Co., Ltd. Video transmission system and video transmission method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2107727C (en) * 1992-10-07 1999-06-01 Hiroaki Ueda Synchronous compression and reconstruction system
JPH07264144A (ja) * 1994-03-16 1995-10-13 Toshiba Corp 信号圧縮符号化装置および圧縮信号復号装置
US5671226A (en) * 1995-02-09 1997-09-23 Mitsubishi Denki Kabushiki Kaisha Multimedia information processing system
DE59601149D1 (de) * 1995-04-13 1999-02-25 Siemens Ag Verfahren und einrichtung zum speichern, suchen und abspielen von audiovisuellen informationen und datenfiles
JP3232243B2 (ja) 1996-06-07 2001-11-26 株式会社エヌ・ティ・ティ・データ マルチメディアデータ伝送方法およびシステム
JPH1079671A (ja) 1996-09-04 1998-03-24 Nippon Columbia Co Ltd 圧縮データ記憶装置
JPH11176083A (ja) 1997-12-12 1999-07-02 Hitachi Ltd 画像音声記録再生装置
JP3407287B2 (ja) * 1997-12-22 2003-05-19 日本電気株式会社 符号化復号システム
JP2000125257A (ja) 1998-10-16 2000-04-28 Toshiba Video Products Japan Kk 長時間記録再生装置
JP2000287169A (ja) * 1999-03-30 2000-10-13 Pioneer Electronic Corp 映像音声多重記録装置
JP3976979B2 (ja) 2000-02-21 2007-09-19 シャープ株式会社 画像編集装置
JP2002077919A (ja) 2000-08-25 2002-03-15 Toshiba Corp 動画像監視装置

Also Published As

Publication number Publication date
JP2002094384A (ja) 2002-03-29
US20020044609A1 (en) 2002-04-18
US7061982B2 (en) 2006-06-13

Similar Documents

Publication Publication Date Title
JP4311570B2 (ja) 再生装置、ビデオ復号装置および同期再生方法
US7343083B2 (en) Digital video signal record and playback device and method for selectively reproducing desired video information from an optical disk
US8131135B2 (en) MPEG picture data recording apparatus, MPEG picture data recording method, MPEG picture data recording medium, MPEG picture data generating apparatus, MPEG picture data reproducing apparatus, and MPEG picture data reproducing method
KR20010022752A (ko) 디지털 비디오 레코더용 트릭 플레이 신호 발생
JP3578069B2 (ja) 長時間用画像・音声圧縮装置及びその方法
US6947660B2 (en) Motion picture recording/reproduction apparatus
JP2894958B2 (ja) 画像復号化方式および装置
JP3748234B2 (ja) Mpegデータ記録方法
JP3671842B2 (ja) 符号圧縮化/データ変換装置及び符号圧縮化/データ変換方法
JP2003052040A (ja) Mpegデータ再生装置
JP3748243B2 (ja) Mpegデータ記録装置
JP3496714B2 (ja) 多重化装置、及び多重化方法
JP3748245B2 (ja) Mpegデータ記録装置
JP3748241B2 (ja) Mpegデータ記録方法
JP3748242B2 (ja) Mpegデータ記録方法
JP3748240B2 (ja) Mpegデータ記録方法
JP3748244B2 (ja) Mpegデータ記録装置
JP4148200B2 (ja) Mpeg画像データ記録装置及びmpeg画像データ記録方法
JP4192861B2 (ja) Mpeg画像データ記録装置及びmpeg画像データ記録方法
JP2007325304A (ja) Mpegデータ記録再生方法
JP2008005520A (ja) Mpegデータ記録再生装置
JP2004297829A (ja) Mpegデータ再生装置
JP2006054530A (ja) Mpeg画像データ記録装置及びmpeg画像データ記録方法
JP2005045698A (ja) 特殊再生用データ作成装置
JP2007336574A (ja) Mpegデータ記録再生装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040430

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040430

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040430

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040705

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070723

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080723

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090723

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100723

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110723

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110723

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees