JP4704972B2 - ストリーム編集方法及びストリーム編集装置 - Google Patents

ストリーム編集方法及びストリーム編集装置 Download PDF

Info

Publication number
JP4704972B2
JP4704972B2 JP2006200336A JP2006200336A JP4704972B2 JP 4704972 B2 JP4704972 B2 JP 4704972B2 JP 2006200336 A JP2006200336 A JP 2006200336A JP 2006200336 A JP2006200336 A JP 2006200336A JP 4704972 B2 JP4704972 B2 JP 4704972B2
Authority
JP
Japan
Prior art keywords
point
editing
frame
stream
edit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006200336A
Other languages
English (en)
Other versions
JP2008028793A (ja
Inventor
光浩 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2006200336A priority Critical patent/JP4704972B2/ja
Priority to US11/878,225 priority patent/US20080019664A1/en
Priority to EP20070112985 priority patent/EP1883072A3/en
Publication of JP2008028793A publication Critical patent/JP2008028793A/ja
Application granted granted Critical
Publication of JP4704972B2 publication Critical patent/JP4704972B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/038Cross-faders therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)

Description

本発明は、少なくとも音声データを含むデータストリームを編集するストリーム編集方法及びストリーム編集装置に関し、特に、圧縮したままのストリームに対応した編集を実行するためのストリーム編集方法及びストリーム編集装置に関する。
近年のデジタル技術の発展に伴い、MPEG(Moving Picture Experts Group)方式のようなデジタル方式の音声/画像圧縮ストリームをディスクに保存し再生する装置が実用化されている。このような装置のひとつにDVD(Digital Versatile Disk)レコーダやハードディスクレコーダがある。これらの装置では記録したストリームを別のディスクに保存する場合に、ストリームを分割して必要な部分を選択してつなぎ合わせることが行なわれる。通常はビデオのデコード画像を基準に編集を行う。しかしながら、ビデオとオーディオのストリームは時分割して記録されているため、編集後のストリームの接続箇所はオーディオやビデオのストリームに情報の欠落などが生じ、これによりノイズが発生する場合がある。
これに対し、特許文献1には、分割処理を行っても違和感を与える異音の発生や無音状態の発生の防止を図ったMPEG−2トランスポートストリームの編集方法及び装置が開示されている。この特許文献1に記載の編集方法においては、ランダムアクセス可能な記録媒体上に記録され、MPEG−2トランスポート方式によって時分割多重化圧縮されたビデオ信号とオーディオ信号データの編集を行う。この場合、分割編集時にGOP(Group of Pictures)を構成するビデオ情報データの境界となる編集位置で、ビデオ情報の途中でオーディオ情報が途中に存在する場合には、分割位置から前方のストリームには分割位置を跨ぐオーディオフレームデータが完全な構成となるようにビデオ情報を持つTSパケットをダミーTSパケットデータに書き換え、分割位置以降のストリームには分割位置でのビデオ情報の再生タイミングと一致するオーディオ情報TSパケットデータが現れるまでオーディオTSパケットをダミーTSパケットで上書きするものである。
また、特許文献2には、映像信号と音声信号のパケットがTS上の離れた位置に配置される構造で多重化されたトランスポートストリームデータを途中で分割するような編集を実行すると、映像信号のつながりのタイミングと音声信号のつながりのタイミングがずれ、分割処理後のトランスポートストリームデータの再生時にデコード不良となり、ユーザに違和感を与えるような異音の発生や無音状態を生じてしまうことを課題とした映像・音声信号編集方法が開示されている。この特許文献2に記載の編集方法においては、MPEG−2トランスポートストリーム方式によって時分割多重化圧縮された映像信号データと音声信号データの編集を行なう。この場合、GOPを構成する映像信号データの境界で分割編集したとき、分割された映像信号データ内に復号単位のデータ構造を満たさない音声信号データのトランスポートパケットが存在する場合に、該トランスポートパケットを、映像情報及び音声情報を持たないトランスポートパケットで置き換えて、上書き記録を行う。
特開2005−117556号公報 特開2004−336128号公報
しかしながら、この特許文献に記載されたデータ処理装置においては、オーディオデータの接続点でオーディオデータの連続性が途切れるためにノイズが発生するという問題点がある。この問題が発生する原因は、AV同期をとることを優先してオーディオデータが不連続になることに起因する。
すなわち、編集箇所におけるオーディオパケットを、特許文献1に記載のダミーパケットや、特許文献2に記載の、映像情報及び音声情報を持たないトランスポートパケットに置き換えられても、デコードの際には、これらのパケットは削除されるため、不連続なオーディオ・フレームが接続される結果となる。よって、上述のような編集では接続部のデータの不連続性に起因するノイズを防止することができないという問題点がある。
本発明に係るストリーム編集方法は、少なくとも音声データを含むデータストリームの当該音声データをデコードするステップと、デコードされた前記音声データにおいて、第1の編集点と前記第1の編集点より時間的に後の第2の編集点を接続する編集を行う場合には、前記第1の編集点を含むフレームと前記第2の編集点を含むフレームの内の一方は削除し他方は残して当該編集点の接続点を決定し、前記第1の編集点より時間的に少なくとも1フレーム前の第3の編集点から、前記接続点までをフェイドアウトしてフェイドアウトフレームとし、前記接続点から、前記第2の編集点より時間的に少なくとも1フレーム後の第4の編集点までをフェイドインしてフェイドインフレームとし、前記第1の編集点と前記第2の編集点とが、無音のフレームを介すことなく接続されるようにするステップと、前記フェイドアウトフレーム及び前記フェイドインフレームを有する編集フレームを生成し、再エンコードするステップと、を有するものである。
本発明においては、データストリームを途中で切断して終了する場合、切断した位置から開始させる場合、又は切断したストリームを接続する場合において、フェイドアウトさせて終了させるか、フェイドインしながら開始させるか、接続点でフェイドインしてフェイドアウトさせることでデータストリームが不連続となってもノイズを発生させることがない。
本発明に係る他のストリーム編集方法は、MPEG形式の映像データを少なくとも含むデータストリームの第1の編集点と前記第1の編集点より時間的に後の第2の編集点とを接続して編集するストリーム編集方法であって、前記第2の編集点までに含まれる最新の量子化マトリクスに関する情報を含む更新シーケンス情報を生成し、前記第2の編集点より時間的に前のイントラピクチャ又はGOPの先頭を検出し、前記更新シーケンス情報を挿入し、前記第1の編集点と第2の編集点とを接続した編集映像ストリームを生成するものである。
本発明においては、第1の編集点及び第2の編集点でデータストリームを接続する際に、第2の編集点までに含まれる最新の量子化マトリクス情報を含む更新シーケンス情報を生成して挿入するので、第2の編集点以降も正しく再生することができる。
本発明によれば、データストリームを編集した場合のオーディオ・フレームの不連続に起因するノイズを防止することができるストリーム編集方法及びストリーム編集装置を提供することができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。図1は、本発明の実施の形態にかかる編集装置を示すブロック図である。編集装置1は、AV分離部11、ビデオ処理部20、オーディオ処理部30、及びストリーム生成部12とを有する。AV分離部11には、例えばMPEG−2トランスポートストリーム(TS:Transport Stream)などのAV(Audio Video、Audio Visual)データが入力され、ビデオパケット、オーディオパケットを分離し、ビデオ処理部20へビデオパケットを、オーディオ処理部30へオーディオパケットを入力する。
ビデオ処理部20は、検出部21、更新シーケンス情報生成部22、シーケンス情報挿入部23、及びビデオ編集部24を有する。オーディオ処理部30は、編集点検出部31、編集フレーム生成部32、及びオーディオ編集部33を有する。
本実施の形態にかかる編集装置は、AVデータにおける第1の編集点(以下、A点という。)と、A点より時間的に後の第2の編集点(以下、B点という。)との間のデータは削除し、A点とB点とを繋ぐ編集をした際に、編集後のストリームを再生してもノイズが発生することなく、ユーザの聴感上又は視覚上、問題がない品質で再生することができる編集ストリームを生成するものである。先ず、オーディオの処理について説明する。なお、編集処理は、例えばCPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現されるものである。この場合、コンピュータプログラムは、記録媒体に記録して提供することも可能であり、また、インターネットその他の伝送媒体を介して伝送することにより提供することも可能である。
編集点検出部31は、ユーザ等外部から指示されたA点及びB点を含むオーディオ・フレームを検出する。図2は、オーディオの編集方法を説明するための図である。映像や音声にはそれぞれアクセスユニットと呼ばれる復号・再生の単位がある。ビデオであれば1フレームであり、オーディオであれば、1オーディオ・フレームである。この単位ごとに基準時間のどこで復号し、いつ再生すればよいかを示すタイムスタンプがPESパケット・ヘッダのPTS(Presentation Time Stamp)、DTS(Decoding Time Stamp)などに再生時刻情報として記述される。A点及びB点は、アクセスユニットを再生する時刻PTSなどの時間情報により指定される。以下の説明においては、第7フレームにA点、第14フレームにB点が含まれている場合について説明する。
編集点検出部31は、A点、B点を含むオーディオ・フレームを検出する。ここで、オーディオパケットにオーディオ・フレームの先頭がある場合にのみ、また、2以上のオーディオ・フレームが含まれる場合には先頭のオーディオ・フレームにのみ、そのオーディオ・フレームに対応するオーディオPTSがパケット・ヘッダに付加される。すなわち、オーディオ・フレーム全てに対応するPTSが付加されているわけではないため、各オーディオ・フレーム毎のPTSは、オーディオPTSと、各フレームの再生時間とから算出する。
編集フレーム生成部32は、A点より時間的に前の少なくとも1フレームをフェイドアウトしたフェイドアウトフレームと、B点より時間的に後の少なくとも1フレームをフェイドインしたフェイドイントフレームとを有する編集フレームを生成する。
図3は、編集フレーム生成部32の構成を示すブロック図である。編集フレーム生成部32は、無音生成部41、フレーム置換部42、デコーダ43、フェイドアウト/フェイドイン処理部44、及びエンコーダ45を有する。
無音生成部41は、記録されているオーディオのサンプリング周波数及び圧縮形式に合わせて無音のオーディオ・フレームを生成し、後述するエンコーダ45などによりエンコードする。または、無音のオーディオ・ストリームを生成してもよい。
フレーム置換部42は、編集点検出部31がA点、B点を含むオーディオ・フレームを検出したら、A点より数フレーム前(以下、これをA'点という。)と、B点より数フレーム後(以下、これをB'点という。)とを検出する。そして、A'点とB'点との間を、無音生成部41が生成した無音フレームに置き換える。A'点は、A点より2、3フレーム前、B'点は、B点より2、3フレーム後であることが好ましい。編集部分(編集フレーム)が合計4フレーム程度あれば、当該編集点における再生音が20Hz〜20kHzの可聴帯域に入らないようにすることができるためである。
デコーダ43は、図2(b)に示すようにA'点とB'点との間を無音フレームに置き換えたオーディオ・ストリームにおいて、少なくともA'−A点を含む近傍数フレーム、B'−B点を含む近傍数フレームをデコードする。なお、デコード後に上述の無音オーディオ・ストリームで置換するようにしてもよい。
フェイドアウト/フェイドイン処理部44は、先ず、A'点における音をフェイドアウトさせる。フェイドアウトは1フレーム又はそれ以下で行なうことができる。また、B'点の音をフェイドインさせる。このフェイドインも同じく、1フレーム又はそれ以下で行なうことができる。
エンコーダ45は、フェイドアウト/フェイドイン処理後のオーディオ・フレームを再エンコードする。
なお、本実施の形態においては、A点とB点とを繋ぐ処理について説明するが、A点が編集終了点、B点が編集開始点となる場合には、A点のみ又はB点のみ処理を行えばよい。すなわち、編集点がA点で終了する場合には、A点の数フレーム前のフレームをフェイドアウトフレームとし、それ以降のオーディオ・フレームを無音のフレームとする。また、B点を編集開始点とする場合には、B点の数フレーム後のフレームをフェイドアウトフレームとし、それ以前のオーディオ・フレームを無音のフレームに置き換えればよい。このような場合であっても、フェイドインフレーム又はフェイドアウトフレーム、及び無音フレームにより、編集点における雑音を防止することができる。
図1に戻ってオーディオ編集部33は、図2(c)に示すように、A点、B点の間の不要なデータを削除し、A点とB点とを繋ぐ処理をする。この場合、A点、B点を含むオーディオ・フレーム(第7フレーム、第14フレーム)のうち、一方を削除し、一方を残すようにすることで、編集後のストリームの再生時間の誤差がなくなるように調整を行なう。すなわち、A点、B点を含むオーディオ・フレームをいずれも削除すると、削除部分が本来指定されたA点とB点との間の時間間隔より長くなり、また、A点、B点を含むオーディオ・フレームをいずれも残すと、削除部分が指定された上記時間間隔より短くなる。そこで、A点、B点を含むオーディオ・フレームのうち一方のみを削除する。
図2に示す例では、A点は第7フレームに含まれ、B点は第14フレームに含まれている。この場合は、例えば図2(a)に示すように、A点を含む第7フレームからB点を含む第14フレームの1つ手前の第13フレームまでを削除し、図2(c)に示すように、第6'フレームと第14'フレームとが接続されたものとなる。なお、A点を含む第7フレームの1つ後の第8フレームからB点を含む第14フレームまでを削除するようにしてもよい。
また、本例においては、第5'フレームがフェイドインフレームとなり、第6'、第14'フレームが無音フレームとなり、続く第15'フレームがフェイドアウトフレームになっているが、第5'、第6'フレームの2フレームをフェイドインフレームとしてもよい。そして、続く第14'、15'フレームの2フレームをフェイドアウトフレームとしてもよい。この場合は、無音フレームを挿入しなくても、第4'、5'、14'、15'フレームからなる編集フレームにおいて5'、14'の接続点で可聴域のノイズが発生することを防止することができる。すなわち、二つの編集点を接続した接続点前後の複数フレームで可聴域のノイズが生成されないように編集できればよい。
更に、図2に示す例においては、A'点とB'点との間のフレーム全てを無音フレームに置き換えることとしているが、A点、B点の近傍のみ取り出して処理をすることも可能である。すなわち、A点であれば、A点を含むフレームから数フレームを抜き出し、B点であれば、B点を含むフレームから数フレームを抜き出し処理を行えばよい。
次に、ビデオ編集部について説明する。MPEG−2のビデオデータは、図4に示す階層構造を有する。最上位のシーケンス層は、複数のピクチャの集合であるGOPの繰り返しからなる。
GOPは、はそれぞれ符号化アルゴリズムの異なる3種類のピクチャ(I、P、B)の組み合わせにより構成されている。Iピクチャは画像内符号化により作られるもので、前画像からの予測符号化を行わない、すなわち、他の画像を参照せずにピクチャ内符号化を行なうものであり、復号に必要な全ての情報を有する画像である。Pピクチャは時間的に前のIピクチャ又はPピクチャを参照してピクチャ間予測符号化を行なうピクチャであり、したがって、ストリーム順で先行する既に復号化されたIピクチャ又はPピクチャの情報が必要な画像である。Bピクチャは、前後(過去及び未来)の2枚のIピクチャ又はPピクチャを使用し、双方向からの予測符号化を行うピクチャであり、復号には、ストリーム順で先行する既に復号化されたIピクチャ又はPピクチャ2画像の情報が必要な画像である。
そして、GOPには、順方向再生をした場合に先に表示されるGOPのピクチャ情報を必要とするとOpenGOPと、先に表示されるGOPのピクチャ情報を必要としないClosedGOPが存在し、ClosedGOPであればIピクチャから始まり、OpenGOPであればBピクチャから始まる。
ピクチャは高さ16画素の帯状の領域に分割される。これはスライスと呼ばれる。MPEG−2では、早送りや巻き戻し、エラー回復のためにシーケンスからスライスまでの各層の先頭に32ビットのスタートコードを与えている。スライスは1個以上のマクロブロックから構成される。マクロブロックは16×16画素の領域に対応し、それぞれ8×8 画素の4つの輝度ブロック(Y)と、2つの色差ブロック(Cb、Cr)の6つのブロックから構成される。輝度ブロックまたは色差ブロックは離散コサイン変換(DCT)により周波数成分に変換された後、低周波数のDCT係数から順に並べられる。
ストリームは、これら6階層ごとに細分化して伝送される。符号化データの伝送順序について説明する。先ず、先頭のシーケンス層としては、シーケンス層の開始同期コードであるSHC(Sequence Header Code)や、映像情報が映像として再生される際、一連の同じ属性をもつ画面(コマ)グループにおけるパラメータとして、再生映像の画面サイズに関するパラメータHSV(Horizontal Size Value)、VSV(Vertical Size Value)、及びARI(Aspect Ratio Information)が規定されている。HSVは、画像の横の画素数の下位12ビットであり、VSVは、画像の縦のライン数の下位12ビットである。
また、映像情報のビット・レートに関するパラメータとして、BRV(Bit Rate Value)が、また、映像情報が復号される際に用いられるバッファの容量に関するパラメータとして、VBSV(VBV Buffer Size Value)が規定されている。BRVは、発生ビット量に対する制限のためのビット・レートの下位18ビットを示し、VBSVは、発生符号量仮想バッファの大きさ(VBV)を決める値の下位10ビットを示す。
さらに、DCT(Discrete Cosine Transform)逆変換(画像伸長)時の量子化マトリックスの値として、LIQM(Load Intra Quantizer Matrix)、IQM(Intra Quantizer Matrix)、LNIQM(Load Intra Quantizer Matrix)、NIQM(Non Intra Quantizer Matrix)が規定されている。LIQMは、イントラMB用量子化マトリックスデータの存在を示す。IQMは、イントラMB用の量子化マトリクスの値を示す。LNIQMは、非イントラMB用量子化マトリクスのデータの存在を示す。NIQMは、非イントラMB用の量子化マトリクスの値を示す。本明細書においては、これらLIQM、IQM、LNIQM、NIQMを量子化マトリクス情報という。
続くGOP層は、GSC(Group Start Code)、TC(Time Code)、CG(Closed GOP)、BL(Broken Link)が規定される。GSCは、GOP開始同期コードであり、TCは、シーケンスの先頭からの時間を示すコードであり、CGは、GOP内の画像が他のGOPから独立再生可能なことを示すフラグであり、BLは、編集などによりGOP内の先頭のBピクチャが正確に再生できないことを示すフラグである。
次いで、ピクチャ層は、映像情報が映像として再生される際の1枚の画面(コマ)について規定するパラメータが規定されている。また、シーケンス層とは別に、このマトリクス層にも、量子化マトリクス情報LIQM、IQM、LNIQM、NIQMが規定されており、記述することができる。
スライス層には、例えば量子化特性など、1枚の画面を細分化した小画面に共通の情報が規定されている。また、続くマクロブロック層は、符号化の単位であり、1枚の画面(コマ)を所定のサイズに分割した画素ブロック(マクロブロック)について規定する、例えば動きベクトル値などのパラメータを含む。マクロブロック層には、マクロブロックの符号化モードを規定するためのパラメータとして、MBT(Macroblock Type)、マクロブロックの量子化ステップサイズを規定するためのQSC(Quantizer Scale Code)等が規定されている。また、直前のマクロブロックに対する動きベクトルに関連する符号化値であるMHC(Motion Horizontal Code)やMVC(Motion Vertical Code)が規定されている。最後のブロック層には変換係数そのものが格納される。
ここで、ビデオストリームを編集すると、編集後の接続点以降のシーケンス情報が接続点前のシーケンス情報と異なる場合に画像にノイズが発生し、正しいシーケンス情報に更新されるまでノイズを出し続けるという問題が生じる。
このような問題に対し、特開2005−33382号公報には、ランダムアクセス可能な記憶媒体上に記憶されたMPEGストリームデータの途中の部分をトリミングした際に、安定した再生を行なうことを目的とした編集装置が開示されている。MPEG−2ストリームは、MPEG−2データの先頭以降に続くMPEG−2データを、一連のシーケンスとして復号再生するために不可欠なビット・レート値や復号時の画像サイズ、圧縮方式などのシステム情報を持っていなければならない。
この公報に記載の技術においては、MPEG−2PSストリームのトリミング、すなわち、その途中を一部分除去(削除)する処理を行なう場合、削除終了位置に後続するデータの直前の位置に、上記一連のシーケンスを復号再生するためのシステム情報を含むデータを生成し付加している。
ここで、上述したように、シーケンス層には、量子化マトリクス情報が記録される。また、ピクチャ層にも量子化マトリクス情報が記録される。これらの量子化マトリクス情報がなければ、ビデオデータを適切にデコードすることができない。ところが、シーケンス層に含まれる各情報(以下、シーケンス情報という。)は、シーケンス層の開始同期コードSHC(Sequence Header Code)が現れるタイミングで、それごと更新されるものであるのに対し、ピクチャ層の上記量子化マトリクス情報は、必要に応じて付加されるものである。以下、このピクチャ層に付加される量子化マトリクス情報を更新量子化マトリクス情報という。
上記公報の編集方法においては、B点の直前のシーケンス層の情報を検索し、シーケンス情報を付加することで、B点以降の再生を可能とするものである。しかし、シーケンス層とB点との間のピクチャ層に更新量子化マトリクス情報がある場合、更新量子化マトリクス情報を使用しなければB点以降の再生をすることができない。
すなわち、上記公報では、更新量子化マトリクス情報が考慮されていないため、編集時の接続点より前のシーケンス情報が接続点の後のシーケンス情報として使用するための正しい情報でない場合がある。これに起因し、不完全なストリームによるエラーを補正するためにノイズの状態を継続する課題を解決することはできない。
そこで、本実施の形態におけるビデオ編集部は、シーケンス情報をB点の前に付加する際に、更新量子化マトリクス情報があった場合には、更新量子化マトリクス情報で量子化マトリクス情報を更新してから付加するものである。このことにより、B点以降の再生を正しく行なうことができる。
図1に戻って、検出部21は、編集点のビデオPTSの検出と、後述する更新シーケンス情報の挿入位置の検出とを行なう。編集点のビデオPTSの検出では、上述のA点、B点のビデオPTSを検出する。更新シーケンス情報は、B点より時間的に前であってB点に最も近い挿入位置を検索する。挿入位置は、B点以前でB点に一番近いIピクチャか、GOPの先頭とすることができる。すなわち、B点以降を再生するために必要なピクチャを検索するもので、後述のビデオ編集部24における編集では当該ピクチャ以降のピクチャを残すことになる。なお、A点以降であってB点以前のピクチャは再生はしない。
更新シーケンス情報生成部22は、シーケンス層の量子化マトリクス情報を取得するためにシーケンス情報を収集するシーケンス情報収集部(不図示)と、ピクチャ層の更新量子化マトリクス情報を取得し、シーケンス情報の量子化マトリクス情報を更新量子化マトリクス情報に書き換えるシーケンス情報更新部(不図示)とを有する。シーケンス情報収集部は、シーケンススタートコードSHCを検出し、シーケンス層の情報であるシーケンス情報をそのまま抜き出し保存する。そして、シーケンススタートコードを検出する毎に、シーケンス情報を上書き保存していく。
シーケンス情報更新部は、シーケンス層、GOP層に続くピクチャ層に含まれる更新量子化マトリクス情報(LIQM、IQM、LNIQM、NIQM)が存在する場合、これを抜き出す。そして、既に保存されている最新のシーケンス情報の量子化マトリクス情報を、更新量子化マトリクス情報で書き換え、更新シーケンス情報とする。
シーケンス情報挿入部23は、検出部21からの挿入位置の通知を受け取ると、更新シーケンス情報生成部22が更新した更新シーケンス情報を、当該挿入位置に挿入する。本実施の形態においては、シーケンス情報のみならず、ピクチャ層に存在する更新量子化マトリクス情報も考慮してシーケンス情報を更新するため、B点以降の再生を正しく行なうことができる。
ビデオ編集部24は、A点とB点とを接続し、その間の不要なストリームを削除する。ここで、上述したように、A点以降でB点までのストリームを削除するのではなく、A点以降で挿入位置までのピクチャを削除する。
ストリーム生成部12は、以上のようにしてビデオ編集部24で編集された編集ビデオストリームと、オーディオ編集部33で編集された編集オーディオ・ストリームとを受け取り、編集したAVストリーム(編集ストリーム)を生成する。
次に、本実施の形態にかかるストリーム編集装置の動作について説明する。図5乃至図7は、ストリーム編集方法を説明する図であって、図5は、ストリーム編集装置の全体動作を説明する動作説明図、図6は、更新シーケンス情報の生成方法の詳細を示す図、図7は、オーディオ・ストリームの編集方法の詳細を示す図である。
ここで、図5に示すステップS1乃至S5のビデオストリームの編集動作と、ステップS7のオーディオ・ストリームの編集動作は並列的に実行される。ビデオストリームの編集においては、更新シーケンス情報の生成(ステップS1)と、ビデオPTS、挿入位置検出(ステップS2)とが並列的に実行される。
更新シーケンス情報生成部22は、AV分離部11からビデオストリームが入力されると更新シーケンス情報を生成する(ステップS1)。更新シーケンス情報は、上述したように、シーケンス層のシーケンス情報と、ピクチャ層の更新量子化マトリクス情報とから生成される。ここで、本実施の形態においては、更新シーケンス情報生成部22は、編集点のA点、B点に拘わらず、ビデオストリームが入力されると更新シーケンス情報を生成するものとして説明するが、これに限るものではない。すなわち、B点以前の最新の更新シーケンス情報を生成することができればよいので、例えば、検出部21によりB点のPTS情報の供給を受けてから、B点以前の最新の更新シーケンス情報を生成するようにしてもよい。
検出部21は、更新シーケンス情報の生成と並列して、パケット・ヘッダに付加されたビデオPTSを読出し、挿入位置の検出を行なう(ステップS2)。ここで、外部から指定されたA点、B点のビデオPTSが存在しない場合がある。この場合、検出部21は、A点、B点より前であって最も近いPTSを検出し、ピクチャの再生時間から、A点、B点に一致するPTSとなるピクチャを割り出す。
A点、B点のビデオPTSを検出し、そのピクチャを特定したら、A点とB点との間であって、B点に最も近いIピクチャ又はGOPの先頭ピクチャ(Iピクチャ又はBピクチャ)を検索する。以下、このピクチャを挿入ピクチャという。
検出部21が挿入ピクチャを検出したら、更新シーケンス情報を挿入する(ステップS3)。更新シーケンス情報はシーケンス層の情報であるので、挿入ピクチャのピクチャ層の前にGOP層と共に挿入する。ここで、GOP層としては上述したように4つの情報GSC、TC、CG、BLが規定されているが、これらの情報はシーケンス情報挿入部23が生成する。そして、更新シーケンス情報、生成したGOP層を挿入ピクチャの前に挿入する。
そして、ビデオ編集部24に、更新シーケンス情報が挿入されたビデオストリームが供給される。ビデオ編集部24は、A点とB点とを繋ぐ編集処理をする(ステップS4、S5)。編集処理は、A点、挿入ピクチャの前でストリームを切断して接続する。
次に更新シーケンス情報の生成処理(ステップS1)について詳細に説明する。図6に示すように、ビデオストリームが検出されると(ステップS11)、シーケンス情報の収集・保存処理(ステップS12〜S14)と、更新量子化マトリクス情報の取得・書き換え処理(ステップS15〜S17)とが並列的に実行される。
シーケンス情報の収集・保存処理では、シーケンススタートコードSHCを検索する(ステップS12)。シーケンススタートコードSHCが検出されたらシーケンス層を抜き出し(ステップS13)、図示せぬメモリに保存する(ステップS14)。そして、検出部21により挿入位置(挿入ピクチャ)が検出されるまで(ステップS19)、ステップS12からの処理を繰り返す。
一方、更新量子化マトリクス情報の取得・書き換え処理では、ピクチャ層における更新量子化マトリクス情報を検索する(ステップS15)。更新量子化マトリクス情報が検出されたら、これを抜き出し(ステップS16)、この更新量子化マトリクス情報により、ステップS14でメモリに保存されているシーケンス情報の量子化マトリクス情報を更新する。そして、検出部21により挿入位置が検出されるまで(ステップS19)、ステップS15からの処理を繰り返す。
挿入位置が検出されたら(ステップS19:Yes)、この時点でメモリに保存されているシーケンス情報を更新シーケンス情報としてシーケンス情報挿入部23に出力する。なお、更新シーケンス情報生成部22は、挿入位置が検出されたタイミングで更新シーケンス情報を出力するのではなく、ステップS14でシーケンス情報が保存されるか、又はステップS17にてシーケンス情報の書換えが行なわれた時点で逐次更新シーケンス情報を出力するようにしてもよい。シーケンス情報挿入部23は、検出部21から挿入位置の通知を受けた時点で更新シーケンス情報生成部22から受け取った最新の更新シーケンス情報を挿入ピクチャの前に挿入すればよい。
次に、以上のビデオ編集処理と同時に行なわれるステップS7のオーディオ編集処理について説明する。図7に示すように、オーディオ・ストリームを検出すると(ステップS31)、編集点検出部31は、先ず、オーディオ再生時刻情報としてのオーディオPTSを検出する(ステップS32)。
オーディオ・ストリームは、各オーディオ・フレーム毎のPTSが付加されているわけではない。そこで、先ず、(n−1)番目に付加されているオーディオPTSを、PTS_A(n−1)、n番目に付加されているオーディオ・フレームPTSを、PTS_A(n)とすると、
PTS_A(n−1)<A点のビデオPTS<PTS_A(n)
を満たす(n−1)番目のオーディオPTSを検出する。A点のビデオPTSは、例えば検出部21より受け取ることができる。
ここで、(n−1)番目のオーディオPTSに対応するオーディオ・フレームと、n番目のオーディオPTSに対応するオーディオ・フレームとの間には、複数のオーディオ・フレームが存在する。そこで、次に、編集点検出部31は、オーディオ・フレームの各再生時間を考慮し、ビデオの接続点PTSを含むオーディオ・フレームの検索を行なう(ステップS33)。(n−1)番目のオーディオPTSに対応するオーディオ・フレームから、(m−1)番目、m番目のオーディオ・フレームを再生するまでの時間をTm−1、Tとすると、
PTS_A(n−1)+Tm−1<A点のビデオPTS<PTS_A(n−1)+T
を満たすmを検索する。すなわち、(n−1)番目のオーディオPTSに対応するオーディオ・フレームから(m−1)番目のオーディオ・フレームを、A点を含むオーディオ・フレームとして検出することができる。B点を含むオーディオ・フレームも同様に検出することができる。
次いで、編集フレーム生成部32がステップS34〜S37の処理を実行する。先ず、A点、B点を含み、それぞれ各数フレームずつ前と後ろ(図2のA'点、B'点)の区間(編集区間)を、無音生成部41が生成した無音フレームに置換する(ステップS34)。次に、A−A'間、B−B'間を含むフレームをデコードする(ステップS35)。このとき編集区間全てをデコードしてもよい。
そして、A'点を例えば1フレームでフェイドアウトさせ、B'点より1フレーム前まで置き換えた無音のままとし、当該1フレームを使用してB'点にかけてB'の音をフェイドインさせる(ステップS36)。なお、2フレーム以上使用してフェイドイン、フェイドアウトさせてもよく、1フレーム未満であってもよい。なお、本実施の形態におけるステップS34においては、エンコードされた無音オーディオ・フレームに置換するものとして説明したが、デコード後のフェイドアウト乃至フェイドイン間を無音オーディオ・ストリームに置き換えるようにしてもよい。
次いでフェイドイン、フェイドアウト処理後のストリームをエンコードし(ステップS37)、オーディオ編集部33へ出力する。オーディオ編集部33は、オーディオ・ストリームをA点、B点を含むフレームで切断し(ステップS38)、不要なオーディオ・ストリームを削除する(ステップS39)。ここで、オーディオ・ストリームを切断する際は、上述したように、一方の編集点を含むフレームを削除し、他方の編集点を含むフレームを残すことで、編集時間の調節をする。最後にストリームを接続してオーディオ・ストリームの編集を終了する(ステップS40)。
本実施の形態においては、編集における接続点の前後のオーディオは無音に置き換えることで必要なオーディオの再生時間を維持しつつ接続点の音の急激な変化によるノイズを防止する。すなわち、編集部分のフレームがフェイドアウト、無音、フェイドインフレームからなるため、接続後のオーディオの再生時に急激な音の変化等によるノイズを防止することができる。
更に、編集時にMPEGのQスケール・マトリクスなどGOPやピクチャのヘッダの中で更新するシーケンスの更新情報を検出してシーケンス情報を再構築することにより、接続点以降の正しいシーケンス情報を得ることが可能となり画像のノイズを防止する。以上により、編集後のオーディオとビデオをユーザの聴感上又は視覚上、問題がない品質で再生をすることができる。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
本発明の実施の形態にかかる編集装置を示すブロック図である。 本発明の実施の形態にかかる編集装置におけるオーディオの編集方法を説明するための図である。 本発明の実施の形態にかかる編集装置における編集フレーム生成部の構成を示すブロック図である。 MPEG−2のビデオデータの階層構造を示す図である。 本発明の実施の形態にかかる編集装置の編集方法を説明する図である。 図5における更新シーケンス情報の生成方法の詳細を示す図である。 図5におけるオーディオ・ストリームの編集方法の詳細を示す図である。
符号の説明
11 AV分離部
12 ストリーム生成部
21 検出部
22 更新シーケンス情報生成部
23 シーケンス情報挿入部
24 ビデオ編集部
31 編集点検出部
32 編集フレーム生成部
33 オーディオ編集部
41 無音生成部
42 フレーム置換部
43 デコーダ
44 フェイドアウト/フェイドイン処理部
45 エンコーダ

Claims (13)

  1. 少なくとも音声データを含むデータストリームの当該音声データをデコードするステップと、
    デコードされた前記音声データにおいて、第1の編集点と前記第1の編集点より時間的に後の第2の編集点を接続する編集を行う場合には、前記第1の編集点を含むフレームと前記第2の編集点を含むフレームの内の一方は削除し他方は残して当該編集点の接続点を決定し、前記第1の編集点より時間的に少なくとも1フレーム前の第3の編集点から、前記接続点までをフェイドアウトしてフェイドアウトフレームとし、前記接続点から、前記第2の編集点より時間的に少なくとも1フレーム後の第4の編集点までをフェイドインしてフェイドインフレームとし、前記第1の編集点と前記第2の編集点とが、無音のフレームを介すことなく接続されるようにするステップと、
    前記フェイドアウトフレーム及び前記フェイドインフレームを有する編集フレームを生成し、再エンコードするステップと、
    を有するストリーム編集方法。
  2. 前記第1及び第2編集点は、外部から指定されることを特徴とする請求項1記載のストリーム編集方法。
  3. 前記編集は、
    前記第1の編集点を含むフレームから前記第2の編集点を含むフレームの時間的に1つ前までのフレームのそれぞれを削除し、
    前記第1の編集点を含むフレームの時間的に1つ前のフレームと前記第2の編集点を含むフレームとを接続する
    ことを特徴とする請求項1又は2記載のストリーム編集方法。
  4. 前記編集は、
    前記第1の編集点を含むフレームの時間的に1つ後のフレームから、前記第2の編集点を含むフレームとまでのフレームのそれぞれを削除し、
    前記第1の編集点を含むフレームと前記第2の編集点を含むフレームの時間的に1つ前のフレームとを接続する
    ことを特徴とする請求項1又は2記載のストリーム編集方法。
  5. 前記データストリームはMPEG(Moving Picture Experts Group)形式の映像データを含み、当該データストリームにおいて、第1の編集点と前記第1の編集点より時間的に後の第2の編集点とを接続して編集するものであって、
    前記映像データの前記第2の編集点までに含まれる最新の量子化マトリクスに関する情報を含む更新シーケンス情報を生成し、
    前記映像データにおける前記第2の編集点より時間的に前のイントラピクチャ又はGOP(Group of Pictures)の先頭を検出し、前記更新シーケンス情報を挿入し、
    前記第1の編集点と第2の編集点とを接続した編集映像ストリームを生成し、
    前記エンコーダによりエンコードされた編集音声ストリーム及び前記編集映像ストリームから編集データストリームを生成する
    ことを特徴とする請求項1記載のストリーム編集方法。
  6. シーケンス層及びピクチャ層の情報を参照して前記更新シーケンス情報を生成する
    ことを特徴とする請求項5記載のストリーム編集方法。
  7. 前記更新シーケンス情報の生成は、
    前記映像ストリームの前記第2の編集点までに付加されるもののうち最新のシーケンス層に含まれる少なくとも量子化マトリクスに関する情報をシーケンス情報として抜き出し、
    前記最新のシーケンス層から前記第2の編集点までの間のピクチャ層に、更新された量子化マトリクスに関する情報がある場合にはこれを抜き出して前記シーケンス情報を書き換える
    ことを特徴とする請求項6記載のストリーム編集方法。
  8. 前記映像データにおける前記第1の編集点及び第2の編集点の再生時刻情報に基づき前記音声データにおける前記第1の編集点及び第2の編集点を含むフレームを検索し、前記編集フレームを生成する
    ことを特徴とする請求項5記載のストリーム編集方法。
  9. 少なくとも音声データを含むデータストリームを編集するストリームの音声データをデコードするデコーダと、
    デコードされた前記音声データにおいて、第1の編集点と前記第1の編集点より時間的に後の第2の編集点を接続する編集を行う場合には、前記第1の編集点を含むフレームと前記第2の編集点を含むフレームの内の一方は削除し他方は残して当該編集点の接続点を決定し、前記第1の編集点より時間的に少なくとも1フレーム前の第3の編集点から、前記第1の編集点と前記第2の編集点との接続点までをフェイドアウトしてフェイドアウトフレームとし、前記接続点から前記第2の編集点より時間的に少なくとも1フレーム後の第4の編集点までをフェイドインしてフェイドインフレームとし、前記第1の編集点と前記第2の編集点とが無音のフレームを介すことなく接続されるようにし、前記フェイドアウトフレーム及び/又は前記フェイドインフレームを有する編集フレームを生成するフレーム編集部と、
    前記編集フレームを再エンコードするエンコーダとを有するストリーム編集装置。
  10. 前記第1及び第2編集点は、外部から指定される
    ことを特徴とする請求項9記載のストリーム編集装置。
  11. 前記データストリームはMPEG形式の映像データを含み、当該データストリームにおいて、第1の編集点と前記第1の編集点より時間的に後の第2の編集点とを接続して編集するものであって、
    前記映像データにおける前記第2の編集点までに含まれる最新の量子化マトリクスに関する情報を含む更新シーケンス情報を生成する更新情報生成部と、
    前記映像データにおける前記第2の編集点より時間的に前のイントラピクチャ又はGOPの先頭を検出し、前記更新シーケンス情報を挿入する更新情報挿入部と、
    前記第1の編集点と第2の編集点とを接続した編集映像ストリームを生成する編集映像ストリーム生成部と、
    前記エンコーダによりエンコードされた編集音声ストリーム及び前記編集映像ストリームから編集データストリームを生成する編集データストリーム生成部とを有する
    ことを特徴とする請求項9記載のストリーム編集方法。
  12. 前記更新情報生成部は、シーケンス層及びピクチャ層の情報を参照して前記更新シーケンス情報を生成する
    ことを特徴とする請求項11記載のストリーム編集装置。
  13. 前記更新情報生成部は、前記第2の編集点前までに付加されるもののうち最新のシーケンス層に含まれる少なくとも量子化マトリクスに関する情報をシーケンス情報として抜き出し、当該最新のシーケンス層から前記第2の編集点までの間のピクチャ層に、更新された量子化マトリクスに関する情報がある場合にはこれを抜き出して前記シーケンス情報を書き換える
    ことを特徴とする請求項11記載のストリーム編集装置。
JP2006200336A 2006-07-24 2006-07-24 ストリーム編集方法及びストリーム編集装置 Expired - Fee Related JP4704972B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006200336A JP4704972B2 (ja) 2006-07-24 2006-07-24 ストリーム編集方法及びストリーム編集装置
US11/878,225 US20080019664A1 (en) 2006-07-24 2007-07-23 Apparatus for editing data stream
EP20070112985 EP1883072A3 (en) 2006-07-24 2007-07-24 Apparatus for editing data stream

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006200336A JP4704972B2 (ja) 2006-07-24 2006-07-24 ストリーム編集方法及びストリーム編集装置

Publications (2)

Publication Number Publication Date
JP2008028793A JP2008028793A (ja) 2008-02-07
JP4704972B2 true JP4704972B2 (ja) 2011-06-22

Family

ID=38626321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006200336A Expired - Fee Related JP4704972B2 (ja) 2006-07-24 2006-07-24 ストリーム編集方法及びストリーム編集装置

Country Status (3)

Country Link
US (1) US20080019664A1 (ja)
EP (1) EP1883072A3 (ja)
JP (1) JP4704972B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290768A (ja) * 2008-05-30 2009-12-10 Toshiba Corp 映像処理装置および映像処理方法
JP5463100B2 (ja) * 2009-08-21 2014-04-09 Necパーソナルコンピュータ株式会社 編集装置、制御方法及びプログラム
JP5504761B2 (ja) * 2009-09-01 2014-05-28 富士通株式会社 受信装置、及びその使用方法
US9355683B2 (en) * 2010-07-30 2016-05-31 Samsung Electronics Co., Ltd. Audio playing method and apparatus
US9008591B2 (en) 2012-06-22 2015-04-14 Ati Technologies Ulc Remote audio keep alive for wireless display
JP6742515B2 (ja) * 2017-05-17 2020-08-19 三菱電機株式会社 符号化映像再生装置および符号化映像再生方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169301A (ja) * 1997-08-08 1999-03-09 Sony Corp 復号方法及び復号再生装置、並びに記録媒体
JP2000243065A (ja) * 1999-02-19 2000-09-08 Sony Corp オーディオデータ処理装置
JP2001142498A (ja) * 1999-09-01 2001-05-25 Sony Corp ディジタル信号処理装置および処理方法、ディジタル信号記録装置および記録方法、並びに記録媒体
JP2001197424A (ja) * 2000-01-13 2001-07-19 Matsushita Electric Ind Co Ltd 映像編集装置、映像編集方法及びそのプログラムを記録した記録媒体
JP2002232827A (ja) * 1999-12-21 2002-08-16 Matsushita Electric Ind Co Ltd 映像音声編集システム
JP2002281458A (ja) * 2001-03-19 2002-09-27 Matsushita Electric Ind Co Ltd 画像情報復号化再生装置および画像情報復号化再生方法
JP2005057493A (ja) * 2003-08-04 2005-03-03 Sharp Corp データ処理装置及びそれを備えた編集装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6262777B1 (en) * 1996-11-15 2001-07-17 Futuretel, Inc. Method and apparatus for synchronizing edited audiovisual files
WO1999014757A2 (en) * 1997-09-17 1999-03-25 Matsushita Electric Industrial Co., Ltd. Video data editing apparatus, optical disc for use as a recording medium of a video data editing apparatus, and computer-readable recording medium storing an editing program
US6104441A (en) * 1998-04-29 2000-08-15 Hewlett Packard Company System for editing compressed image sequences
US6633673B1 (en) * 1999-06-17 2003-10-14 Hewlett-Packard Development Company, L.P. Fast fade operation on MPEG video or other compressed data
US20010004417A1 (en) * 1999-12-21 2001-06-21 Ageishi Narutoshi Video editing system
US7388995B2 (en) * 2003-05-21 2008-06-17 Silicon Integrated Systems Corp. Quantization matrix adjusting method for avoiding underflow of data
JP4464101B2 (ja) * 2003-10-10 2010-05-19 キヤノン株式会社 トランスポートストリーム編集方法及び装置
US9715898B2 (en) * 2003-12-16 2017-07-25 Core Wireless Licensing S.A.R.L. Method and device for compressed-domain video editing
US7117147B2 (en) * 2004-07-28 2006-10-03 Motorola, Inc. Method and system for improving voice quality of a vocoder

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169301A (ja) * 1997-08-08 1999-03-09 Sony Corp 復号方法及び復号再生装置、並びに記録媒体
JP2000243065A (ja) * 1999-02-19 2000-09-08 Sony Corp オーディオデータ処理装置
JP2001142498A (ja) * 1999-09-01 2001-05-25 Sony Corp ディジタル信号処理装置および処理方法、ディジタル信号記録装置および記録方法、並びに記録媒体
JP2002232827A (ja) * 1999-12-21 2002-08-16 Matsushita Electric Ind Co Ltd 映像音声編集システム
JP2001197424A (ja) * 2000-01-13 2001-07-19 Matsushita Electric Ind Co Ltd 映像編集装置、映像編集方法及びそのプログラムを記録した記録媒体
JP2002281458A (ja) * 2001-03-19 2002-09-27 Matsushita Electric Ind Co Ltd 画像情報復号化再生装置および画像情報復号化再生方法
JP2005057493A (ja) * 2003-08-04 2005-03-03 Sharp Corp データ処理装置及びそれを備えた編集装置

Also Published As

Publication number Publication date
JP2008028793A (ja) 2008-02-07
EP1883072A3 (en) 2008-04-30
US20080019664A1 (en) 2008-01-24
EP1883072A2 (en) 2008-01-30

Similar Documents

Publication Publication Date Title
JP4816667B2 (ja) データ処理装置及び方法、ならびに編集システム及び方法
JP3491365B2 (ja) 符号化データ復号方法および復号装置
JP3932546B2 (ja) Mpegビデオ編集装置及びmpegビデオ編集方法
JP3900050B2 (ja) データ処理装置、ビデオカメラ及びデータ処理方法
US8676038B2 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
US20080044156A1 (en) MPEG picture data recording apparatus, MPEG picture data recording method, MPEG picture data recording medium, MPEG picture data generating apparatus, MPEG picture data reproducing apparatus, and MPEG picture data reproducing method
JP4704972B2 (ja) ストリーム編集方法及びストリーム編集装置
JP4737003B2 (ja) 編集装置、編集方法、編集プログラムおよび編集システム
JP2008010110A (ja) ファイル分割装置、ファイル分割方法及びファイル分割プログラム
US6683911B1 (en) Stream editing apparatus and stream editing method
KR100852803B1 (ko) 녹화 재생 편집 장치
JPH1169301A (ja) 復号方法及び復号再生装置、並びに記録媒体
US6643453B1 (en) Motion picture recording/reproduction apparatus
JP3718498B2 (ja) 動画像記録再生方法
JP3510783B2 (ja) 動画像記録再生方法及び動画像記録再生装置
JP2002094384A (ja) 長時間用画像・音声圧縮装置及びその方法
JP2001043616A (ja) 記録方法、記録媒体及び記録装置
WO2004036582A1 (ja) Avデータ記録方法、avデータ記録装置、データ記録媒体、プログラム並びにプログラム記録媒体
JP3876943B2 (ja) ストリーム編集装置および方法、並びに、ストリーム復号装置および方法
JP4227604B2 (ja) 動画像再生装置及び記録媒体
JP3695425B2 (ja) 再生装置
JP3896697B2 (ja) 非可逆圧縮データ編集装置
JP4342977B2 (ja) 記録再生装置、記録再生装置の制御方法、記録再生装置の制御プログラム、および記録再生装置の制御プログラムが格納された記録媒体
JP2003101956A (ja) 再生装置
JP2006121415A (ja) 動画符号化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110204

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110310

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees