JP3969649B2 - Video data processing system - Google Patents

Video data processing system Download PDF

Info

Publication number
JP3969649B2
JP3969649B2 JP2002322655A JP2002322655A JP3969649B2 JP 3969649 B2 JP3969649 B2 JP 3969649B2 JP 2002322655 A JP2002322655 A JP 2002322655A JP 2002322655 A JP2002322655 A JP 2002322655A JP 3969649 B2 JP3969649 B2 JP 3969649B2
Authority
JP
Japan
Prior art keywords
video data
data
video
divided
division
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002322655A
Other languages
Japanese (ja)
Other versions
JP2004159079A (en
Inventor
真太郎 渡辺
冬 于
靖夫 三部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2002322655A priority Critical patent/JP3969649B2/en
Publication of JP2004159079A publication Critical patent/JP2004159079A/en
Application granted granted Critical
Publication of JP3969649B2 publication Critical patent/JP3969649B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、映像データを分割し、分割した映像データを分散して圧縮処理するための技術に関する。
【0002】
【従来の技術】
ブロードバンドの普及とビデオのデジタル化の進展により、ビデオなどの映像データをネットワーク上で配信するサービスが展開されている。
このサービスを行うに際しては、配信する映像データに対してトランスコーディング処理が行われる。このトランスコーティング処理は、図17に示すように、コンピュータにより、フォーマットAの圧縮ビデオデータを伸張し、非圧縮の「画像データ」と「音声データ」を得た後、得られたデータを再圧縮して他のフォーマットBのビデオデータに変換する処理である。
【0003】
このトランスコーディング処理を行う場合、映像データの大容量・高画質化に伴い処理の負荷が大きくなる反面、この処理を高速に行い、かつ分割された映像を結合させた際に、高画質かつ高音質な映像データが得られるようにする必要がある。
【0004】
このような要望を満たすため、トランスコーディングの全ての処理を1台のサーバで行うシステムが知られている。
しかし、このような処理では、処理速度はサーバの性能に依存することとなるため、処理時間を短縮するためには高い処理能力を持ったサーバを用意しなければならないという問題がある。
【0005】
このトランスコーディングの処理時間の短縮に対する有効な方法として複数のコンピュータ端末により分散処理を行うことも考えられる。
このような分散処理の一般技術としては、例えば、ネットワークで接続された複数のコンピュータシステム間で、各コンピュータシステムの負荷状況やシステム特性に応じてジョブやタスクを自動的に分散させるシステムが既に知られている(例えば、特許文献1及び特許文献2)。
また、MPEG(Moving Picture Expert Group)形式のビデオデータストリームを、クライアントが処理可能なサーバに対してジョブを単純に振り分けることでMPEG形式のビデオストリームデータを並列して圧縮処理する技術が知られている(例えば、非特許文献1)。
また、グリッドコンピュータティング等の技術を利用して並列分散処理を行うことも知られている。
【0006】
【特許文献1】
特開平2−224169号公報(第1−3ページ、第3図)
【特許文献2】
特開2002−222251号公報(第2−3ページ、第2図)
【非特許文献1】
ジェフリー・ムーア(Jeffrey Moore)、ウィリアム・リー(William Lee)、スコット・ダーソン(Scott Dawson)著、「最適な並行MPEGエンコーディング(Optimal Parallel MPEG Encoding)、1995年12月10日、コーネル大学(Cornell University)、[平成14年10月31日検索]、インターネット<URL:http://www.cs.cornell.edu/Info/Projects/zeno/Projects/OPME/opme.report.html >
【0007】
【発明が解決しようとする課題】
しかし、ビデオのような時間的に連続した映像データでは、これを単純に時間軸で分割して並列的に分散処理すると、分割された映像データを再度結合させる際に、結合ポイント(分割ポイント)でノイズ音や画像ムラなど結合ノイズが発生してしまい、画質や音質が低下してしまうなどの問題があった。
【0008】
また、いわゆるパーソナルコンピュータなどのようにコンピュータ端末が廉価となっていること、またブロードバンドの普及によりこれらコンピュータ端末が容易にネットワークに接続できることから、これらの廉価なコンピュータを用いて高速かつ高品質な映像コンテンツを提供することが求められている。
【0009】
本発明は、上記課題及び問題点を解決するためになされたものであって、映像データを分割後に再結合しても、高品質な映像データを得ることができるとともに、映像データの分割処理が高速に行える仕組みを提供することを課題とする。
【0019】
本発明の第1の観点にかかる映像データ処理システムは、時間的に連続した映像データを分割する映像分割装置と、この分割装置と通信可能に構成され、分割された映像データを所定のフォーマットで圧縮する複数の圧縮装置により構成されたシステムであって、上記映像分割装置は、上記映像データを任意の分割ポイントで複数に分割する分割処理手段と、上記分割された各映像データを上記圧縮装置に対して送信し、上記複数の圧縮装置に対してデータの圧縮処理を分散処理させる送信指示手段と、を有し、上記圧縮装置は、上記映像データを構成する映像フレームの色又は動きベクトルの変化量に基づいて映像シーンの切替わり部分があるか否か判別し、映像シーンの切替わり部分がある場合に、当該切替わり部分で映像データを複数に分割する分割処理手段と、上記分割された映像データのうちの少なくとも一つを、他の圧縮装置に対して送信する送信処理手段と、他の圧縮装置から分割映像データを受信した場合は、当該受信した分割データのうち、保持している映像データと連続する映像データがあるか否か判別し、連続する映像データがある場合に、上記受信した分割映像データ保持している映像データとを結合させる映像結合処理手段と、上記保持している映像データ、上記受信した分割映像データ、及び上記映像結合処理手段により結合された映像データを、所定のフォーマットで圧縮する圧縮手段とを有することを特徴とする。
【0021】
【発明の実施の形態】
以下、図面を参照して本発明にかかる実施形態について説明する。
図1に本発明にかかる第1の実施形態の全体構成の概略を示す。
図1において、本実施形態にかかるトランスコーディングシステムは、映像データのマスターデータを保持するマスターコンテンツデータベース4と、マスターコンテンツデータベース4が保持している映像データを分割処理するスケジューリングサーバ1と、このスケジューリングサーバ1とLAN5などのネットワークを介して接続可能に構成された複数のトランスコードパーソナルコンピュータ(PC)2と、これらトランスコードPC2から提供されたトランスコードされたデータを再度結合して映像データとする結合サーバ3から構成されている。
【0022】
マスターコンテンツデータベース4は、映像データのマスターデータをデータベース化して保持するコンピュータ装置である。
このマスターコンテンツデータベース4に記憶されている映像データは、例えば、MPEGなどの所定のフォーマットにより圧縮されたデータとなっている。また、この映像データは、一般に再生を考慮して図2に示すように画像データと音声データの断片が交互に配列されており、この映像データが所定の記憶媒体(テープ、ディスク等)に保存され、スケジューリングサーバ1に提供されるようになっている。
【0023】
トランスコードPC2は、スケジューリングサーバ1により分割された映像データを所定のフォーマット(例えば、マスターコンテンツデータベース4に記憶されているデータとは別のフォーマット)に変換して圧縮する処理を行うコンピュータである。
このトランスコードPC2は、いわゆる汎用のパーソナルコンピュータであって、これに映像データを所定のフォーマットに変換、圧縮するためのコンピュータプログラムを搭載すると共に、LAN5に接続可能としたものである。
【0024】
結合サーバ3は、トランスコーディングされた分割映像データを再度結合させることにより映像データを作成する処理を行うコンピュータである。
この結合処理は、分割映像データに含まれるシーケンスコードなどの識別情報に基づいて、これを所定の順序に従って分割映像データを結合させることにより行うことができる。
【0025】
スケジューリングサーバ1は、本発明に係る映像データ処理装置を構成する。
スケジューリングサーバ1は、コンピュータにより構成され、CPU(Central Processing Unit)と、CPUが実行するコンピュータプログラムと、コンピュータプログラムや所定のデータ等を記憶するためのROM、RAMなどの内部メモリ及びハードディスクドライブなどの外部記憶装置及びCD―ROMなどの所定の記録媒体からデータを読み取るための外部ディスク装置などにより図3に示す機能ブロックを構成することができる。
図3に示した機能ブロックは、データ読取部11、データ伸張処理部12、音声データ処理部13、分割処理部14、送信指示部15から構成されている。
【0026】
データ読取部11は、マスターデータとしての映像データが記憶された所定の媒体からマスターデータとしての映像データを読み取る処理を行う。
このデータ読取部11は、例えば、CD−ROMやMO(magneto-optical disc)などの媒体を読み取る読取装置で構成することができる。
【0027】
データ伸張処理部12は、所定のフォーマットで圧縮されているマスターデータとしての映像データを伸張して、非圧縮の「画像データ」と「音声データ」を生成する処理を行う。
このデータの伸張処理は、元となるマスターデータのフォーマットの種類に応じてデータの伸張処理を行うことができる。
【0028】
音声データ処理部13は、マスターデータとしての映像データ中から音声データのみを取り出す処理を行う。
この処理は、例えば、音声データ処理部13が図2に示した映像データの中から、音声データのみを抽出して取り出すことにより行うことができる。
【0029】
分割処理部14は、音声データを取り出した後の映像データ、即ち図2に示した画像データを所定の単位で分割する処理を行う。
この分割処理は、画像データのうち所定のポイント(分割ポイント)を決めて、この分割ポイントで画像を分割する。なお、分割ポイントをどれくらい数、画像データのどの点に設定するかは任意であり、後述する第3〜第6のいずれかの実施形態の分割処理を適用してもよい。
【0030】
送信指示部15は、取り出された音声データ及び分割された各映像データをトランスコードPC2に対して送信して、複数のトランスコードPC2に対してデータの圧縮処理を分散処理させる処理を行う。
なお、この際各トランスコードPC2の処理能力を考慮して、適切な容量のデータを各トランスコードPC2に個別に送信して圧縮処理させてもよい。
【0031】
上述の第1の実施形態にかかるスケジューリングサーバ1が行う映像データ処理方法の一例について図4を参照して説明する。
図4において、まず、マスターコンテンツデータベース4からCD−ROMなどの媒体によりマスターデータとしての映像データが提供されると、データ読取部11が提供された媒体から所定フォーマットで圧縮されている映像データを読み取る(S101)。
【0032】
映像データの読み取りが完了すると、データ伸張処理部12は、圧縮されている映像データを伸張して「画像データ」と「音声データ」からなる映像データを取得する(S102)。
【0033】
映像データの伸張が完了すると、音声データ処理部13が、図5に示すように画像データと音声データとが交互に配置されている映像データVの中から音声データのみを取り出し、取り出した全ての音声データをデマルチプレクス(単一化)して一つのデータブロックSを作成する(S103)。
また、分割処理部14は、音声データが取り出された後の映像データ、即ち残りの画像データを所定の単位で分割して、複数の画像データブロックP1〜Pnを作成する(S104)。
【0034】
これらのデータブロックが作成されると、送信指示部15は、各データブロックをそれぞれ別のトランスコードPC2に送信して、所定フォーマットで圧縮するように指示して(S105)、処理を終了する。
これにより、図5に示すように、各トランスコーディングPC2は送信されたデータを所定のフォーマットで圧縮処理を行い、この圧縮された全てのデータを受け取った結合サーバ3がこれらのデータをマルチプレクス(多重化)することにより、映像データを得ることができる。
【0035】
このように上述の第1の実施形態によれば、音声データ処理部13により映像データ中から音声データのみを取り出して、これを一つのデータブロックとして画像データとは別に処理するようにしたことから、音声データを分割することにより生じる結合ポイントでのノイズの発生を無くすことができる。また、音声データは、画像データに比べて容量が小さいため、1台のトランスコードPC2でまとめて高速に処理することができる。
【0036】
次に本発明にかかる第2の実施形態について説明する。
第2の実施形態は、スケジューリングサーバ1が映像データ中の無音区間で映像データを分割するようにした例である。
なお、上述の第1の実施形態と同一の構成については同一の符号を付して説明を省略する。
本実施形態では、上述のスケジューリングサーバ1を図6に示すように、データ読取部11、データ伸張処理部12、分割処理部204、送信指示部15により構成する。
分割処理部204は、映像データ中の音声データが無い無音区間を抽出して、当該無音区間を映像データの分割ポイントとして上記映像データを複数に分割する処理を行う。なお、この無音区間は、図7に示すように、音声データの振幅が所定の閾値よりも小さい時間が所定時間継続する区間をいう。
【0037】
このように構成された第2の実施形態の映像データ処理方法について図8を参照して説明する。
図8において、まず、マスターコンテンツデータベース4からCD−ROMなどの媒体によりマスターデータとしての映像データが提供されると、データ読取部11が提供された媒体から所定フォーマットで圧縮されているデータを読み取る(S201)。
【0038】
データが読み取られると、データ伸張処理部12は、圧縮されているマスターデータを伸張して映像データを取得する(S202)。
【0039】
データの伸張が完了すると、分割処理部204が映像データ中に含まれる音声データの振幅を検知し、この振幅が所定の閾値よりも小さい無音区間を検出する(S203)。
無音区間が検出されると、分割処理部204は検出された無音区間を分割ポイントとして映像データを複数に分割する(S204)。
【0040】
映像データの分割が完了すると、送信指示部15は、各分割映像データをそれぞれ別のトランスコードPC2に送信して、所定フォーマットで圧縮するように指示して(S205)、処理を終了する。
【0041】
このように無音区間を映像データの分割ポイントとしたことから、分割映像データを結合サーバ3で結合させた際に、映像データの結合部分で発生する音声データのノイズを最小限に抑えることができる。
また、本実施形態によれば、音声データと画像データを分割する必要がないため、マスターコンテンツデータ又は出力コンテンツが、音声データと画像データに分割することが難しいフォーマット形式の場合に特に有効である。
【0042】
なお、上述の実施形態で、映像データを分割する前に、検出した無音区間についてローパスフィルターにより音声データの高周波成分を予め除去するようにしてもよい。これにより、分割部分(無音区間)での高周波ノイズを無くすことができ、より分割映像データの結合時における音声のノイズの発生を抑えることができる。
【0043】
次に、本発明にかかる第3の実施形態について説明する。
第3の実施形態は、映像データを分割する際に映像シーンの切替わり部分を検出し、この映像の切替わり部分を分割ポイントとする例である。
この場合には、上述の第2の実施形態の分割処理部204が、上述の処理に代えて映像データ中の映像シーンの切替わり部分を検出し、この切替わり部分を分割ポイントとして映像データを分割する。
この映像シーンの切替わりの検出は、図9に示すように、分割処理部204が、各映像フレームの色のヒストグラムを検出し、このヒストグラムの分布が急激に変化する部分を映像シーンの切替わり部分として検出してもよいし、また、映像データがMPEG形式のデータであれば、各映像フレームの動きベクトルのノルムの総和Sを計算し、このノルムSが急激に変化する映像フレーム部分を映像シーンの切替わり部分として検出するようにしてもよい。
【0044】
次に第3の実施形態にかかる映像データ処理方法の実施形態について図10を参照して説明する。
図10において、まず、マスターコンテンツデータベース4からCD−ROMなどの媒体によりマスターデータとしての映像データが提供されると、データ読取部11が提供された媒体から所定フォーマットで圧縮されている映像データを読み取る(S301)。
【0045】
映像データの読み取りが完了すると、データ伸張処理部12は、圧縮されているマスターデータを伸張して映像データを取得する(S302)。
【0046】
データの伸張が完了すると、分割処理部204が映像データ中の映像シーンの切替わり部分を検出する(S303)。
この映像シーンの切替わり検出は、上述映像フレームの色のヒストグラムに基づいて行ってもよいし、また各映像フレームの動きベクトルのノルムの総和から検出するようにしてもよい。
映像シーンの切替わりが検出されると、分割処理部204は検出された切替わり部分を分割ポイントとして映像データを複数に分割する(S304)。
【0047】
映像データの分割が完了すると、送信指示部15は、各分割映像データをそれぞれ別のトランスコードPC2に送信して、所定フォーマットで圧縮するように指示して(S305)、処理を終了する。
【0048】
このように第3の実施形態によれば、映像データ中の映像シーンの切替わり部分で映像データを分割するようにしたことから、分割された映像データを結合した際に発生する映像の画質ムラを減少させることができ、結合サーバ3側でも高画質な映像データを得ることができる。
【0049】
次に、本発明にかかる第4の実施形態について説明する。
第4の実施形態は、映像データをトランスコーディングする際に、元の圧縮映像データがMPEG形式の場合に、そのビットレート情報(圧縮率情報)を利用する例である。
この場合には、上述の第2の実施形態の分割処理部204が、図11に示すように、上述の処理に代えて元のMPEG形式の映像データの各映像フレームのビットレート情報を取得し、当該取得したビットレート情報が変化した部分を分割ポイントとして設定し、この分割ポイントで映像データを分割する処理を行うようにする。
【0050】
次に第4の実施形態にかかる映像データ処理方法について図12を参照して説明する。
図12において、まず、マスターコンテンツデータベース4からCD−ROMなどの媒体によりマスターデータとしての映像データが提供されると、データ読取部11が提供された媒体からMPEG形式で圧縮されている映像データを読み取る(S401)。
【0051】
映像データの読取が完了すると、データ伸張処理部12は、MPEG形式で圧縮されているマスターデータを伸張する(S402)。
【0052】
また、分割処理部204は、元のMPEG形式の映像データの各映像フレームのビットレート情報を取得し、このビットレートが変化するポイントを検出する(S403)。
ビットレートが変化するポイントが検出されると、分割処理部204は検出されたビットレートが変化するポイントを分割ポイントとして映像データを複数に分割する(S404)。
【0053】
映像データの分割が完了すると、送信指示部15は、各分割映像データをそれぞれ別のトランスコードPC2に送信して、上記各映像フレームのビットレートに応じて、元の映像フレームのビットレートと同じビットレートで圧縮するように指示して(S405)、処理を終了する。
【0054】
このように、元のMPEGデータのビットレート情報に従ってトランスコーディングを行うようにすれば、例えば、もともと動きの大きいシーンではビットレートを高く、動きの小さいシーンではビットレートを低く設定されているため、これに従うことで分割映像データを結合した際の映像データの画像のムラを抑え高画質な映像を得ることができる。
【0062】
次に、本発明にかかる第6の実施形態について説明する。
第6の実施形態は、映像データを分割する際、スケジューリングサーバ1側で任意に設定した分割ポイントに基づいて映像データを分割処理し、この分割処理された映像データを受け取った各トランスコードPC2側で、上述の実施形態3の処理を分散処理するようにした例である。
この実施形態では、分割処理部204が映像データ中の任意のポイントに映像データの分割ポイントを設定し、この分割ポイントで映像データを複数に分割する処理を行う。
【0063】
本実施形態にかかるスケジューリングサーバ1側の映像データ処理方法について図15を参照して説明する。
図15において、まず、マスターコンテンツデータベース4からCD−ROMなどの媒体によりマスターデータとしての映像データが提供されると、データ読取部11が提供された媒体から所定の形式で圧縮されている映像データを読み取る(S601)。
映像データが読み取りが完了すると、データ伸張処理部12は、圧縮されている映像データを伸張する(S602)。
【0064】
上述の処理が完了すると、分割処理部204は、任意の基準に基づいて映像データに分割ポイントを設定し、この設定した分割ポイントに基づいて映像データを分割する(S603)。
なお、この分割ポイントの設定は、例えば、分割処理部204が、上述の実施形態1又は実施形態4の分割方法に基づいて分割ポイント設定してもよい。
【0065】
そして、分割映像データの作成が完了すると、送信指示部15は、各分割映像データをそれぞれ別のトランスコードPC2に送信して、分割映像データの圧縮するように指示して(S604)、スケジューリングサーバ1側の処理を終了する。
【0066】
次に、スケジューリングサーバ1から送信された分割映像データを受信したトランスコードPC2側の処理について図16を参照して説明する。
図16において、トランスコードPC2は、スケジューリングサーバ1から送信された分割映像データを受信すると(S1601)、この分割映像データの映像シーンの切替わり部分を検出する(S1602)。
この映像シーンの切替わり部分の検出処理は、上述の実施形態3と同様の処理により検出することができる。
【0067】
トランスコードPC2は、検出処理の結果映像シーンの切替わり部分が存在していたか否か判別する(S1603)。
判別の結果、切替わり部分が存在していた場合には、トランスコードPC2は、分割映像データの端からその切替わり部分までの映像フレームデータを抽出し、これを次の又は直前の連続するデータを保持しているトランスコードPC2に対して転送する(S1604)。
なお、この際、トランスコードPC2が連続する分割映像データを受信した他のトランスコードPC2を特定できる場合には、当該トランスコードPCを特定してデータの転送を行ってもよい。
【0068】
また、トランスコードPC2に他のトランスコードPC2から転送された映像データがある場合には、これを受信して(S1605)、受信した映像データが現在トランスコードPC2が保持している分割映像データと連続する映像データか否か判別する(S1606)。
この判別処理は、例えば、分割映像データに付与されている分割フレームのコードなどを参照することにより、連続する映像フレームデータであるか否か判別するようにしてもよい。
【0069】
判別の結果、連続する映像データであると判別された場合には、トランスコードPC2は、受信した映像データと保持している映像データとを結合する(S1607)。
結合した映像データ又はS1606の処理で連続する映像データがないと判別された場合には、トランスコードPC2は、受信した映像データに対して所定のフォーマットで圧縮処理を行い(S1608)、圧縮された映像データを結合サーバ3へ提供して(S1609)、処理を終了する。
【0070】
このように上述の第6の実施形態によれば、上述の実施形態3の分割ポイントの検出処理まで複数のトランスコードPC2で分散して処理することができ、より高速にトランスコーディング処理を行うことができる。
【0071】
なお、各実施形態について個別に説明してきたが、上述の各実施形態の処理を適宜組み合わせて映像データの分割処理を行ってもよい。
例えば、実施形態1の画像データの分割処理を行う際に、上述の実施形態3〜6のいずれかの実施形態の分割処理を適用してもよい。また、第2の実施形態により処理された分割映像データに対して、上述の第4又は第6の実施形態の処理を適用して処理を行ってもよい。また、第3の実施形態により処理された分割映像データに対して、上述の第1、第4の実施形態の処理を適用して処理してもよい。また、第4の実施形態により処理された分割映像データに対して、上述の第1〜3或いは第6の実施形態の処理を適用してもよい。また、第5の実施形態により処理された分割映像データに対して、上述の第1の実施形態の処理を適用して処理してもよい。
【0072】
本実施形態のスケジューリングサーバ1用のコンピュータプログラムを、コンピュータ読み取り可能な媒体(FD、CD−ROM等)に格納して配布してもよいし、搬送波に重畳し、通信ネットワークを介して配信することも可能である。なお、スケジューリングサーバ1の各機能をOS(Operating System)が分担又はOSとアプリケーションプログラムの共同により実現する場合等には、OS以外の部分のみをコンピュータプログラムとして、またこのコンピュータプログラムをコンピュータ読み取り可能な媒体に格納したり、このコンピュータプログラムを配信等したりしてもよい。
【0073】
【発明の効果】
本発明によれば、画像及び音声のデータを劣化させることなく、映像データ分割処理を分散処理することができる。
【図面の簡単な説明】
【図1】 本発明にかかる第1の実施形態のシステム全体構成を示した図。
【図2】 実施形態にかかる映像データの概念的構成の一例を示した図。
【図3】 第1の実施形態にかかるスケジューリングサーバの機能ブロック図。
【図4】 第1の実施形態にかかるスケジューリングサーバの処理フローを示した図。
【図5】 第1の実施形態にかかる映像データの処理を概念的に示した図。
【図6】 第2の実施形態にかかるスケジューリングサーバの機能ブロック図。
【図7】 第2の実施形態にかかる映像データの分割ポイントを設定する際の処理を概念的に示した図。
【図8】 第2の実施形態にかかるスケジューリングサーバの処理フローを示した図。
【図9】 第3の実施形態にかかる映像データの分割ポイントを設定する際の処理を概念的に示した図。
【図10】 第3の実施形態にかかるスケジューリングサーバの処理フローを示した図。
【図11】 第4の実施形態にかかる映像データの分割ポイントを設定する際の処理を概念的に示した図。
【図12】 第4の実施形態にかかるスケジューリングサーバの処理フローを示した図。
【図13】 第5の実施形態にかかるスケジューリングサーバの処理フローを示した図。
【図14】 第5の実施形態にかかる結合サーバの処理フローを示した図。
【図15】 第6の実施形態にかかるスケジューリングサーバの処理フローを示した図。
【図16】 第6の実施形態にかかるトランスコードPCの処理フローを示した図。
【図17】 トランスコーディング処理の概念を示した図。
【符号の説明】
1 スケジューリングサーバ
2 トランスコードパーソナルコンピュータ(PC)
3 結合サーバ
4 マスターコンテンツデータベース
13 音声データ処理部
14 分割処理部
15 送信指示部
204 分割処理部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for dividing video data and distributing and compressing the divided video data.
[0002]
[Prior art]
With the spread of broadband and the progress of digitalization of video, services that distribute video data such as video over a network are being developed.
When performing this service, transcoding processing is performed on video data to be distributed. In this trans-coating process, as shown in FIG. 17, the compressed video data of format A is decompressed by a computer to obtain uncompressed “image data” and “audio data”, and then the obtained data is recompressed. Thus, the video data is converted into other format B video data.
[0003]
When this transcoding process is performed, the processing load increases with the increase in the volume and quality of the video data. On the other hand, when this process is performed at high speed and the divided videos are combined, the image quality is high. It is necessary to obtain sound quality video data.
[0004]
In order to satisfy such a demand, a system in which all the transcoding processes are performed by one server is known.
However, in such processing, since the processing speed depends on the server performance, there is a problem that a server having high processing capability must be prepared in order to shorten the processing time.
[0005]
As an effective method for shortening the transcoding processing time, it is conceivable to perform distributed processing by a plurality of computer terminals.
As a general technique for such distributed processing, for example, a system that automatically distributes jobs and tasks among a plurality of computer systems connected via a network according to the load status and system characteristics of each computer system is already known. (For example, Patent Document 1 and Patent Document 2).
Also known is a technique for compressing MPEG video stream data in parallel by simply assigning jobs to a server that can be processed by a client that can process MPEG (Moving Picture Expert Group) video data streams. (For example, Non-Patent Document 1).
It is also known to perform parallel and distributed processing using a technique such as grid computing.
[0006]
[Patent Document 1]
JP-A-2-224169 (page 1-3, FIG. 3)
[Patent Document 2]
Japanese Patent Laid-Open No. 2002-222251 (page 2-3, FIG. 2)
[Non-Patent Document 1]
Jeffrey Moore, William Lee, Scott Dawson, “Optimal Parallel MPEG Encoding, December 10, 1995, Cornell University ), [October 31, 2002 search], Internet <URL: http://www.cs.cornell.edu/Info/Projects/zeno/Projects/OPME/opme.report.html>
[0007]
[Problems to be solved by the invention]
However, for temporally continuous video data such as video, if this is simply divided on the time axis and distributed in parallel, then when the divided video data are recombined, a combination point (division point) As a result, noise such as noise and image unevenness is generated, and there is a problem that image quality and sound quality deteriorate.
[0008]
In addition, since computer terminals such as so-called personal computers are inexpensive, and these computer terminals can be easily connected to a network due to the spread of broadband, high-speed and high-quality video using these inexpensive computers. There is a need to provide content.
[0009]
The present invention has been made to solve the above-described problems and problems, and even when video data is recombined after division, high-quality video data can be obtained and video data division processing is performed. It is an issue to provide a mechanism that can be performed at high speed.
[0019]
A video data processing system according to a first aspect of the present invention is configured to divide temporally continuous video data, and to be communicable with the splitting device, and the divided video data in a predetermined format. A system constituted by a plurality of compression devices for compression, wherein the video dividing device includes a division processing unit that divides the video data into a plurality at arbitrary division points, and the compression device Transmission instruction means for distributing the data compression processing to the plurality of compression devices, and the compression device is adapted to determine the color or motion vector of a video frame constituting the video data. Based on the amount of change, it is determined whether there is a switching part of the video scene, and if there is a switching part of the video scene, a plurality of video data is stored in the switching part. A dividing process means for dividing at least one of the divided video data, transmission to be transmitted to the other compressor processing Means, and when receiving divided video data from another compression device, Recieved Among the divided data, there is video data that is continuous with the stored video data. If there is continuous video data, The received divided video data When Video combination processing means for combining the stored video data; the above Retained video data, The received divided video data, as well as the above Video merge processing Video data combined by means The Compression means for compressing in a predetermined format.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments according to the present invention will be described below with reference to the drawings.
FIG. 1 shows an outline of the overall configuration of the first embodiment according to the present invention.
In FIG. 1, the transcoding system according to the present embodiment includes a master content database 4 that holds master data of video data, a scheduling server 1 that divides video data held by the master content database 4, and this scheduling. A plurality of transcoded personal computers (PCs) 2 configured to be connectable to the server 1 via a network such as the LAN 5 and the transcoded data provided from the transcoded PC 2 are combined again to form video data. It is composed of a combined server 3.
[0022]
The master content database 4 is a computer device that stores master data of video data in a database.
The video data stored in the master content database 4 is data compressed in a predetermined format such as MPEG. In addition, as shown in FIG. 2, this video data is generally arranged with image data and audio data fragments alternately arranged in consideration of reproduction, and this video data is stored in a predetermined storage medium (tape, disk, etc.). And is provided to the scheduling server 1.
[0023]
The transcode PC 2 is a computer that performs processing of converting the video data divided by the scheduling server 1 into a predetermined format (for example, a format different from the data stored in the master content database 4) and compressing it.
The transcode PC 2 is a so-called general-purpose personal computer, which is equipped with a computer program for converting and compressing video data into a predetermined format and capable of being connected to the LAN 5.
[0024]
The combining server 3 is a computer that performs a process of creating video data by recombining the transcoded divided video data.
This combining process can be performed by combining the divided video data according to a predetermined order based on identification information such as a sequence code included in the divided video data.
[0025]
The scheduling server 1 constitutes a video data processing apparatus according to the present invention.
The scheduling server 1 is configured by a computer and includes a CPU (Central Processing Unit), a computer program executed by the CPU, an internal memory such as a ROM and a RAM for storing the computer program and predetermined data, a hard disk drive, and the like. The functional blocks shown in FIG. 3 can be configured by an external storage device and an external disk device for reading data from a predetermined recording medium such as a CD-ROM.
The functional block shown in FIG. 3 includes a data reading unit 11, a data expansion processing unit 12, an audio data processing unit 13, a division processing unit 14, and a transmission instruction unit 15.
[0026]
The data reading unit 11 performs processing for reading video data as master data from a predetermined medium in which video data as master data is stored.
The data reading unit 11 can be configured by a reading device that reads a medium such as a CD-ROM or MO (magneto-optical disc).
[0027]
The data decompression processing unit 12 decompresses video data as master data compressed in a predetermined format, and performs processing to generate uncompressed “image data” and “audio data”.
This data expansion process can be performed according to the format type of the original master data.
[0028]
The audio data processing unit 13 performs processing for extracting only audio data from video data as master data.
This process can be performed, for example, by the audio data processing unit 13 extracting and extracting only the audio data from the video data shown in FIG.
[0029]
The division processing unit 14 performs a process of dividing the video data after the audio data is extracted, that is, the image data shown in FIG. 2 into predetermined units.
In this division processing, a predetermined point (division point) is determined in the image data, and the image is divided at the division point. The number of division points and the number of points in the image data to be set are arbitrary, and the division processing according to any one of the third to sixth embodiments described later may be applied.
[0030]
The transmission instruction unit 15 transmits the extracted audio data and each divided video data to the transcode PC2, and performs a process of distributing the data compression processing to the plurality of transcode PC2.
At this time, in consideration of the processing capability of each transcode PC2, an appropriate amount of data may be individually transmitted to each transcode PC2 for compression processing.
[0031]
An example of the video data processing method performed by the scheduling server 1 according to the first embodiment will be described with reference to FIG.
In FIG. 4, first, when video data as master data is provided from a medium such as a CD-ROM from the master content database 4, the video data compressed in a predetermined format from the medium provided by the data reading unit 11 is displayed. Read (S101).
[0032]
When the reading of the video data is completed, the data expansion processing unit 12 expands the compressed video data and acquires video data composed of “image data” and “audio data” (S102).
[0033]
When the expansion of the video data is completed, the audio data processing unit 13 extracts only the audio data from the video data V in which the image data and the audio data are alternately arranged as shown in FIG. The audio data is demultiplexed (unified) to create one data block S (S103).
In addition, the division processing unit 14 divides the video data after the audio data is extracted, that is, the remaining image data by a predetermined unit, and creates a plurality of image data blocks P1 to Pn (S104).
[0034]
When these data blocks are created, the transmission instructing unit 15 transmits each data block to a different transcode PC 2 and instructs it to be compressed in a predetermined format (S105), and ends the process.
Thus, as shown in FIG. 5, each transcoding PC 2 compresses the transmitted data in a predetermined format, and the combining server 3 that has received all the compressed data multiplexes these data ( By multiplexing, video data can be obtained.
[0035]
As described above, according to the first embodiment described above, only the audio data is extracted from the video data by the audio data processing unit 13 and is processed separately from the image data as one data block. In addition, it is possible to eliminate the generation of noise at the coupling point caused by dividing the audio data. Also, since the audio data has a smaller capacity than the image data, it can be processed together at a high speed by a single transcode PC2.
[0036]
Next, a second embodiment according to the present invention will be described.
The second embodiment is an example in which the scheduling server 1 divides the video data in a silent section in the video data.
In addition, about the same structure as the above-mentioned 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
In the present embodiment, the scheduling server 1 described above includes a data reading unit 11, a data expansion processing unit 12, a division processing unit 204, and a transmission instruction unit 15, as shown in FIG.
The division processing unit 204 performs a process of extracting a silent section having no audio data in the video data and dividing the video data into a plurality of parts using the silent section as a division point of the video data. As shown in FIG. 7, the silent section refers to a section in which the time during which the amplitude of the audio data is smaller than a predetermined threshold continues for a predetermined time.
[0037]
A video data processing method of the second embodiment configured as described above will be described with reference to FIG.
In FIG. 8, first, when video data as master data is provided from a master content database 4 by a medium such as a CD-ROM, the data reading unit 11 reads data compressed in a predetermined format from the provided medium. (S201).
[0038]
When the data is read, the data expansion processing unit 12 expands the compressed master data to obtain video data (S202).
[0039]
When the data expansion is completed, the division processing unit 204 detects the amplitude of the audio data included in the video data, and detects a silent section in which the amplitude is smaller than a predetermined threshold (S203).
When the silent section is detected, the division processing unit 204 divides the video data into a plurality of parts using the detected silent section as a division point (S204).
[0040]
When the division of the video data is completed, the transmission instructing unit 15 transmits each divided video data to a different transcode PC 2 to instruct to compress the video data in a predetermined format (S205), and ends the process.
[0041]
Since the silent section is used as the video data division point in this way, when the divided video data is combined by the combining server 3, the noise of the audio data generated at the combined portion of the video data can be minimized. .
Also, according to the present embodiment, since it is not necessary to divide audio data and image data, it is particularly effective when the master content data or output content is in a format format that is difficult to divide into audio data and image data. .
[0042]
In the above-described embodiment, before dividing the video data, the high-frequency component of the audio data may be removed in advance by a low-pass filter for the detected silent section. As a result, high-frequency noise in the divided portion (silent section) can be eliminated, and generation of audio noise when the divided video data are combined can be further suppressed.
[0043]
Next, a third embodiment according to the present invention will be described.
The third embodiment is an example in which a video scene switching portion is detected when video data is divided, and the video switching portion is used as a division point.
In this case, the division processing unit 204 of the above-described second embodiment detects a switching portion of the video scene in the video data instead of the above-described processing, and the video data is determined using this switching portion as a division point. To divide.
As shown in FIG. 9, the division processing unit 204 detects the color histogram of each video frame and detects the portion where the distribution of the histogram changes rapidly as shown in FIG. If the video data is MPEG format data, the sum S of motion vector norms of each video frame is calculated, and a video frame portion in which the norm S changes abruptly is calculated. You may make it detect as a switching part of a scene.
[0044]
Next, an embodiment of a video data processing method according to the third embodiment will be described with reference to FIG.
In FIG. 10, first, when video data as master data is provided from a master content database 4 by a medium such as a CD-ROM, the video data compressed in a predetermined format is supplied from the medium provided by the data reading unit 11. Read (S301).
[0045]
When the reading of the video data is completed, the data expansion processing unit 12 expands the compressed master data and acquires the video data (S302).
[0046]
When the data expansion is completed, the division processing unit 204 detects a video scene switching portion in the video data (S303).
This switching of the video scene may be detected based on the above-described color histogram of the video frame, or may be detected from the sum of the norms of the motion vectors of each video frame.
When the switching of the video scene is detected, the division processing unit 204 divides the video data into a plurality of parts using the detected switching portion as a division point (S304).
[0047]
When the division of the video data is completed, the transmission instructing unit 15 transmits each divided video data to a different transcode PC2 to instruct to compress it in a predetermined format (S305), and ends the process.
[0048]
As described above, according to the third embodiment, since the video data is divided at the switching portion of the video scene in the video data, the image quality unevenness of the video generated when the divided video data is combined. Can be reduced, and high-quality video data can also be obtained on the combined server 3 side.
[0049]
Next, a fourth embodiment according to the present invention will be described.
In the fourth embodiment, when transcoding video data, if the original compressed video data is in MPEG format, the bit rate information (compression rate information) is used.
In this case, the division processing unit 204 of the second embodiment described above acquires bit rate information of each video frame of the original MPEG format video data as shown in FIG. 11 instead of the above-described processing. Then, a portion where the acquired bit rate information has changed is set as a division point, and processing for dividing video data at this division point is performed.
[0050]
Next, a video data processing method according to the fourth embodiment will be described with reference to FIG.
In FIG. 12, first, when video data as master data is provided from a medium such as a CD-ROM from the master content database 4, the video data compressed in the MPEG format is provided from the medium provided by the data reading unit 11. Read (S401).
[0051]
When the reading of the video data is completed, the data decompression processing unit 12 decompresses the master data compressed in the MPEG format (S402).
[0052]
In addition, the division processing unit 204 acquires bit rate information of each video frame of the original MPEG format video data, and detects a point at which the bit rate changes (S403).
When a point at which the bit rate changes is detected, the division processing unit 204 divides the video data into a plurality of divisions using the detected point at which the bit rate changes as a division point (S404).
[0053]
When the division of the video data is completed, the transmission instruction unit 15 transmits each divided video data to a different transcode PC2, and the same bit rate of the original video frame according to the bit rate of each video frame. An instruction is given to compress at the bit rate (S405), and the process ends.
[0054]
In this way, if transcoding is performed according to the bit rate information of the original MPEG data, for example, the bit rate is originally set high in a scene with a large motion, and the bit rate is set low in a scene with a small motion. By following this, it is possible to suppress the unevenness of the image of the video data when the divided video data are combined and to obtain a high-quality video.
[0062]
Next, a sixth embodiment according to the present invention will be described.
In the sixth embodiment, when video data is divided, the video data is divided based on division points arbitrarily set on the scheduling server 1 side, and each transcode PC 2 side that receives the divided video data In this example, the processing of the third embodiment is distributedly processed.
In this embodiment, the division processing unit 204 sets a division point of video data at an arbitrary point in the video data, and performs a process of dividing the video data into a plurality of points at this division point.
[0063]
A video data processing method on the scheduling server 1 side according to the present embodiment will be described with reference to FIG.
In FIG. 15, first, when video data as master data is provided from a master content database 4 by a medium such as a CD-ROM, the video data compressed in a predetermined format from the medium provided by the data reading unit 11. Is read (S601).
When the reading of the video data is completed, the data expansion processing unit 12 expands the compressed video data (S602).
[0064]
When the above processing is completed, the division processing unit 204 sets a division point in the video data based on an arbitrary criterion, and divides the video data based on the set division point (S603).
The division point is set by, for example, the division processing unit 204 in the above-described embodiment. 1 or A division point may be set based on the division method of the fourth embodiment.
[0065]
When the creation of the divided video data is completed, the transmission instructing unit 15 transmits each divided video data to a different transcode PC 2 to instruct to compress the divided video data (S604), and the scheduling server The processing on the 1 side is terminated.
[0066]
Next, processing on the transcode PC 2 side that has received the divided video data transmitted from the scheduling server 1 will be described with reference to FIG.
In FIG. 16, when the transcoded PC 2 receives the divided video data transmitted from the scheduling server 1 (S1601), the transcoded PC 2 detects the video scene switching portion of the divided video data (S1602).
The detection process of the switching part of the video scene can be detected by the same process as in the third embodiment.
[0067]
The transcode PC2 determines whether or not a switching portion of the video scene exists as a result of the detection process (S1603).
If the switching portion exists as a result of the determination, the transcode PC2 extracts the video frame data from the end of the divided video data to the switching portion, and uses this to extract the next or immediately preceding continuous data. Is transferred to the transcode PC2 holding the message (S1604).
At this time, if another transcode PC2 that has received the divided video data in which the transcode PC2 is continuous can be specified, the transcode PC may be specified and data may be transferred.
[0068]
If there is video data transferred from another transcode PC2 in the transcode PC2, it is received (S1605), and the received video data is divided into the divided video data currently held by the transcode PC2. It is determined whether the video data is continuous (S1606).
In this determination process, for example, it may be determined whether or not the video data is continuous by referring to a code of a divided frame added to the divided video data.
[0069]
As a result of the determination, if it is determined that the video data is continuous, the transcode PC2 combines the received video data with the stored video data (S1607).
If it is determined that there is no continuous video data in the combined video data or the processing in S1606, the transcode PC2 performs a compression process on the received video data in a predetermined format (S1608). The video data is provided to the combination server 3 (S1609), and the process is terminated.
[0070]
As described above, according to the above-described sixth embodiment, the processing up to the division point detection processing of the above-described third embodiment can be distributed and processed by a plurality of transcodes PC2, and the transcoding processing can be performed at a higher speed. Can do.
[0071]
In addition, although each embodiment has been described individually, video data division processing may be performed by appropriately combining the processes of the above-described embodiments.
For example, when performing the image data division process of the first embodiment, the division process of any one of the above-described third to sixth embodiments may be applied. In addition, the divided video data processed according to the second embodiment may be processed by applying the process of the fourth or sixth embodiment described above. Further, the divided video data processed by the third embodiment may be processed by applying the processes of the first and fourth embodiments described above. Further, the processing of the first to third or sixth embodiments described above may be applied to the divided video data processed by the fourth embodiment. Further, the divided video data processed by the fifth embodiment may be processed by applying the process of the first embodiment described above.
[0072]
The computer program for the scheduling server 1 of the present embodiment may be distributed by storing it in a computer-readable medium (FD, CD-ROM, etc.), or superimposed on a carrier wave and distributed via a communication network. Is also possible. In addition, when each function of the scheduling server 1 is realized by an OS (Operating System) sharing or jointly between the OS and an application program, only a portion other than the OS can be used as a computer program, and the computer program can be read by a computer It may be stored in a medium, or this computer program may be distributed.
[0073]
【The invention's effect】
According to the present invention, video data division processing can be distributed without degrading image and audio data.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall system configuration of a first embodiment according to the present invention.
FIG. 2 is a diagram showing an example of a conceptual configuration of video data according to the embodiment.
FIG. 3 is a functional block diagram of a scheduling server according to the first embodiment.
FIG. 4 is a diagram showing a processing flow of a scheduling server according to the first embodiment.
FIG. 5 is a diagram conceptually showing video data processing according to the first embodiment.
FIG. 6 is a functional block diagram of a scheduling server according to the second embodiment.
FIG. 7 is a diagram conceptually showing processing when setting division points of video data according to the second embodiment.
FIG. 8 is a diagram showing a processing flow of a scheduling server according to a second embodiment.
FIG. 9 is a diagram conceptually showing processing when setting division points of video data according to a third embodiment.
FIG. 10 is a diagram showing a processing flow of a scheduling server according to a third embodiment.
FIG. 11 is a diagram conceptually showing processing when setting division points of video data according to the fourth embodiment.
FIG. 12 is a diagram showing a processing flow of a scheduling server according to a fourth embodiment.
FIG. 13 is a diagram showing a processing flow of a scheduling server according to a fifth embodiment.
FIG. 14 is a diagram showing a processing flow of the combined server according to the fifth embodiment.
FIG. 15 is a diagram showing a processing flow of a scheduling server according to a sixth embodiment.
FIG. 16 is a diagram showing a processing flow of a transcode PC according to a sixth embodiment.
FIG. 17 is a diagram showing the concept of transcoding processing.
[Explanation of symbols]
1 Scheduling server
2 Transcoded personal computer (PC)
3 Combined server
4 Master content database
13 Voice data processor
14 Division processing part
15 Transmission instruction part
204 Division processing unit

Claims (1)

時間的に連続した映像データを分割する映像分割装置と、この分割装置と通信可能に構成され、分割された映像データを所定のフォーマットで圧縮する複数の圧縮装置により構成されたシステムであって、
上記映像分割装置は、
上記映像データを任意の分割ポイントで複数に分割する分割処理手段と、
上記分割された各映像データを上記圧縮装置に対して送信し、上記複数の圧縮装置に対してデータの圧縮処理を分散処理させる送信指示手段と、を有し、
上記圧縮装置は、
上記映像データを構成する映像フレームの色又は動きベクトルの変化量に基づいて映像シーンの切替わり部分があるか否か判別し、映像シーンの切替わり部分がある場合に、当該切替わり部分で映像データを複数に分割する分割処理手段と、
上記分割された映像データのうちの少なくとも一つを、他の圧縮装置に対して送信する送信処理手段と、
他の圧縮装置から分割映像データを受信した場合は、当該受信した分割映像データのうち、保持している映像データと連続する映像データがあるか否か判別し、連続する映像データがある場合に、上記受信した分割映像データ保持している映像データとを結合させる映像結合処理手段と、
上記保持している映像データ、上記受信した分割映像データ、及び上記映像結合処理手段により結合された映像データを、所定のフォーマットで圧縮する圧縮手段と、
を有することを特徴とする映像データ処理システム。
A video division device that divides temporally continuous video data, and a system that is configured to be communicable with the division device and that includes a plurality of compression devices that compress the divided video data in a predetermined format,
The video dividing device
Division processing means for dividing the video data into a plurality at arbitrary division points;
Transmission instruction means for transmitting each of the divided video data to the compression device and distributing the data compression processing to the plurality of compression devices,
The compression device is
It is determined whether there is a switching part of the video scene based on the color of the video frame constituting the video data or the amount of change of the motion vector, and if there is a switching part of the video scene, the video at the switching part is displayed. Division processing means for dividing the data into a plurality of data;
Transmission processing means for transmitting at least one of the divided video data to another compression device;
When the divided video data is received from another compression device, it is determined whether there is video data that is continuous with the held video data among the received divided video data, and if there is continuous video data , a video combining process means for coupling the video data held between the divided video data thus received,
Video data being the holding, the divided video data thus received, and the image data combined by the image combining process unit, a compressing means for compressing a predetermined format,
A video data processing system comprising:
JP2002322655A 2002-11-06 2002-11-06 Video data processing system Expired - Fee Related JP3969649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002322655A JP3969649B2 (en) 2002-11-06 2002-11-06 Video data processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002322655A JP3969649B2 (en) 2002-11-06 2002-11-06 Video data processing system

Publications (2)

Publication Number Publication Date
JP2004159079A JP2004159079A (en) 2004-06-03
JP3969649B2 true JP3969649B2 (en) 2007-09-05

Family

ID=32802783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002322655A Expired - Fee Related JP3969649B2 (en) 2002-11-06 2002-11-06 Video data processing system

Country Status (1)

Country Link
JP (1) JP3969649B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4795956B2 (en) 2004-08-30 2011-10-19 パナソニック株式会社 Recording apparatus, system, integrated circuit, program, recording method
EP1786205A1 (en) * 2004-08-30 2007-05-16 Matsushita Electric Industrial Co., Ltd. Recorder
JP4654918B2 (en) * 2006-01-12 2011-03-23 株式会社日立製作所 Information processing apparatus and information processing system
WO2007122898A1 (en) * 2006-04-21 2007-11-01 Panasonic Corporation Transcoding apparatus, decoding apparatus and encoding apparatus
JP2008065546A (en) 2006-09-06 2008-03-21 Sony Computer Entertainment Inc Data transfer system, data transfer device, file format conversion device and data transfer method
EP2124454B1 (en) 2007-03-19 2014-11-19 Fujitsu Limited Bit stream converting method, bit stream converting device, bit stream coupling device, bit stream dividing program, bit stream converting program and bit stream coupling program
KR101166085B1 (en) 2010-12-17 2012-07-23 주식회사 픽스트리 diversification transcoding method for video file
JP2014515895A (en) * 2011-03-29 2014-07-03 リリカル ラブス エルエルシー Video encoding system and method
US20150189222A1 (en) * 2013-12-30 2015-07-02 Google Inc. Content-adaptive chunking for distributed transcoding
KR101649961B1 (en) * 2014-12-31 2016-08-22 삼성에스디에스 주식회사 Method and apparatus for processing video data
KR20190059465A (en) * 2017-11-23 2019-05-31 주식회사 에스제이테크놀로지 Method for smart job scaling and distributed transcoding and cloud transcoding farm system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3315766B2 (en) * 1992-09-07 2002-08-19 富士通株式会社 Image data encoding method, image data encoding device using the method, image data restoring method, image data restoring device using the method, scene change detecting method, scene change detecting device using the method, scene change recording Device and image data scene change recording / reproducing device
JPH06181524A (en) * 1992-12-14 1994-06-28 Matsushita Electric Ind Co Ltd Encoded transmission equipment
JPH0984023A (en) * 1995-09-19 1997-03-28 Nippon Telegr & Teleph Corp <Ntt> Intra-frame coding insertion method and video image coder
JP2002199392A (en) * 2000-10-19 2002-07-12 Matsushita Electric Ind Co Ltd Method and device for encoding image

Also Published As

Publication number Publication date
JP2004159079A (en) 2004-06-03

Similar Documents

Publication Publication Date Title
US6483543B1 (en) System and method for transcoding multiple channels of compressed video streams using a self-contained data unit
US6873625B1 (en) Intermediate data based video/audio streaming method
US7069573B1 (en) Personal broadcasting and viewing method of audio and video data using a wide area network
KR100869213B1 (en) Storage medium storing data compression program, data compression method, and data compression device
US8249144B2 (en) Distributed transcoding
JP3628359B2 (en) Data transfer method, data transmission device, data reception device, and video mail system
EP1035735A2 (en) Moving image coding and decoding apparatus optimised for the application of the Real Time Protocol (RTP)
JP3969649B2 (en) Video data processing system
KR100345447B1 (en) Method for management of variable bit rate for streaming service
US20100034257A1 (en) Transcoding Video Data
US20150195625A1 (en) Information processing apparatus, information processing system, recording medium, and method for transmission and reception of moving image data
JPH09139940A (en) Decoder for video delivery system capable of expansion and contraction between terminals
CN109040786B (en) Camera data transmission method, device and system and storage medium
WO2019011133A1 (en) Data transmission method, device, server and storage medium
JP2002540504A (en) Method of file transmission in data communication network
JPH09298749A (en) Moving image distributing method and executing device for the same
KR101754571B1 (en) An apparatus for switching/routing image signals through bandwidth splitting and reduction and the method thereof
KR101729904B1 (en) System for lossless transmission through lossy compression of data and the method thereof
KR101603976B1 (en) Method and apparatus for concatenating video files
KR20050077142A (en) Matp packetizing method for mpeg4 sync layer packet
WO2008028835A2 (en) A method and an apparatus for data streaming
JP4182347B2 (en) Image data communication system and image data communication method
JP2005176068A (en) Motion image distribution system and method therefor
JP2000078558A (en) Video information distribution system, video information distribution method and recording medium
KR20170059504A (en) Method for multimedia contents encoding and transcoding using cloud computing, system and apparatus therefor

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070601

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100615

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110615

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120615

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120615

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130615

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees