JP2007522696A - オーディオとビデオの提示を同期させる方法および装置 - Google Patents

オーディオとビデオの提示を同期させる方法および装置 Download PDF

Info

Publication number
JP2007522696A
JP2007522696A JP2006545947A JP2006545947A JP2007522696A JP 2007522696 A JP2007522696 A JP 2007522696A JP 2006545947 A JP2006545947 A JP 2006545947A JP 2006545947 A JP2006545947 A JP 2006545947A JP 2007522696 A JP2007522696 A JP 2007522696A
Authority
JP
Japan
Prior art keywords
audio
time
processing means
video
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006545947A
Other languages
English (en)
Other versions
JP2007522696A5 (ja
Inventor
シユタインボルン,ペーター
ズイツク,マリオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2007522696A publication Critical patent/JP2007522696A/ja
Publication of JP2007522696A5 publication Critical patent/JP2007522696A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4344Remultiplexing of multiplex streams, e.g. by modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

ビデオ・データとオーディオ・データがそれぞれ、2台の非同期コンピュータで処理される、オーディオ・データとビデオ・データの提示または再生の同期化が記述される。MPEG型のストリームはビデオ・データとオーディオ・データに分離される。ビデオ・データは第1の処理手段を利用して処理され、オーディオ・データはタイムスタンプされて第2の処理手段に送信される。第2の処理手段は受信したタイムスタンプをローカル・タイムと比較する。第1の処理手段から第2の処理手段にオーディオ・データ・パケットを送信する送信時間が、ローカル・システム・タイムに基づいて計算され、タイムスタンプがオーディオ・データ・パケットの中に挿入される。その後、同期されたオーディオとビデオの提示/再生が実行される。

Description

本発明は、非同期の処理手段を使用するビデオ(映像)とオーディオ(音声)ストリームの同期化された提示または再生に関する。
MEPG‐4は、音声と映像データの圧縮のために Motion Picture Experts Group(MPEG)により開発された国際的規格であり、MPEGは、ほかにも幾つかMPEG型の規格(例えば、MPEG‐1およびMPEG‐2)を開発している。符号化され/圧縮されたデータはオブジェクト・データとして扱われ、ビデオ・データとオーディオ・データは単一のストリームに合成される。MPEG‐4方式はデータをオブジェクト・データとして処理するよう構成(コンフィギュア)されるので、受信したビットストリームを複数の個別のデータ・パケットに分離し再編成することは容易である。MPEG‐4プレーヤは、オーディオ/ビデオ・データをコンピュータまたは他の装置で再生させることができる。
MPEG規格に関連するビデオ符号化で高解像度の画像が得られるが、MPEG型のビデオ・データの符号化と復号化には1個または複数個の強力な専用プロセッサ(例えば、ディジタル信号プロセッサ)を要する。MPEG型のストリーム全体を1台のコンピュータのみで処理すると、そのコンピュータの汎用CPU(中央処理装置)の計算リソースがほとんどすべて使い果たされ、事実上、他の目的に使用できなくなる。従って、リモート・コンピュータ(または装置)のネットワークを使用し、ビデオ・ストリームを1台のコンピュータ(または装置)で処理し、第2のコンピュータで処理すべきオーディオ・データを送信すれば、映像と音声の処理に標準のコンピュータを利用でき、MPEG型のデータを処理するのにきわめて望ましい。従って、映像と音声データの提供または提示に2台の処理手段/コンピュータを使用することが望ましい。この場合、映像と音声ストリームは提示または再生のために同期させる必要がある。
(発明の概要)
本発明が解決すべき問題は、基本的に互いに動作が非同期の別個の装置を使用して映像と音声の提示または再生を同期させることである。この問題はクレーム1に開示する方法で解決され、この方法を利用する装置はクレーム8に開示される。本発明の有利な付加的実施例はそれぞれの従属クレームに開示される。
以下に記述する発明的特徴は2つの処理手段(コンピュータ)を利用し、オーディオ・データとそれに対応するビデオ・データの提示または再生を同期させる。ビデオとオーディオのストリームから成るデータ・ストリームは第1の処理手段で受信され、受信されたデータ・ストリームはビデオとオーディオのストリームに分離され、オーディオ・ストリームのオーディオ・データ・パケットは、第1の処理手段によってタイムスタンプ(timestamp)される。次に、オーディオ・データ・パケットは第2の処理手段に送られ、第2の処理手段のローカル・システム・タイムが確定され、第1の処理手段から第2の処理手段に音声データ・パケットを送信する時間(期間)が、ローカル・システム・タイム(local system time)と音声データ・パケットのタイムスタンプに基づいて計算される。その後、送信時間(期間)に基づいて、同期化された音声と映像の提供/提示が実行される。有利なことに、提供のプロセスは、送信時間を低域フィルタすることにより達成され、それにより得られる平均送信時間は、映像と音声の提示または再生の同期化に使用される。測定結果を得るために、測定された送信時間を低域フィルタするために、メジアン・フィルタ(median filter)も使用できる。
本発明では、上述した従来技術による問題を解決し、スタートアップ(始動)における素早い応答が可能な方法を提供し、処理の間、高度の安定性が得られる。メジアン・フィルタは大きな測定誤差にあまり動かされない。
MPEG型のストリームはビデオ・データとオーディオ・データに分離され、ビデオ・データは第1の装置(PC_A)で処理され、オーディオ・データはタイムスタンプされて、第2の装置(PC_B)に送られ、PC_Bは受信したタイムスタンプをローカル・タイム(現地時間)と比較する。この時間差は、必要とされる送信時間とみなされる。第1の処理装置と第2の処理装置の内部タイム・クロックは同期していない。
ビデオとオーディオのストリームを同期させるためのタイム・レファレンスは、第2の処理装置PC_Bのローカル・タイムから、平均送信時間を差し引くことにより、得られる。その後、除去する必要のある高周波の動き(ジッタ)よりも低いカットオフ周波数を有するButterworthフィルタのような、ディジタル・フィルタにより、低域フィルタリング(filtering)を追加的に実行できる。
図1に、本発明による、マルチメディア・コンピュータ・ネットワークの全体的構成を示す。MPEG‐4プレーヤ100は、ビデオ・プレーヤ108を含む第1の処理手段PC_A104にMPEG‐4データ・ストリーム102を送信する。受信されたMPEG型のストリームは、システム、ビデオおよびオーディオのストリームから成り、このストリームは更に、ビデオ・データ・パケット116とオーディオ・データ・パケット134を含んでいる。
システムのストリームにはビデオとオーディオのプレーヤの構造と構成も含むので、ストリーム分析モジュール110は、これらのストリームを検査する。第1のコンピュータPC_A104は、MPEG‐4ビデオ・ストリームから獲得されるビデオ・データを処理し、それを付属のモニタに表示する。タイムスタンピング・モジュール112はローカル・タイム・クロック106を点検し、タイムスタンプをオーディオ・データ・パケットの中に挿入する。Ethernet(登録商標)型のネットワーク118(TCP/IP)は、第1の処理手段104を第2の処理手段120(第2のコンピュータPC_B)と接続し、第2のコンピュータPC_Bは、オーディオ・プレーヤ126を使用して、第1のコンピュータPC_Aから受信されたオーディオ・データ・パケットを処理する。第1のコンピュータ104のタイム・ベース114と第2のコンピュータ120のタイム・ベース132は互いに同期しておらず、互いにドリフトする(離れる)傾向がある。第2のコンピュータまたはネットワークまたは第1のコンピュータはローカル・タイム・クロック122を点検して、受信したタイムスタンプ124をタイム・クロック122のローカル・タイムと比較する。第2のコンピュータまたはネットワークまたは第1のコンピュータは対応する送信時間を計算する。
メジアン・フィルタ128を使用し、送信時間を低域フィルタして平均送信時間が得られる。平均送信時間は、提供される音声と映像の同期化に使用される。最終結果を改善するため、Butterworthフィルタ130で低域フィルタリングを追加的に行う。
MPEG‐4プレーヤ100は、MPEG‐4のデータ・ストリームを第1の処理手段PC_Aに送り、第1の処理手段PC_Aはビデオ・データを処理し、具体化され且つタイムスタンプされたオーディオ・データ・パケットを、ネットワークを通して第2のコンピュータPC_Bに送る。オーディオ・データ・パケットとその構成を第1のコンピュータから受信後に、第2のコンピュータPC_Bは受信したタイムスタンプをローカル・タイムと比較する。その時間差は送信時間とみなされる。
ビデオ処理コンピュータ104のタイム・ベースはオーディオ処理コンピュータ120のタイム・ベースと同期していない。また、第1と第2のコンピュータの内部タイム・クロックは同期しておらず、互いにゆっくりドリフト(離反)する。従って、実際の送信時間は正確に特定できないので、第2のコンピュータが受信したタイムスタンプは、その値が変更されるものと考えられる。これには理由が幾つかある。例えば、ネットワーク・ライン上でのトラフィック、TCP/IPとEthernet(登録商標)の構成、オペレーティング・システムのスレッド処理(thread processing)、変動するデータ量などである。オーディオ・データとビデオ・データの提示または再生を同期させるために、パケットの送信と受信の時間差が計算される。次に、この時間差はメジアン・フィルタでフィルタ(濾波)される。
メジアン・フィルタは、時刻離散的(time‐discrete)、非線形フィルタであって、獲得されたサンプルを貯え、区分けし、その出力として中間サンプル(偶数の入力値の場合、2つの中間サンプルの平均)を供給する。本発明に使用するメジアン・フィルタは、それが処理する入力サンプルの数に関し非常に柔軟性がある。最初にすべてのサンプル値がゼロに設定される。予め定められる最初の数(例えば、19)のサンプルを集めた後に、メジアン・フィルタは平均の送信時間を出力し始め、それによって、メジアン・フィルタの長さは前記最初の数に対応する。オプションとして、更なる入力サンプルを受信すると、使用されるフィルタの長さは、受信される追加的入力サンプルごとに1ずつ増加され、予め定められた最大長(例えば、499)に達するまで、増加される。それにより、スタートアップにおける素早い反応時間と安定した連続的オペレーション(動作)を達成できる。その後、除去する必要のある高周波の動き(ジッタ)よりも低いカットオフ周波数を有するButterworthフィルタのようなディジタル・フィルタにより、追加的な低域フィルタリングが実行される。この種のオペレーションにより、ビデオとオーディオの提示を時間に関して同期させることができ、従って、2台のコンピュータのタイム・ベースの不連続性を排除できる。
図2のフローチャートのステップ200で、ビデオとオーディオのストリームから成るMPEG型のストリームが第1の処理手段PC_Aで受信される。次のステップ202で前記MPEG型データ・ストリームはビデオとオーディオのストリームに分離される。ビデオ・プレーヤを含む第1の処理コンピュータPC_Aはビデオ・ストリームを処理し、オーディオ・プレーヤを含む第2の処理コンピュータPC_Bはオーディオ・ストリームを処理する。その後、ステップ204で、オーディオ・データ・パケットはビデオ処理コンピュータPC_Aによりタイムスタンプされ、このオーディオ・データ・パケットは、ビデオ処理コンピュータPC_Aからオーディオ・データを受信するオーディオ処理コンピュータPC_Bに送られる。次のステップ206で、オーディオ処理コンピュータのローカル・システム・タイムが決定される。次にステップ208で、第1の処理手段から第2の処理手段にオーディオ・ストリームを送信する時間が計算される。最後のステップ210で、計算された送信時間に基づいて、オーディオとビデオの提示/再生の同期化が行われる。
オーディオ・データとそれに対応するビデオ・データの提示/再生を同期させる代りに、ビデオ・データとそれに対応するオーディオ・データの提示/再生を行うことができる。このような場合、ビデオ・ストリームのビデオ・データ・パケットは第1の処理手段によりタイムスタンプされ、ビデオ・データ・パケットは、オーディオ・データ・パケットを受信する第2の処理手段に送られる。対応するローカル・システム・タイムおよびビデオ・データ・パケットのタイムスタンプに基づいて、第1の処理手段から第2の処理手段にビデオ・データ・パケットを送信する時間(期間)が計算される。
オーディオとビデオの提示/再生を実行するよう構成される第1と第2の処理手段から成るネットワークをブロック図で示す。 発明的プロセスのフローチャート

Claims (10)

  1. オーディオとビデオの提示または再生を行う方法であって、
    ビデオとオーディオのストリームを含むデータ・ストリームを受信するステップと、
    前記データ・ストリームをビデオとオーディオのストリームに分離するステップと、
    前記オーディオ・ストリームのオーディオ・データ・パケットを第1の処理手段によってタイムスタンプし、オーディオ・データ・パケットを、オーディオ・データ・パケットを受信するよう構成される第2の処理手段に送信するステップと、
    前記第2の処理手段のローカル・システム・タイムを決定するステップと、
    前記ローカル・システム・タイムとオーディオ・データ・パケットの前記タイムスタンプに基づいて、前記第1の処理手段から前記第2の処理手段にオーディオ・データ・パケットを送信する時間を計算する手段と、
    前記計算された送信時間に基づいて、オーディオとビデオの提示または再生を同期させるステップと、から成る前記方法。
  2. 第1の処理手段の内部タイム・クロックを使用し、第1の処理手段によるオーディオ・データ・パケットのタイムスタンピングが実行される、請求項1記載の方法。
  3. 第2の処理手段のローカル・タイムから送信時間を差し引くことにより、オーディオ・提示/再生のタイム・レファレンスが得られる、請求項1または2記載の方法。
  4. 送信時間の計算が、第1の処理手段から第2の処理手段に送られる複数のオーディオ・データ・パケットに基づく、請求項1〜3の何れか1つに記載の方法。
  5. 平均の送信時間を得るために、計算された送信時間はメジアン・フィルタされ、オプションとして、前記メジアン・フィルタリングの長さは、ダイナミックに変更されて、第1の所定数の入力送信時間値からスタートし、所定の最大数の入力送信時間値に達するまで、更に受信される送信時間値の数に応じて増加する、請求項1〜4の何れか1つに記載の方法。
  6. 前記平均の送信時間が、オーディオとビデオの提示または再生を同期させるために使用される、請求項5記載の方法。
  7. 蓄積された送信時間値が前記フィルタリングのために区分けされる、請求項5または6記載の方法。
  8. オーディオとビデオの提示または再生を行うシステムであって、
    ビデオとオーディオのストリームを含むデータ・ストリームを受信する手段と、
    前記データ・ストリームをビデオとオーディオのストリームに分離する手段と、
    前記オーディオ・ストリームのオーディオ・データ・パケットを第1の処理手段によりタイムスタンプし、且つオーディオ・データ・パケットを、オーティオ・データ・パケットを受信するよう構成される第2の処理手段に送る手段と、
    第2の処理手段のローカル・システム・タイムを決定する手段と、
    ローカル・システム・タイムおよびオーディオ・データ・パケットの前記タイムスタンプに基づいて、第1の処理手段から第2の処理手段にオーディオ・データ・パケットを送信するための時間を計算する手段と、
    前記計算された送信時間に基づいて、オーディオとビデオの提示または再生を同期させる手段と、から成る、前記システム。
  9. 平均送信時間を得るために、前記計算された送信時間がメジアン・フィルタされ、オプションとして、メジアン・フィルタの長さは、ダイナミックに変更されて、最初の所定数の入力送信時間値からスタートし、所定の最大数の入力送信時間値に達するまで、更に受信される送信時間値の数に応じて増加する、請求項8記載のシステム。
  10. コンピュータで読出し可能な蓄積メディアの保持コードであって、
    ビデオとオーディオのストリームを含むデータ・ストリームを受信するステップと、
    前記データ・ストリームをビデオとオーディオのストリームに分離するステップと、
    前記オーディオ・ストリームのオーディオ・データ・パケットを第1の処理手段によりタイムスタンプし、オーディオ・データ・パケットを受信するよう構成される第2の処理手段にオーディオ・データ・パケットを送るステップと、
    第2の処理手段のローカル・システム・タイムを決定するステップと、
    ローカル・システム・タイムおよびオーディオ・データ・パケットの前記タイムスタンプに基づいて、第1の処理手段から第2の処理手段にオーディオ・データ・パケットを送信する時間を計算するステップと、
    前記計算された送信時間に基づいて、オーディオとビデオの提示または再生を同期させるステップと、を実行するための前記蓄積メディア保持コード。
JP2006545947A 2004-01-06 2004-11-22 オーディオとビデオの提示を同期させる方法および装置 Pending JP2007522696A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04090001A EP1553784A1 (en) 2004-01-06 2004-01-06 Method and apparatus for performing synchronised audio and video presentation
PCT/EP2004/013243 WO2005069635A1 (en) 2004-01-06 2004-11-22 Method and apparatus for performing synchronised audio and video presentation

Publications (2)

Publication Number Publication Date
JP2007522696A true JP2007522696A (ja) 2007-08-09
JP2007522696A5 JP2007522696A5 (ja) 2008-01-17

Family

ID=34585985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006545947A Pending JP2007522696A (ja) 2004-01-06 2004-11-22 オーディオとビデオの提示を同期させる方法および装置

Country Status (6)

Country Link
US (1) US8005337B2 (ja)
EP (3) EP1553784A1 (ja)
JP (1) JP2007522696A (ja)
KR (1) KR101093350B1 (ja)
CN (1) CN100499820C (ja)
WO (1) WO2005069635A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1553784A1 (en) * 2004-01-06 2005-07-13 Deutsche Thomson-Brandt Gmbh Method and apparatus for performing synchronised audio and video presentation
CN101137066B (zh) * 2007-05-11 2011-01-05 中兴通讯股份有限公司 一种多媒体数据流同步控制的方法及装置
US8381086B2 (en) 2007-09-18 2013-02-19 Microsoft Corporation Synchronizing slide show events with audio
EP2043323A1 (en) * 2007-09-28 2009-04-01 THOMSON Licensing Communication device able to synchronise the received stream with that sent to another device
US8639830B2 (en) * 2008-07-22 2014-01-28 Control4 Corporation System and method for streaming audio
US9400555B2 (en) 2008-10-10 2016-07-26 Internet Services, Llc System and method for synchronization of haptic data and media data
GB0921668D0 (en) * 2009-12-10 2010-01-27 Vocality Internat Ltd Media over IP perfomance enhancement
JP5483081B2 (ja) * 2010-01-06 2014-05-07 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
US9179118B2 (en) 2011-05-12 2015-11-03 Intel Corporation Techniques for synchronization of audio and video
CA2890399A1 (en) * 2012-10-01 2014-04-10 Internet Services, Llc System and method for synchronization of haptic data and media data
TWI602437B (zh) * 2015-01-12 2017-10-11 仁寶電腦工業股份有限公司 視訊與音訊處理裝置及其視訊會議系統
EP3396964B1 (en) 2017-04-25 2020-07-22 Accenture Global Solutions Ltd Dynamic content placement in a still image or a video
EP3528196A1 (en) * 2018-02-16 2019-08-21 Accenture Global Solutions Limited Dynamic content generation
CN109257642A (zh) * 2018-10-12 2019-01-22 Oppo广东移动通信有限公司 视频资源播放方法、装置、电子设备以及存储介质
KR102251148B1 (ko) * 2020-05-06 2021-05-12 (주)유브릿지 오디오-비디오 동기화 처리 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1093482A (ja) * 1996-09-11 1998-04-10 Oki Electric Ind Co Ltd エコーキャンセラ
US20020118679A1 (en) * 2001-02-27 2002-08-29 Eyer Mark Kenneth Efficient transport of program clock reference for audio services delivered on an MPEG-2 transport stream
JP2003018600A (ja) * 2001-07-04 2003-01-17 Hitachi Ltd 画像復号装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6236694B1 (en) * 1994-08-19 2001-05-22 Thomson Licensing S.A. Bus and interface system for consumer digital equipment
JP3173418B2 (ja) * 1997-04-18 2001-06-04 日本電気株式会社 ストリーム再生制御方式及びプログラムを記録した機械読み取り可能な記録媒体
FI108489B (fi) * 1999-12-30 2002-01-31 Nokia Corp Synkronointi pakettivõlitteisessõ tietoliikennejõrjestelmõssõ
US7281061B2 (en) * 2000-12-06 2007-10-09 Matsushita Electric Industrial Co., Ltd. Time managing apparatus for managing time to synchronize with other apparatuses
US7035246B2 (en) * 2001-03-13 2006-04-25 Pulse-Link, Inc. Maintaining a global time reference among a group of networked devices
DE10146887B4 (de) * 2001-09-24 2007-05-03 Steinberg Media Technologies Gmbh Vorrichtung und Verfahren zur Synchronisation von digitalen Datenströmen
AU2002340690A1 (en) * 2001-11-28 2003-06-10 Bridgeco Ag Method for synchronization in networks
JP3984053B2 (ja) * 2002-01-09 2007-09-26 富士通株式会社 ホームエージェント
EP1553784A1 (en) * 2004-01-06 2005-07-13 Deutsche Thomson-Brandt Gmbh Method and apparatus for performing synchronised audio and video presentation
TWI343713B (en) * 2006-11-24 2011-06-11 Realtek Semiconductor Corp Signal processing circuit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1093482A (ja) * 1996-09-11 1998-04-10 Oki Electric Ind Co Ltd エコーキャンセラ
US20020118679A1 (en) * 2001-02-27 2002-08-29 Eyer Mark Kenneth Efficient transport of program clock reference for audio services delivered on an MPEG-2 transport stream
JP2003018600A (ja) * 2001-07-04 2003-01-17 Hitachi Ltd 画像復号装置

Also Published As

Publication number Publication date
KR101093350B1 (ko) 2011-12-14
US8005337B2 (en) 2011-08-23
WO2005069635A1 (en) 2005-07-28
CN100499820C (zh) 2009-06-10
US20070162952A1 (en) 2007-07-12
EP1702474A1 (en) 2006-09-20
CN1902941A (zh) 2007-01-24
EP1553784A1 (en) 2005-07-13
KR20060127020A (ko) 2006-12-11
EP1553785A1 (en) 2005-07-13

Similar Documents

Publication Publication Date Title
KR100943811B1 (ko) 오디오/비디오 동기화 테스트 방법
JP2007522696A (ja) オーディオとビデオの提示を同期させる方法および装置
CA3078998C (en) Embedded appliance for multimedia capture
WO2005004470A1 (en) Method and apparatus for testing lip-sync of digital television receiver
WO2013185517A1 (zh) 一种音视频编码同步方法和***
CN102215320A (zh) 发送设备、接收设备、控制方法和通信***
CN102752669A (zh) 多通道实时流媒体文件的传送处理方法与***、接收装置
TW201528793A (zh) 同步影音碼流的解碼器與解碼方法
WO2015115171A1 (ja) 送信装置、送信方法、受信装置および受信方法
Yang et al. Time Stamp Synchronization in Video Systems
JP2005057590A (ja) デコード表示装置、撮像装置及びそれらを備えた画像伝送システム
JP3906712B2 (ja) データストリーム処理装置
CN114697712B (zh) 一种媒体流的下载方法、装置、设备及存储介质
EP3503563A1 (en) Computer system and method for synchronous data transmission of multiple data streams
JP2004221900A (ja) 画像情報復号装置及び画像情報復号方法
CN110545447B (zh) 一种音视频同步的方法及装置
CN116489342B (zh) 确定编码延时的方法、装置、及电子设备、存储介质
CN101489122B (zh) 实现传输流时间映射的方法、装置及***
WO2010069375A1 (en) Method and apparatus for measuring audiovisual synchronisation
CN114666638B (zh) 音视频数据同步方法、装置、设备及存储介质
JP5741064B2 (ja) 映像音声処理装置および映像音声処理方法
JPH09284732A (ja) 音声・映像データ生成装置およびその方法
Azimi et al. Implementation of MPEG system target decoder
KR0138123B1 (ko) 엠피이지-2(mpeg-2) 시스템에서 타임 스템프를 코팅하는 장치
JPH1051769A (ja) 同期データ生成装置およびその方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071120

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20080318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090206

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110318